Die wahrlich nicht allzu eingängige Wortschöpfung des Lieferkettensorgfaltspflichtengesetzes stellt Unternehmen vor weitaus größere Probleme als jene der vollständigen Wiedergabe des Ausdrucks. Die Novelle des Gesetzes und vor allem die Verschiebung von einer freiwilligen Selbstverpflichtung der Unternehmen hin zu einer verbindlichen Norm nehmen sich gerade für mittlere und größere Unternehmen als eine immense Herausforderung aus. Kurz gefasst verlangt das Gesetz nunmehr von den Unternehmen, die Einhaltung bestimmter ökologischer und menschenrechtlicher Standards ihrer unmittelbaren Zulieferbetriebe sicherzustellen. Somit müssen Unternehmen, die aus dem Ausland Materialien oder Waren beziehen, für die Produktionsverfahren und Arbeitsbedingungen ihrer Zulieferer Verantwortung übernehmen. Komplexe Beschaffungsstrukturen mit einem Vielerlei zerstreuter Lieferanten machen die Einhaltung dieser rechtlichen Vorgaben nicht eben leicht.
Professor Michael Dornieden, der an der Fakultät Wirtschaftswissenschaften die Professur für allgemeine Betriebswirtschaftslehre mit den Schwerpunkten Beschaffung und Produktion innehat, ging den Auswirkungen der Gesetzesnovelle im Rahmen seines Praxissemesters nach. Weil sich die Gesetzesnovelle für die Unternehmen lange Zeit als eine Art black box unbekannten Inhalts ausnahm, war an dieser Stelle eine wissenschaftliche Begleitung ebenso sinnvoll wie konstruktiv. Welche Effekte die Anforderungen auf ein mittelständisches, gleichwohl international tätiges Unternehmen und seine Beschaffungsstrukturen zeitigt, konnte Professor Dornieden im Rahmen seiner Mitarbeit im Unternehmen Ottobock SE & Co. KGaA nachgehen. Als ein sogenannter hidden champion im Bereich des health tech ist dieses Unternehmen mit seinen fast 9000 Beschäftigten ein Weltmarktführer dezidiert im Bereich Prothetik. Aber auch auf anderen Feldern der Orthopädietechnik wird dem Unternehmen Expertise zuerkannt, so bei individuell-zugeschnittenen Rollstühlen oder auch Exoskeletten.
Neben der Spezialisierung der Produkte weist das Unternehmen im Bereich der Beschaffung einen hohen Grad der Diversifizierung und ein heterogenes Portfolio auf, was die Übersicht und Kontrolle der Lieferketten zumindest nicht erleichtert. Um also die Folgen der Gesetzesnovelle abzusehen galt es für Professor Dornrieden zunächst, den Status quo zu analysieren. Welche Lieferketten bestehen, wie viele Lieferanten gibt es, welche Art von Verträgen mit welchen Konditionen (zum Beispiel in Hinsicht der Einhaltung von Standards) liegen mit den Partnern vor usw.? Anhand dieser Prüfung konnte dann im nächsten eine Konsolidierung der Lieferstrukturen konzipiert werden, die zugleich den Ansprüchen der Sorgfaltspflicht entgegenkam. Eine Möglichkeit der Optimierung besteht darin, die Zerstreuung der Lieferanten zu reduzieren und die Beschaffungswege wo möglich zu bündeln. Weil durch die Harmonisierung weniger Elemente innerhalb der Beschaffung zu berücksichtigen sind, sollte die Kontrolle der Einhaltung der Nachhaltigkeitskriterien leichter fallen. Daneben wäre ein anderer Ansatz, Verträge mit den Lieferanten anhand der rechtlichen Vorgaben auszurichten und die Kriterien somit verbindlich zu setzen. Diese Integration ist allerdings nur mittel- bzw. langfristig möglich.
Die Möglichkeit, die Folgen von Veränderungen rechtlicher Rahmenbedingungen direkt in betroffenen Unternehmen zu studieren und diesen im Umgang mit den entstehenden Herausforderungen zu unterstützen, bot Professor Dornieden eine gewinnbringende Erfahrung direkter Mitwirkung.
In den letzten Jahren konnten wir vermehrt ebenso trockene wie heiße Sommermonate erleben, in denen sich unsere Innenstädte zum Teil stark erwärmten. Gerade stark bebaute, versiegelte Stadtteile wiesen signifikant erhöhte Temperaturen auf und machten offenkundig, wie nützlich Grünflächen, Bäume und Wasserläufe für die Abkühlung urbaner Areale sind.
Nicht nur unterscheiden sich die klimatischen Bedingungen von Städten und ländlichen Gebieten, auch zwischen den Zentren und den Randzonen der Städte selbst treten Abweichungen auf. Zwar bestehen diese Temperaturunterschiede ganzjährig, im Sommer zeitigen sie jedoch spürbarere Effekte: So nahm die Zahl an Tropennächten, in denen die Temperatur nicht unter 20 Grad Celsius fällt, in stark verdichteten Innenstädten in der jüngsten Vergangenheit zu. Bis zu dreimal häufiger tritt dieses Phänomen mittlerweile auf. Die Hitze wird dabei von den versiegelten Flächen gespeichert und langsamer abgegeben als in begrünten und beschatteten Bereichen. Dieses Phänomen wird als urbaner Hitzeinseleffekt (UHI-Effekt) bezeichnet und wird uns als Folge des Klimawandels bereits in naher Zukunft noch häufiger betreffen.
Die Randlagen der Städte neigen demgemäß deutlich weniger zur Hitzebildung und -konservierung. Diese Abweichungen werden von den üblichen Instrumenten zur Ermittlung der Temperatur nur ungenügend erfasst, findet die Messung doch zumeist zentral an einem Ort statt und deckt so nicht den ganzen Stadtraum ab. Eine Bürgerinitiative in Bamberg nahm die Unterschiede zwischen der statistischen und der wahrgenommenen Temperatur zum Anlass für eine experimentelle Messung: An verschiedenen Stellen der Stadt wurden die Temperaturen über einen Tag stündlich abgetragen und verglichen, wobei sich Abweichungen von bis zu sieben Grad Celsius ergaben. Das Phänomen unterschiedlicher Wärmeentwicklung und die weitgehenden Effekte auf die Menschen vor Augen, lässt sich fragen, ob es nicht andere Möglichkeiten gibt, an meteorologische Daten zu kommen, die ein umfassenderes und detailliertes Bild zeichnen.
Was ist Crowdsourcing?
Eine Möglichkeit besteht darin, die Quellen der Daten zu erhöhen und damit zugleich eine erweiterte räumliche Abdeckung zu erreichen. In den letzten Jahren hat sich die Anzahl an Sensoren, die uns in unserem Alltag begleiten, massiv erhöht. Dies reicht von den offensichtlichen Smartphones, in denen selbst verschiedene Sensoren Platz finden, bis hin zu sensorischen Anlagen in Autos und smarten Geräten wie Fitnessarmbändern und Ähnlichem. Nicht zuletzt haben sich durch die Verbreitung und Verfügbarkeit leistungsfähiger Sensoren die Preise für hochwertige, vernetzte Wetterstationen für die private Nutzung stark vergünstigt.
Durch diese Sensoren wird unsere Welt beständig vermessen und zugleich ein umfassender Pool an Informationen gesammelt. Neben den mittlerweile üblichen Kameras und Mikrofonen sind in diesen Geräten auch Sensoren verbaut, die meteorologische Daten erheben können. Über eine Verkopplung mit ebenfalls verfügbaren GPS Koordinaten ließe sich so eine Vielzahl an Wetterdaten und Metadaten erzeugen. Eine andere Möglichkeit, um die Datenlage zu erweitern, bietet sich im Rückgriff auf private Wetterstationen, die zugleich mit dem Internet verbunden sind. Auch über sie kann die Quellensituation immens erweitert werden. Gerade weil im letzten Jahrzehnt die Verfügbarkeit und Bedienbarkeit von Instrumenten der Umweltbeobachtung leichter wurde, können sich nunmehr auch Laien an der Gewinnung und Auswertung von Daten beteiligen. Zugleich sind diese Daten durch die Netzwerkwerkfähigkeit der Geräte und die weiter reichende Abdeckung mit dem Internet universell und in Echtzeit abrufbar. Nicht zuletzt erlaubt die moderne Datenverarbeitung eine effiziente Datenselektion und die Übermittlung von Metadaten über den Standort, die Aufstellung und den Sensortyp, die für die Einschätzung der Messwerte relevant sind.
Just dieser Vorgang lässt sich als Crowdsourcing fassen, also der Vervielfältigung der Quellen von Datenmaterial außerhalb der Standardmessnetze. Zugleich besteht die Herausforderung in der Nutzung dieser Quellen darin, die Qualität der Daten und damit die Validität der Messungen gewährleisten zu können. Welche Instrumente eignen sich unter welchen Umständen für die Ermittlung von welchen Daten, wie lassen sich Messfehler vermeiden? Oder anders: Was sind die Bedingungen und Möglichkeiten der Nutzung von Crowdsourcing zur Gewinnung von atmosphärischen Messdaten? Und: Wie lassen sich Fehler in der Messung vermeiden und wie können Programme fehlerhafte oder unsichere Daten aussortieren? Genau diesen Fragen geht einer Gruppe von Forschenden in einem Beitrag für die Fachzeitschrift „Gefahrstoffe. Reinhaltung der Luft“ nach, an dessen Erstellung sich auch Prof. Roy Knechtel von der Fakultät für Elektrotechnik an der Hochschule Schmalkalden beteiligte, der an dieserHochsule für angewandte Wissenschaft die Professur fur autonome, intelligente Sensoren innehat. Dabei dient der Artikel auch der Vorbereitung einer entsprechenden VDI-Richtlinie, in die Fragen der Sensortechnik, der Sicherung der Datenqualität und die Möglichkeiten der Datenverarbeitung aufgegriffen werden sollen.
Was sind die Bedingungen für die Messung von Sensoren?
Die Anhebung der Quantität heißt nicht automatisch, dass sich auch die Qualität der Daten erhöht. Für die verschiedenen Aufgaben der Ermittlung von Temperatur, Luftdruck und Luftfeuchte braucht es unterschiedliche, spezifische Sensoren und angepasste technische Lösungen. Die Herausforderungen der Umsetzung sind neben der erforderlichen Qualität der Detektion auch Variablen der Effizienz, also unter anderem der Energieverbrauch, und die Komplexität der Integration.
Die hohen Anforderungen an Messeinrichtungen und Sensoren stellen wiederum Ingenieure speziell der Elektrotechnik vor Herausforderungen: Welche Charakteristika müssen die Sensoren und die sie fassenden Bauteile aufweisen, damit die Funktionalität gewahrt bleibt und zugleich die meteorologischen Daten verlässlich erhoben werden können? Um nur ein Dilemma zu nennen, das abgewogen werden muss: Einerseits müssen die Instrumente von ihrer Umwelt getrennt werden, andererseits müssen sie einen möglichst direkten und unverstellten Zugang zum Messobjekt haben.
Nicht alle Geräte, in denen Sensoren verbaut sind, eignen sich in gleicher Weise: Smartphones, die eine hohe Verbreitung aufweisen, haben über ihre Sensoren keinen direkten Kontakt zur der sie umgebenden Luft und werden zudem eng am Körper getragen. Im momentanen Stand der Technik eignen sie sich folglich nicht zur Bestimmung der Temperatur. Dagegen sind die in privaten Smart Homes verbauten Instrumente zumindest teilweise für die Messung geeignet. Ab davon bietet sich im Rückgriff auf privat genutzte Wetterstationen die Möglichkeit, auf einen großen und weit verteilten Datenpool zurückgreifen zu können.
Smarte Sensoren und ihre Herausforderungen
Als Smart-Sensoren werden Sensoren bezeichnet, die über die Messgrößenerfassung hinaus auch die Signalaufbereitung und -verarbeitung in einem Objekt vereinigen, die anders gesagt „eine funktionelle und konstruktive Einheit eines oder mehrerer Sensorelemente und einer geeigneten Elektronik“ (VDI Gefahrstoffe 82 (2023), Nr. 07-08, S. 212) bilden. Die meteorologischen Messelemente zum Zwecke der Ermittlung von Temperatur, Feuchte, Luftdruck und Strahlung konnten erst in den letzten Jahrzehnten auf den Chips integriert werden. Nicht nur konnte die disponible Anzahl der Sensoren vergrößert und gleichzeitig ihre Kosten reduziert werden, auch ihre Qualität der Messtechnischen Eigenschaften konnte sichergestellt werden.
Als Beispiel soll hier nur die Sensortechnik Erwähnung finden, die zum Messen der Temperatur dient. Auch wenn es möglich ist, eigene Sensoren einzubauen, die die Lufttemperatur über Messwiderstände ermitteln und letztlich nahe an der klassischen Messung über Widerstandsthermometer bleiben, ist eine andere Lösung weitaus effizienter, greift diese doch auf schon vorhandene, thermosensible Elemente in integrierten Schaltkreisen zurück. Grob vereinfacht wird hierbei auf den Abstand zwischen Leitungs- und Valenzband des Siliziums zurückgegriffen, der sich mit der Temperatur verändert. So vermindert sich der Aufwand ohne dass die Qualität der Messung Einbußen erführe. Speziell die Ermittlung der Temperatur hat aber ihre Tücken: Weder darf die Messeinheit direkt dem Sonnenlicht ausgesetzt sein noch zu nahe an die Wärme reflektierenden oder absorbierenden Strukturen wie Wänden. Auch müssen die Messgeräte den Stau von Wärme vermeiden und für eine beständige Belüftung sorgen. Eine valide Messung der Temperatur muss all diese Faktoren beachten.
Neben der Luftfeuchte und dem Luftdruck lässt sich auch die Sonneneinstrahlung und die Konzentration verschiedener Gase ermitteln. Des Weiteren können auch die Richtung und die Stärke des Windes gemessen werden, die Menge des Niederschlags sowie die Bodenfeuchte und Bodentemperatur. Wiederum sind für jede die Aufgaben spezielle Instrumente der Messung zu entwickeln, die die Erhebung der Daten in der gebotenen Exaktheit erlauben. Die Windstärke wird beispielsweise weniger über minimalisierte Propeller gemessen, ist deren Verschleiß doch zu hoch, sondern mit Hilfe von Ultraschall.
Was ist die Aufgabe der VDI-Richtlinien
Der Artikel, eine Kooperation von Thomas Foken, Benjamin Bechtel, Matthias Budde, Daniel Fenner, Roy Knechtel und Fred Meier dient der Vorbereitung einer entsprechenden VDI-Richtlinie. Diese technischen Normen werden vom Verein Deutscher Ingenieure (VDI) aufgestellt: Sie halten Empfehlungen, Standards und Regeln im Bereich der Ingenieurwissenschaften bereit und dienen kurz gefasst als grundlegende Orientierung und Vereinheitlichung ingenieurwissenschaftlicher und angewandter Arbeit. Es geht also um einen Grundstock an Empfehlungen für Ingenieur:innen im Umgang mit Geräten, Medien und u.a. Techniken. Gerade bei neuen technologischen Entwicklungen wie dem Crowdsourcing stellen die Richtlinien die Qualität und die instruktive Verwendung in einem sich schnell entwickelndem Forschungsfeld sicher.
Neben Kriterien der Beurteilung und Bewertung stellen die Richtlinien Hilfestellungen in Form spezifischer Arbeitsunterlagen und Entscheidungshilfen bereit. Zudem geben sie Einschätzungen der technischen Standards und Anleitungen der Anwendung. Kurz zielt dies auf technische Prozess- und Problemlösungen und deren gelingende Realisierung. Damit die meteorologischen Daten des Crowdsourcings also zu validen, verlässlichen Quellen der Information werden können, engagieren sich Forschende wie Roy Knechtel ehrenamtlich an der Erstellung von VDI-Richtlinien.
Um ihre Funktion optimal erfüllen zu können, müssen komplexe Werkzeugmaschinen wie Fräsmaschinen unter möglichst idealen Bedingungen eingesetzt werden, was beispielsweise die Prozessgestaltung und -auslegung anbetrifft. Hierbei besteht oft ein Dilemma, zwischen dessen Extremen abgewogen werden muss: Zwar sorgen gesteigerte Prozessparameter bei Zerspanprozessen für eine erhöhte Produktivität, jedoch kann dies bei ungünstigen Prozessauslegungen zu Einbußen in der Qualität der gefertigten Produkte führen. Zudem können die verwendeten Werkzeuge und Maschinen in Folge erhöhter Belastungen schneller verschleißen. Auch bezüglich der Kosten- und Energieeffizienz wirkt sich die Prozessgestaltung wesentlich aus. Aufgrund einer multifaktoriellen Kostenstruktur und vieler Einflussgrößen sind aber auch hierzu viele Daten und oft aufwändige Optimierungszyklen notwendig. Somit gilt es, verschiedene Variablen und Einflussfaktoren ebenso in Betracht zu ziehen wie divergierende Ziele der Produktion.
Um Fertigungsprozesse zu optimieren ist es eine Option, Maschinen mit einem Vielerlei an Sensoren auszustatten und die entsprechenden Zielgrößen schlicht während der Produktionsprozesse empirisch zu messen. In einer idealen Variante würden diese Messungen direkte Effekte beim Herstellungsprozess zeigen und so das produktive Optimum durch Anpassungen erreicht werden können. Wie üblich ist dies in der Wirklichkeit nicht ganz so einfach: Ein zentraler Einflussfaktor für die Werkstückqualität und den Verschleiß der Werkzeuge ist beispielsweise die Temperatur, die an den Werkzeugschneiden wirkt. Leider ist es mit den sensorischen Mitteln und Instrumenten der Gegenwart nicht oder nur mit extremem Aufwand möglich, die Temperatur ausreichend exakt zu ermitteln. Ähnlich verhält es sich bei der empirischen Bestimmung der mechanischen Belastungen. Um den Fertigungsprozess dennoch optimieren zu können, bietet sich unter solchen Konditionen die Simulation als Instrument der ex-ante-Modellierung und der multivariaten Evaluierung von Fertigungsprozessen und Werkdesigns an. Auch auf makroskopischer Ebene, d. h. bei Betrachtung ganzer Prozesse, bieten Simulationsexperimente verschiedene Möglichkeiten, Prozesse ohne Produktionsunterbrechungen und Materialeinsatz schneller und somit kostengünstiger gestalten und verbessern zu können.
Die Effizienz von Simulationen
Dr. Andreas Wirtz trat zum August 2022 die Professur für Fertigungstechnik und virtuelle Prozessgestaltung innerhalb der Fakultät für Maschinenbau an der Hochschule Schmalkalden an. 2019 promovierte er an der TU Dortmund im Bereich der simulationsgestützten Auslegung energieeffizienter NC-Fräsprozesse. Sein Forschungsschwerpunkt war hierbei die Mehrzieloptimierung von Fräsprozessen unter Berücksichtigung der Werkstückqualität, benötigten Prozesszeit und dem Energiebedarf. Hierzu gehörte die modellbasierte Abbildung und Vermeidung regenerativer Werkzeugschwingungen, welche zu einer unzureichenden Werkstückqualität und erhöhtem
Werkzeugverschleiß oder Werkzeugversagen führen können. Neben der Werkstückqualität stand auch der Energieverbrauch in seinem Fokus: Welche Vor- und Nachteile bieten verschiedene Bearbeitungszentren und Prozessauslegungen unter den Parametern der Werkstückqualität, der Produktivität und der Energieeffizienz? Oder anders: Unter welchen Zielvorgaben ist welche Maschine mit welchen Parametereinstellungen für welche Verfahren am besten geeignet? Die computergestützte Simulation von Fertigungsprozessen bietet hierbei den Vorteil, bereits vor der Durchführung kosten- und aufwandsintensiver Versuche und Anpassungsmaßnahmen optimierte Prozesse zur effizienten Herstellung von Produkten mit anforderungsgerechter Qualität gestalten zu können. So können Neuplanungen und Anpassungsmaßnahmen besonders auch für flexible Fertigungssysteme effizient geplant und virtuell erprobt werden.
Smarte Kreisläufe in der industriellen Produktion
Die Simulation sowohl von Produktionsprozessen als auch von komplexen Fabriken gewinnt im Zuge der Einführung von Maßnahmen zur Digitalisierung, Vernetzung und Autonomisierung der industriellen Produktion sowie deren Verschränkung mit modernen Informations- und Kommunikationstechnologien an immer mehr Einfluss. Auch wenn es dem Begriff selbst an konzeptioneller Schärfe mangelt werden diese Transformationen in der öffentlichen Debatte häufig unter dem Signum Industrie 4.0 rubriziert. Ziel ist es, ganze Wertschöpfungsketten in Echtzeit zu optimieren und bei laufender Produktion flexibel auf Veränderungen der Anforderungen, innerhalb der Prozesse selbst und beispielsweise der Umweltbedingungen reagieren zu können. Dies meint, dass in den langen und komplexen Produktionsketten der modernen Industrie die Verzögerung eines Teilabschnitts nicht den gesamten Prozess aufhält, sondern sich dieser umstellt und seine verschiedenen Abläufe anpasst.
Das Zielsystem, um das es hier geht, ist also kein statisches, sondern ein flexibles, das sich je nach Faktoren, Bedingungen, verändern kann. Ein Aspekt in dieser komplexen digitalisierten Organisation der Produktion sind die Fertigungsprozesse selbst, also zum Beispiel die Fräsprozesse. Die Digitalisierung bietet dabei zugleich die Möglichkeit, natürliche Ressourcen zu schonen und dem Aspekt der Nachhaltigkeit ein ihm gebührendes Gewicht zuzuerkennen. Über die digitale Vernetzung des Produktionsprozesses besteht auch die Chance, anforderungsgerechte, effiziente Verfahren zu etablieren.
Ein Teilaspekt dieser Digitalisierung ist wiederum die Simulation der Herstellungsprozesse zum Beispiel in Form digitaler Zwillinge. Diese virtuellen Abbilder mitunter ganzer Fabriken dienen der Analyse und Evaluation von Anpassungsmaßnahmen und deren Effektivität, um schließlich die Flexibilität der ganzheitlichen Produktion und ihr Leistungsniveau abschätzen zu können. Durch Integration von Simulationsmodellen können Anpassungsmaßnahmen in verschiedenen Varianten vor dem Ausrollen erprobt und validiert werden.
Schutzschichten in unwirtlichen Umgebungen
Ein bereits abgeschlossenes Forschungsprojekt unter Mitwirkung von Prof. Wirtz ist die mechanische Nachbehandlung von Korrosionsschutzschichten. Hierbei geht es um den Schutz der von ihrer Umwelt stark belasteten Strukturelemente beispielsweise von Offshore-Windenergieanlagen. Damit sich die Investitionen in die Windkraft nachhaltig lohnen, sollten die Anlagen so lange wie möglich ohne Beschädigungen und notwendige Reparatur- und Instandhaltungsarbeiten auskommen können. Die rauen klimatischen Bedingungen der Nordsee vor Augen wird klar, wie groß die Herausforderungen für die verwendeten Materialien sind, die langfristig Schutz vor Wasser, Wind und Salz bieten müssen.
Diese protektive Qualität können einerseits die verwendeten Materialen einholen, andererseits aber auch über spezielle Verfahren der mechanischen Bearbeitung der Schutzschichten erreicht werden. Über das nachträgliche maschinelle Oberflächenhämmern werden Schutzbeschichtungen nicht nur dichter und härter, die Oberfläche wird weniger rau und porös. Folglich bieten diese Schichten weniger Angriffsfläche für Umwelteinflüsse und Korrosion. Durch die Einbringung von Druckeigenspannungen mittels der mechanischen Nachbehandlung können auch die negativen Effekte der mechanischen Belastungen der Werkstücke durch Wind und Wellen, wie die Bildung und Ausbreitung von Mikrorissen gehemmt werden. Auch wenn also die Korrosions- und Ermüdungsvorgänge nicht vollständig aufgehalten werden können, so können ihre Auswirkungen doch miniminiert und die Haltbarkeit der Bauteile der Offshore-Windräder verlängert werden. Gleichzeitig können auf diese Weise die durch die verwendeten Beschichtungen erzeugte Umweltbelastung sowie notwendige zusätzliche Nachbehandlungsschritte, wie organische Beschichtungen, reduziert werden.
Kooperative Kontakte
Prof. Wirtz wurde im Sommer 2022 als erster Juniorprofessor an die Hochschule Schmalkalden im Rahmen einer Tandem-Professur in Kooperation mit der GFE, der Gesellschaft für Fertigungstechnik und Entwicklung Schmalkalden e. V., berufen. Als Teil des bundesweiten Förderprogramms „FH-Personal“ sollen diese Professuren Nachwuchswissenschaftlern den Einstieg in eine wissenschaftliche Karriere erleichtern. Zu gleichen Teilen arbeitet, lehrt und forscht Prof. Wirtz nun an der Hochsuche und der GFE: Neben seiner Professur ist er gleichzeitig wissenschaftlicher Mitarbeiter bei der Gesellschaft für Fertigungstechnik und Entwicklung. Ihm bietet sich so die Gelegenheit, sich neben seiner wissenschaftlichen Tätigkeit in Forschung und Lehre auch für Fachhochschulprofessuren weiterzuqualifizieren. Letztere verlangen aufgrund ihrer Schwerpunktlegung auf Fragen der Anwendung eine mehrjährige Tätigkeit außerhalb des Hochschulbereichs und dementsprechende aberufspraktische Erfahrungen.
Kurzum werden somit also zwei Fliegen mit einer Klappe geschlagen, was aber letztlich der Vereinfachung des Berufseinstiegs von Wissenschaftler:innen wie Prof. Wirtz zu Gute kommt. Im Rahmen der Tandem-Professur kann er nicht nur Forschung und Lehre produktiv verbinden, sondern auch angewandte Wissenschaft und Forschungstransfer mit der Grundlagenforschung. Diese sich so bietenden Möglichkeiten der Kombination, verknüpft durch räumliche Nähe und den kooperativen Dialog der Hochschule Schmalkalden und der GFE, macht einen Reiz dieser Stelle aus.