Forschung an Hochschulen angewandter Wissenschaften ist praxisnah und transferorientiert: Die Potentiale der wechselseitigen Kooperation von Wissenschaft und Wirtschaft können an Forschungsprojekten wie ExAM deutlich gemacht werden, das Stefan Roth, Professor für Produktentwicklung und Konstruktion an der HSM und Teil des Teams der Angewandten Kunststofftechnik (AKT), gerade umsetzt.
Um was geht es? Zunächst ist es sinnvoll, die Extrusion als ein spezielles Verfahren in der Kunststofftechnik vorzustellen: Grundsätzlich ist die Extrusion eine Möglichkeit der Fertigung von „endlosen“ Kunststoffteilen wie Rohre und Schläuche, wobei die eigentliche Methode auch in anderen Zusammenhängen angewandt wird, zum Beispiel bei der Herstellung von Nudeln. Kurz lässt sich eine Extrusionsanlage als eine Apparatur beschreiben, die Rohmaterialien wie Kunststoffe, Metalle oder Lebensmittel verflüssigt und durch eine Düse – auch Matrize genannt – presst, wobei diese Öffnung die Form des Produkts ergibt. Im Unterschied zu anderen Verfahren ist der Austritt kontinuierlich, was wiederum spezifische Möglichkeiten, aber auch Herausforderungen mit sich bringt. Wichtig ist dabei, dass die Komplexität über die Düse hinausgeht und neben der Schmelze unter anderem auch Prozessschritte wie die Abkühlung umfasst. Bevor wir uns dem Forschungsprojekt ExAM zuwenden, worin es um die Vorteile der additiven Fertigung von Werkzeugen wie der Düse geht, verbleiben wir zunächst beim Extrusionsprozess.
Die Extrusion
Wie bereits erwähnt ist die Extrusion keine einzelne Maschine, sondern lässt sich eher als eine Anlage mit verschiedenen Teilen und Stationen verstehen. Gehen wir kurz den Weg des Produktes: Am Anfang steht das Rohmaterial, also das Granulat, das über einen Befülltrichter in den Extruder eingeführt wird. In diesem befinden sich eine Schnecke, die sich dreht und das so Material zum Ausgang transportiert und es dabei vermengt, verdichtet und erwärmt. Durch die in der Schneckenbewegung entstehende Reibung des Materials wird Wärme produziert, durch welche das Granulat aufgeschmolzen wird. Dieser Schmelzprozess wird durch außen auf der Anlage angebrachte Heizbänder gefördert.
Schnecke
So entsteht eine Schmelze, die im weiteren Gang durch die Schnecke verknetet und homogenisiert wird. Die Schmelze wird dann durch die Düse gepresst und so in die gewünschte Form gebracht. So entsteht ein im Grunde endloses Formteil, wie wir es zum Beispiel als Kabelschacht, Fensterprofil oder Folie kennen. Im Anschluss wird das Produkt abgekühlt und simultan kalibriert, wobei sich hier die Verfahren je nach Eigencharakteristik des Produkts unterscheiden. Die Aufgabe ist es, Verformungen zu vermeiden, die durch die thermoplastischen Eigenschaften des Materials beim Abkühlen entstehen. Am Ende des Prozesses wird das endlose Extrudat abgelängt oder aufgewickelt.
Ansätze der Optimierung
Wichtig ist zu verstehen, dass es nicht um ein Material, ein Verfahren und eine Maschine geht, durch die letztendlich ein Produkt entsteht, sondern verschiedene Parameter die Möglichkeiten und Grenzen des Prozesses und des Produkts sowie deren Qualität entscheidend beeinflussen. Zum Beispiel haben sowohl die Schneckentypen als auch ihre Verfahrensweisen (z.B. ihre Rotation) Auswirkungen auf die Schmelze: Je nach Material eignen sich andere Schneckentypen. Variablen wie Menge, Geschwindigkeit und Wärme kommen hinzu, aber auch die Rolle von Additiven, also Zusätzen neben dem Granulat, denen wiederum eigene Eigenschaften zukommen. All diese Komponenten müssen je nach Material und Produkt abgestimmt werden, um am Ende des Prozesses eine möglichst passgenaue und effiziente Produktion zu realisieren. Gerade für Produkte, wie sie typischerweise mittels Extrusion hergestellt werden, sind die Aspekte der Quantität zentral. Durch die hohen Stückzahlen haben hier Verbesserungen der Produktion enorme Effekte.
In solchen grundlegenden und generalisierbaren Bereichen bietet sich die industrielle Gemeinschaftsforschung als Träger von Forschungsprojekten an. Von den IGF-Projekten und dessen Ergebnissen können alle Beteiligten profitieren, ohne hier von dem Konkurrenzdruck ausgebremst zu werden. Anders formuliert geht es hier um eine ambitionierte, vorwettbewerbliche Kooperation, die Forschung zum gemeinsamen Nutzen fördert. Getragen wird diese Gemeinschaft vom Bundesministerium für Wirtschaft und Klimaschutz, sie verbindet aktuell 101 Forschungsvereinigungen und 1200 Forschungseinrichtungen. Einer dieser Forschungsbereiche, repräsentiert durch die Forschungsgemeinschaft Deutscher Werkzeug- und Formenbauer FDWF e.V., betrifft die Frage, ob und wie sich die Vorteile additiv gefertigter Werkzeuge im Extrusionsverfahren bemessen lassen. Und damit sind wir an der Hochschule Schmalkalden.
Das Forschungsprojekt
Das Forschungsprojekt ExAM rückt den Fokus weg von klassisch hergestellten Werkzeugen, die subtraktiv gefertigt werden, hin zum Verfahren der additiven Fertigung. Dieses ist in anderen Bereichen – sowohl im Allgemeinen als auch auf dem Gebiet der Kunststofffertigung – schon etabliert, und nun stellt sich die Frage, ob sich diese Vorteile auf das Verfahren der Extrusion übertragen lassen. Ein auf der Hand liegender Nutzen ist, dass die additiven Verfahren mehr Freiheitsgrade bei Fertigung der Werkzeuge bieten, und somit neue bzw. innovative Ansätze der Konstruktion ermöglichen.
Klassisch werden die Werkzeuge in Zerspanungsverfahren wie dem Fräsen, oder Drehen gefertigt, poliert und die Komponenten anschließend zusammengebaut. Eine notwendige Folge dieses Vorgehens sind Restriktionen wie Übergänge und Toträume, die negative Auswirkungen auf den Fluss der Schmelze haben. Der Schicht-für-Schicht-Aufbau der additiven Fertigung kann eben diese Restriktionen vermeiden. Die Optimierung der Werkzeuge führt dann zu einer Verbesserung der Produkte bzw. des Fertigungsprozesses: Bessere Bauteileigenschaften und maßhaltigere Teile sind ebenso Ziele wie die robustere und einfachere Ausgestaltung der Prozesse. So lassen sich unter anderem die optischen Eigenschaften optimieren auch der Ausschuss von Teilen minimieren. Kurzum haben Ingenieur:innen bei der Konstruktion mehr Möglichkeiten: Offen ist hingegen die Frage, ob sich der Mehraufwand der additiven Fertigung lohnt.
Düse
Bleiben wir bei den Möglichkeiten: Der zentrale Punkt ist die Führung der Schmelze im Werkzeug, die möglichst homogen zum Austrittspunkt geleitet und in Form gebracht werden soll. Stockungen, Stausituationen und Toträume müssen auch aus Sicht der Materialqualität vermieden werden, führen diese doch unter anderem zu Schlieren oder farblichen Mängeln. Das sich in Toträumen ansammelnde Material degradiert mit der Zeit, stört den Fluss und hat negative Effekte auf die mechanischen und optischen Eigenschaften des Materials. Wichtig ist ferner die Kontrolle der Geschwindigkeit der Schmelze, was wiederum in Abhängigkeit zum Druck und der Temperatur steht. Die additive Fertigung der Werkzeuge erlaubt die Umsetzung einer gezielten Temperierung, und somit die bestmögliche Auslegung der Schmelzekanäle und -führung. Zugleich lassen sich innovative Geometrien in Form von Kühlkanälen in das Werkzeug einbringen.
Ziel der Konstruktion ist die Optimierung des Schmelzraums, die eine möglichst schnelle Durchleitung bei gleichbleibender Qualität erlaubt. Die Effizienzsteigerung kann bei der Massenproduktion entscheidende Vorteile bieten. Dieser ökonomische Nutzen in der Produktion, den die additiven Bauteile liefern, soll im Forschungsprojekt ExAM geklärt werden. Am Ende des Projektes steht neben der Bewertung der Vorteile die Entwicklung eines Leitfadens, der die Konstruktion und die Auslegung additiv gefertigter Bauteile aufbereitet und allen Kooperationspartnern zur Verfügung steht. Anhand dieses Leitfadens können die Unternehmen dann gemäß ihrer eigenen Ansprüche und Ziele additive Werkzeuge entwickeln. Durch diese grundlegende Zugänglichkeit kann die Technologie der additiven Fertigung von Werkzeugen breit in Anwendung gebracht und die innovativen Impulse für die Steigerung der Produktqualitätsmerkmale genutzt werden.
Innovativer Transfer
Die Nutzung von additiv gefertigten und optimierten Werkzeugen ist im Bereich des Spritzgusses keineswegs Neuland, aber für das Verfahren der Extrusion schon. Somit gilt es weniger, neue Technologien zu entwickeln als darum, schon vorhandene in ein neues Gebiet zu übertragen. So lassen sich die bereits vorhandenen Erfahrungen aus dem Spritzguss in den Aspekten wie der Temperierung und der Flussführung der Schmelze nutzen. Infolge der grundlegenden Anwendungsorientierung bietet sich dieses Thema als kooperatives Projekt der industriellen Gemeinschaftsforschung (IGF) an, wobei von den erforschten Technologien alle beteiligten Unternehmen profitieren können sollen. Als ein hier angesiedeltes Projekt steht die Anwendungsnähe im Fokus, also die anvisierten Wettbewerbsvorteile der kooperierenden Institutionen und Unternehmen.
Das zweijährige Projekt ExAM startete im letzten Herbst und verbindet drei Kooperationspartner mit drei unterschiedlichen Schwerpunkten: Im Fokus der Hochschule Schmalkalden steht die Extrusion und das Feld der Health Tech, die Kunststofftechnik der Universität Paderborn konzentriert sich auf das technische Profil; und das Fraunhofer Institut für additive Produktionstechnologien mit Sitz in Hamburg-Bergedorf ist im Projekt auf das Thema der Simulation und additiven Fertigung der Werkzeuge im laserbasierten Pulverbettverfahren spezialisiert.
Die durch das additive Verfahren ermöglichte Formvielfalt in der Konstruktion ist dabei für die HSM eine Herausforderung, ergeben sich doch viele neue Optionen. Zugleich setzt hier aber auch die innovative Optimierung der Werkzeuge an. Neben der eigentlichen Form das Bauteils werden auch verschiedene Werkzeugstähle für das additive Laserschmelzverfahren untersucht, wobei es immer um bereits kommerziell verfügbare Typen geht. Wichtig ist die Unkompliziertheit der anschließenden Nutzung. Nicht zuletzt muss jede einzelne Optimierung den gesamten Prozess der Extrusionsanlage mitbedenken und eventuelle Wechselwirkungen in Betracht ziehen.
Team bei der Vorstellung des 3D-Druckers
Jüngst konnte die Fakultät Maschinenbau und das AKT eine Neuanschaffung vermelden, die auch die Forschung am ExAM-Projekt unterstützen kann: Der innovative 3D-Drucker des Herstellers NewAIM3D wurde erfolgreich in Betrieb genommen und steht nun für Forschung und Lehre bereit. Mit diesem Drucker nach dem Pelletdirektextruderprinzip ist es möglich, Kunststoffe, Compounds, in handelsüblicher Granulatform direkt und effizient zu verarbeiten. So wird beispielsweise der Druck mit Granulaten, bestehend aus Metallpulver und Binder, sogenannten Feedstocks, möglich. Die daraus entstehenden Bauteile werden anschließend gesintert und erlangen so die Dichte und Eigenschaften von konventionellen Stählen. Das Verfahren stellt so eine Alternative zum etablierten jedoch aufwändigen additiven Laserschmelzverfahren von Metallpulvern dar. Die Anschaffung des Druckers wurde im Rahmen der dritten Förderperiode des Thüringer Zentrums für Maschinenbau ermöglicht und durch das Thüringer Ministerium für Wirtschaft, Landwirtschaft und ländlichen Raum gefördert. Zudem unterstützt der Freistaat Thüringen das Vorhaben, das durch Mittel der Europäischen Union im Rahmen des Europäischen Fonds für regionale Entwicklung (EFRE) kofinanziert wird.
In Kürze wird an dieser Stelle noch ein Video eingestellt, dass die Allianz Thüringer Ingenieurwissenschaften zu diesem Projekt produziert hat.
Die Zahl an Studienabbrüchen ist seit Langem hoch, gerade in den ersten Jahren geben viele Studierende ihr Studium vorzeitig auf. Die Gründe für diese Entscheidungen sind vielfältig und lassen sich nicht verallgemeinern. Auf der einen Seite beruhen sie auf gewonnenen Erfahrungen mit den jeweiligen Fachbereichen: Die individuelle Einsicht darin, dass Fachgebiete oder Methoden den eigenen Präferenzen nicht entgegenkommen, führt dazu, das Fach zu wechseln oder gänzlich andere Wege zu gehen. Andere Gründe für den Abbruch des Studiums sind dagegen vermeidbar: So stellt der Wechsel von der schulischen hin zur universitären, höheren Bildung viele junge Menschen vor Herausforderungen. Neben dem Umfeld ändern sich auch die Ansprüche an die Organisationsfähigkeit, das selbstständige Lernverhalten und nicht zuletzt die Komplexität der vermittelten Inhalte. Hier könnte eine mobile Lern-App Abhilfe schaffen.
Institutionen wie Hochschulen ist daran gelegen, die Zahl vermeidbarer Studienabbrüche zu minimieren. Eine mögliche Antwort holt die Studierenden gezielt in ihrem Alltag ab: Die Nutzung von mobilen Endgeräten ist aus dem Leben junger Erwachsener nicht mehr wegzudenken. Smartphones dienen nicht mehr nur allein der Kommunikation, sondern neben der Organisation und Navigation nun vermehrt auch dem Banking und vielen anderen Dingen. Kurzum: Die Geräte sind Teil des Alltags und der Umgang mit ihnen ist ebenso häufig wie intensiv. Anhand dieses Befundes lassen sich durchaus Potentiale absehen, die es nahelegen, diese Geräte zu nutzen, um Studierende zu unterstützen. Es stellt sich mithin die Frage, ob und wie sich eine mobile Lernapplikation dazu eignen könnte, die Anfangsphase des Studiums und seine Herausforderungen für die Betroffenen zu erleichtern und somit den Abbruch eines Studiums zu verhindern.
Von der Konzeption eines Anforderungsprofils…
Professor Florian Johannsen begann bereits in seiner Zeit an der Universität Bremen mit einem Team eine entsprechende App für den Bereich Wirtschaftswissenschaften zu entwickeln. Auch nach dem Antritt seiner Professur für Betriebliche Anwendungssysteme an der Fakultät für Informatik der HSM ist er weiter Teil dieses Projektes an der Bremer Universität. Auf Seiten des Lehrstuhls für Allgemeine Betriebswirtschaftslehre, Unternehmensrechnung und Controlling (Universität Bremen) besteht das Projektteam neben Professor Jochen Zimmermann, Dr. Martin Kipp, Dr. Johannes Voshaar und M.Sc. Janik Ole Wecks auch aus den Kollegen Prof. Thomas Loy (mittlerweile Universität der Bundeswehr München) sowie dem studentischen Mitarbeiter Patrick Heusmann. In mittlerweile fünf Publikationen präsentieren die Forschenden unterschiedliche Etappen der Entwicklung und folglich auch verschiedene Stufen der Implementierung der App „WiWiNow“.
Anwendungsbeispiel
Am Anfang stand die Frage, worin die Gründe für Studienabbrüche liegen und was die spezifischen Bedürfnisse und Herausforderungen von Studierenden am Beginn ihrer akademischen Laufbahn sind: Was sind die individuellen Motive und Situationen, die den Ausschlag für den Abbruch geben? Und wie kann ein App die Studierenden unterstützen, welche Funktionen und Features muss sie bieten? Wichtig ist hierbei die Einbeziehung der Betroffenen, da es genau um ihre Erfahrungen geht und sie am besten Auskunft darüber geben können, welche Angebote nicht nur nützlich wären, sondern auch tatsächlich genutzt werden. Dieser Punkt ist so trivial wie relevant: Beim Design einer App ist nicht nur die Funktionalität und die Usability zu beachten, sondern auch die Wahrscheinlichkeit einer regelmäßigen Nutzung. Es geht darum, die App als aktiven Teil in den Alltag zu integrieren, und so die nützlichen Effekte zu potenzieren. Aber der Reihe nach…
Am Beginn stand die empirische Evidenz, dass nicht nur der Bildungshintergrund einen Einfluss auf Erfolg und Misserfolg der höheren Bildungswege hat, sondern auch schlechte Erfahrungen im Studium selbst sowie psychologische Faktoren wie ineffiziente Lernstrategien oder der Mangel an Selbstorganisation (Vgl. Johannsen et al. 21, S. 1). Diese Kompetenzen werden in der Hochschulbildung vorausgesetzt, was einen großen Unterschied zum schulischen Kontext darstellt. Zugleich sind sie für so manchen Studierenden das umgangssprachliche Neuland. Die Abbruchquoten sind in der ersten Phase vergleichsweise hoch, zugleich haben Studien mit Blick auf das deutsche Bildungssystem einen Mangel an sozialer und akademischer Integration festgestellt, der zu den vermehrten Abbrüchen führt (Vgl. Johannsen et al. 23, S. 636f.). Diesen Herausforderungen der Transition-in-Phase[1] könnte eine App Abhilfe verschaffen, die nicht nur dazu dient, Seminar- und Vorlesungstermine zu koordinieren, sondern auch das Lernverhalten trackt und transparent macht sowie Wissen durch Übungen vertieft und über spielerische Elemente abruft.
… zur Entwicklung einer App…
Die erste Phase des Projektes befasste sich mit der Konzeption eines Prototyps anhand spezifischer Design-Vorgaben und mit der Taxierung eines technischen Rahmens: Die Fixierung von drei Meta-Anforderungen wurde in acht Design-Anforderungen überführt, welche die App erfüllen muss (Vgl. Johannsen et al. 23, Fig. 2, S. 639). Es ging also darum zu klären, was die App liefern soll, und was die beste technische Lösung wäre. Nach einer ersten Orientierung über das Design der Anwendung und einer Übersicht über die am Markt befindlichen Alternativangebote wurde eine Gruppe Studierender befragt, die sich im zweiten oder dritten Studienjahr befanden: Die Idee war, von deren Erfahrungen der Herausforderungen zu lernen, etwaige Lösungswege zu eruieren und schließlich Anforderungen an die App einzuholen. Eine zweite Umfrage zielte auf eine Gruppe von Lehrenden, die in engem Kontakt zu den Studierenden stehen und mit ihren Problemen vertraut sind. Zugleich verfügen sie über einen reichhaltigen Erfahrungsschatz des akademischen Alltags. Anhand dieser beiden Usergruppen wurden User Journeys beschrieben, also wie mögliche Anwender:innen mit der App umgehen und wie sie durch sie geleitet werden. Anhand des Prototyps konnten dann verschiedene Testphasen vollzogen werden, und sowohl das Front- als auch das Backend verbessert werden.
Nun war der Zeitpunkt da, die App unter realen Bedingungen zu testen. In einem verpflichtenden Einführungskurs zum Rechnungswesen im Wintersemester 2020/21 wurde die App den Studierenden zur Verfügung gestellt. Um Verzerrungen zu vermeiden, gab es keine Gratifikationen für die Teilnahme an der Studie. Wichtig zu erwähnen ist noch der Umstand der Pandemie und die Folge, dass der Lehrbetrieb ins Digitale verschoben wurde – was natürlich die Testbedingungen veränderte. Von den Teilnehmenden wurden sozio-demografische und strukturelle Daten abgefragt, die in die spätere Auswertung einfließen sollten. Hinzu kamen die Daten der App-Nutzung (u.a. Dauer der Nutzung und Quiz-Performanz), die Daten der Kursteilnahme (neben dem Kurs auch das begleitende Tutorium) und der akademischen Performanz (die Prüfungsleistung). Selbstredend wurden die Daten anonymisiert und dem Datenschutz genüge getan. Am Ende konnten die Daten von 575 Teilnehmenden in die Studie aufgenommen werden (Vgl. Voshaar et al. 22, S. 7).
Screenshots der App
Im Ergebnis ließ sich festhalten, dass sich ein intensiverer Gebrauch der App signifikant positiv auf das Prüfungsergebnis auswirkt. Gerade weil die höhere Nutzung der App auch mit Faktoren der Besuche der Vorkurse und der Tutorien positiv korrelierte – und folglich unklar war, was der entscheidende Faktor der Leistungssteigerung war –, wurden weitere Untersuchungen nötig. Mit anderen Worten: Es blieb offen, ob die Nutzung der App selbst positive Effekte hatte oder ob leistungsstärkere bzw. motiviertere Studierende die App eher von sich aus nutzten, was den Einfluss der App verringern würde (Vgl. Voshaar et al. 22, S. 14). Nach der Korrektur mit Hilfe einer Kontrollvariable, die auf die Einflussfaktoren der Selbst-Selektion abgestimmt war, haben sich die ersten Ergebnisse aber als robust erwiesen. Nach diesen durchaus positiven Befunden konnten die Forschungen um die App weitergeführt werden.
… über die Bestimmung von Qualitätsdimensionen der Nutzung …
Ein weiterer Ansatz, der zu einer Veröffentlichung geführt hat, befasst sich mit den verschiedenen Qualitätsdimensionen der Akzeptanz, die eine Anwendung aufweisen kann und die mit ihrer Nutzung einhergehen. Hierbei wurden vier Qualitätsdimensionen ausgemacht, die von der App bedient werden sollten und die wiederum selbst in Unterkategorien aufgegliedert werden können: Geht es in der Systemqualität um die Art und Weise, wie die Informationen durch eine App aufbereitet werden, zielt die Servicequalität auf die angebotene Unterstützung ab. Die Informationsqualität wiederum umfasst die Evaluation der ausgegebenen Inhalte, wogegen die Qualitätsdimension des wahrgenommenen Vergnügens (perceived enjoyment) bei der Nutzung ebenso selbsterklärend wie eine für die Wiedernutzung relevante Kategorie ist (Vgl. Johannsen et al. 23, S. 641 – 644). Mit der Intension der Wiedernutzung und der wahrgenommenen Nutzer:innenzufriedenheit (perceived user satisfaction) schließen sich dann zwei Aspekte aus der User-Perspektive an, die wiederum mit unterschiedlichen Qualitätsdimensionen gekoppelt werden können und zugleich beide auf die Lerneffektivität als letzten Aspekt Einfluss haben.
Ein Ziel im Design der App war es, die Funktionalität und den Komfort kommerzieller Apps in der Strukturierung des Alltags mit universitätsbezogenen Inhalten, organisatorischen Funktionalitäten und spielerischen Elementen zu kombinieren (Vgl. Johannsen et al. 23, S. 638f.). Mit Hilfe der unterschiedlichen Qualitätsdimensionen lassen sich Stärken und Schwächen in der Nutzer:innenfreundlichkeit eruieren, was wiederum die Implementierbarkeit in den Alltag zumindest indirekt erhellt.
Im Ergebnis wurde eine Umfrage zu den Erfahrungen der Nutzung ausgewertet, an der sich zum Semesterende 131 Studierende beteiligten, wobei das eigentliche Sample aus unterschiedlichen Gründen (z. B. unvollständige Datensätze) 113 Studierende umfasste. In diese Auswertung flossen die vermerkten Qualitätsdimensionen ein, die in unterschiedlichen Items abgefragt wurden. Die System- und die Informationsqualität sowie die Qualitätsdimension des wahrgenommenen Vergnügens fördern die Nutzer:innenzufriedenheit, wobei die letzte Qualitätsdimension auch die Intension zur Wiedernutzung verstärkt. Die Lerneffektivität wird wiederum durch die Nutzer:innenzufriedenheit und die Intension positiv beeinflusst. Anhand dieser Daten konnte das Design der App und seine Erfüllung der Anforderungen überprüft und justiert werden (Vgl. Johannsen et al. 23, S. 651ff.). Ferner konnten vier spezifische Designprinzipien formuliert werden, die eine App bezogen auf die Transition-in-Phase beachten sollte: Neben einer Teilnahme-Management-Funktion bedarf es einer Kontrollfunktion des selbstständigen Lernens. Zudem muss eine plattformübergreifende Zugänglichkeit gegeben sein und die Inhalte einfach zu organisieren sein (Vgl. Johannsen et al. 23, S. 655f.).
… über die Verbesserung des Lernverhaltens …
In einer weiteren Studie, die auf der 44. Internationalen Konferenz zu Informationssystemen (International Conference on Information Systems – ICIS) in Hyderabad vorgestellt wurde, wird der Versuch unternommen, die App an etablierten Ansätzen der Lerneffektivität zu messen. Zwar wurde eine Verbesserung der Noten in den Abschlussprüfungen bereits nachgewiesen, dieser Aspekt ist aber nur ein Teilbeitrag zum Ziel, die Abbruchsquoten des Studiums zu senken. Das Konzept der fünf Erfolgsfaktoren studentischen Erfolgs hat Lizzio (2011) bezogen auf die Transition-in-Phase entwickelt: Die Erfolgsfaktoren sind die Verbundenheit (connectedness) z.B. mit dem akademischen Leben, die Fähigkeit (capability) der Selbstorganisation u.a., die Sinnhaftigkeit (purpose) z.B. akademischer Praxen, der Einfallsreichtum (resourcefulness) in der Koordinierung verschiedener Anforderungen und die Kultur (culture) im Sinne einer Wertschätzung der höheren Bildung. Der zweite Ansatz differenziert unterschiedliche Lernmodelle mit je eigenen Charakteristika: Neben dem oberflächlichen Lernen kann das strategische und zuletzt das tiefe Lernen angeführt werden (Vgl. Voshaar et al. 23, S. 3f.). Bleibt das erste Lernverhalten unfokussiert und ephemer, unterwirft sich das zweite Modell der Maxime der Effizienz und spricht dem Gelernten selbst keinen Eigenwert zu. Das tiefe Lernen wiederum lässt sich am ehesten als eigenständige Durchdringung der Wissensbestände erklären. Ziel war es zu erfahren, ob die App bzw. bestimmte Elemente helfen, die Herausforderungen der Transition-in-Phase zu meistern.
Die Auswertung der Studie ergab, dass die Nutzung der App die Sinne der Fähigkeit und des Einfallsreichtums positiv beeinflussen kann. Zudem verstärkt es das strategische und mindert das oberflächliche Lernverhalten. Die App hilft demnach bei der studentischen Selbstorganisation, fördert das eigenverantwortliche Lernen und die Einsicht in institutionelle Anforderungen in der höheren Bildung. Diese Potentiale sollten sich nutzen lassen, um die Quoten der Studienabbrüche zu verringern, werden Studierende doch über Angebote der App bei den ausgemachten Herausforderungen in der Anfangsphase des Studiums unterstützt.
In Kombination mit analogen Unterstützungsangeboten vor Ort haben die verschiedenen Komponenten der App unterschiedliche Potentiale der Unterstützung, die von der Selbstorganisation über die Prüfungsvorbereitung bishin zur Ausbildung einer studentischen Identität reichen. Gerade weil Defizite an effizienten Lernstrategien und dem Zeitmanagement enorme Potentiale an Frustration bergen, kann hier die App produktive Akzente setzen. Nicht zuletzt dienen die spielerischen Elemente der App der Motivation zur Wiedernutzung. Somit kann die App nicht nur die abgerufene Prüfungsleistung verbessern, sondern auch andere Impulse der Unterstützung setzen, die neben dem Lernverhalten auch die Selbstorganisation betreffen.
… bis zur Differenzierung verschiedener App-Features
In der jüngsten Studie befasst sich das Bremer Team zusammen mit Florian Johannsen mit der Frage, ob sich die einzelnen Komponenten der App anhand ihrer Effektivität differenzieren lassen. Diese Studie wurde auf der 45. Internationalen Konferenz zu Informationssystemen (International Conference on Information Systems – ICIS) in Bangkok vorgestellt. Zunächst konnte bestätigt werden, dass App-Nutzende ein signifikant besseres Ergebnis in den Prüfungen haben. Eine Unterteilung in verschiedene Nutzungstypen (Übungen, Quizze und Selbstorganisation) ergab keine nennenswerten Unterschiede hinsichtlich einer Verbesserung der Prüfungsleistung.
Prof. Florian Johannsen und Dr. Johannes Voshaar auf der Konferenz (Bildquelle: privat)
Die anschließende Forschungsfrage war, ob die Komponenten der App die Anforderungen und die Prinzipien des Designs unterschiedlich gut unterstützen. Festhalten lässt sich zunächst, dass alle drei App-Features die Leistung positiv unterstützen, mit einer Ausnahme: Die Beantwortung komplexer Fragestellungen wurden durch das Quiz-Feature nicht signifikant positiv gefördert. Das ist auch durchaus plausibel, zielen die Quizze doch auf die Abrufung von Wissensbeständen, und nicht auf deren Anwendung in diffizilen Fällen ab.
Relativ lässt sich sagen, dass die Übungsfunktion den stärksten Unterstützungseffekt hat, der zugleich über die verschieden Fragetypen stabil bleibt. Bei den einfachen Fragekomplexen, die Standardwissen abriefen, waren auch die Quizze für die Studierenden hilfreich. Das Selbstorganisationsfeature trägt zwar ebenfalls zur Verbesserung der Prüfungsleistung bei, aber in geringerem Ausmaß. Die Studierenden in der konkreten Studie profitierten also am meisten von der Übungsfunktion, wobei die Quizzes ergänzend für den Aufbau von Wissensbeständen nützlich waren. Die Selbstorganisationsfunktionen haben zwar einen relativ geringen Mehrwert für die Prüfungsleistung, ihre positiven Effekte könnten aber auf andere Weise entstehen und eher die grundlegende Identitätsbildung der Studierenden betreffen. Durch den Abgleich mit den beiden Designaspekten lassen sich Empfehlungen für App-Entwickler:innen, Studierende und Lehrende formulieren (Vgl. Voshaar et al. 24, S. 13f.).
Viele Fragen sind noch offen, so wird auch die Erforschung der Nützlichkeit einer mobilen Lern-App weitergehen. Neben der Frage der Zweckdienlichkeit der organisatorischen Features und ihrer deskriptiven Abbildung können auch die Komponenten der App in ihren positiven Effekten weiter aufgeschlüsselt und differenziert werden. Gerade weil neue Technologien wie das Smartphone nicht mehr aus dem Alltag wegzudenken sind, ist die Implementierung einer mobilen Lern-App sinnvoll und ihre Erforschung geboten, auch um den Bedürfnissen nach ort- und zeitunabhängigen Angeboten gerecht zu werden. Es geht bei den verschiedenen Lehr- und Lernformen eben nicht um ein Verhältnis der Konkurrenz, sondern der Komplementarität, also der gegenseitigen Ergänzung. Die Digitalisierung setzt auch hier neue Impulse, die in Technologien wie einer Lern-App produktiv aufgenommen werden können.
Literatur (chronologisch sortiert)
Lizzio, A. (2011), The Student Lifecycle: An Integrative Framework for Guiding Practice. Griffith University.
Johannsen, F; Knipp, M; Loy, T; Voshaar, J; Zimmermann, J (2021): A mobile app to support students in the „transition-in“ phase. Proceedings of the 29th European Conference on Information Systems (ECIS 2021), Research-in-Progress Paper.
Voshaar, J., Knipp, M., Loy, T., Zimmermann, J. and Johannsen, F. (2022), „The impact of using a mobile app on learning success in accounting education“, Accounting Education, Vol. No. pp. 1-26.
Johannsen, F., Knipp, M., Loy, T. et al. (2023): What impacts learning effectiveness of a mobile learning app focused on first-year students?. Inf Syst E-Bus Manage (2023). https://doi.org/10.1007/s10257-023-00644-0
Voshaar, J., Wecks, J.O., Johannsen, F., Knipp, M., Loy, T., Zimmermann, J. (2023): Supporting Students in the Transition to Higher Education: Evidence from a Mobile App in Accounting Education, Proceedings of the International Conference on Information Systems (ICIS 2023), Hyderabad, India.
Voshaar, J., Johannsen, F., Mkervalidze, S. and Zimmermann, J. (2024). Unbundling the App Advantage: Evaluating Exam Performance-enhancing Features of Mobile Learning Apps in Accounting. International Conference on Information Systems (ICIS 2024). Bangkok.
[1] Die Transition-in-Phase ist eine Etappe des Studierendenzyklus nach Lizzio (2011). Dieser unterteilte das Studium in verschiedene, teils vor- und nachgelagerte Phase, in denen sich unterschiedliche studentische Identitäten je nach genuinen Herausforderungen, Aufgaben und Status ergaben.
Im Winter werden die Tage kürzer, und so lässt es sich kaum vermeiden, im Dunklen zu reisen. Für Autofahrer und -fahrerinnen stellt sich dabei ein besonderes Problem: Nachts, vor allem auf monotonen Strecken wie Autobahnen, kommt es zu Ermüdungserscheinungen wie Schläfrigkeit und Unaufmerksamkeit, teils sogar zum kurzen Wegnicken. Diese Phänomene bergen offensichtlich ein immenses Risiko, für die fahrzeugführende Person ebenso wie für Dritte im Fahrzeug oder andere, unbeteiligte Verkehrsteilnehmer und Passanten. Die nicht geringe Zahl an Unfällen, deren Ursache auf Ermüdungserscheinungen zurückgeführt werden kann, ist eine Motivation für die Forschung und die Suche nach Lösungen.
Professor Martin Golz aus der Fakultät Informatik der Hochschule Schmalkalden widmet sich diesen Fragen aus dem Forschungsfeld der Biomedizintechnik: Um ein Phänomen zu vermessen, muss man sich über dessen Definition im Klaren sein. Zunächst stellt sich also die Frage, was Vigilanz ist und im Gegenzug, in welchen Formen Ermüdungserscheinungen auftreten.[1] Wichtig ist dabei, verschiedene Aspekte zu differenzieren und zugleich die entscheidenden Faktoren auszumachen. Es geht also darum, ein oder mehrere verlässliche Kriterien zu finden, anhand derer Ermüdungserscheinungen detektierbar sind. Eine zentrale Herausforderung für die Forschung ist dabei, dass es keine verbindliche Definition der Ermüdung oder ihrer Anzeichen gibt und in der Folge bislang belastbare und dezisive Attribute fehlen.[2] Wie vermessen wir also Merkmale von Ermüdung?
Was ist eigentlich Ermüdung und wie zeigt sie sich?
Eine Gelegenheit, dieser Frage nachzugehen, ergab sich im Rahmen einer Anfrage aus der Wirtschaft, konkret der Tagebauindustrie: Im Minenbetrieb gibt es eine rege Logistik per Lastkraftwagen, die im Schichtbetrieb arbeiten.[3] Mehrere Faktoren, die im Regelfall Müdigkeit befördern, kommen hier zusammen: Lange Fahrten, monotone Strecken, stetige Wiederholung. Die Belastung nimmt nochmals durch die harschen Umweltbedingungen wie hohe Temperaturen und geringe Luftfeuchte sowie Staub zu. Kurzum: Ein Knochenjob, dessen hohe physischen und psychischen Belastungen regelmäßig zu Unfällen aufgrund von Ermüdung führen. Politische und ökonomische Akteure haben aufgrund der körperlichen und wirtschaftlichen Schäden und Folgekosten ein hohes Interesse, diese Unglücke zu vermeiden.
In der Industrie hat in den letzten Dekaden ein Umdenken stattgefunden, mit dem die Sorge um die Fitness der Beschäftigten in den Fokus trat: Mit dem fatigue risk management haben Strukturen und Umgangsformen in den Betrieb Einzug gehalten, die helfen, mit Ermüdungserscheinungen offen und bewusst umzugehen, diese frühzeitig zu erkennen und damit Unfälle zu vermeiden. Ferner sollen Vorgesetzte auf das Phänomen und das Risiko aufmerksam machen und die Belegschaft sensibilisieren. Um die Sicherheit der Fahrenden weiter zu fördern, sind Monitoringtechnologien sinnvoll und zweckmäßig, die Müdigkeitserscheinungen und Schlafereignisse autonom erkennen und bestenfalls verlässlich Alarm schlagen, bevor es zu Unfällen kommt. Hier kommen zwei Dinge zusammen: Zunächst die Vermessung der Erscheinungsformen von Ermüdung, und zum anderen eine Prognose. Beide Punkte müssen in der Forschung mit unterschiedlichen Ansätzen verfolgt werden.
Monitoringsysteme
Um den Einsatz der Monitoringsysteme bewerten zu können, musste zunächst eine Auswahl unter den auf dem Markt verfügbaren Systemen getroffen werden. Neben Wissenschaftler:innen wurden auch Beschäftigte und Vertreter der Unternehmen hinzugezogen: Aus der Gewichtung verschiedener Faktoren entstand ein Koordinatensystem, mit dem sich drei Monitoring-Modelle als sinnvolle Testfälle ermitteln ließen. Diese drei haben einen ähnlichen technischen Aufbau: Sie werden auf dem oder im Armaturenbrett befestigt und sind mit einer Infrarotkamera ausgestattet.
Die Ermüdung messen sie nach dem PERCLOS-Maßstab: Dieser bezieht sich auf die Zeit, während das Auge achtzig Prozent vom Lid verdeckt ist. Für diese Messung erfasst die Kamera verschiedene Aspekte, die sie aber nur in der Kombination des PERCLOS auswertet. Neben der Öffnung der Augenlider wird die Lidschlussdauer und die Pupillenweite in die Auswertung sowie u.a. die Kopfbewegung miteinbezogen. Offen ist neben der Aussagekraft des PERCLOS-Kriteriums selbst, ob ein oder mehrere Aspekte schon für sich valide Aussagen über die Ermüdung treffen. Für das Monitoring ist wichtig, einerseits eine hohe Sensibilität zu ermöglichen, andererseits aber möglichst Fehlalarme zu vermeiden, da dies wiederum die Akzeptanz verringern würde. So darf das Augenschließen bei blendendem Gegenverkehr eben nicht zum Alarm führen. In dieser Abwägung muss ein gangbarer Weg in der Anwendung gefunden werden.
Testfahrten im Labor
Aufgrund des Risikos verbieten sich Tests in Realsituationen. In der Folge griff Professor Golz auf eine computergestützte Fahrsimulation zurück, die die Vermessung von Ermüdungserscheinungen unter kontrollierten Bedingungen erlaubt. Zunächst galt es, die Testobjekte auszuwählen: Aus einer Vielzahl an Bewerbungen aus der Studierendenschaft der Hochschule Schmalkalden wurden mehrere geeignete Personen ausgewählt, um an dem Test teilzunehmen. Um die Ermüdung wahrscheinlicher zu machen – Ziel war ja deren Vermessung –, mussten die Partizipierenden einen bestimmten Tag-/Nachtrhythmus einhalten, ein Schlafprotokoll führen, auf Schläfchen am Tage verzichten und am Tag der Messung selbst wachhaltende Getränke wie Kaffee meiden. Simulierte Testfahrten wurden den realen Arbeitsroutinen der Kraftfahrer:innen des Tagebaus nachempfunden. Von 23:30 bis 08:30 mussten die sechzehn Teilnehmer:innen mehrere Einheiten von vierzig Minuten fahren. Das Testumfeld und die Testbedingungen waren so gehalten, dass sie Müdigkeit befördern: Die Strecke war monoton, es gab keinen Straßenverkehr und keine Ablenkung während der Fahrt. Zusammenfassend waren die wichtigen Kriterien der Studie, die Ermüdungserscheinungen wahrscheinlicher machen sollten: Time since sleep, time on task, time of day und das Monotonie-Empfinden.
Aufnahme aus dem Fahrsimulator (Quelle: Martin Golz)
Als Referenz zur ermittelten Müdigkeit wurde auf zwei etablierte Maßstäbe zurückgegriffen, die unabhängig von den anderen Werten funktionieren und somit als Kontrollvariablen dienen konnten: Zum einen die Selbsteinschätzung über den Grad der momentanen Müdigkeit, der in den Pausen zwischen den Fahrten abgefragt wurde (Karolinska sleepness scale). Zur Messung der subjektiv empfundenen Ermüdung hat sich diese neun-stufige Skala in der Wissenschaft als durchaus verlässlich erwiesen. Zum anderen die Position des Fahrzeugs auf der Straße: Ermüdungserscheinungen führen dazu, dass die Fahrzeuge die Fahrbahnmitte häufiger verlassen. Ein Übertritt über Fahrbahnmarkierungen lässt sich leicht ermitteln. Beide Kriterien sollen die Grundlage für die Bewertung der Monitoring-Systeme bilden. Als weitere Quelle der Vermessung wählte Professor Golz die EOG- und EEG-Signale, also die Augen- sowie die Hirnaktivität.
Wir kennen die Bilder des EEG zumeist aus dem Fernsehen: Ein Geflecht von Kabeln wird über einen Kopf gelegt und an verschiedenen Punkten Kontakt mit der Kopfhaut hergestellt. Über diese Kontakte lassen sich geringste Potentiale eines elektrischen Strömungsfeldes messen und folglich die Aktivität im Hirn in gewissem Maße nachvollziehen. Je nach Menge der Kontakte entstehen dann Aufzeichnungen einer Vielzahl an Wellen, die dem Laien nichts sagen. Die Auswertung dieser Diagramme ist eine höchst komplexe Angelegenheit und verlangt viel Erfahrung. Nur so lassen sich aus den Verschiebungen der Wellen, ihren Frequenzen und Amplituden und je nach Hirnareal differenzierte Rückschlüsse führen. Eine Frage ist, ob sich Ermüdungserscheinungen über dieses Verfahren exakt ermitteln lassen, bzw. ob eine Prognose eintretender Ermüdung möglich ist.
Erhebung und Auswertung der Daten
In einem ersten Schritt wurden die Daten der beiden unabhängigen Messungen mit den PERCLOS-Erhebungen der drei Monitoring-Systeme verglichen. Die Korrelation der PERCLOS-Werte mit den objektiven Messungen hielten nur oberflächlich stand: Sobald die zeitliche Auflösung feiner wird oder nur die Daten eines Individuums herangezogen werden, verlieren sich die hohen Korrelationswerte. Zusammenfassend ergaben sich signifikante inter- und selbst intrasubjektive Unterschiede über die Maßstäbe hinweg.
In einem zweiten Schritt versuchte Professor Golz zu klären, ob die EEG-Messungen als Referenz für eine Validierung der videobasierten Systeme zu dienen vermögen. Um hier eine Datenanalyse vornehmen zu können, wurde beide Messwerte simultan erhoben, und die Datensätze anschließend mithilfe der unabhängigen Variablen in starke und schwache Ausprägungen der Ermüdung unterteilt. Eine nichtlineare Diskriminanzanalyse sowohl der PERCLOS- als auch der EEG/EOG-Zeitreihen zeigte ein Defizit des PERCLOS, in hoher zeitlicher Auflösung zwischen schwacher und starker Ermüdung zu unterscheiden.
Aus diesen Ergebnissen ließ sich folgern, dass die Monitoringsysteme zwar unter Laborbedingungen gut arbeiten, hierfür aber wichtige Konditionen erfüllt sein müssen: Neben einer niedrigen zeitlichen Auflösung müssen die Daten vor der Auswertung möglichst über viele Personen hinweg gemittelt werden. Offen ist, ob die Messdefizite an der Ausrichtung der Systeme am Normalverhalten der Augenbewegung liegt, wodurch untypische Ausprägungen nicht oder falsch detektiert würden. Jedenfalls erwies sich das EEG/EOG-Signal als deutliche robustere Maßgabe zur Ermittlung der Ermüdung.
Am Ende lässt sich festhalten, dass der Weg hin zu funktionierenden Monitoringsystemen von Ermüdungserscheinungen noch ein weiter ist. Ein Problem ist dabei, dass bislang keine Klarheit darüber herrscht, wie sich Ermüdung zeigt, was also generalisierbare Kriterien und Messobjekte sind. PERCLOS hat hierbei nur sehr bedingt überzeugen können. Und da es in diesem Bereich buchstäblich um Leben und Tod geht, bedarf es mehr Forschung, um geeignete Maßstäbe für Monitoringansätze zu liefern.
Die Prognose von Mikroschlafereignissen
Auch wenn das EEG durchaus verlässlich Ermüdungserscheinungen detektieren kann, bleibt doch das praktische Problem bestehen, dass die Ermittlung der Daten aufwendig ist und sachverständiger Expertise bedarf. Um breitenwirksame Akzeptanz zu erhalten, müssen andere technologische Lösungsansätze gefunden werden. Das Forschungsfeld der Neuroinformatik hat hier also noch genügend Aufgaben. Gerade die Prädiktik, also die Prognose kritischer Ermüdungserscheinungen, birgt soziale und ökonomische Relevanz.
In einem anderen, aktuelleren Projekt widmete sich Professor Golz zusammen mit seinem Team der Vorhersagbarkeit von Mikroschlafereignissen unter zu Hilfenahme von EEG-Signalen.[4] Die Herausforderungen bestanden wiederum in der Komplexität der Signalcharakteristik und der hohen inter-individualen Variabilität, also unterschiedlichen EEG-Eigenschaften je nach Person. Die Idee war, die Amplituden des EEG durch fünf Methoden der Zeitreihenvorhersage zu analysieren. Neben der prädiktiven Qualität ging es auch um die Eignung verschiedener Messpunkte des EEGs, also welches Hirnareal sich besser bzw. schlechter für die Messungen eignet.
Professor Golz bei der jüngsten Vorstellung seines Forschungssemesterberichts
Die Daten entstammten verschiedenen Testfahrten im Schmalkalder Labor, die unter den gleichen Bedingungen entstanden sind wie jene der Ermüdungserscheinungen. Durch die Verwendung der Messwerte von 79 jungen, gesunden Personen konnte auf eine große Datenmenge zurückgegriffen werden. Auch wenn sich ein Modell der Zeitreihenprognose durch eine geringe Fehleranzahl hervortat, wurde klar, dass jeder EEG-Kanal andere Parameterkombinationen zu seiner optimalen Verwendung bedurfte.
Infolge dieser Komplexität sind Prognosen schwierig, gerade wenn der Zeithorizont mit fünf Sekunden angesetzt wird. Auch eine adaptive Klassifikationsanalyse, die dem dynamischen Charakter der Signale gerechter werden sollte, hatte zwar im ersten Schritt hohe Genauigkeiten, konnte diese Ergebnisse aber nicht in der Validierung reproduzieren. Die Leistungsfähigkeit der Vorhersage ist abschließend also vorhanden, aber noch recht gering. Um hier Verbesserungen zu ermöglichen, könnten optimierte Datensätze ebenso verwandt werden wie moderne Methoden, die auf künstliche Intelligenz zurückgreifen und dem dynamischen Charakter der Daten entsprechen. Am Ende kann jede Verbesserung der Prognostizierbarkeit helfen, Leben zu retten. Somit ist es sinnvoll, an der Erkennbarkeit von Ermüdung weiter zu forschen. Das Fahrsimulationslabor und das Archiv der gewonnenen Datensätze ist hierfür eine ideale Ausgangsbasis.
[1] Vigilanz stammt vom lateinischen vigilantia, das „Wachsamkeit“ und „Fürsorge“ meint. Vigilanz bezeichnet einen Zustand andauernder Aufmerksamkeit bei eintöniger Reizfrequenz und ist umgänglich ein Synonym von Wachheit, einem Aspekt des Bewusstseins. Für die Untersuchung der Vigilanz misst man die Fähigkeit einer Person zur Daueraufmerksamkeit.
[2] Die uneindeutige Verwendung der Begriffe Müdigkeit, Fatigue und Erschöpfung ist Teil des Problems. In der Forschung wird mittlerweile dafür plädiert, die drei Begriffe als distinkte Phänomene auf einem Kontinuum zu fassen, die in Relation gesetzt werden können. Vgl. Matti, N., Mauczok, C. & Specht, M.B. (2022): Müdigkeit, Fatigue und Erschöpfung: Alles das Gleiche oder Ausprägungen eines Kontinuums? – Ein Diskussionsanstoß. Somnologie – Schlafforschung und Schlafmedizin 26, 187-198.
[3] Golz, M., Sommer, D., Trutschel, U., Sirois, B., Edwards, D. (2010): Evaluation of fatigue monitoring technologies. Somnologie – Schlafforschung und Schlafmedizin 14, 187-199.
[4] Schneeweiß, L., Pauli, M. P., Golz, M. (2023): EEG-Vorhersage zur Prognose von Mikroschlaf, in: Stolzenburg, F., Reinboth, C., Lohr, T. & Vogel, K. (Hrsg.): NWK 2023 – Tagungsband der 23. Nachwuchswissenschaftler*innenkonferenz, Harzer Hochschultexte Nr. 14, Hochschule Harz, Wernigerode, 176-183.
In Zeiten obwaltenden Fachkräftemangels wird die Herausforderung für Unternehmen, qualifiziertes Personal anzuwerben oder auch nur zu halten, nicht eben geringer. Durch die Fluktuation der Beschäftigten ergeben sich nebst Potentialen frischen Winds auch Reibungsverluste, die Unternehmen vermeiden wollen. So bedarf neues Personal einer Einarbeitungszeit, und zugleich verlieren die Unternehmen mit den Mitarbeiter:innen immer individuell erworbenes Sach- und Handlungswissen. Auch müssen die Vakanzzeiten überbrückt werden, wodurch die Arbeitsbelastung der Kolleg:innen steigt. Mit den psychologischen Faktoren und Mechanismen, die dem Verbleiben der Beschäftigten dien- oder schädlich sind, befasst sich Katharina Sachse, Inhaberin der Professur für Wirtschaftspsychologie an der Hochschule Schmalkalden. Eine Studie, die diesen Themen empirisch nachgeht und zu der sie in Koautorinnenschaft mit Ulrike Gaedke jüngst einen Artikel veröffentlichte, stellte sie im Rahmen ihrer Antrittsvorlesung an der Hochschule Schmalkalden vor.
Faktoren der Bindung
Um zu verstehen, was Mitarbeiter:innen an ihren Arbeitsstellen hält, muss eine dementsprechende Perspektive eingenommen werden: Ein Faktor dieser Bindung lässt sich mit dem englischen „commitment“ umschreiben, dass begrifflich zwischen den Bedeutungen einer Verpflichtung sowie Einbindung und einer Hingabe sowie einem Engagement schwankt. Das Commitment besteht aus verschiedenen Komponenten: Im affektiven Commitment, das in der Studie im Fokus stand, geht es um eine gefühlte Bindung an das Unternehmen und den Job. Anders formuliert meint dies ein „Selbst-“Bekenntnis und „den Wunsch der Beschäftigten, Teil des Unternehmens zu sein und zu bleiben.“ Demgegenüber verschiebt sich im normativen Commitment die Relation: Es geht nicht mehr um die Wertschätzung des Unternehmens, sondern um eine wahrgenommene Verpflichtung gegenüber dem Unternehmen. Weil beispielsweise meine Firma mir diese kostspielige Weiterbildung finanziert hat, habe ich eine Bringschuld gegenüber dem Unternehmen und bin mit ihm verbunden. Als dritter Aspekt kann ein kalkulatorisches Commitment angeführt werden, das allerdings auf eine vergleichsweise oberflächliche Bindung aufgrund rationaler Erwägungen abhebt. Beschäftigte bleiben hierbei aufgrund individueller und situativer Vorteile, entwickeln jedoch keine tiefergehende Beziehung.
Die Frage der Studie ist nun, wie und ob die Bindungseffektes des affektiven Commitments mit der Einbettung in den Job und dem psychologischen Vertragsbruch zusammenhängen respektive sich positiv oder negativ auf die Mitarbeiterbindung auswirken. Um dies zu klären, wurde eine Online-Befragung von über fünfhundert Teilnehmenden vorgenommen und ausgewertet.
Passung und psychologische Verträge
Die Einbettung besteht nicht nur selbst aus verschiedenen Aspekten, es ist zudem wichtig, zwischen den Sphären des Beruflichen und des Privaten zu trennen, die hier beide einen distinkten Einfluss haben. Die Verbindungen sind der erste Aspekt: Sie beziehen sich auf das soziale Umfeld und die Aktivitäten, also neben dem Kreis der Kolleg:innen und den Führungskräften auch kollektive Teambuildingmaßnahmen auf der einen Seite, und das familiäre Umfeld sowie die Freundes- und Bekanntenkreise und die Freizeitaktivitäten auf der anderen Seite. Je besser sich der Job mit diesen Aspekten einer sozialen Qualität verträgt, umso höher sollte die Bindung sein. Die Passung als zweiter Aspekt zielt auf die Kompatibilität zwischen dem Individuum mit seinen Kenntnissen, Talenten und seiner Biografie und dem Anforderungsprofil des Jobs: Passt die Person also zum Job, oder kann sich diese an anderer Stelle besser und ihren Talenten gemäßer einbringen? Ein Mangel dieser Passung könnte also zu einer Über- oder Unterforderung bzw. zu Frustrationserfahrungen in der beruflichen Tätigkeit führen. Auf der anderen Seite ist es die Frage, wie sich die Anforderungen des Jobs mit einem gelingendem Sozialleben übereinbringen lassen – hier ist an Dinge wie Gleitzeit und weit mehr zu denken. Die dritte Komponente ist der Verzicht und meint die Vorzüge, die bei einem Jobwechsel seitens des Beschäftigten aufzugeben wären. Neben der Vergütung sind dies u.a. Home-Office-Regelungen, Job-Tickets, betriebliche Rentenversicherungen oder Möglichkeiten der Kinderbetreuung.
Der dritte Faktor ist der psychologische Vertragsbruch und seine Folgen. Wichtig ist es, den Bruch zu vermeiden, da dieser negative Effekte auf die Mitarbeiterbindung und dessen Arbeitsbereitschaft hat. Was ist der psychologische Vertrag? Anders als der Arbeitsvertrag ist dieser kein Teil direkter Aushandlung noch wird er schriftlich fixiert oder ist er einklagbar. Der psychologische Vertrag ist eine gegenseitige Erwartungshaltung, die durch verschiedene Situationen und beteiligte Akteure geprägt werden kann. Von Seiten der Beschäftigten kann dies bereits durch die digitale Selbstpräsentation des zukünftigen Unternehmens im Internet geschehen, durch das Image oder das Leitbild. Andere Prägungen können durch das Bewerbungsgespräch oder den Onboarding Prozess einfließen. Natürlich sind darüber hinaus auch Mitarbeitergespräche und ähnliches hier relevant. Im Resultat entsteht eine Erwartungshaltung des oder der Beschäftigten gegenüber der Organisation, seien es monetäre Versprechungen, die Ausrichtung der Arbeitsstelle, Weiterbildungen oder andere Dinge. Wird dieser Erwartung nicht entsprochen, kann es zum Bruch des psychologischen Vertrags kommen: Die Folgen sind ein Vertrauensbruch, Enttäuschung und eine sinkende Arbeitsmoral. Gerade weil der psychologische Vertrag nicht kodifiziert ist, fällt es in den Aufgabenbereich der Führungskräfte, auf Signale seiner Nichteinhaltung seitens der Beschäftigten zu achten.
Befragung und Auswertung
Katharina Sachse und Ulrike Gaedke gingen den Fragen der Mitarbeiterbindung über eine Online-Befragung Anfang 2024 nach, die sie über Karrierenetzwerke und eine Hochschule für berufsbegleitendes Studium verbreiteten. Die Stichprobe umfasste 512 Individuen, die einen Fragenkatalog ausfüllen mussten, der wiederum die verschiedenen Facetten und Dimensionen der Studie abdeckte.
Im Ergebnis der Studie kann resümiert werden, dass zwischen den angesprochenen Variablen ein direkter, starker statistischer Zusammenhang festgestellt werden konnte, und die Faktoren demnach die Mitarbeiterbindung stärken können. Eine These der Studie war, dass die Einbettung das affektiveCommitment stärkt, was wiederum zu einer höheren Mitarbeiterbindung führt. Auch wenn sich diese Annahme bestätigt fand, wurde gleichzeitig eine vom Commitment unabhängige Beziehung der Einbettung und der Mitarbeiterbindung festgestellt. Hier würde sich folglich eine Förderung lohnen.
Empfundene psychologische Vertragsbrüche verringern die Bindungswirkung der anderen Aspekte. Dabei sind die Vertragsbrüche keine Seltenheit: Ungefähr ein Viertel der befragten Personen konnte ein oder mehrere Beispiele nennen, wobei sich die meisten ungehaltenen Versprechen auf die Personalentwicklung und das Gehalt bezogen.
Mitarbeiter:innen binden
Im Resultat können Unternehmen, denen an der Mitarbeiterbindung aus guten Gründen gelegen sein sollte, nun auf Stellschrauben zurückgreifen. Neben klassischen Teambuildingmaßnahmen kann die Passung des Jobs beständig optimiert werden. Wichtig ist es bei diesen Maßnahmen, auf die individuellen Bedürfnisse der Beschäftigten zu achten und die Passung der privaten und der beruflichen Sphäre mitzudenken. Daneben sollten Unternehmen und speziell die Führungskräfte und die Verantwortlichen im Personalbereichs eine Sensibilität gegenüber dem psychologischen Vertrag ausbilden: Hierbei sind neben den expliziten Aussagen eben auch die impliziten Gehalte wichtig.
Der Artikel wird im April 2025 in der Zeitschrift Führung + Organisation (zfo) erscheinen. Die Studie konnten die beiden Wissenschaftlerinnen auch bei der 28. Fachtagung der Gesellschaft für angewandte Wirtschaftspsychologie (GWPs) in Hamm Anfang des Jahres vorstellen.
Seit dem Wintersemester 2024/25 hat Katharina Sachse die Professur für Wirtschaftspsychologie an der HSM inne. Sie promovierte an der TU Berlin zum Thema „Risikowahrnehmung und -verhalten privater Kapitalanleger“ und wirkte in verschiedenen Forschungsprojekten zur Kommunikation von Gesundheitsrisiken mit. Im Anschluss war sie als Arbeitspsychologin und Organisationsberaterin tätig. Zudem lehrte sie an verschiedenen Hochschulen, bevor sie 2016 eine Professur für Wirtschaftspsychologie an der FOM Hochschule in Berlin antrat. In ihrer Forschung beschäftigt sie sich mit Themen wie Commitment, Führung und Gesundheit in der modernen Arbeitswelt.
Was läge einer Hochschule in Süd-Thüringen näher als die Forschung am Material Holz, bildet dieses doch einen Großteil der natürlichen Umgebung Thüringer Wald und ist ein wichtiger Teil der regionalen Industrie? Als Werkstoff hat Holz kaum etwas an Relevanz verloren: Es ist ein hochwertiger, nachwachsender Rohstoff, der einerseits robust und günstig, andererseits vielseitig einsetzbar ist. Auch wenn Holzprodukte hochgradig verbreitet sind, so ist das Wissen um den Werkstoff und die komplexen Herausforderungen seiner Verarbeitung eher eine Mangelware. Dabei gibt es hier viel zu entdecken.
Vorangestellt werden muss die Unterscheidung zweier Verwendungsweisen des Materials: Neben der Nutzung von Vollholz, bei dem ganze Holzstücke aus dem Holzstamm gesägt werden und unter anderem als Bauhölzer wie Balken und Bretter Verwendung finden, gibt es eine Variante, bei der Bauteile durch Lagen dünner Holzblätter, die sogenannten Furniere, gefertigt werden. Diese Furnierlagenholzprodukte bestehen aus einzelnen Blättern, die verklebt und unter hohem Druck verpresst werden. Im Weiteren wird es uns um das Furnier als besonderen Werkstoff und spezifisch um den Aspekt der Formstabilität bei sich verändernden klimatischen Umgebungsbedingungen gehen, was im Fokus des Forschungsprojektes „FurForS“ steht.
Um Produkte wie Stühle oder furnierbasierte, edle Dekorflächen im Fahrzeuginnenraum zu fertigen, bedarf es einigem Aufwand und Kenntnis im Umgang mit Holz. Bislang beruhen viele Schritte in der Fertigung noch auf dem Erfahrungswissen der Beschäftigten: Hier kann die Wissenschaft helfen, indem sie das Verständnis des Werkstoffs Furnier vertieft. Eine offene Frage der Forschung ist zum Beispiel, ob sich das Verhalten von Furnierlagenhölzernberechnen lässt, und wie sich so die Verwendung und Fertigung optimieren ließe. Bevor wir aber zu Professor Dietzel und seinem Team der Forschungsgruppe Strukturmechanik an der Hochschule Schmalkalden kommen, beginnt unser Weg ganz klassisch beim Baum.
Werkstück mit integriertem LED-Leuchtmittel
Der lange Weg des Holzes
Unter Furnier versteht man 0,1 bis 7 mm dünne Blätter aus Holz, die unter Verwendung unterschiedlicher Verfahren vom Stamm abgetrennt werden. Das Wort selbst entstammt einer Entlehnung aus dem Französischen des 16.Jahrhundert: Fournir meinte ‚bestücken‘ und ‚beliefern‘ und bezog sich auf die Aufbringung edler, dünner Holzblätter auf weniger wertvolles Holz, also eine oberflächliche Veredelung. Heutzutage wird dies unter dem Begriff Deckfurnier gefasst, die als Lagen von Formteilen zum Einsatz kommen. Furnierblätter werden hierbei geschichtet, verklebt und verpresst: Nicht nur entstehen so robuste Bauteile, durch die Ausnutzung der richtungsabhängigen Eigenschaften der Furnierblätter können Parameter wie Flexibilität und Festigkeit in der Konstruktion gezielt genutzt werden. Hier ist das Wissen um die Eigenschaften der Furnierblätter und ihrer Komposition entscheidend.
Baum ist aber nicht gleich Baum: Da für die weiteren Verarbeitungsschritte nur Hölzer mit höchster Qualität Verwendung finden können, ist bereits die Auswahl der passenden Bäume der erste wichtige Schritt. Astlöcher und ähnliche Störungen im Holzbild, der Maserung, müssen vermieden werden. Es hat sich eine Einteilung in A-, B- und C-Hölzer etabliert, wobei sich für Deckfurniere nur Hölzer der ersten Kategorie eignen. Die Auswahl der Hölzer beruht auf der langjährigen Erfahrung der Fachkräfte, die die Stämme von Außen beurteilen müssen. Um den Rohstoff Holz nach der ersten Selektion nutzen zu können, muss ein längerer Weg beschritten werden.
Die Stämme werden zunächst entrindet und meisthin gewässert bzw. gekocht. Ist das Material so bearbeitbar geworden, kann der Stamm im nächsten Schritt gemessert, geschält oder gesägt werden. Die drei Verfahren haben unterschiedliche Vor- und Nachteile, und eignen sich demgemäß für verschiedene Hölzer und unterschiedliche Zwecke. Zum Beispiel unterscheidet sich die minimal mögliche Dicke der Furniere, die physische Beanspruch des Holzes im Fertigungsprozess und der Materialverlust beim Trennvorgang.[1] Allen drei Verfahren gemein ist, dass durch die Belastung materielle Veränderungen im Holz bewirkt werden: Neben dem feuchtebedingten Quellen meint dies unter anderem kleine Risse auf der Schnittseite des Furniers, die infolge einer notwendigen starken Biegung des Furniers während des Schneidvorgangs entstehen. Es gibt somit eine geschlossene und eine offene Seite des Furniers, die unterschiedliche Charakteristika zeigen, zum Beispiel in ihrer Reaktion auf Feuchte wie das Quellen und Schwinden. Bei allen späteren Verarbeitungsschritten muss die Strukturveränderung des Materials bedacht werden.
Struktur & Mechanik
An diesem Punkt setzt die Forschungsgruppe Strukturmechanik an: Was passiert im Holz durch den Einfluss verschiedener Faktoren wie Feuchtegrad- und Temperaturänderungen? Dabei ist es sinnvoll, nicht von den Lagenbauteilen – also gefertigten Komponenten aus mehreren Furnierlagen – auszugehen, sondern zunächst das einzelne Furnierblatt und die Effekte zu verstehen. Die hieran gewonnen Erkenntnisse können dann die Grundlage für eine Beschreibung der komplexen Charakteristik verbundener Schichten oder gar ganzer Lagenbauteile bilden. Gerade der Zusammenhang und die wechselseitige Beeinflussung der Furnierlagen mit verschiedenen Eigenschaften macht diese umfassende Beschreibung allerdings zu einer komplexen Herausforderung. Das Projektziel ist kurzum eine softwaregestützte Bewertung der Formstabilität von Furnierlagenholzwerkstoffen.
Messverfahren der Biegung
Die beiden Seiten des Furniers reagieren unterschiedlich auf Feuchte: Durch die Fissuren, also die kleinen Risse an der Oberfläche der Holzblätter, verändert sich der Feuchtetransport innerhalb des Holzes und damit die Vorgänge des Quellens und Schwindens auf den beiden Seiten. Eine Folge ist die Verkrümmung des Furniers. Ein weiterer struktur-mechanischer Faktor ist die Faserrichtung des Holzwachstums: Durch verschiedene Anordnungen der Blätter, quer oder parallel, lassen sich Eigenschaften wie Flexibilität oder Festigkeit in der Kombination verschiedener Lagen der Furnierblätter steuern. Wiederum ist der Ausgangspunkt für ein Verständnis des Zusammenhangs der Blick auf das einzelne Furnier. Dieses Verständnis strukturmechanischer Effekte verschiedener Umweltfaktoren kann dann wiederum in die Konstruktion der Produkte einfließen und die kompositorische Ausrichtung der Lagen anleiten.
Um sich die Auswirkung der Umgebungseffekte auf das Holz vor Augen zu führen, liegt der Blick auf einen klassischen Stuhl aus Lagenholz nahe: Je nach Temperatur, Luftfeuchte und Furnier-Charakteristik verändert sich die Form des Stuhls und so z.B. die Neigung der Lehne. Dieselben Stühle sehen folglich im Detail immer etwas anders aus und geben unterschiedlich nach, was zum Beispiel bei parallelen Stuhlreihen erkennbar und somit als optischer Mangel wahrgenommen wird. Neben diesen Anwendungsfeldern ist die strukturmechanische Beschreibung aber auch für Optimierung der Fertigung und die Auslotung der Grenzen des Werkstoffs Holz zielführend.
Im Fokus der Forschungsgruppe
In der Furnierverarbeitung beruhen auch heute noch viele Prozesse auf reiner Erfahrung mit dem Material Holz. Ohne diese individuelle Leistung zu schmälern, sind hier in Folge des technischen Fortschritts Potentiale der Optimierung zu vermuten. Das Schmalkalder Team um Professor Dietzel bemüht sich um eine Berechenbarkeit des strukturmechanischen Verhaltens des Furniers, um diesen Fortschritt zu bahnen. Einerseits sollen die existierenden numerischen Modelle um die Spezifika der Furniere erweitert , und andererseits relevante Parameter der Formstabilität identifiziert werden.
Wenn heutzutage eine Umstellung in der Fertigung vorgenommen wird, bedarf es noch einer längeren Anpassung, die nach dem Modus Trial-and-Error vorgeht. Die Umstellung ist zeit- und materialaufwendig, was dem Gebot der Effizienz widerspricht. Hier wären Modelle zweckmäßig einsetzbar, die Entscheidungshilfen und Einschätzbarkeiten bieten, und so den Prozess der Anpassung verkürzen. Ferner lassen sich die strukturmechanischen Einsichten auch nutzen, um gestalterische Prozesse wie Biegungen oder die Flexibilität zu optimieren.
Auch wenn der Werkstoff Holz in seinen verschiedenen Formen weitverbreitet ist, widmen sich ihm nur einige wenige Projekte. An der Hochschule Schmalkalden forscht seit nunmehr 18 Jahren die Forschungsgruppe Strukturmechanik zu den Möglichkeiten der mathematischen Beschreibung physikalischer Eigenschaften des Rohstoffs Furnier. Hierbei verbindet die Forschungsgruppe Aspekte der Grundlagenforschung mit anwendungsnahen Funktionsintegrationen in den Werkstoff Holz.
Einblick ins Labor
Das Kooperationsprojekt FurForS
Im Projekt FurForS kooperiert die Forschungsgruppe mit der TU Dresden, und somit die beiden wenigen Akteure der Forschung am Furnier. Am Dresdner Institut für Naturstofftechnik widmet sich die Forschungsgruppe Massivholz/Furnier um Prof. André Wagenführ Themen rund um den Werkstoff Holz in seiner natürlichen Form, aber auch Holzverbundwerkstoffen. In der Kooperation mit der HSM konzentriert sich Dresden auf die kleinskalige Analytik der Furnierblätter, also den mikroskopischen Veränderungen der Strukturen, die sich zum Beispiel durch eine Behandlung in der Klimakammer ergeben.
An dem Schmalkader Team ist es indes, berechnungstechnische Ansätze zu entwickeln, Modellierungen vorzunehmen und Parameter und Faktoren zu taxieren, die einen signifikanten Einfluss auf die Strukturmechanik haben. Das Ziel ist hierbei die Entwicklung von Berechnungsmodellen, die sich auf die individuellen Eigenschaften von Furnierlagenhölzern anpassen lassen. Die Vermittlung zwischen einer Generalisierung und einer individuellen Anpassung verlangt einen hohen Rechenaufwand des Modells, der sich mit der Hinzunahme mehrerer Schichten potenziert. Bei diesem Ansatz verbindet sich die Strukturmechanik mit der Informatik, wobei der materialwissenschaftliche Fokus leitend bleibt.
Zusammengefasst haben sich die verschiedenen Projektpartner, neben der HSM und TUD auch die Kreutzfeldt GmbH & Co. KG und die GbR Lie-Design, in dem Ansinnen zusammengefunden, die Form- und Eigenspannungsänderungen von Lageholzprodukten mit modellgestützten Prognosen vorauszuberechnen. Die Modelle haben eine Gültigkeit ebenso für die Fertigung wie den späteren Einsatz, und können in beiden Hinsichten eine Optimierungsleistung erreichen, zum Beispiel was die Effizienz im Herstellungsprozess anbetrifft. Das gemeinsame Ziel der Projektpartner ist es, durch ein vertieftes Verständnis des Werkstoffs Holz seine Nutzung weiter zu optimieren und die Grenzen der Anwendung weiter auszuloten. Von der bisher genutzten Erfahrung soll es hin zu Berechungsmodellen gehen, die durch Simulationen und numerische Abbildungen das Verständnis des Materials vertiefen.
Holzblatt-Schichten vor der Pressung
Verortung an der HSM
Professor Andreas Dietzel wurde im Herbst 2021 auf die Professur „Konstruktion, Fertigungsmesstechnik und CAD“ an der Fakultät Maschinenbau berufen und engagiert sich seitdem in der Forschungsgruppe Strukturmechanik. Für ihn ist dieser Bereich keineswegs Neuland, promovierte er doch an der Hochschule Schmalkalden und der Technischen Universität Ilmenau zum Thema „Modellgestützte Ermittlung und Bewertung der Formgebungsgrenzen von Rotbuchenfurnier“ bei Professorin Hendrike Raßbach.
Auch wenn gerade Hochschulen angewandter Forschung durch den bürokratischen Aufwand der Einwerbung von Drittelmittelprojekten vor nicht eben geringe Herausforderungen gestellt werden, konnte Professor Dietzel mit den beiden wissenschaftlichen Mitarbeitern Dr.-Ing. Dennie Supriatna und M.Eng. Daniela Pachatz ein motiviertes Team zusammenstellen, das sich nun in dem Projekt FurForS einbringt.
[1] In der Handreichung „Furnier im Innenausbau“ finden sich hierzu weitaus ausführlichere Informationen. (Vgl. Initiative Furnier + Natur e.V., Furnier im Innenausbau. Definitionen – Eigenschaften – Verarbeitung – Anwendungsbeispiele“, Dresden 2011, S. 8 – 13)
Mit der Sammlung von Daten, dem umgangssprachlichen Gold unseres Zeitalters, haben wir uns schon oft befasst. Die Unmenge an Datenmaterial, die infolge der Digitalisierung unter anderem der industriellen Produktion und Teilen der menschlichen Kommunikation zur Verfügung steht, eröffnet unserer Gegenwart völlig neue Wege und Tiefen der Analyse. Kurzum erlauben es die Expansivität moderner Sensorik und die Steigerung der Rechenleistung und Verarbeitungskapazitäten, große Mengen an Informationen aufzunehmen, zu ordnen und Erkenntnisse aus den gesammelten Daten zu gewinnen.
Mit dieser Entwicklung erlangt der spezifische Forschungsbereich der Data Analytics immer mehr an Bedeutung. Hierbei geht es um die Werkzeuge, die Technologien und Prozesse, mit deren Hilfe Muster, Verläufe und Problemlösungen gestützt auf ein Konvolut an Daten ermittelt werden können. Neben der eigentlichen analytischen Auswertung ist die Sicherung der Qualität der Datensätze und eine effiziente Archivverwaltung für die weiteren Schritte elementar.
Können elektrische Schafe halluzinieren?
Mit der Verbreitung KI-gestützter Technologien traten Phänomene in den Fokus der Öffentlichkeit, die der Data Analytics thematisch nahestehen: Infrage steht vereinfacht formuliert, ob zum Beispiel Chat GPT lügen kann. Bei manchen Anfragen kam es zu Ausgaben, die schlicht falsch waren, unter anderem ganz offensichtlicher Fehlurteile wie die Anzahl bestimmter Buchstaben in einem Wort. Dieses Phänomen wurde als Halluzination beschrieben und erhielt einige Aufmerksamkeit: Die Ermittlung der Ursache der Fehlausgabe hatte das Problem der Komplexität des Programms, aber nicht nur der Architektur der künstlichen Intelligenz mit seinen Legionen an Knotenpunkten und Schichten, sondern auch in Hinsicht der Datenmengen und deren komplexer Verwaltung. Letzterer Aspekt zielt auf die Archivstrukturen und den Umgang mit den riesigen Datenmengen und -banken, die großen Sprachmodellen wie Chat GPT für den Trainingsprozess zugrunde liegen.
Neben der Frage, warum diese Fehler überhaupt aufkamen, war auch offen, an welchen Zeitpunkt sie entstanden. Die Programme selbst waren selbstredend nicht zur Ausgabe falscher Antworten angehalten, gleichwohl verlangt der Umgang mit der natürlichen Sprache und manche Formen der Anwendung eine gewisse Qualität der Kreativität, also der Dehnung und Übertragung, die die Programme leisten müssen. Zum Beispiel bei dem Wunsch, den dritten Akt von Romeo und Julia in der Sprache modernen Ostküsten-HipHops zu reformulieren – ein solches Werk existiert bislang nicht, das Modell muss also selbst kreativ werden um diese Anfrage zu beantworten. Es werden große Anstrengungen unternommen, die Anzahl der Halluzinationen von Modellen zu minimieren, was auch die Relevanz zeigt, wie Daten verwertet und verarbeitet, Datensätze gereinigt oder auch korrumpierte Daten aussortiert oder gerettet werden. Und weiter, wie komplexe Technologien mit einem Gros an Datensätzen interagieren. Und hier setzt die Data Analytics an.
Was ist Data Analytics?
Die Data Analytics befasst sich mit der Analyse von Daten und deren Auswertung zu unterschiedlichen Zwecken. Sie ist ein multidisziplinäres Forschungsfeld zwischen der Informatik, der Mathematik und der Statistik sowie weiterer Bereiche, die produktiv verknüpft werden. Generell lässt sich die Data Analytics in vier Ansätze unterteilen: Die deskriptive Analyse versucht zu beschreiben, welche Veränderungen bereits geschehen sind. Dagegen zielt die diagnostische Analytik auf eine Erklärung, warum etwas wie passiert ist. Die letzten beiden Zugänge schlagen eine andere Richtung ein: Aus den Daten Prognosen über zukünftige Entwicklungen abzuleiten ist das Ziel der prädiktiven Analysen. Diese Prognose wird im Falle der präskriptiven Analytik noch durch die optimale Reaktion ergänzt. Die unterschiedlichen Ansätze verfolgen nicht nur verschiedene Ziele, sie gehen auch anders mit den Daten um und haben differenzierte Ansprüche an die Daten.
Seit gut zwei Jahren hat Constantin Pohl die Professur für „Data Analytics“ an der Fakultät für Informatik der Hochschule Schmalkalden inne und nutzt die Gelegenheit seiner Antrittsvorlesung, ein Licht auf verschiedene Facetten seiner Forschung und seiner Lehre zu werfen. Bereits in seiner Dissertation befasste er sich mit der Frage, wie sich moderne Hardware zur Beschleunigung von Datenbank-Anfragen optimal nutzen ließe. Anders formuliert war das Thema, wie Datenverwaltungen strukturiert und organisiert sein müssen, um Ressourcen und Kapazitäten bedarfsgerecht zu nutzen und Suchanfragen effizient zu verarbeiten. Die Datenmengen auf Servern nehmen einerseits beständig zu und macht Suchvorgänge aufwändiger und langsamer, zugleich erlauben die vielen Kerne moderner Prozessoren über das Multithreading parallele Verarbeitungen. So gilt es, Managementsystem für Datenbanken und Datenströme zu entwickeln, die den neuen Anforderungen gerecht werden und zudem die technischen Möglichkeiten optimal nutzen.
Öl-Druck und Reparaturzyklen
In einem zurückliegenden Forschungsprojekt widmete sich Constantin Pohl der Frage, wie KI-Modelle für die Wartung von industriellen Anlagen und Maschinen wie einem Druckluftkompressor genutzt werden können. Das Ziel ist, Wartungsarbeiten an Verschleißteilen nicht mehr an fixen Zeitpunkten oder nach Werkzeugausfällen anzusetzen, sondern vorausschauend anhand konkreter und in Echtzeit erhobener Daten der laufenden Maschinen. Um diese Optimierung zu realisieren ist eine Prognose wichtig: Anhand von Sensordaten sollen Aussagen über die Zukunft getroffen werden, zum Beispiel das ein Filter noch 22 Stunden halten wird, bevor er gewechselt werden sollte. Hieran ließen sich dann entsprechende Reparaturmaßnahmen orientieren.
Die Ausgangsbasis sind wieder verschiedene Sensoren, welche die Maschinen anhand unterschiedlicher Parameter vermessen. In dem konkreten Projekt wurden 26 Merkmale sensorisch erfasst, neben der Temperatur und der Ölqualität auch der Differenzdruck zwischen verschiedenen Filtern. Bevor mit diesen Daten aber Aussagen getroffen werden können, mussten die Algorithmen anhand der Ausfälle der Kompressoren trainiert werden. In Regressionsmodellen wurden unterschiedliche vorverarbeitete und ausgewählte Datenmengen genutzt, um Ausfälle vorherzusagen. Wichtig ist dabei zu verstehen, dass es hier nicht um eine Größe wie die Temperatur ging, um diese Prognose zu machen: Die Modelle berücksichtigen viele Daten und ihre Verläufe, auch über eine längere Zeit, und verknüpften diese zugleich. Diese komplexen Berechnungen sind die spezifischen Leistungen der KI-Modelle, die zur Erkennung von Mustern und Strukturen sowie Abweichungen geeignet sind.
Am Ende des Projektes ließ sich die Prognostizierbarkeit grundsätzlich umsetzen. Mit einem entwickelten Ölsensor und der Nutzung der regulären Sensorik konnten die fehlerhaften Vorhersagen auf 0,09% reduziert werden. Auch die maximalen Abweichungen waren bei einer Gesamtzahl 158.000 Vorhersagen nur in einem Fall bei sechs Tagen und ansonsten bei einem Tag. Der entscheidende Faktor für die erfolgreiche Ermittlung und Prognose ist der Ölsensor.
Datenströme
Neben dieser Thematik befasst sich Professor Pohl auch mit Fragen des Stream Processing: In der Datenverarbeitung lassen sich zwei Ansätze unterscheiden, die sich für verschiedene Anwendungen und Ziele eignen. Der klassische Weg ist die Paketlösung: In einem bestimmten Zeitraum werden Daten erfasst und dann als Block archiviert. Im Anschluss können diese Daten verarbeitet und ausgewertet werden. Offensichtlich ist hierbei die große Latenz, also die Zeitspanne, die zwischen der Messung und den Ergebnissen einer Auswertung steht. Das Stream Processing zielt dagegen auf die Auswertung der Datenströme in Echtzeit, wobei durch diesen Fokus andere Imperative der Verarbeitung wichtig werden.
Die Analyse von Datenströmen steht vor der Herausforderung, eine permanente Aufnahme und Verarbeitung zu gewährleisten. Die Auslastung muss so gestaltet werden, dass durch die Interaktion verschiedener Komponenten keine Flaschenhälse oder Stausituationen entstehen. Kurzum geht es darum, effiziente Strukturen zu etablieren, die eine möglichst permanente und effiziente Verteilung und Verarbeitung erlauben und die Kapazitäten entsprechend nutzen.
Constantin Pohl befasst sich mit der Entwicklung und Erprobung von Stream Processing Engines. Im konkreten Fall ging es um die Vorhersage des Zielhafens und der Ankunftszeit. Die pendelnden Schiffe geben während ihren Reisen permanent Informationen weiter, zum Beispiel über ihre Position, ihre Geschwindigkeit und den Schiffstyp, die in einem komplexen Modell für Vorsagen ihrer Zielhäfen genutzt werden können. Kurzum bietet sich so die Möglichkeit, über eine Einschätzung einer komplexen Sachlage mit vielen Akteuren und zu beachtenden Parametern Strategien der Optimierung der Zielhäfen zu entwickeln.
Fußstapfen
Constantin Pohl hat bislang noch eine Juniorprofessur an der Hochschule Schmalkalden, die im Rahmen des bundesweiten Projektes „FH-Personal“ geschaffen wurde. Mit seiner Berufung wurde die Professur von Martin Golz zu einer Schwerpunktprofessur, die es diesem erlaubt, das Lehrdeputat zu senken und sich vermehrt der Forschung zu widmen.
Professor Pohl kann seine Arbeit in einem laufenden Lehr- und Forschungsbetrieb aufnehmen und den Lehrstuhl intensiv kennenlernen. Ziel ist es, die Reibungsverluste zu minimieren und durch geteilte Wege strukturelle Kontinuitäten zu etablieren. Er unterrichtet neben Grundlagen der Daten- und Wissensverarbeitung auch Deep Learning Architekturen und Wissensentdeckung in Datenbanken. Als Mitglied im Prüfungsausschuss der Fakultät Informatik widmet er sich gemeinsam mit den anderen Mitgliedern den Problemen der Studierenden in Prüfungsangelegenheiten. Auch am Hochschulinformationstag und dem Absolvententreffen stellte er sich und seine Forschung dem interessierten Publikum vor.
Mitte Juni durfte die Hochschule Schmalkalden den Tag der Ingenieurwissenschaften unter dem Titel „risING. Regionale Innovationen, globale Transformationen“ ausrichten. In einem ganztägigen, abwechslungsreichen Programm präsentierten sich die Thüringer Ingenieurwissenschaften zugleich sich selbst und der interessierten Öffentlichkeit. In Vorträgen konnten sich verschiedene Projekte aus Forschung und Lehre vorstellen und Nachwuchswissenschaftler:innen in einem Pitchwettbewerb beweisen. Abgerundet wurde das Programm durch eine Präsentation aller eingereichten Poster und eine Ausstellung von Kooperationspartnern im Foyer. Prägend in allen Hinsichten blieb die thüringenweite, kooperative Ausrichtung der Ingenieurwissenschaften, die auch ein Markenkern der Allianz Thüringer Ingenieurwissenschaften darstellt.
Die Allianz THÜR ING ist ein Bündnis von sieben Thüringer Hochschulen mit ingenieurwissenschaftlichen Studiengängen, das es sich zu Aufgabe gemacht hat, die Bekanntheit der Ingenieurwissenschaften in der Öffentlichkeit zu steigern. Ziel dieser Kooperation ist es zudem, junge Menschen für das Studium der Ingenieurwissenschaften zu begeistern und zu diesem Zweck die Vielfalt der Studiengänge, die Anwendungsnähe und die innovative Relevanz hervorzukehren. Ab von vielen weiteren wissenschaftskommunikativen Offerten sind es die Tage der Ingenieurwissenschaften, die eben solche Impulse setzen sollen. Neben der Allianz THÜR ING unterstützte die Thüringer Ingenieurskammer das Organisationsteam der Hochschule Schmalkalden bei der Umsetzung des Tages, zum Beispiel bei der Bewertung der Pitches und der Preisverleihung am Ende der Veranstaltung.
Um was es geht: Die Relevanz der Ingenieurwissenschaften
In seiner Begrüßungsrede wies Professor Gundolf Baier, Präsident der Hochschule Schmalkalden und Sprecher der Allianz THÜR ING, auf die verschiedenen gesellschaftlichen Herausforderungen unserer Gegenwart hin, auf welche die Ingenieurwissenschaften innovative Antworten finden müssten und auch würden: Neben der Demographie seien dies die Digitalisierung und die Dekarbonisierung – kurz die großen D‘s. Gerade im Falle der letzten beiden Herausforderungen werden die Potentiale der Ingenieurwissenschaften deutlich: Die techno- und ökologischen Transformationsprozesse prägen bereits unsere Gegenwart und unseren Alltag von der Kommunikation über Behördengänge bis hin zu Einkäufen, und werden dies in Zukunft wohl immer stärker tun. Darüber hinaus spielen die D’s aber auch eine immer größere Rolle für die Wirtschaft und den Standort Deutschland.
Hochschulen angewandter Wissenschaften nehmen die letzten beiden Impulse gesellschaftlicher Transformationen in ihrer Forschung auf und versuchen, neben ebenso relevanten Aspekten von Grundlagenarbeiten, anwendungsnahe Lösungsansätze für Gesellschaft und Wirtschaft zu entwickeln. Diese Implementierbarkeit ihrer Forschungsarbeiten und die Arbeit an konkreten Problemen ist ein gewichtiges Pfund, die mehr in die Wahrnehmung der Öffentlichkeit gerückt werden soll.
Anlässe wie die Tage der Ingenieurwissenschaften lassen sich nutzen, um mit der Öffentlichkeit in Kontakt zu treten und diese über die Tätigkeiten und die Sinnhaftigkeit der Ingenieurwissenschaften zu informieren: Was sind die Themen der Ingenieur:innen, vor welchen Herausforderungen stehen sie und wie gehen sie mit den Aufgaben um? Welche Bereiche umfasst das ingenieurwissenschaftliche Spektrum und wie gestalten sich die internen und externen Austauschbeziehungen, zum Beispiel zu den Forschungseinrichtungen von Unternehmen? Wie lassen sich Patente einrichten, Start-Ups gründen oder Forschungsdaten in der wissenschaftlichen Community teilen? Der Tag der Ingenieurwissenschaften nutzte die Gelegenheit, um ein Licht auf diese verschiedenen Aspekte zu werfen.
risING: Impulse der Politik
Der Tag der Ingenieurwissenschaften steckte sein thematisches Portfolio bereits in seinem Titel „risING. Regionale Innovationen, globale Transformationen“ ab. Einerseits wird hierbei ein Bezug zur RIS-Strategie der Landesregierung hergestellt, die wiederum auf eine regionale Innovationsstrategie abzielt: Im Hinblick auf verschiedene Felder und thematische Komplexe rund um Zukunftsfragen wurden Akteure der Thüringer Forschungslandschaft anhand ihrer Schwerpunkte und Kompetenzen markiert. Das Ziel ist, dass die beteiligten Institutionen und Personen zu verknüpfen und den Austausch an Wissen und Expertise anzuregen, um und so schließlich die Forschung gemeinsam voranzutreiben. In Kooperationen lassen sich die Potentiale ganz unterschiedlicher Akteure und Regionen Thüringens produktiv nutzen, so die dahinterstehende Idee. In einem kleinen Bundesland wie Thüringen kann Forschung keine One-Man-Show sein, vielmehr legen die kurzen Wege eine enge, produktive Zusammenarbeit und die intensive Vernetzung nahe.
Kooperative Projekte sind in der Forschungslandschaft zwar keine neue Erscheinung, doch nimmt die Zusammenarbeit von Hochschule, außeruniversitären Forschungseinrichtungen und Partnern aus Wirtschaft und Gesellschaft immer mehr zu. Da sich so die verschiedenen Schwerpunkte unterschiedlicher Akteure einbringen und die Beteiligten die Heterogenität der Forschungslandschaft gewinnbringend nutzen können, bieten sich diese Kooperationsprojekte zur Präsentation ingenieurwissenschaftlicher Aktivitäten und deren interdisziplinärer Potentiale an.
Forschungsprojekte: Intelligente Mobilität und 3D-Elektronik-Systeme
Am Tag der Ingenieurwissenschaften konnte Professor Frank Schrödel von der Hochschule Schmalkalden die hochschulübergreifende Forschungsgruppe vernetztes und kognitives Fahren, kurz CoCoMobility, vorstellen. Neben der HSM sind die Fachhochschule Erfurt, die Technische Universität Ilmenau und die Bauhaus-Universität Weimar an diesem Forschungsprojekt zum Thema intelligente Vernetzung moderner Mobilität beteiligt. Die Vielfältigkeit der Kooperationspartner spiegelt die Differenziertheit der hier einbegriffenen Themen: Neben der intelligenten Verkehrsinfrastruktur und der Vernetzung von Fahrzeugen, Infrastruktur und Testumgebungen arbeitet die Forschungsgruppe an Effekten auf den Verkehr, Aspekten der Sicherheit sowie an Einflüssen der Umwelt.
Die Umsetzung der neuen Mobilität angefangen beim autonomen Fahren bis hin zur smarten Verkehrslenkung bedarf der Kommunikation, zum Beispiel zwischen den Mobilen und der Infrastruktur. An dieser intelligenten Konnektivität forscht der Projektpartner TUI. Die BUW fokussiert sich auf den Ablauf des Verkehrs, also Fragen der Vorhersagbarkeit und u.a. individuell als angenehm empfundener Abstände. Die Steigerung der Verkehrssicherheit vulnerabler Gruppen steht im Blickfeld der FHE. Und die HSM widmet sich der menschenzentrieten autonomen Entscheidungsfindung im Kontext der autonomen Mobilität. In diesem kooperativen Forschungsprojekt können die unterschiedlichen Partner ihre Expertise einbringen.
Professor Roy Knechtel nutzte die Gelegenheit, um den neuen Forschungsschwerpunkt 3D-Elektronik-Systeme der Hochschule Schmalkalden vorzustellen. Die Welt der Mikroelektronik ist noch heute weitgehend eine Scheibe, sind doch jene dünnen Siliziumscheiben, die sogenannten Wafer, die Grundbausteine. Dennoch lässt sich ein Trend hin zur Dreidimensionalität feststellen: Um die Funktionen moderner smarter Geräte wie Handys oder Uhren erfüllen zu können, müssen Chips, Sensoren und andere technische Komponenten in die dritte Dimension wachsen: Kurzum geht es darum, hochkomplexe Bauteile zu stapeln und zu verbinden, um so immer kompaktere, effizientere Komponenten zu erzeugen und den Erfordernissen von Funktionalität, Formfaktor, Passgenauigkeit und Rentabilität gerecht zu werden.
Das Ziel des Projektes ist die Herstellung komplexer mikroelektronischer Bauteile direkt auf dem wafer, um so auch die Wertschöpfung einer bislang recht globalisierten Industrie vor Ort halten zu können. Um die für diese Bauteile notwendige Präzision erreichen zu können, muss ein Fokus auf den Materialien und der Strukturanalyse ihrer Charakteristika liegen. Neben Martin Seyring aus dem Team von Roy Knechtel ist mit Stephanie Lippmann von der FSU Jena und dem dortigen Otto-Schott-Institut für Materialforschung im Projekt für diese Aspekte eingebunden. Aber auch Unternehmen wie X-Fab beteiligen sich als Partner aus der Wirtschaft an diesem Forschungsschwerpunkt.
Nachwuchs: Die vielen Facetten der Ingenieurwissenschaften
Am Tag der Ingenieurwissenschaften gab auch dem akademischen Nachwuchs in unterschiedlichen Hinsichten Raum: Schon vor Längerem gab es einen Call for Poster, der um Einreichungen zu innovativen Themen der Thüringer Ingenieurwissenschaften aufrief. All diese eingereichten Poster wurden im Rahmen einer Präsentation per Slideshow gezeigt und gaben während der Pausen zu Gesprächen Anlass. Zudem wählte eine Jury aus den Einreichungen zwölf aus, die dann am Tag der Ingenieurwissenschaften ihr Poster in einem Pitch vorstellen konnten. Am Ende der Veranstaltung wurden wiederum durch eine Jury, unter anderem mit Vertreter:innen der Ingenieurskammer besetzt, die besten drei Pitches ausgewählt und die Gewinner mit einem Preisgeld bedacht.
Hier ist nicht genügend Platz, alle Beiträge eingehend zu würdigen, daher muss eine Synopsis genügen. Alle Pitches werden in Bälde auf dem Youtubekanal der Allianz THÜRING verfügbar sein, alle Poster sind auf der Seite der Hochschule Schmalkalden im Bereich Forschung zu finden. Zudem werden die Präsentationen, sofern möglich, ebenso auf diesen Seiten veröffentlicht.
Martin Patrick Pauli von der Hochschule Schmalkalden verdeutlichte die Folgen des Data-Leakage-Problems, welches bei dem Training von KI-Algorithmen mit Daten auftreten kann. Letztlich kann es dabei zu überoptimistischen Annahmen der Trefferquoten und damit zu einer Verzerrung der Ergebnisse kommen. Um diese nur scheinbare Lösung zu vermieden, gilt es ebenso aufmerksam gegenüber den Daten und ihrer Aufbereitung zu bleiben wie es nützlich ist, auf verschiedene Kontrollmethoden in der Datenverarbeitung zurückzugreifen.
Christian Diegel von der Technischen Universität Ilmenau stellte in seinem Pitch ein Verfahren vor, beim dem es um eine Optimierung des Laserstrahlschweißens geht. Infolge der hohen Prozessgeschwindigkeit lösen sich aus dem Schmelzkanal Spritzer ab, die dann wieder mehr oder weniger aufwändig entfernt werden müssen. Durch die Addition einer Nebenintensivität nahe dem zentralen Laser ließe sich das Schmelzbad vergrößern und so die Dynamik des Materials verringern, wodurch es wiederum weniger Ablösungen gäbe, so der Ansatz. Durch die Einbringung von Tracer-Teilchen ins Material konnte mithilfe von Hochgeschwindigkeits-Röntgenuntersuchungen die Fluidität des Materials beobachtet und Wege zur Optimierung des Laserschweißens gefunden werden.
Tobias Tefke stellte den Aufbau eines Ethical-Hacking-Labors inklusive einer Capture-the-flag-Umgebung vor, die den Studierenden der Informatik an der Hochschule Schmalkalden helfen soll: In virtuellen Arbeitsumgebungen geht es darum, mögliche Schwachstellen in der Infrastruktur von Softwaresystemen zu finden und die Lücken in der Sicherheit zu schließen. Hier verknüpfen sich also Ansätze der Informatik und der Didaktik.
Analoger nimmt sich das Projekt von Lucas Hauck, ebenfalls von der Hochschule Schmalkalden, aus: Er geht den technischen Herausforderungen, den Möglichkeiten und Grenzen der additiven Fertigung elektronischer Bauteile im dreidimensionalen Raum nach. Der 3D-Druck besticht dabei durch ein Angebot vieler Verfahren und die mögliche Verwendung unterschiedlicher Materialien sowie die Aufbringbarkeit auf multiple Untergründe. Hauck geht diesem Komplex anhand eines 3D-Druck-Systems nach, wobei dessen Flexibilität der möglichen Verfahren das Angebot denkbarer Lösungswege vervielfacht und übersichtlich macht. Um den Aufwand individueller Ansätze zu minimieren, soll ein grundlegender Verfahrenskatalog entwickelt werden, der den Umgang mit solchen Geräten über Designregeln standardisieren und vereinfachen soll.
Wie können Drohnen und künstliche Intelligenz die Bauindustrie unterstützen? In ihrem Pitch umriss Lisa Schneeweiß das Projekt BauKiRo, das sich neben der Aufzeichnung des Baufortschritts auch dem Vergleich der realisierten Bauausführung mit dem Bauplan widmet. Dieser Kooperation der HSM mit der FAU Erlangen-Nürnberg steht vor den Herausforderungen des Einsatzes von Drohnen in komplexen Umgebungen und KI-unterstützten Auswertung von Videoaufnahmen und dem Abgleich mit vorliegenden Plänen. Der Zweck dieses Projektes ist unter anderem, Baumängel frühzeitig zu erkennen.
Sreekar Babu Malli vom ThIWert, dem Thüringer Innovationszentrum für Wertstoffe, befasst sich im Projekt SeRo.inTech mit innovativen Technologien, wertvolle Rohstoffe aus Abfällen zu gewinnen. Er stellte das Kooperationsprojekt der HSN mit der BUW am Beispiel von Sperrmüll vor: In der üblichen Entsorgung von Abfällen bleiben Teile an verwertbaren Materialien und Rohstoffen ungenutzt. Das Projekt versucht unter anderem, die die großen Bestandteile an Holz im Sperrmüll aufzubereiten. Daran schließt sich eine Verteilung der Objekte nach Qualität und möglicher Weiterverwendung an. Ziel ist es, einen möglichst abgeschlossenen Kreislauf der verwendeten natürlichen Rohstoffe zu realisieren und selbst qualitativ minderwertige Materialien nachhaltig zu nutzen.
Michael Werner von der Hochschule Schmalkalden stellte das Innovationslabor KIOptiPak vor, das wiederum ein Teil des KI HUB Kunststoffverpackungen ist. Ziel dieser Kooperation verschiedener Partner aus Wissenschaft und Wirtschaft ist es, Kunststoffverpackungen so zu gestalten, dass die Wiederverwertbarkeit maximiert und die Kunststoffabfälle von Verpackungen minimiert werden. Das KIOptiPak zielt dabei auf die Frage, wie Verpackungen designt sein müssen, um dieses Ideal eines Kreislaufs zu erreichen, zum Beispiel im Hinblick auf das verwendete Material und die direkte Einbeziehung von Vorgaben des Recyclings. Werners Interesse lag dabei auf der Qualität des wiederaufbereiteten Kunststoffreziklats und dem Umgang mit Schwankungen des Materials in der Verarbeitung. Diese Erkenntnisse sollen dann in KI-Modelle einfließen, die anhand der Vermessung des verwandten Materials schon bei laufender Produktion Angaben über die Güte und Verwendbarkeit des Produkts geben können.
Ein Thema, das Aspekte von Forschung und Transfer mit einem didaktischen Ansatz verknüpft, stellte Carsten Gatermann von der TUI vor: Ausgangspunkt war die Frage eines Schülers, ob sich eine vertikale Windenergieanlage auch in Privathaushalten installieren ließe. Neben den elektrotechnischen Fragestellungen galt es, der kreativen Neugier des Schülers Raum zu lassen: Wie müssen Projektarbeiten gestaltet werden, um den individuellen Freiraum der Forschung mit der notwendigen Unterstützung und Orientierung zu verbinden? Der Ansatz „Knowledge on Demand“ trennt Themen in Teilaufgaben, zwischen denen sich die Beteiligten immer wieder abstimmen: Weil das selbstständige Arbeiten von den Schülern erst erlernt werden muss, wird die eigenständige Forschung mit einem engen Betreuungsverhältnis ergänzt. Je nach individuellem Vermögen können dann die Aufgaben dann frei oder gesteuert angegangen werden.
Wie lässt sich der natürliche Rohstoff Holz weiter nutzen? Daniela Pachatz von der HSM stellte drei Anwendungsbeispiele aus dem Projekt FiWood vor, in dem um die Integration von Funktionen in Schichtholzprodukten geht. Ein Projekt ist ein Sitzpult, in das verschiedenen Funktionen wie eine Heizung und Sensoren (Temperatur und u.a. Luftfeuchte) eingelassen sind. Die Wärmefunktion ist auch Teil von Bodenheizelementen, die über die Abgabe von Infrarotwärme den Effekt der thermischen Behaglichkeit erreichen sollen. Nicht zuletzt lassen sich auch LED-Arrays in den Furnieren integrieren, und so leuchtende Holzelemente herstellen.
Walpola Perera von der FHE ist Teil des Forschungsprojektes Kimono-EF, das die Mobilität beeinträchtigter Menschen im Stadtraum sicherer machen will. Weil die Grünphasen von Ampelanlagen oftmals zu kurz sind, um betroffenen Menschen eine vollständige Überquerung der Straßen oder Straßenbahnschienen zu erlauben, soll hier innovative Technologie Einzug halten. Zunächst werden mit KI-optimierten Erfassungssystemen wie Kameras Personen frühzeitig ausfindig gemacht, die einen längeren Zeitraum für die Querung benötigen könnten, zum Beispiel Personen in Rollstühlen oder mit Kinderwägen. Anschließend werden die spezifischen Grünphasen verlängert und die anderen Verkehrsteilnehmer informiert. Weiter gedacht könnte mit Hilfe dieser Benachrichtigungssysteme auch eine intelligente Verkehrssteuerung autonomer Fahrzeuge ergänzt werden.
Einen Ansatz, die Photolithographie mit extremem ultraviolettem Licht zu verbessern, stellte Niranjan Kannali Ramesha von der HSM vor. Moderne Computerchips werden durch ein spezifisches Verfahren hergestellt, das sich als Buchdruck mit Licht umschreiben ließe. Auf dem Wafer, also einer Siliziumscheibe, wird eine photosensitive Schicht aufgetragen und dann durch eine Maske hindurch dem Licht ausgesetzt, wodurch sich hochkomplexe und kleine elektronische Bauteile wie Transistoren aufbringen lassen. Der bestimmende Faktor der Größe der Bauteile ist momentan die Wellenlänge des Lichts, wodurch sich der Einsatz extremen ultravioletten Lichts erklärt. Um die Produktionskapazität zu steigern, müssen kraftvollere EUV-Quellen als die bislang genutzte Variante über Zinnkügelchen gefunden werden. Das Projekt ging dem Ansatz nach, das EUV von Freien-Elektronen-Lasern wie dem FLASH als Quelle zu nutzen. Zentral ist hierbei die Frage, ob und wie sich das EUV-Licht in einem Fokuspunkt konzentrieren lässt, wofür wiederum die Erfassung der Wellenfront eine entscheidende Rolle spielt. Im Weiteren brauche es optische Systeme, die Abweichungen der Wellenfont korrigierten.
Martin Sennewald (TUI) stellte abschließend einen Aspekt des Forschungsprojektes DimFSW vor, das darauf abzielt, die Beschädigungen von Werkzeugen bei Schmelzschweißverfahren wie dem Rührreibschweißen abzuschätzen und das Aufkommen von Ausfällen von Produktionsabläufen zu minimieren. Die Fügetechnik stehe grundsätzlich vor steigenden Herausforderungen, unter anderem aufgrund wachsender Ansprüche der Bauteilkomplexität, dem Leichtbau und der Qualität. Zum Beispiel verlangt die Elektromobilität weitaus komplexe Bauteile als die bisherigen Modelle. Für die Fertigung folgen hieraus nicht nur die Wirkung hoher Prozesskräfte, sondern auch ein erhöhter Verschleiß der Werkzeuge. Wie lässt sich dieser Verschleiß so bestimmen, dass Ausfälle in laufenden Produktionsprozessen vermieden werden können? Der Ansatz ist, auf die tatsächlichen Prozesskräfte und -momente wie der vorliegenden Spannungen am Schweißstift im Prozess zurückzugreifen, wobei diese aus den Kraft-/Drehmomentdaten gewonnen werden.
Nachhaltigkeit und Netzwerke, Daten und Patente
Neben diesen konkreten Forschungsvorhaben gab der Tag der Ingenieurwissenschaften auch Projekten Raum, die Forschung und Lehre strukturell verbessern wollen. Mit ThüLeNa präsentierten die Professoren Frank Pothen (EAH) und Matthias W. Schneider (HSM) ein jüngst gestartetes Projekt, das sich dem Aspekt der Nachhaltigkeit im Lehren und Lernen widmet und dies stärken will. Dieser Nachhaltigkeitsgedanke umfasst Aspekte der Entwicklung neuer Technologien ebenso wie eine soziale und ökologische Verantwortung sowie die Einholung sozialer und ökonomischer Akzeptanz. Das Ziel von ThüLeNa ist es, die Ingenieurwissenschaften auf diese Herausforderungen auf verschiedenen Ebenen vorzubereiten und die Transformation produktiv zu begleiten, und zum Beispiel die Nachhaltigkeit in Lehrformaten zu integrieren und bereits vorhandene Strukturen und Kompetenzen zu stärken.
Wie lässt sich die Forschung und Entwicklung in Thüringen kooperativ verknüpfen? Das Thüringer Zentrum für Maschinenbau nimmt sich dieser Aufgabe an, wie Dr. Andreas Patschger in seinem Vortrag deutlich machte. Das ThZM ist eine Kooperation aus fünf Forschungseinrichtungen, u.a. der TUI und der HSM, das sich neben wirtschaftspolitischen Impulsen vor allem dem Wissens-Transfer hin zu kleinen und mittleren Unternehmen verschrieben hat. Es geht also darum, gefundene Lösungen in die Anwendung zu bringen und hierzu Institutionen der F&T mit den zentralen Akteuren, also Unternehmen, in Kontakt zu bringen. Beide Seiten können hierbei voneinander lernen. Ein weiterer Ansatz des ThZM ist zudem die Netzwerkarbeit, um die Akteure in Austausch zu bringen, zum Beispiel in Formaten wie der Cross-Cluster-Initiative Thüringen. Hierin tauschen sich kleine und mittlere Unternehmen über ihre Erfahrungen, Bedarfe und gemeinsamen Interessen aus, was zukünftigen Kooperationsprojekten ebenso den Weg ebnet wie es den Partnern einen Überblick in geteilte Problemlagen erlaubt. Nicht nur können die Beteiligten so von best-practise-Beispielen profitieren, sondern auch mögliche Kooperationspartner in der Nachbarschaft kennengelernt werden.
Eine andere Frage ist die der Forschungsdaten, wobei hier nicht nur an die Statistiken empirischer Sozialwissenschaften zu denken ist, sondern auch an die massiven Datenmengen, die zum Beispiel im Maschinenbau per Sensoren an den Werkzeugen erhoben werden. Da diese Informationen mit viel Aufwand gewonnen werden, ist es sinnvoll und von einem allgemeinen wissenschaftlichen Interesse, die erhobenen Daten zu teilen, im Kreise der Wissenschaft oder auch in der Öffentlichkeit. Um Wissenschaftler:innen bei diesen Projekten zu unterstützen wurde mit dem FDM-HAWK eine Initiative des Forschungsdatenmanagement ins Leben gerufen, deren Mitarbeiter:innen auf verschiedenen Feldern helfen können. Wie Sarah Boelter (EAH Jena) hervorhob, fängt dies bereits bei grundsätzlichen Dingen wie dem Datenschutz- und der -sicherheit an, geht über den planvollen Umgang mit Daten und ihrer Erhebung schon im Vorfeld und reicht bis in Detailfragen wie den passenden Metadaten, verlässlichen Plattformen und den kompatiblen Formaten der entsprechenden Daten.
Ein anderer Punkt sind die Patente: Jan Axel Schleicher gab einen Einblick in seine Tätigkeit und die Aufgabe von PATON, dem Landespatentzentrum Thüringen. Letztlich ist es das Ziel, unter anderem Wissenschaftler:innen dabei zu unterstützen, Patente zu beantragen und die verschiedenen Fallstricke einer solchen Anmeldung zu vermeiden. Welche Kriterien müssen erfüllt werden, um ein Patent anmelden zu können? Hier ist unter anderem an den Stand der Technik zu denken, dessen Mängel und das Potential der Erfindung, wobei hier wiederum zwischen der Aufgabe und der Lösung der Erfindung geschieden werden kann. Nicht zuletzt stellte Schleicher den Ablauf einer Patentanmeldung vor, um eventuell Betroffenen eine Orientierung zu geben.
Sven Uwe Büttner vom StarterWerk gab einen Überblick über die Dos and Don’ts von Existenzgründungen: Was braucht es eigentlich, um erfolgreich von einer Idee zu einer Unternehmung zu gelangen? In das Zentrum stellte Büttner das kreative, engagierte Individuum, das eine Idee verwirklichen will. Neben der Definition einer Baseline, der Perzeption des Marktes und der Interessen potentieller Kund:innen ging es um die Nutzung wichtiger Kontaktnetzwerke und die Fokussierung gepaart mit einer Offenheit, die den Weg zum Ziel nicht weniger gerichtet, nur etwas breiter werden lässt.
Ein Fazit
Am Ende des Tages konnten die Gäste, die Referierenden und das Organisationsteam auf einen erfolgreichen, informativen Tag der Ingenieurwissenschaften zurückblicken, der verschiedene Aspekte der Thüringer Ingenieurwissenschaften beleuchtete und der zugleich ebenso für die Öffentlichkeit wie für Wissenschaftler:innen lohnenswerte Inhalte bereithielt.
Die Veranstalter wollen zum Abschluss allen Beteiligten danken, die im Vorfeld oder am Tag selbst mit ihrem Engagement für das Gelingen beitrugen.
Um immer kleinere und effizientere Mikrochips produzieren zu können, müssen permanent neue Wege beschritten und Technologien erforscht werden. Gegenwärtig sind es spezielle Verfahren der Fotolithographie, in welchem Halbleiter mit Hilfe von extremem ultraviolettem Licht hergestellt werden, die entscheidende Potentiale versprechen. Auch wenn der technische Aufwand dieser Methode immens ist und eine lange Zeit der Forschung und Entwicklung bedurfte, bietet sie enorme Chancen für die Fertigung von hochkomplexen Bauteilen. An der Hochschule Schmalkalden will sich Professor Christian Rödel, vor kurzem auf die Professur für Physik und angewandte Lasertechnik berufen, diesem Gebiet in Forschung und Lehre widmen.
Um den praktischen Nutzen der Mikroelektronik und die Fortschritte der letzten Dekaden erkennen zu können, genügt ein Blick in unsere Hosentaschen: Auch wenn die Smartphones mittlerweile aus dem Alltag nicht mehr wegzudenken sind, ist es doch erstaunlich, was die kleinen Geräte gerade im Hinblick auf ihren noch jungen Ursprung vermögen. Da der technische Fortschritt ein stetiger Prozess der Innovation ist, sucht die Mikroelektronik weiter nach Mitteln und Ansätzen, Bauteile zu verkleinern bzw. komplexer gestalten zu können. Ein Weg dahin sind fotolithographische Methoden, bei denen Chips mit Hilfe von Lasern fotolithografisch hergestellt werden. Einerseits bieten sich im Rückgriff auf das extreme ultraviolette Licht spezifische Vorteile gerade für die Miniaturisierung elektronischer Bauteile, andererseits haben diese Verfahren in ihrer Anwendung hohe technische und praktische Voraussetzungen.
Die Forschung in diesem Bereich wurde in letzten Dekaden vor allem durch ein Unternehmen aus den Niederlanden vorangetrieben: Vor nunmehr dreißig Jahren begann hier die Erforschung der technischen Grundlagen und führte zur Entwicklung einer Apparatur, die heute zu den komplexesten und teuersten Systemen gehört und die ASML zu einem der wertvollsten Unternehmen der Welt gemacht hat. Der Vorsprung im Bereich von Forschung und Entwicklung, den sich ASML erarbeitet hat, beruht auf einer langfristigen Spezialisierung, die selbst noch die Zulieferfirmen umfasst. Im Moment ist nur diese Firma in der Lage, Anlagen herzustellen, die Fotolithographie mit extremem ultraviolettem Licht verwenden. Die Produktion modernster Chips ist in der Folge von diesem einen Anbieter abhängig, was letztlich sogar geopolitische Komplikationen nach sich zieht.[1]
Schreiben mit Licht
Lithographie ist ursprünglich ein Flachdruckverfahren, was meint, dass der Druck nicht über eine vertieft oder erhaben gearbeitete Zeichnung auf der Druckplatte erfolgt, sondern die druckenden und nichtdruckenden Partien auf einer Ebene liegen. Die Maske wird hierbei durch eine Versiegelung der Steinplatte aufgetragen, wobei das Prinzip auf der Unmischbarkeit von Fett und Wasser basiert. Während die druckenden Partien die fettreiche Druckfarbe aufnehmen, werden die nichtdruckenden Stellen mit einem Wasserfilm befeuchtet und stoßen die Druckfarbe ab. Im Falle der Fotolithographie wird dieses Prinzip durch Licht und lichtreaktive Substanzen umgesetzt. Kurz gefasst wird eine hauchdünne Siliziumscheibe, Wafer genannt, mit einem Licht-empfindlichen Fotolack beschichtet und anschließend mittels einer kurzzeitigen Strahlung über eine Maske belichtet, wodurch sich die Chemie des Lacks verändert und die Muster übertragen werden. Durch Wiederholung dieses Prozesses entstehen komplexe 3-dimensionale Strukturen – die Mikrochips. Auch wenn dieses Verfahren schon eine längere Zeit eine übliche Methode in der Herstellung von Microchips war, verändern sich durch die EUV-Lithographie die Rahmenbedingungen und Möglichkeitsräume.
Der Grad an Präzision, den diese Maschine verlangen, lässt sich fast nur in der Prosa von Superlativen Ausdruck verleihen. Ein Beispiel: Die Laser sind so genau, dass sie es erlauben würden, von der Erde aus eine Münze auf der Mondoberfläche zu treffen. Es geht hier darum, komplexe elektronische Bauteile im Nanometerbereich zu bauen, wobei sich verschiedene physikalische und optische Herausforderungen kombinieren. Um sich die Größenordnung auch nur annähernd vorstellen zu können: Wir sprechen hier von dem Tausendstel eines menschlichen Haars. Hier wurde nun das Licht selbst zum Problem: Um auf dieser Ebene arbeiten zu können, reicht die Qualität des Lichts der üblichen Laser aufgrund der Wellenlänge nicht aus.
In diesem Vorlesungsexperiment soll Studierenden die vergrößernde Abbildung eines Maßstabs näher gebracht werden. In der Fotolithografie wird vom Prinzip her ähnlich eine Maske auf einen Siliziumwafer mit Fotolack abgebildet.
Das Unsichtbare nutzbar machen
Warum also der Rückgriff auf das extreme ultraviolette Licht? Licht ist bekanntlich eine elektromagnetische Welle und besitzt charakteristische Wellenlängen, die wiederum die Bedingungen ihrer Anwendung vorgeben. Kürzere Wellenlängen lassen das Schreiben kleinerer Strukturen zu, pointiert formuliert. Um ein lebenspraktisches Beispiel zu bemühen: Auch wenn sie von identischer Größe sind, unterscheidet sich der Wellenlängenbereich der schreibenden und lesenden Laser von CD´s und Blu-Ray´s, wodurch vielmehr Daten auf das BD-Medium geschrieben werden können. Das ultraviolette Licht, das außerhalb der menschlichen Wahrnehmbarkeit liegt – außer indirekt im Falle des Sonnenbrandes –, hat eine sehr niedrige Wellenlänge. Extremes ultraviolettes Licht hat eine Wellenlänge von 13,5 Nanometer und liegt damit weit außerhalb des Bereichs menschlicher Perzeption. Dieses extrem ultraviolette Licht wird benötigt, um die Miniaturisierung voranzutreiben und kleinere Strukturen und Integrationsdichten in einer Größenordnung von unter 15 Nanometer realisieren zu können.
Um mit diesem Licht arbeiten zu können bedarf es allerdings einiger Vorkehrungen: Da dies Licht sehr leicht absorbiert wird, muss die gesamte Belichtung mit EUV-Strahlung im Vakuum vollzogen werden. Zudem können keine Linsen verwandt werden, wie es üblicherweise mit Lasertechnologien in Verbindung gebracht wird, vielmehr funktioniert die Bündelung des Lichts über hochpräszise Spiegel, deren Herstellungsprozess für sich schon höchst anspruchsvoll ist.
Auch wenn die Forschung an der Nutzung des extremen ultravioletten Lichts schon länger weilte, gelang erst Mitte des letzten Jahrzehnts ein entscheidender Durchbruch: Indem man flüssiges Zinn als Lichtquelle nutzen konnte, wurde die Schwelle zur Massenproduktion überschritten, durch die sich die Anschaffung einer solchen Maschine überhaupt erst lohnt. Das Zinn wird dabei als Tropfen in der Maschine mit einem Laserpuls beschossen, wodurch die Kugel die Form eines Eierkuchens annimmt. Im Anschluss wird das Zinn von einem stärkeren Laserpuls nochmals beschossen, wodurch dann das EUV-Licht entsteht und über verschiedene Spiegel zur Maske und dann zum Wafer geführt wird. Erst durch dieses Verfahren wurde die Produktion von Computerchips in Masse möglich und die EUV-Lithographie rentabel. Im Angesicht der Preise der Apparaturen zwischen 185 und 360 Millionen Euro muss sich die Anschaffung lohnen. Daher bedarf es eines hohen Outputs und einer verlässlichen Produktion, was wiederum die beständige Weiterentwicklung nahezu aller Komponenten der Maschine umfasst.
Partnerschaften, Forschung und Lehre
In Anbetracht der Komplexität dieser Technologie lässt sich erahnen, wie viele Wissenschaftlter:innen an ihrer Erforschung beteiligt waren und nunmehr damit beschäftigt sind, sie weiter zu verbessern. Zugleich macht die Komplexität eine Konzentration notwendig. An der Hochschule Schmalkalden möchte sich Prof. Christian Rödel mit der spektralen Charakterisierung von EUV-Quellen und Komponenten beschäftigen, die in der EUV-Lithografie eingesetzt werden können. Das sind zum einen dünne Filterfolien, aber auch EUV-Spiegel, die aus vielen Nanometer-dünnen Schichten bestehen.
Um Komponenten testen und optimieren zu können, die in der EUV-Lithographie und der Inspektion eingesetzt werden, wurde an der an der Hochschule Schmalkalden, gefördert durch Mittel der Carl-Zeiss-Stiftung, das Projekt EUV-4-LITHO ins Leben gerufen. Mit Unterstützung von Kooperationspartnern aus der Region bis ins europäische Ausland wird Professor Rödel und sein Team ein hochauflösendes EUV-Spektrometer entwickeln, mit dem sich die Vielschichtsysteme der Spiegel und ihre Eigenschaften der Reflektivität mit bisher unerreichter Präzision vermessen lassen.
Das Reflexionsgitter aus dem Vorlesungsexperiment spaltet das weiße Umgebungslicht in die spektralen Bestandteile auf. Im Projekt EUV-4-LITHO soll ebenso ein Reflexionsgitter eingesetzt werden, um die EUV-Strahlung spektral zu charakterisieren.
Auch wenn die EUV-Lithografie eine innovative Technologie der Gegenwart ist, lassen sich hier Forschung und Lehre verbinden. So entstand zum Beispiel im Projekt EUV-4-LITHO bereits eine Masterarbeit und es wurde eine Exkursion zum DESY, dem Deutschen Elektronen-Synchrotron, unternommen, um hier Untersuchungen mit EUV-Strahlung von Freien-Elektronen-Lasern vorzunehmen. Neben der Lehre steht für Professor Rödel die Kooperation im Fokus seiner Arbeit an der Hochschule für angewandte Wissenschaften. Neben den mannigfaltigen Projektpartnerschaften geht es ihm auch im die konkrete Vernetzung vor Ort, zum Beispiel der Verknüpfung von Forschungsthemen des Maschinenbaus und der Elektrotechnik. Dabei liegt im auch die Präzisionsmesstechnik am Herzen, die im Maschinenbau eingesetzt wird.
[1] Wer sich über diesen Aspekt informieren möchte: Chris Miller, Chip War. The Fight for the World’s Most Critical Technology, New York 2022.
* Das Beitragsbild zeigt ein Vorlesungs- und Praktikumsexperiment, in dem die charakteristischen Linien einer Natriumdampflampe bei 589 nm mit einem Reflexionsgitter spektral untersucht werden. Eine Xenon-basierte EUV-Lichtquelle soll an der Hochschule Schmalkalden entwickelt werden, die in ähnlicher Weise bezüglich des Spektrums bei 13,5 nm untersucht werden soll.
Professor Martin Schreivogel hat seit letztem Jahr die Professur für die Grundlagen der Elektrotechnik an der Fakultät Elektrotechnik der Hochschule Schmalkalden inne. Demgemäß widmet er sich prinzipiellen Fragestellungen der Elektrotechnik, hier verstanden als ingenieurwissenschaftliche Disziplin, die sich ebenso mit der Forschung und Entwicklung wie der Produktion und Instandhaltung von elektrischen Anlagen und Geräten befasst. Um eines direkt klarzustellen: Wie an Hochschulen angewandter Wissenschaften üblich genügt sich auch die Forschung Martin Schreivogels nicht mit abstrakten, theoretischen Konstrukten, sondern sucht nach Wegen der Übersetzung von Forschung in Praxis – wie unter anderem der funktionalen Optimierung elektrochemischer Sensortechnik.
Um die Relevanz dieser Disziplin zu umreißen wird im Folgenden eine Rück- mit einer Vorschau kombiniert: Zunächst soll es um die Entwicklung kompakter Messboxen gehen, mit denen die Luftqualität, zum Beispiel im Straßenverkehr verdichteter Innenstädte, vermessen werden kann. Nach diesem Rückblick auf ein weitestgehend abgeschlossenes Projekt soll es um die Konturierung eben jener Vorhaben gehen, denen sich Professor Schreivogel an der Hochschule Schmalkalden widmen möchte.
Professor Martin Schreivogel bei seiner Antrittsvorlesung
Die Vermessung der Luft: Über die Entwicklung kompakter, vernetzter Messstationen der Luftqualität
Die öffentliche Diskussion um die gesteigerte Schadstoffbelastung an hochfrequentierten Straßen und Kreuzungen, aus der die Einrichtung von innerstädtischen Umweltschutzzonen und – in manchen Arealen – sogar Fahrverbote resultierten, liegt noch nicht allzu lange zurück. Auch wenn das Ansinnen einer gesunden, nicht von Schadstoffen belasteten Umwelt gewiss auf allgemeine Zustimmung treffen sollte, verlor die damalige Debatte aufgrund der wechselseitigen Polarisierung der diskutierenden Gruppen das Gros ihres konstruktiven Potentials. Weiterführend gerade in einem ingenieurwissenschaftlichen Horizont ist indes das öffentliche Interesse, die Schadstoffbelastung und die Effekte des Stadtverkehrs und des Verkehrsinfrastruktur auf eben diese zu eruieren und adäquate Lösungsvorschläge zu entwickeln: Wo und wie entstehen also hohe Konzentrationen an Schadstoffen und wie lässt sich ihre Ansammlung vermeiden?
Ein technisches Problem, das den Diskussionen der Konsequenzen eventuell gefährlicher Luftverschmutzung und mittel- und langfristigen verkehrsplanerischen und städtebaulichen Antworten vorausliegt, besteht in der Frage, wie wir überhaupt die Luftqualität messen. Hierbei geht es nicht nur um die Zweckmäßigkeit der verwandten Sensoren, die in Frage stehenden Variablen oder die Definition zumutbarer Grenzwerte, sondern auch um die Abwägung, wo und wann gemessen werden soll. Reicht es für eine konzise Beschreibungen der Luftverschmutzung der Verkehrswege der Innenstädte hin, an einigen wenigen, aber besonders befahrenen Straßen zu messen? Oder bedarf eine verallgemeinerbare Ermittlung ein anderes Vorgehen und die Berücksichtigung weiterer relevanter Faktoren?
Auch wenn die besondere Belastung der Anwohnenden nicht in Abrede gestellt werden soll, ist die Generalisierung der Hotspot-Messungen auf das ganze Gebiet einer Stadt mit Vorsicht zu genießen. Durch die Selektivität der Messungen werden allenfalls die Maximalwerte an einem bestimmten Punkt zu einer bestimmten Zeit ermittelt, wobei sich die Luftqualität schon an einer Nebenstraße deutlich von den Messungen am Hotspot unterscheiden kann. Die Ermittlung der allgemeinen Situation der Luftverschmutzung und Erarbeitung passender Lösungsvorschläge verlangt ein anderes Vorgehen: Um Verzerrungen zu vermeiden und ein detailliertes sowie zugleich dynamisches Bild der Verschmutzung zu zeichnen ist es eher zielführend, eine größere Menge von Messstationen weitflächig über die Stadt hinweg zu verteilen und in einem Netzwerk zu verknüpfen. So lässt sich das gezeichnete Bild differenzieren und zugleich die Bewegung der Luft, die Effekte der Architektur der Stadt auf ihre Strömung, mit in die Rechnung einbeziehen.
Smarte Boxen, vernetzte Systeme
Dem bisherigen Problem solcher Netzwerklösungen hat sich Professor Martin Schreivogel angenommen: Ihm ging es darum, eine präzise und kompakte Messstation zu entwerfen, die sich zugleich kosteneffizient ausnimmt. Gerade der hohe Preis der bislang üblichen Messstationen ließ eine Anschaffung in den hierfür notwendigen Mengen nicht zu. Um eine differenzierte Messung der Luftverschmutzung durchführen zu können, bedurfte es in einem ersten Schritt also erschwinglicher Messinstrumente, ohne dabei zu große Abstriche an der Präzision machen zu müssen. Als Referenz der Messqualität konnten dabei die Ergebnisse bisher gebräuchlichen Messstationen genommen werden.
Ein früher Entwurf einer Box für die Ermittlung der Luftgüte (Bild via Bosch)
Die ersten Versuche zeigten zum Teil signifikante Unterschiede zwischen beiden Typen an Messstationen, deren Differenz sich auch nicht über naheliegende Korrekturverfahren begradigen ließen. Das Problem bestand darin, dass sich die Sensorsignaländerung durch Feuchte- und Temperaturschwankungen oft um einiges größer ausnahmen, z.B. als das eigentliche, hierfür relevante NO2-Signal. Folglich war es die Frage, welche Ursachen die Abweichungen hatten. Auch wenn die Boxen schon aus Gründen der Kosteneffizienz möglichst einfach aufgebaut waren, sind sie dennoch hochkomplexe technische Instrumente aus verschiedenen Sensoren und Komponenten, bei denen vorab nicht ausgeschlossen werden konnte, dass sie die Verzerrung zu verantworten hatten. So könnte es z.B. durch eine Überkompensation bei der Korrektur/Verrechnung verschiedener Signale kommen. Zudem war es ebenso offen, ob ein einzelner Faktor zu den Abweichungen führte oder das Zusammenspiel mehrerer Elemente, wie die Frage, welche Rolle Einflüsse der Umgebung spielten.
Um sich dem Problem anzunähern, wurde auf Messungen in einem Klimaschrank zurückgegriffen, der gesteuerte Simulationen von Umweltbedingungen zulässt. Feststellen ließ sich dabei eine Auswirkung von Veränderungen der Temperatur und Luftfeuchte auf die Messeinheit, wobei sich der Effekt nicht direkt zeitigte, sondern etwas nachlief, wodurch sich auch die Schwierigkeiten beim Auffinden der Ursache der Verzerrung erklären ließen. Genauer formuliert waren die Ursache Feuchtigkeitsunterschiede in Luft und Sensorelektrolyt, die sich durch einen komplexen Diffusionsprozess auf das Sensorsignal auswirkten.
Um diese Verzerrung zu beseitigen, musste die Sensortemperatur in Abhängigkeit vom Wetter eingestellt werden, wodurch der Elektrolyt in Balance gehalten werden konnte und die Fehlausgaben vermieden wurden. Eine Folge war, dass die Messstationen eine Zertifizierung durch ein akkreditiertes Labor (Ineris) erhalten konnten, was wiederum ihre zukünftige Verwendung bei der statistischen Erhebung der Luftqualität erleichtern sollte. Der Gewinn an Signalstabilität hatte aber auch einen Preis: Nicht nur hatte das verbesserte Setting der Box ein höheres Gewicht, sie bedurfte auch einer eigenen Stromzufuhr, was ihren Einsatz wiederum deutlich einschränkte und damit die Möglichkeiten ihrer breiten Vermarktung limitierte. In einer neuen Generation von Modellen konnten dann Erkenntnisse komplexer mathematischer Korrekturansätze in die Konstruktion einfließen, wodurch die Geräte nicht nur deutlich leichter ausfielen, sondern ihr Betrieb auch über Solarenergie möglich wurde. Durch diese Maßnahmen ist nun die Marktförmigkeit des Produktes gewährleistet und zugleich die Möglichkeit geboten, die Luftqualität in Städten über ein Netzwerk von Messstationen ermitteln zu können.
Darstellung der gemessenen Verteilung inklusive der Qualitätsgrade (Bild via Bosch)
Die Boxen sind ein Ergebnis der Entwicklungs- und Projektleitungstätigkeit Martin Schreivogels bei Bosch, wobei er den abschließenden Prozess der Verwirklichung weiter begleiten wird, wie zuletzt an der nun beginnenden Kooperation von Bosch mit Palas deutlich wurde.[1] Zugleich diente ihm diese Arbeit als Material für seine Antrittsvorlesung, in der er auch die thematische Relevanz der Grundlagen der Elektrotechnik für Fragen der Anwendung und Umsetzung akzentuieren wollte. So biete sich im Rückgriff auf fundamentale Aspekte mitunter ein spezifischer Blick auf Probleme, aus dem dann wiederum genuine Lösungsansätze gewonnen werden können.
Die Mitgestaltung der Energiewende. Die Optimierung von Brennstoffzellen
Zielte das vormalige Projekt auf einen komplexen elektrochemischen Sensor und dessen Präzision und Funktionalität, geht es Schreivogel an der Hochschule Schmalkalden nun um die Vermessung eines elektrochemischen Systems mit Hilfe von Sensoren. Um die Funktion von Brennstoffzellen und Elektrolyseuren bei der Produktion von Wasserstoff verstehen und verbessern zu können, bedarf es eines breiten Sets an Sensoren, die die Anlagen und die Prozessabläufe überwachen. Diese offene Perspektive macht es erst möglich, eine Vielzahl von Variablen auf ihre Relevanz für die Transformation und ihre Optimierbarkeit hin zu befragen.
Die Energiewende hat durch äußere Anstöße aktuell einiges an Fahrt aufgenommen. Die Gewinnung von Wasserstoff als transportablen Energieträger und Speichermöglichkeit steht dabei noch immer vor zahllosen Herausforderungen, die durch die gerade erwünschte Geschwindigkeit im Aufbau einer Versorgungsinfrastruktur nicht geringer werden. Die zügige Umsetzung der Energiewende legt es nahe, schon in der Frühphase mit der Optimierung bereits bestehender Anlagen zu beginnen: Weil infolge des rasanten Aufbaus der Produktionsstätten die Optimalität als Ziel hinter die Realisierung rückt, entsteht hier ein Ansatzpunkt für die Forschung. Auch wenn davon auszugehen ist, dass die Technologie zur Erzeugung von Wasserstoff ein fortgeschrittenes Stadium erreicht hat ist, befinden sich Elektrolyseur- und Brennstoffzellensysteme noch immer in einer relativ frühen Entwicklungs- und Skalierungsphase. Somit bleibt die Optimierung der Effizienz und anderer Kriterien eine relevante Aufgabe, die zugleich die Energiewende vorantreibt. Im Fokus stehen somit die konkreten Anlagen, die mit Hilfe von Sensoren vermessen werden sollen, um auf diesen Messungen aufbauend konkrete Vorschläge für die Optimierung erarbeiten zu können. Ein zentraler Aspekt ist dabei die Datenverarbeitung: Die enormen Mengen an Informationen müssen strukturiert, gefiltert und evaluiert werden, um als belastbare Quelle genutzt werden zu können.
Ein Symbolbild: Die feine Verteilung von Wasserdampf
Die Region Südthüringen eignet sich schon deshalb für ein solches Vorhaben, weil es mehrere Kooperationspartner aus dem Bereich der Wissenschaft und der Wasserstoffwirtschaft gibt, mit denen ein Netzwerk von Institutionen und Anwendern der Wasserstofftechnologieforschung aufgebaut werden kann. „HySON – Institut für angewandte Wasserstoffforschung Sonneberg gemeinnützige GmbH“ und die Abteilung „Industrielle Wasserstofftechnologien Thüringen“ des Fraunhofer IKTS in Arnstadt sind zwei mögliche regionale Kooperationspartner. So ließe sich ein Zugang finden zu bestehenden Anlagen, die dann analysiert und optimiert werden können, um aus den Befunden der Einzelfälle im Anschluss generalisierende Aussagen generieren zu können. Nicht zuletzt können auch Expertisen an der Hochschule Schmalkalden und der Fakultät Elektrotechnik genutzt werden. Unter anderem befasst sich Professor Roy Knechtel intensiv mit Fragen der elektronischen Messtechnik und Sensorik.
Am 18. und 19. September fand an der Hochschule Schmalkalden das erste Konsortialtreffen des KI-Hub Kunststoffverpackungen statt. Das Ziel dieser interdisziplinären Forschungskooperation besteht darin, die Nachhaltigkeit von Kunststoffverpackungen effektiv zu erhöhen und deren Nutzung ressourcenschonend und im Rahmen einer Kreislaufwirtschaft zu gestalten. Neben der Angewandten Kunststofftechnik der Hochschule Schmalkalden arbeiten hier gefördert unter anderem vom Bundesministerium für Bildung und Forschung 51 namhafte Partner aus Wirtschaft, Wissenschaft und Gesellschaft zusammen. Als Projektbeteiligter organisierte zusammen Prof. Thomas Seul mit seinem Team der Angewandten Kunststofftechnik das Konsortialtreffen an der Hochschule.
Kunststoffe und Kreisläufe
Produkte und Verpackungen aus Kunststoff sind aus unseren Haushalten und aus unserem täglichen Gebrauch kaum mehr wegzudenken. Die Vorteile dieses Materials sind dabei vielfältig: Neben der Plastizität, die eine Vielfältigkeit der Form- und Farbgebung zulässt, sind hier die funktionalen und hygienischen Qualitäten einschlägig. Doch zugleich entstehen durch die Verbreitung des Kunststoffs und seine Langlebigkeit auch Probleme, wie wir an der zunehmenden Menge an Abfällen und gelben Säcken auch im Alltag merken. Dabei stellt sich die Herausforderung eines möglichst nachhaltigen Gebrauchs auf verschiedenen Ebenen, die zugleich unterschiedliche Problemlösungsansätze erfordern.
Eindrücke vom Empfang
Um die Ressource Kunststoff speziell in seiner Funktion als Verpackungsmaterial optimal und möglichst ökologieeffizient nutzen können, gilt es sowohl am Anfang wie dem Ende des Zyklus einer Kunststoffverpackung anzusetzen. Neben Aspekten des Materials und des Produktdesigns stehen die Bedingungen der Wiederaufbereitung im Fokus. Das übergeordnete Ziel besteht in der Etablierung einer Kreislaufwirtschaft, die den Kunststoff vollumfänglich nutzt und keine Ressourcen verschwendet, also die Wertschöpfungskette von Kunststoffverpackungen so weit wie möglich zu schließen und die Produktion von Treibhausgasen zu minimieren. Um die Quote der Wiederverwertung zu maximieren muss neben der Aufbereitung der Kunststoffe bereits bei der Produktion der Verpackungsmaterialien angesetzt werden.
Innovationslabore
Kurz gefasst geht es dem KI-Hub einerseits darum, wie wir Kunststoffe ausgerichtet auf ihre Wiederverwertbarkeit als Verpackungen fertigen und verwenden müssen: Welcher Kunststoff lässt sich zum Beispiel wie am besten recyclen, welches Material eignet sich in welcher Dosierung für welches Produkt, und welche Anforderungen haben die Partner der Industrie? Andererseits geht es um die Frage der Optimierung des eigentlichen Recyclings, das von Organisation und Logistik der Abfallwirtschaft bis hin zur Sortierung und Verarbeitung mit Hilfe künstlicher Intelligenz reicht. Das KI-Hub selbst gliedert sich in die beiden Innovationslabore KIOpti-Pack (Design und Produktion) und K3I-Cycling (Kreislaufschließung) in zwei eigenständige Konsortien mit je eigenen Profilen und Forschungsschwerpunkten, die im KI-Hub kooperieren.
Im Innovationslabor KIOptiPack stand unter anderem die Frage im Fokus, wie Kunststoffe gefertigt werden können, die sich maximal weiternutzen lassen. Welche Qualitäten müssen Rezyklate, also wiederaufbereitete Kunststoffe, aufweisen, um für sensible Bereiche der Verpackung – wie zum Beispiel von Lebensmitteln – verwandt werden zu können? Was sind die Eigenschaften der Polymere und wie lassen sich diese im Hinblick auf die Wiederverwertung optimieren? Ein Problem unter vielen ist hierbei die Bedruckung von Folien: Welche Folgen haben die Aufbringung von Farben auf die Materialien und speziell für die Weiterverarbeitung? Aber auch die negativen Effekte spezifischer Geruchsbilder von Kunststoffen und Rezyklaten auf Konsument:innen und deren Akzeptanz stehen im Fokus. Kurzum ist das Ziel, den Anteil der Rezyklat-Polymere in Produkten zu erhöhen, wofür Fragen der Qualität und Quantität, der nötigen Reinheit und Kontamination für verschiedene Verwendungs- und Produktionsweisen zu klären sind.
Gespräche im Foyer
Das zweite Innovationslabor, K3I-Cycling, richtete den Blick auf das Ende des Kreislaufs, und damit im Sinne des Zirkels auf den reibungslosen Beginn der neuen Phase. Wie das andere Innovationslabor gliedert sich dieses Konsortium in verschiedene Themenfelder und Probleme, die in unterschiedlichen Paketen zusammengefasst werden. Ein Schwerpunkt liegt in der Sortierung und dessen Optimierung mit Hilfe künstlicher neuronaler Netzwerke. Der Vorteile dieser Technologien ist die sich selbst steuernde Erfassung, die flexibel auf Daten- und Materialflüsse reagiert. Ein Ziel ist es, die Prozesse nicht nur retrospektiv zu begleiten, sondern prospektiv valide Prognosen vornehmen zu können und so die Organisation der nachhaltigen Verarbeitung zu optimieren. Ein Ansatz ist hier das Deep Learning, dessen Potentiale sich anhand von Tools wie ChatGPT bereits ahnen lassen. Die Frage ist hier nicht nur, wo die Reise der technischen Entwicklung hingeht, sondern auch, wie sich die Potentiale effektiv in Anwendungen einbinden und nutzen lassen.
Das Konsortialtreffen
So kamen etwa 150 Teilnehmer, bestehend aus dem Konsortium, Beirat sowie Projektträger im spätsommerlichen Schmalkalden zusammen. Neben den Vorstellungen der Projekte, der Projektstände und einzelnen Vorträgen lag das Hauptaugenmerk auf verschiedenen Workshops, die zu unterschiedlichen Themen stattfanden. Die Teilnehmenden diskutierten hier Fragen unter anderem des effizienten Einsatzes von KI über den Daten- und Materialfluss bis hin zu Fragen ethischer und datenschutzzentrierter Horizonte. Ein Workshop untergliederte den Kreislauf der Wertschöpfungskette des Kunststoffs in verschiedene Stationen auf und wollte von den Teilnehmenden in Erfahrung bringen, wie sich die Übergänge zwischen den verschiedenen Stationen optimal ausnehmen würden bzw. wo die kritischen Punkte liegen. Auch wenn die Forschung hier noch am Anfang steht, ließe sich so ein ideales Optimum des Kreislaufs eruieren, dass die Reibungsverluste zwischen verschiedenen Stadien minimiert.
Disksussion im Workshop
Ein ebensolcher übergeordneter, rahmender Bezugspunkt wurde auch von einem Vortrag über die Kriterien der Nachhaltigkeitsbewertung und des Life Cycle aufgegriffen: Nachhaltigkeit ist ein normatives und komplexes Ziel, gegenüber dessen multiplen, teils divergierenden Ansprüchen sich Forschende bewusst verhalten müssen. Anders gesagt ist Nachhaltigkeit kein analytisches Konzept, dessen Definition schon im Sinne eines standardisierten Wertes feststünde, sondern ein offener Begriff, der auf verschiedenen Ebenen arbeitet und zugleich eine Positionierung der Bewertung und reflexiven Abwägung von den Akteuren verlangt. Um mit dem Begriff und den Anforderungen zwischen Ökologie, Ökonomie und gesellschaftlichem Kontext produktiv umgehen zu können, ist diese Rückversicherung und Zieljustierung sinnfällig.
Die Tagung diente neben der Sacharbeit auch dem Kennenlernen sowie der internen Vernetzung der verschiedenen beteiligten Personen. Gelegenheiten zum Austausch bot sich nicht nur in den Pausen und Workshops, sondern auch im Rahmen eines gemeinsamen Austauschs im Netzwerk in der Viba-Nougatwelt. Am Ende der Tagung wurden die Ergebnisse der Workshops präsentiert und die beiden Tage produktiv mit einigen Antworten und vielen neuen Fragen abgeschlossen.