Tickt die GenZ anders? Eine empirische Überprüfung generationaler Unterschiede

Tickt die GenZ anders? Eine empirische Überprüfung generationaler Unterschiede

Seit ein paar Jahren mehren sich journalistische Beiträge, in denen vermeintliche Defizite der GenZ, von allgemeinen Wertvorstellungen bis hin zur spezifischen Arbeitsmoral, aufgegriffen werden. Personen dieser Alterskohorte, ungefähr die Geburtsjahre von 1995 bis 2010, werden Bequemlichkeit, Freizeitorientierung und unter anderem fehlender Ehrgeiz vorgeworfen. Der Frage, wie sich die Einstellungen der GenZ zur Arbeit und ihre Ansprüche an ihre Arbeitsverhältnisse von jenen vorheriger Generationen unterscheiden und ob diese Abweichungen einer wissenschaftlichen Überprüfung standhalten, ist eine offene Frage der Forschung. Professorin Katharina Sachse ist dieser in Zusammenarbeit mit Claus-Peter Heinrich, Silke F. Heiss und Sandra Sülzenbrück im Rahmen einer jüngst veröffentlichten Studie mit dem Titel „Arbeitgeberattraktivität aus Sicht der Generationen. Einigkeit statt Unterschiede“ nachgegangen.

Der Begriff „Generation“ ist unscharf und wird in Wissenschaft und Alltag unterschiedlich genutzt. Viele Menschen fühlen sich zwar einer Generation zugehörig, doch bleibt unklar, wodurch diese Einheit eigentlich zusammengehalten wird.

Der Jugendforscher Jürgen Zinnecker unterscheidet drei Perspektiven:

  1. Geburtskohorten – Menschen, die im gleichen Zeitraum geboren wurden.
  2. Lebensabschnitte – etwa Großeltern, Eltern und Kinder, die durch unterschiedliche Lebenssituationen geprägt sind.
  3. Zeitgeschichtliche Ereignisse – prägende Momente wie 9/11 oder die Einführung des iPhones.

Alle drei Ansätze zeigen, dass „Generation“ Unterschiedliches meinen kann. Letztlich sollte man den Generationenbegriff nicht als feste Grenze verstehen, sondern als Hilfsmittel, um Veränderungen zwischen Gruppen sichtbar zu machen.

Wichtig ist, dass verschiedene Disziplinen den Begriff unterschiedlich verwenden: Pädagogik, Soziologie oder Geschichtswissenschaft setzen jeweils eigene Akzente. Nützlich bleibt der Begriff vor allem, um Selbst- und Fremdverortungen von Menschen in ihrer Zeit zu beschreiben. In den Personalabteilungen von Unternehmen werden mitunter Generationenzuordnungen genutzt, um spezifische Personalmaßnahmen daran auszurichten. Die Wirtschaftspsychologie beleuchtet wissenschaftlich, wie Mitarbeitende gewonnen und gehalten werden können, und untersucht dabei auch, ob sich die oft diskutierten Unterschiede zwischen Generationen – etwa bei der GenZ – tatsächlich nachweisen lassen.

GenZ: Zwischen Krisen und Kritik

Und schon sind wir bei der GenZ, deren Jugend bzw. junges Erwachsenenleben vor allem von Krisen geprägt war, angefangen bei der Euro-Krise und der „Flüchtlings“-Krise bis zur Pandemie und ihren Folgen und schließlich der Ukraine-„Krise“. (Vgl. Katharina Sache et al., Arbeitgeberattraktivität aus Sicht der Generationen. Einigkeit statt Unterschiede, Berlin 2025, S.12) Die zunehmende Digitalisierung des Alltags, des Soziallebens und der Kommunikation sollte sich zudem auf Weltverständnis und -verhältnis dieser Generation auswirken. Auch wenn also die Kindheit und Jugend der GenZ von besonderen Umständen geprägt wurde und bestimmte Effekte auf diese Generation mithin plausibel sind, geht die eingangs notierte Kritik an der Arbeitsmoral dieser Generation weniger von weichen Einstellungsvarianzen als von festen, greifbaren Unterschieden im Wertesystem der GenZ aus, die diese von anderen Kohorten trenne. Der Generationsbegriff dient hier nicht im Sinne einer Auslotung von weichen Einstellungsunterschieden, sondern als Zuschreibung fassbarer, übergreifender Wesensmerkmale einer Altersgruppe.

Die Kritik zielt vornehmlich auf den Themenbereich der Arbeit, und lässt sich in die individuelle Arbeitsmoral und die Ansprüche der betroffenen Personen an ihre Arbeitgeber unterscheiden. Als Beispiele: Die WirtschaftsWoche titelt, die GenZ wäre lieber arbeitslos als unglücklich. Deutschlandfunk Nova konstatiert eine hohe Bereitschaft zum Arbeitsstellen- bzw. Arbeitgeberwechsel, RP online fragt nach einer allzu hohen Sensibilität im Berufsleben. Im Presseportal ist von immensen Gehaltsvorstellungen der GenZ zu lesen, der Focus sieht eine mangelnde Bereitschaft zu Überstunden. Prominent äußerte der ZDF-Moderator Lanz eine Kritik an den postmateriellen Werten der GenZ und ihrer Suche nach der idealen Work-Life-Balance. Neben Artikeln und Büchern über die GenZ gibt es zahlreiche Videos auf Plattformen wie YouTube. Abseits von kritischen Impulsen stehen oftmals Beratungsangebote an Unternehmen und Personalverantwortliche im Fokus.

Die evidenzbasierte Überprüfung

Nicht nur stellt sich die Frage, ob diese Beschreibungen der Generation Z überhaupt zutreffen, sondern auch, ob die normativen Veränderungen zum Beispiel der Anspruchshaltungen einer Work-Life-Balance ein auf diese Generation begrenzter Effekt sind, oder doch eher eine alle Generationen umfassende sozio-kulturelle Verschiebung im Sinne des Zeitgeistes markieren. In einer empirischen Studie ist die Forschungsgruppe um Katharina Sachse der Frage nachgegangen, ob die behaupteten Unterschiede zwischen den Generationen einer Überprüfung standhalten.

Gemäß einer populären Unterscheidung der Generationen in Kohorten lassen sich Baby Boomer, die Generation X, Y (Millenials) und Z trennen und durch mehr oder weniger grobe Zuschreibungen charakterisieren. Aus Sicht von Unternehmen, die sich in einem immer umkämpfteren Wettbewerb um Fachkräfte wähnen, sind diese Profile von Bedeutung, lassen sich doch vermeintlich durch ihre Berücksichtigung Rekrutierungschancen maximieren und Fluktuationsrisiken minimieren. Aus der Vermutung, Sicherheit wäre für die Motivation älterer Mitarbeitender, Selbstverwirklichung im Beruf für jene jüngerer Generationen wichtig, könnten maßgeschneiderte Ausschreibungsprofile und Jobkonditionen generiert werden. (Vgl. Sachse et al. 2025, S.09f.)

Die Frage ist nun, ob die grundlegende These einer greifbaren Unterschiedlichkeit der Generationen und ihrer Gewichtung von Faktoren der Arbeitgeberattraktivität überhaupt zutrifft. Die Forschungslage zur GenZ ist noch dünn, weil es allein deshalb noch kaum belastbare Studien geben kann, weil die GenZ erst in jüngerer Zeit den Arbeitsmarkt betritt und Erfahrungen sammeln kann. Internationale Studien, die ihren Fokus generell auf Generationenunterschiede legen, haben bisher keine gravierenden Unterschiede zwischen den Generationen feststellen können. (Vgl. Sachse et al. 2025, S. 17f.)

Das Ziel der Studie von Professorin Sachse und ihrem Forschungsteam war einerseits, eine empirische Studie am Beispiel Deutschlands zu liefern, und zudem einen Fokus auf die Einstellungen gegenüber den Arbeitgebern bereitzustellen.[1] Die Auswertung der Umfrage konnte auf Daten von 1133 berufstätigen Personen zurückgreifen, wobei alle Generationen quantitativ ungefähr gleich vertreten waren.

Die Befragung ging in 68 Items entlang von 19 Dimensionen unterschiedlichen Arbeitgeberattraktivitätsfaktoren nach. Eine regressionsanalytische Auswertung der Daten ergab, dass sowohl instrumentelle (Einkommen, Sicherheit, Benefits u.a.) als auch symbolische Merkmale (soziale und altruistische Werte sowie Status, also Prestige und Autorität u.a.) für die Arbeitgeberattraktivität relevant sind. Die Gewichtung der Faktoren unterscheidet sich dabei nicht bedeutsam zwischen den Generationen. Vor allem bei den wichtigsten Merkmalen wie Identifikation mit dem Arbeitgeber, Führung und Arbeitsaufgaben gibt es keine Unterschiede zwischen den Generationen – für alle sind diese gleich relevant. Kurzum lässt sich der Bruch zwischen den Generationen und eine distinkte Eigenart der GenZ in ihren Arbeitswerten und Erwartungen empirisch nicht bestätigen.

Fazit: Eine unnötige Polarisierung

Das heißt nicht, dass sich die Attraktivitätsfaktoren über die Zeit nicht verändern würden. Hierfür scheint aber eher ein Zeitgeisteffekt ausschlaggebend, der sui generis alle Generationen anbetrifft. So stellte eine andere Untersuchung fest, dass sich die Präferenzen zur Länge der Arbeitszeit im Allgemeinen geändert haben – auch die Babyboomer achten heute mehr auf Work-Life-Balance als früher.

Ein Zuschnitt der Rekrutierung auf die Generation Z ist demgemäß unnötig. Mitarbeitenden in allen Berufslebensphasen – vom Jobeinstieg bis zum Übergang in die Rentenzeit – sollten Arbeitsbedingungen geboten werden, die zu ihren Bedürfnissen passen. Dazu gehören eine gute Führung, sinnvolle Tätigkeiten, angemessene Entlohnung sowie Arbeitsaufgaben, bei denen die eigenen Kompetenzen genutzt und erweitert werden können.

Es lässt sich festhalten, dass es zwar einzelne generationale Varianzen gibt, diese sind aber nur minimal. Unter anderem die Veränderungen des Zeitgeistes und die genuinen Effekte von Lebensabschnitten sind bei Vergleichen von Generationen stets mitzubedenken. Die GenZ befindet sich am Beginn ihres Berufslebens in einer Orientierungsphase, in der sie verschiedene Erfahrungen sammeln muss, um den passenden Arbeitgeber und Berufsweg zu finden[2]. Allein dadurch lassen sich Unterschiede zu den Mitgliedern älterer Generationen am Arbeitsmarkt erklären.

Dem Begriff der Generation fehlt es neben einer konzeptionellen Schärfe auch an einem empirischen Profil, das sich anhand konkreter Beobachtung bestätigen ließe: Zwar lassen sich zwischen Generationen einzelne Unterschiede auch in der Attraktivität der Arbeitgeberfaktoren und Arbeitswerte ausmachen, diese sind aber zu gering, um als Scheidelinie zwischen den Generationen dienen zu können. Die Arbeitswerte der Generationen liegen trotz einer gewissen Varianz nahe beieinander. Kurzum: Die GenZ tickt nicht anders.


[1] Die Anlage von Studien hat notwendigerweise Auswirkungen auf die eröffnete Perspektive: In einer Querschnittsstudie, in der alle Personen zu einem Zeitpunkt befragt werden, können zwar alle Generationen abgebildet werden, gleichzeitig kann die Generation nicht vom Lebensabschnitt getrennt werden. Zum Befragungszeitpunkt befinden sich alle Mitglieder einer Generation auch im selben Alter und damit in derselben Lebensphase. Eventuell identifizierte Unterschiede zwischen den Generationen können somit auch durch Alters- bzw. Lebensphaseneffekte zustande kommen.

[2] Es lassen sich die Phasen der Exploration, der Etablierung, der Erhaltung und des Rückzugs trennen, wobei jede eigenen Logiken und Präferenzen unterworfen ist.  (Vg. Sachse et al. 2025, S. 16)

Stiftungsprofessuren als Impulsgeber der Forschung am Beispiel von Roy Knechtel

Stiftungsprofessuren als Impulsgeber der Forschung am Beispiel von Roy Knechtel

Auch wenn Stiftungsprofessuren noch recht neuartige Strukturen sind, haben sie sich mittlerweile in der bundesdeutschen Wissenschaftslandschaft fest etabliert. Sie bieten einen genuinen Vorzug, der gerade aus Sicht von Forschung und Transfer ins Gewicht fällt: Stiftungsprofessuren nehmen innovative Potentiale technologischer Entwicklungen auf und begünstigen deren Übersetzung in universitäre Einrichtungen. Ihre Anzahl hat in der jüngsten Vergangenheit zugenommen, wodurch in Deutschland mittlerweile bis zu 2 % der Gesamtzahl Stiftungsprofessuren ausmachen. Bevor wir uns einem konkreten Beispiel einer solchen Stiftungsprofessur an der Hochschule Schmalkalden zuwenden, muss geklärt werden, was traditionelle von Stiftungsprofessuren unterscheidet.

Anders als bei den üblichen Professuren wird die Finanzierung nicht staatlicherseits aufgebracht, sondern vom jeweiligen Stifter, also Institutionen, Unternehmen oder auch Privatpersonen. Zudem ist der Zeitraum der eigentlichen Stiftungsprofessur begrenzt, zumeist auf fünf, teils auf zehn Jahre. In Absprache mit den Hochschulen wird die gestiftete dann üblicherweise in eine klassische Professur umgewandelt und so die Kontinuität der Forschung und der erarbeiteten Expertise gewährleistet. Ein zentraler Vorteil dieser Stiftungsprofessuren ist, dass über diese Methode innovative Forschungsfelder erschlossen werden können: Die Stifter legen im Austausch mit den entsprechenden Gremien der Hochschulen den thematischen Fokus der Professur fest, und stellen die Mittel für die Professur sowie weitere Sach- und Investitionsmittel (z.B. für  Laboreinrichtungen) bereit. Durch diese externen Initiativen können neuartige Themen und Bereiche Eingang finden, die bislang kein Teil des etablierten Kanons waren.

Der Reiz dieser Einrichtungen geht für Hochschulen neben dem Punkt der geminderten Kosten zum großen Teil von diesen Impulsen auf die Forschung aus, wie sich auch anhand der Stiftungsprofessur Roy Knechtels durch die Carl-Zeiss-Stiftung an der Hochschule Schmalkalden verdeutlichen lässt. Der Hochschule bot sich hier die Gelegenheit, in einem zukunftsträchtigen Forschungsfeld Expertise und Kompetenzen aufzubauen. Da der Förderzeitraum dieser Stiftungsprofessur kürzlich auslief, ist nun ein guter Augenblick für ein Resümee.

Möglichkeiten und Herausforderungen

Neuberufene Professoren und Professorinnen stehen für gewöhnlich einerseits vor der Aufgabe, die Ausrichtung ihres Lehrstuhls in Forschung und Lehre anhand ihrer Interessen und Vorstellungen vorzunehmen zu müssen. Neben Personal und Technik umfasst dies auch die Fixierung thematischer Schwerpunkte. Andererseits bestehen die Lehrstühle zumeist bereits, wodurch es einen gewissen Rahmen und einen Bestand an vorhandenem Personal sowie Forschungs- und Lehrmitteln gibt. Im Unterschied zu diesen Fortführungen von klassischen Professuren ist es eine Eigenart von Stiftungsprofessuren, eine Neugründung zu sein und nicht an einen bereits bestehenden Lehrstuhl anzuknüpfen, was Möglichkeiten bietet, aber auch Herausforderungen mit sich bringt.

An der Hochschule Schmalkalden wurde Roy Knechtel im April 2019 auf die von der Carl-Zeiss-Stiftung geförderte Forschungsprofessur „Autonome intelligente Sensorik“ berufen. Der Förderzeitraum der Professur war für einen Zeitraum von fünf Jahren angesetzt und dauerte dementsprechend bis zum März 2024. Die von der Carl-Zeiss-Stiftung im Rahmen eines ausgeschriebenen Programms geförderte Professur zielte auf einen Bereich, in dem sich Roy Knechtel in über zwanzig Jahren Expertise und Erfahrungen im Rahmen seiner Tätigkeit im Erfurter Unternehmen X-FAB aneignen konnte: Die Entwicklung von MEMS (Micro Electromechanical Systems) Sensortechnologie.

Neben kleineren Projekten zu Sensoranwendungen lag der ein besonderer Schwerpunkt der Forschung der vergangenen Jahre auf technologischen Teilschritten zur Realisierung von Sensoren und deren 3D-Integration mit Mikroelektronik zu komplexen elektronischen Systemen, insbesondere zu Sensoraufbauten. Es versteht sich von selbst, dass für diese Forschungsfragen spezifische Anlagen, Labore und Apparaturen notwendig sind. Im Besten Falle sind diese schon vorhanden, ansonsten muss der mehr oder weniger aufwendige Weg ihrer Anschaffung beschritten werden.

An der Hochschule Schmalkalden fand Roy Knechtel bei Antritt seiner Professur ein Reinraumlabor vor, das neben der Partikelfreiheit auch eine Kontrolle der Umgebungsbedingungen wie Temperatur und Luftfeuchte zuließ. Hiermit lag bereits eine günstige Ausgangssituation vor. Zudem wurde bis Ende letzten Jahres die Klimatechnik des Reinraumlabors modernisiert. Aber auch in Hinsicht der Anlagentechnik konnte Roy Knechtel auf ein bestehendes Fundament aufbauen: Nicht nur gab es einen Hochtemperaturofen, der bis zu 800°C für Anglasprozesse von Siebdruckmaterialien erzeugen kann, sondern auch einen Siedrucker und einen Siebreiniger. Zudem waren neben chemischen Boxen und einem Drahtbonder auch Mikroskoptechnik einschließlich eines Rasterelektronenmikroskops mit EDX-Technologie für Materialanalysen und einen löttechnischen Bestand mit einer Hotplate und einer halbautomatischen Lötstation bereits vorhanden.

Grundlegung der Forschung

Roy Knechtel musste folglich keineswegs bei null anfangen, sondern konnte sich auf Anlagen konzentrieren, die für das neue Forschungsgebiet zentral sind. Die Neuausrichtung auf moderne Integrationstechnologien der Mikroelektronik und Mikrosystemtechnik insbesondere hinsichtlich der Sensorintegration machte es notwendig, Prozessierungsanlagen – wie verschiedene Typen von 3D-Druckern – und spezielle Analysetechnik in Form von Mikroskopen anzuschaffen.

Die verschiedenen 3D-Drucker dienen als Grundlage der Forschung. Der Anycubic Photon Mono m5s pro erlaubt das 3D-Drucken von Kunststoffen mit fotolitografischen Mitteln, also Licht. Hierfür werden spezielle Polymere verwandt, die auf den UV-Anteil des Lichts reagieren. Bei der Fertigung von mechanischen Bauteilen lässt sich eine Auflösung von bis zu 18,5µm erreichen, was eine hohe Präzision darstellt. Der Bambulab X1E ist ein Filament 3D-Drucker mit verschiedenen Austrittsdüsen zum Drucken von feinen Strukturen. Durch seine zahlreichen Sensoren und Softwareapplikationen ist ein präziser und schneller Druck möglich. Ein anderer Vorteil bietet sich in der Verarbeitung von bis zu 5 Farben und Materialien in einen Druck.

Die wichtigste Anschaffung lässt sich mit dem Begriff 3D-Drucker nur ansatzweise beschreiben: Das KRONOS 15XBT[1] System ist eher ein 3D-Integrationssystem, das viele verschiedene Möglichkeiten der Verfahren und verwandten Komponenten erlaubt, um elektronische Bauteile dreidimensional zu fertigen. Das 5-Achsen-System ermöglicht zum Beispiel die Verwendung von 10 Drucktechnologien, und weiter bieten sich mit 8 unterstützten Modulen Erweiterungen der Bildgebungsverfahren, der Vor- sowie Nachbehandlung und der Ergebnisoptimierung. Das System gestattet die Verarbeitung verschiedenster Materialen mit stark unterschiedlichen Viskositäten und Eigenschaften auf topographisch komplexen Substraten. Der Anwendungsbereich wird in der Folge um ein Vielfaches breiter: Nicht nur können verschiedenartige Verfahren zum Drucken, Härten und Prüfen simultan verwendet und kombiniert werden, es kann zudem beinahe alles von elektrisch Leitenden Pasten, über isolierende Tinten bis zu zähflüssigem Glas gedruckt werden.

Diese Drucktechnologien durch eine klassische Fotolithografie ergänzt, die technologisch gesehen die Grundlage der modernen Halbleiterfertigung darstellt. Zwar bietet der neu angeschaffte maskenlose digitale Belichter MLA100 von Heidelberg Instruments eine geringere Arbeitsgeschwindigkeit, er benötigt aber keine teuren Masken und ermöglicht dennoch eine Auflösung bis zu einem Mikrometer (ein Tausendstel Mikrometer). In Kombination mit einer Tischsputtereranlage lassen sich damit metallische Mikrostrukturen (auch als Kombination von zwei Metallen) mit elektronischen und magnetischen Funktionen oder als Fügesysteme herstellen. Die Kombination mit den Druckverfahren ist Gegenstand aktueller Forschungen.

Um die Fortführung eines wichtigen Forschungsfelds von Roy Knechtel aus seiner Zeit in der Industrie, das WaferBonden, also das definierte Stapeln und Fügen von Halbleiterwafern zur Realisierung dreidimensionaler Substrate und Elektronik- sowie Sensoriklösungen, zu ermöglichen, konnte durch eine Sonderförderung der Carl-Zeiss-Stiftung eine WaferBonderanlage beschafft werden. Diese wird inzwischen sehr intensiv genutzt. Da auch für das WaferBonden die Prozesskontrolle, d. h. die Analyse der Ergebnisse sehr wichtig ist, konnte ein Scanning Acoustic Microscope (SAM) als Leihgabe von der Firma PVA Tepla genutzt werden, das die Forschungen im Bereich des WaferBondens auf ein nochmals höheres Niveau gehoben hat.

Als ein weiterer Bereich der Anschaffungen kommen die Mikrokopie hinzu, mit deren Hilfe unter anderem die Prozessergebnisse vermessen und evaluiert werden können. Ein Lichtmikroskop der Firma Zeiss (LSM 700) arbeitet mit Hilfe eines Lasers, um kleinste Merkmale wiedergeben zu können. Der Laserstrahl fährt dabei über das Objekt und scannt jeden Punkt einzeln über das reflektierte Licht. Aus diesen einzelnen Informationen wird dann ein Bild zusammengefügt. Zudem kann das Mikroskop verschiedene Schichten erfassen, wodurch die Erstellung eines dreidimensionalen Modells möglich wird. Zuletzt bietet das Mikroskop auch Instrumente der Korrektur der Bildgebung an.

Das andere Mikroskop stammt ebenfalls von Zeiss: Es ist ein Rasterelektronenmikroskop vom Typ EVO MA15. Die Objekte, die dieses Mikroskop erfassen kann, sind nochmals kleiner. Um Dinge der Größenordnung einer Haarsträhne abbilden zu können, greift das Gerät nicht auf Licht zurück, sondern auf Elektronen. Ein Strahl von Teilchen wird auf die Materialien gerichtet, und die Elektronen schlagen andere Elektronen aus oder prallen an ihnen ab. Aus diesen Informationen wird dann ein Bild gewonnen. Diese Detailschärfe des Mikroskops ist zweckmäßig, wenn es zum Beispiel um Oberflächen von Micro-Chips geht. Auch die winzigen Muster (d.h. Mikro- und Nanostrukturen), die bei der Herstellung dieser Chips verwendet werden, können so erfasst werden. Zudem verfügt das Mikroskop über die Option des energiedispersiven Röntgens (EDX), was zum Beispiel für die Analyse der Vermischung zweier Metalle zu einer Legierung nützlich ist. Mit dieser Technologie ist es möglich, festzustellen, um welches neue Material es sich handelt.

Das Team und neue Herausforderungen

Mit der erfolgreichen Anschaffung dieser Geräte kann nun die nächste Phase eingeläutet werden, eben die der intensiven Forschung an und mit den Geräten. Micalea Wenig ist eine technologisch versierte wissenschaftliche Mitarbeiterin. Sie sorgt für den reibungslosen Betrieb des Reinraums und der Anlagen, ist inzwischen Expertin am SAM und führt eigene Forschungen durch. Mit Lukas Hauck konnte Roy Knechtel einen Doktoranden gewinnen, der sich mit dem 15XBT auseinandersetzt und der untersucht, ob sich Grundregeln in der Nutzung des Systems mit verschiedenen Verfahren und Materialien aufstellen lassen. Zudem konnte mit Dr. Martin Seyring ein wissenschaftlicher Mitarbeiter ins Team geholt werden, der einen für die Mikroelektronik durchaus relevanten Bereich abdeckt: Die Materialwissenschaften. Um immer kleinere und komplexere elektronische Bauteile und Schaltungen fertigen zu können, sind die Materialien und die Prozesse in diesen wichtig. Kurzum hat sich nun ein Team zusammengefunden, das die technischen Möglichkeiten für die weitere Forschung bestens nutzen kann.

Dies zeigt sich anhand mehrerer Forschungsprojekte mit der Thüringer Industrie über die letzten Jahre hinweg. Ein aktuell laufendes, von der Carl-Zeiss-Stiftung gefördertes Projekt hat zu einer weiteren personellen und fachlichen Verstärkung dieser Forschergruppe geführt (über das wir demnächst berichten werden) sowie zu mehr als zehn wissenschaftlichen Veröffentlichungen (reviewte Artikel in Fachjournalen und Konferenzbeiträgen).

Abschließend kann festgehalten werden, dass die Stiftungsprofessur wie angedacht umgesetzt wurde: Es konnten die infrastrukturellen Grundlagen für State-of-the-Art-Forschungen geschaffen und ausgebaut werden, eine leistungsfähige Forschungsgruppe etabliert werden, die weiter wächst und an relevanten Projekten arbeitet und viele Ideen für neue zukünftige Forschungen hat. Hierfür gilt ein besonderer Dank der beteiligten Wissenschaftler sowie der Hochschule Schmalkalden an die Carl-Zeiss-Stiftung für die sehr umfangreiche finanzielle Förderung, aber auch für Weiterbildungsveranstaltungen wie das Vernetzungstreffen der von ihr berufenen Stiftungsprofessorinnen und -professoren, die diesen nachhaltigen Forschungsaufbau ermöglicht haben.


[1] Drucksystem 3D- Elektronikintegration Kofinanziert von der Europäischen Union im Rahmen des Förderprogramms Richtlinie zur Förderung der Forschung FTI Thüringen Forschung, Vorhabens-Nr. 2022 FGI 0019

Freie Fahrt für heiße Schmelze. Welche Vorteile können additiv hergestellte Werkzeuge bei der Extrusion bieten?

Freie Fahrt für heiße Schmelze. Welche Vorteile können additiv hergestellte Werkzeuge bei der Extrusion bieten?

Forschung an Hochschulen angewandter Wissenschaften ist praxisnah und transferorientiert: Die Potentiale der wechselseitigen Kooperation von Wissenschaft und Wirtschaft können an Forschungsprojekten wie ExAM deutlich gemacht werden, das Stefan Roth, Professor für Produktentwicklung und Konstruktion an der HSM und Teil des Teams der Angewandten Kunststofftechnik (AKT), gerade umsetzt.

Um was geht es? Zunächst ist es sinnvoll, die Extrusion als ein spezielles Verfahren in der Kunststofftechnik vorzustellen: Grundsätzlich ist die Extrusion eine Möglichkeit der Fertigung von „endlosen“ Kunststoffteilen wie Rohre und Schläuche, wobei die eigentliche Methode auch in anderen Zusammenhängen angewandt wird, zum Beispiel bei der Herstellung von Nudeln. Kurz lässt sich eine Extrusionsanlage als eine Apparatur beschreiben, die Rohmaterialien wie Kunststoffe, Metalle oder Lebensmittel verflüssigt und durch eine Düse – auch Matrize genannt – presst, wobei diese Öffnung die Form des Produkts ergibt. Im Unterschied zu anderen Verfahren ist der Austritt kontinuierlich, was wiederum spezifische Möglichkeiten, aber auch Herausforderungen mit sich bringt. Wichtig ist dabei, dass die Komplexität über die Düse hinausgeht und neben der Schmelze unter anderem auch Prozessschritte wie die Abkühlung umfasst. Bevor wir uns dem Forschungsprojekt ExAM zuwenden, worin es um die Vorteile der additiven Fertigung von Werkzeugen wie der Düse geht, verbleiben wir zunächst beim Extrusionsprozess.

Die Extrusion

Wie bereits erwähnt ist die Extrusion keine einzelne Maschine, sondern lässt sich eher als eine Anlage mit verschiedenen Teilen und Stationen verstehen. Gehen wir kurz den Weg des Produktes: Am Anfang steht das Rohmaterial, also das Granulat, das über einen Befülltrichter in den Extruder eingeführt wird. In diesem befinden sich eine Schnecke, die sich dreht und das so Material zum Ausgang transportiert und es dabei vermengt, verdichtet und erwärmt. Durch die in der Schneckenbewegung entstehende Reibung des Materials wird Wärme produziert, durch welche das Granulat aufgeschmolzen wird. Dieser Schmelzprozess wird durch außen auf der Anlage angebrachte Heizbänder gefördert.

So entsteht eine Schmelze, die im weiteren Gang durch die Schnecke verknetet und homogenisiert wird. Die Schmelze wird dann durch die Düse gepresst und so in die gewünschte Form gebracht. So entsteht ein im Grunde endloses Formteil, wie wir es zum Beispiel als Kabelschacht, Fensterprofil oder Folie kennen.  Im Anschluss wird das Produkt abgekühlt und simultan kalibriert, wobei sich hier die Verfahren je nach Eigencharakteristik des Produkts unterscheiden. Die Aufgabe ist es, Verformungen zu vermeiden, die durch die thermoplastischen Eigenschaften des Materials beim Abkühlen entstehen. Am Ende des Prozesses wird das endlose Extrudat abgelängt oder aufgewickelt.

Ansätze der Optimierung

Wichtig ist zu verstehen, dass es nicht um ein Material, ein Verfahren und eine Maschine geht, durch die letztendlich ein Produkt entsteht, sondern verschiedene Parameter die Möglichkeiten und Grenzen des Prozesses und des Produkts sowie deren Qualität entscheidend beeinflussen. Zum Beispiel haben sowohl die Schneckentypen als auch ihre Verfahrensweisen (z.B. ihre Rotation) Auswirkungen auf die Schmelze: Je nach Material eignen sich andere Schneckentypen. Variablen wie Menge, Geschwindigkeit und Wärme kommen hinzu, aber auch die Rolle von Additiven, also Zusätzen neben dem Granulat, denen wiederum eigene Eigenschaften zukommen. All diese Komponenten müssen je nach Material und Produkt abgestimmt werden, um am Ende des Prozesses eine möglichst passgenaue und effiziente Produktion zu realisieren. Gerade für Produkte, wie sie typischerweise mittels Extrusion hergestellt werden, sind die Aspekte der Quantität zentral. Durch die hohen Stückzahlen haben hier Verbesserungen der Produktion enorme Effekte.

In solchen grundlegenden und generalisierbaren Bereichen bietet sich die industrielle Gemeinschaftsforschung als Träger von Forschungsprojekten an. Von den IGF-Projekten und dessen Ergebnissen können alle Beteiligten profitieren, ohne hier von dem Konkurrenzdruck ausgebremst zu werden. Anders formuliert geht es hier um eine ambitionierte, vorwettbewerbliche Kooperation, die Forschung zum gemeinsamen Nutzen fördert. Getragen wird diese Gemeinschaft vom Bundesministerium für Wirtschaft und Klimaschutz, sie verbindet aktuell 101 Forschungsvereinigungen und 1200 Forschungseinrichtungen. Einer dieser Forschungsbereiche, repräsentiert durch die Forschungsgemeinschaft Deutscher Werkzeug- und Formenbauer FDWF e.V., betrifft die Frage, ob und wie sich die Vorteile additiv gefertigter Werkzeuge im Extrusionsverfahren bemessen lassen. Und damit sind wir an der Hochschule Schmalkalden.

Das Forschungsprojekt

Das Forschungsprojekt ExAM rückt den Fokus weg von klassisch hergestellten Werkzeugen, die subtraktiv gefertigt werden, hin zum Verfahren der additiven Fertigung. Dieses ist in anderen Bereichen – sowohl im Allgemeinen als auch auf dem Gebiet der Kunststofffertigung – schon etabliert, und nun stellt sich die Frage, ob sich diese Vorteile auf das Verfahren der Extrusion übertragen lassen. Ein auf der Hand liegender Nutzen ist, dass die additiven Verfahren mehr Freiheitsgrade bei Fertigung der Werkzeuge bieten, und somit neue bzw. innovative Ansätze der Konstruktion ermöglichen.

Klassisch werden die Werkzeuge in Zerspanungsverfahren wie dem Fräsen, oder Drehen gefertigt, poliert und die Komponenten anschließend zusammengebaut. Eine notwendige Folge dieses Vorgehens sind Restriktionen wie Übergänge und Toträume, die negative Auswirkungen auf den Fluss der Schmelze haben. Der Schicht-für-Schicht-Aufbau der additiven Fertigung kann eben diese Restriktionen vermeiden. Die Optimierung der Werkzeuge führt dann zu einer Verbesserung der Produkte bzw. des Fertigungsprozesses: Bessere Bauteileigenschaften und maßhaltigere Teile sind ebenso Ziele wie die robustere und einfachere Ausgestaltung der Prozesse. So lassen sich unter anderem die optischen Eigenschaften optimieren auch der Ausschuss von Teilen minimieren. Kurzum haben Ingenieur:innen bei der Konstruktion mehr Möglichkeiten: Offen ist hingegen die Frage, ob sich der Mehraufwand der additiven Fertigung lohnt.

Bleiben wir bei den Möglichkeiten: Der zentrale Punkt ist die Führung der Schmelze im Werkzeug, die möglichst homogen zum Austrittspunkt geleitet und in Form gebracht werden soll. Stockungen, Stausituationen und Toträume müssen auch aus Sicht der Materialqualität vermieden werden, führen diese doch unter anderem zu Schlieren oder farblichen Mängeln. Das sich in Toträumen ansammelnde Material degradiert mit der Zeit, stört den Fluss und hat negative Effekte auf die mechanischen und optischen Eigenschaften des Materials. Wichtig ist ferner die Kontrolle der Geschwindigkeit der Schmelze, was wiederum in Abhängigkeit zum Druck und der Temperatur steht. Die additive Fertigung der Werkzeuge erlaubt die Umsetzung einer gezielten Temperierung, und somit die bestmögliche Auslegung der Schmelzekanäle und -führung. Zugleich lassen sich innovative Geometrien in Form von Kühlkanälen in das Werkzeug einbringen.

Ziel der Konstruktion ist die Optimierung des Schmelzraums, die eine möglichst schnelle Durchleitung bei gleichbleibender Qualität erlaubt. Die Effizienzsteigerung kann bei der Massenproduktion entscheidende Vorteile bieten. Dieser ökonomische Nutzen in der Produktion, den die additiven Bauteile liefern, soll im Forschungsprojekt ExAM geklärt werden. Am Ende des Projektes steht neben der Bewertung der Vorteile die Entwicklung eines Leitfadens, der die Konstruktion und die Auslegung additiv gefertigter Bauteile aufbereitet und allen Kooperationspartnern zur Verfügung steht. Anhand dieses Leitfadens können die Unternehmen dann gemäß ihrer eigenen Ansprüche und Ziele additive Werkzeuge entwickeln. Durch diese grundlegende Zugänglichkeit kann die Technologie der additiven Fertigung von Werkzeugen breit in Anwendung gebracht und die innovativen Impulse für die Steigerung der Produktqualitätsmerkmale genutzt werden.

Innovativer Transfer

Die Nutzung von additiv gefertigten und optimierten Werkzeugen ist im Bereich des Spritzgusses keineswegs Neuland, aber für das Verfahren der Extrusion schon. Somit gilt es weniger, neue Technologien zu entwickeln als darum, schon vorhandene in ein neues Gebiet zu übertragen. So lassen sich die bereits vorhandenen Erfahrungen aus dem Spritzguss in den Aspekten wie der Temperierung und der Flussführung der Schmelze nutzen. Infolge der grundlegenden Anwendungsorientierung bietet sich dieses Thema als kooperatives Projekt der industriellen Gemeinschaftsforschung (IGF) an, wobei von den erforschten Technologien alle beteiligten Unternehmen profitieren können sollen. Als ein hier angesiedeltes Projekt steht die Anwendungsnähe im Fokus, also die anvisierten Wettbewerbsvorteile der kooperierenden Institutionen und Unternehmen.

Das zweijährige Projekt ExAM startete im letzten Herbst und verbindet drei Kooperationspartner mit drei unterschiedlichen Schwerpunkten: Im Fokus der Hochschule Schmalkalden steht die Extrusion und das Feld der Health Tech, die Kunststofftechnik der Universität Paderborn konzentriert sich auf das technische Profil; und das Fraunhofer Institut für additive Produktionstechnologien mit Sitz in Hamburg-Bergedorf ist im Projekt auf das Thema der Simulation und additiven Fertigung der Werkzeuge im laserbasierten Pulverbettverfahren spezialisiert.

Die durch das additive Verfahren ermöglichte Formvielfalt in der Konstruktion ist dabei für die HSM eine Herausforderung, ergeben sich doch viele neue Optionen. Zugleich setzt hier aber auch die innovative Optimierung der Werkzeuge an. Neben der eigentlichen Form das Bauteils werden auch verschiedene Werkzeugstähle für das additive Laserschmelzverfahren untersucht, wobei es immer um bereits kommerziell verfügbare Typen geht. Wichtig ist die Unkompliziertheit der anschließenden Nutzung. Nicht zuletzt muss jede einzelne Optimierung den gesamten Prozess der Extrusionsanlage mitbedenken und eventuelle Wechselwirkungen in Betracht ziehen.

Team bei der Vorstellung des 3D-Druckers

Jüngst konnte die Fakultät Maschinenbau und das AKT eine Neuanschaffung vermelden, die auch die Forschung am ExAM-Projekt unterstützen kann: Der innovative 3D-Drucker des Herstellers NewAIM3D wurde erfolgreich in Betrieb genommen und steht nun für Forschung und Lehre bereit. Mit diesem Drucker nach dem Pelletdirektextruderprinzip ist es möglich, Kunststoffe, Compounds, in handelsüblicher Granulatform direkt und effizient zu verarbeiten. So wird beispielsweise der Druck mit Granulaten, bestehend aus Metallpulver und Binder, sogenannten Feedstocks, möglich. Die daraus entstehenden Bauteile werden anschließend gesintert und erlangen so die Dichte und Eigenschaften von konventionellen Stählen. Das Verfahren stellt so eine Alternative zum etablierten jedoch aufwändigen additiven Laserschmelzverfahren von Metallpulvern dar. Die Anschaffung des Druckers wurde im Rahmen der dritten Förderperiode des Thüringer Zentrums für Maschinenbau ermöglicht und durch das Thüringer Ministerium für Wirtschaft, Landwirtschaft und ländlichen Raum gefördert. Zudem unterstützt der Freistaat Thüringen das Vorhaben, das durch Mittel der Europäischen Union im Rahmen des Europäischen Fonds für regionale Entwicklung (EFRE) kofinanziert wird.

In Kürze wird an dieser Stelle noch ein Video eingestellt, dass die Allianz Thüringer Ingenieurwissenschaften zu diesem Projekt produziert hat.

Abbrüche verhindern, Leistung verbessern: Wie eine Lern-App Studierende in der Anfangsphase unterstützt

Abbrüche verhindern, Leistung verbessern: Wie eine Lern-App Studierende in der Anfangsphase unterstützt

Die Zahl an Studienabbrüchen ist seit Langem hoch, gerade in den ersten Jahren geben viele Studierende ihr Studium vorzeitig auf. Die Gründe für diese Entscheidungen sind vielfältig und lassen sich nicht verallgemeinern. Auf der einen Seite beruhen sie auf gewonnenen Erfahrungen mit den jeweiligen Fachbereichen: Die individuelle Einsicht darin, dass Fachgebiete oder Methoden den eigenen Präferenzen nicht entgegenkommen, führt dazu, das Fach zu wechseln oder gänzlich andere Wege zu gehen. Andere Gründe für den Abbruch des Studiums sind dagegen vermeidbar: So stellt der Wechsel von der schulischen hin zur universitären, höheren Bildung viele junge Menschen vor Herausforderungen. Neben dem Umfeld ändern sich auch die Ansprüche an die Organisationsfähigkeit, das selbstständige Lernverhalten und nicht zuletzt die Komplexität der vermittelten Inhalte. Hier könnte eine mobile Lern-App Abhilfe schaffen.

Institutionen wie Hochschulen ist daran gelegen, die Zahl vermeidbarer Studienabbrüche zu minimieren. Eine mögliche Antwort holt die Studierenden gezielt in ihrem Alltag ab: Die Nutzung von mobilen Endgeräten ist aus dem Leben junger Erwachsener nicht mehr wegzudenken. Smartphones dienen nicht mehr nur allein der Kommunikation, sondern neben der Organisation und Navigation nun vermehrt auch dem Banking und vielen anderen Dingen. Kurzum: Die Geräte sind Teil des Alltags und der Umgang mit ihnen ist ebenso häufig wie intensiv. Anhand dieses Befundes lassen sich durchaus Potentiale absehen, die es nahelegen, diese Geräte zu nutzen, um Studierende zu unterstützen. Es stellt sich mithin die Frage, ob und wie sich eine mobile Lernapplikation dazu eignen könnte, die Anfangsphase des Studiums und seine Herausforderungen für die Betroffenen zu erleichtern und somit den Abbruch eines Studiums zu verhindern. 

Von der Konzeption eines Anforderungsprofils…

Professor Florian Johannsen begann bereits in seiner Zeit an der Universität Bremen mit einem Team eine entsprechende App für den Bereich Wirtschaftswissenschaften zu entwickeln. Auch nach dem Antritt seiner Professur für Betriebliche Anwendungssysteme an der Fakultät für Informatik der HSM ist er weiter Teil dieses Projektes an der Bremer Universität. Auf Seiten des Lehrstuhls für Allgemeine Betriebswirtschaftslehre, Unternehmensrechnung und Controlling (Universität Bremen) besteht das Projektteam neben Professor Jochen Zimmermann, Dr. Martin Kipp, Dr. Johannes Voshaar und M.Sc. Janik Ole Wecks auch aus den Kollegen Prof. Thomas Loy (mittlerweile Universität der Bundeswehr München) sowie dem studentischen Mitarbeiter Patrick Heusmann. In mittlerweile fünf Publikationen präsentieren die Forschenden unterschiedliche Etappen der Entwicklung und folglich auch verschiedene Stufen der Implementierung der App „WiWiNow“.

Anwendungsbeispiel

Am Anfang stand die Frage, worin die Gründe für Studienabbrüche liegen und was die spezifischen Bedürfnisse und Herausforderungen von Studierenden am Beginn ihrer akademischen Laufbahn sind: Was sind die individuellen Motive und Situationen, die den Ausschlag für den Abbruch geben? Und wie kann ein App die Studierenden unterstützen, welche Funktionen und Features muss sie bieten? Wichtig ist hierbei die Einbeziehung der Betroffenen, da es genau um ihre Erfahrungen geht und sie am besten Auskunft darüber geben können, welche Angebote nicht nur nützlich wären, sondern auch tatsächlich genutzt werden. Dieser Punkt ist so trivial wie relevant: Beim Design einer App ist nicht nur die Funktionalität und die Usability zu beachten, sondern auch die Wahrscheinlichkeit einer regelmäßigen Nutzung. Es geht darum, die App als aktiven Teil in den Alltag zu integrieren, und so die nützlichen Effekte zu potenzieren. Aber der Reihe nach…

Am Beginn stand die empirische Evidenz, dass nicht nur der Bildungshintergrund einen Einfluss auf Erfolg und Misserfolg der höheren Bildungswege hat, sondern auch schlechte Erfahrungen im Studium selbst sowie psychologische Faktoren wie ineffiziente Lernstrategien oder der Mangel an Selbstorganisation (Vgl. Johannsen et al. 21, S. 1). Diese Kompetenzen werden in der Hochschulbildung vorausgesetzt, was einen großen Unterschied zum schulischen Kontext darstellt. Zugleich sind sie für so manchen Studierenden das umgangssprachliche Neuland. Die Abbruchquoten sind in der ersten Phase vergleichsweise hoch, zugleich haben Studien mit Blick auf das deutsche Bildungssystem einen Mangel an sozialer und akademischer Integration festgestellt, der zu den vermehrten Abbrüchen führt (Vgl. Johannsen et al. 23, S. 636f.). Diesen Herausforderungen der Transition-in-Phase[1] könnte eine App Abhilfe verschaffen, die nicht nur dazu dient, Seminar- und Vorlesungstermine zu koordinieren, sondern auch das Lernverhalten trackt und transparent macht sowie Wissen durch Übungen vertieft und über spielerische Elemente abruft. 

… zur Entwicklung einer App…

Die erste Phase des Projektes befasste sich mit der Konzeption eines Prototyps anhand spezifischer Design-Vorgaben und mit der Taxierung eines technischen Rahmens: Die Fixierung von drei Meta-Anforderungen wurde in acht Design-Anforderungen überführt, welche die App erfüllen muss (Vgl. Johannsen et al. 23, Fig. 2, S. 639). Es ging also darum zu klären, was die App liefern soll, und was die beste technische Lösung wäre. Nach einer ersten Orientierung über das Design der Anwendung und einer Übersicht über die am Markt befindlichen Alternativangebote wurde eine Gruppe Studierender befragt, die sich im zweiten oder dritten Studienjahr befanden: Die Idee war, von deren Erfahrungen der Herausforderungen zu lernen, etwaige Lösungswege zu eruieren und schließlich Anforderungen an die App einzuholen. Eine zweite Umfrage zielte auf eine Gruppe von Lehrenden, die in engem Kontakt zu den Studierenden stehen und mit ihren Problemen vertraut sind. Zugleich verfügen sie über einen reichhaltigen Erfahrungsschatz des akademischen Alltags. Anhand dieser beiden Usergruppen wurden User Journeys beschrieben, also wie mögliche Anwender:innen mit der App umgehen und wie sie durch sie geleitet werden. Anhand des Prototyps konnten dann verschiedene Testphasen vollzogen werden, und sowohl das Front- als auch das Backend verbessert werden. 

Nun war der Zeitpunkt da, die App unter realen Bedingungen zu testen. In einem verpflichtenden Einführungskurs zum Rechnungswesen im Wintersemester 2020/21 wurde die App den Studierenden zur Verfügung gestellt. Um Verzerrungen zu vermeiden, gab es keine Gratifikationen für die Teilnahme an der Studie. Wichtig zu erwähnen ist noch der Umstand der Pandemie und die Folge, dass der Lehrbetrieb ins Digitale verschoben wurde – was natürlich die Testbedingungen veränderte. Von den Teilnehmenden wurden sozio-demografische und strukturelle Daten abgefragt, die in die spätere Auswertung einfließen sollten. Hinzu kamen die Daten der App-Nutzung (u.a. Dauer der Nutzung und Quiz-Performanz), die Daten der Kursteilnahme (neben dem Kurs auch das begleitende Tutorium) und der akademischen Performanz (die Prüfungsleistung). Selbstredend wurden die Daten anonymisiert und dem Datenschutz genüge getan. Am Ende konnten die Daten von 575 Teilnehmenden in die Studie aufgenommen werden (Vgl. Voshaar et al. 22, S. 7).

Im Ergebnis ließ sich festhalten, dass sich ein intensiverer Gebrauch der App signifikant positiv auf das Prüfungsergebnis auswirkt. Gerade weil die höhere Nutzung der App auch mit Faktoren der Besuche der Vorkurse und der Tutorien positiv korrelierte – und folglich unklar war, was der entscheidende Faktor der Leistungssteigerung war –, wurden weitere Untersuchungen nötig. Mit anderen Worten: Es blieb offen, ob die Nutzung der App selbst positive Effekte hatte oder ob leistungsstärkere bzw. motiviertere Studierende die App eher von sich aus nutzten, was den Einfluss der App verringern würde (Vgl. Voshaar et al. 22, S. 14). Nach der Korrektur mit Hilfe einer Kontrollvariable, die auf die Einflussfaktoren der Selbst-Selektion abgestimmt war, haben sich die ersten Ergebnisse aber als robust erwiesen. Nach diesen durchaus positiven Befunden konnten die Forschungen um die App weitergeführt werden.

… über die Bestimmung von Qualitätsdimensionen der Nutzung …

Ein weiterer Ansatz, der zu einer Veröffentlichung geführt hat, befasst sich mit den verschiedenen Qualitätsdimensionen der Akzeptanz, die eine Anwendung aufweisen kann und die mit ihrer Nutzung einhergehen. Hierbei wurden vier Qualitätsdimensionen ausgemacht, die von der App bedient werden sollten und die wiederum selbst in Unterkategorien aufgegliedert werden können: Geht es in der Systemqualität um die Art und Weise, wie die Informationen durch eine App aufbereitet werden, zielt die Servicequalität auf die angebotene Unterstützung ab. Die Informationsqualität wiederum umfasst die Evaluation der ausgegebenen Inhalte, wogegen die Qualitätsdimension des wahrgenommenen Vergnügens (perceived enjoyment) bei der Nutzung ebenso selbsterklärend wie eine für die Wiedernutzung relevante Kategorie ist (Vgl. Johannsen et al. 23, S. 641 – 644). Mit der Intension der Wiedernutzung und der wahrgenommenen Nutzer:innenzufriedenheit (perceived user satisfaction) schließen sich dann zwei Aspekte aus der User-Perspektive an, die wiederum mit unterschiedlichen Qualitätsdimensionen gekoppelt werden können und zugleich beide auf die Lerneffektivität als letzten Aspekt Einfluss haben.

Ein Ziel im Design der App war es, die Funktionalität und den Komfort kommerzieller Apps in der Strukturierung des Alltags mit universitätsbezogenen Inhalten, organisatorischen Funktionalitäten und spielerischen Elementen zu kombinieren (Vgl. Johannsen et al. 23, S. 638f.). Mit Hilfe der unterschiedlichen Qualitätsdimensionen lassen sich Stärken und Schwächen in der Nutzer:innenfreundlichkeit eruieren, was wiederum die Implementierbarkeit in den Alltag zumindest indirekt erhellt. 

Im Ergebnis wurde eine Umfrage zu den Erfahrungen der Nutzung ausgewertet, an der sich zum Semesterende 131 Studierende beteiligten, wobei das eigentliche Sample aus unterschiedlichen Gründen (z. B. unvollständige Datensätze) 113 Studierende umfasste. In diese Auswertung flossen die vermerkten Qualitätsdimensionen ein, die in unterschiedlichen Items abgefragt wurden. Die System- und die Informationsqualität sowie die Qualitätsdimension des wahrgenommenen Vergnügens fördern die Nutzer:innenzufriedenheit, wobei die letzte Qualitätsdimension auch die Intension zur Wiedernutzung verstärkt. Die Lerneffektivität wird wiederum durch die Nutzer:innenzufriedenheit und die Intension positiv beeinflusst. Anhand dieser Daten konnte das Design der App und seine Erfüllung der Anforderungen überprüft und justiert werden (Vgl. Johannsen et al. 23, S. 651ff.). Ferner konnten vier spezifische Designprinzipien formuliert werden, die eine App bezogen auf die Transition-in-Phase beachten sollte: Neben einer Teilnahme-Management-Funktion bedarf es einer Kontrollfunktion des selbstständigen Lernens. Zudem muss eine plattformübergreifende Zugänglichkeit gegeben sein und die Inhalte einfach zu organisieren sein (Vgl. Johannsen et al. 23, S. 655f.).

… über die Verbesserung des Lernverhaltens …

In einer weiteren Studie, die auf der 44. Internationalen Konferenz zu Informationssystemen (International Conference on Information Systems – ICIS) in Hyderabad vorgestellt wurde, wird der Versuch unternommen, die App an etablierten Ansätzen der Lerneffektivität zu messen. Zwar wurde eine Verbesserung der Noten in den Abschlussprüfungen bereits nachgewiesen, dieser Aspekt ist aber nur ein Teilbeitrag zum Ziel, die Abbruchsquoten des Studiums zu senken. Das Konzept der fünf Erfolgsfaktoren studentischen Erfolgs hat Lizzio (2011) bezogen auf die Transition-in-Phase entwickelt: Die Erfolgsfaktoren sind die Verbundenheit (connectedness) z.B. mit dem akademischen Leben, die Fähigkeit (capability) der Selbstorganisation u.a., die Sinnhaftigkeit (purpose) z.B. akademischer Praxen, der Einfallsreichtum (resourcefulness) in der Koordinierung verschiedener Anforderungen und die Kultur (culture) im Sinne einer Wertschätzung der höheren Bildung. Der zweite Ansatz differenziert unterschiedliche Lernmodelle mit je eigenen Charakteristika: Neben dem oberflächlichen Lernen kann das strategische und zuletzt das tiefe Lernen angeführt werden (Vgl. Voshaar et al. 23, S. 3f.). Bleibt das erste Lernverhalten unfokussiert und ephemer, unterwirft sich das zweite Modell der Maxime der Effizienz und spricht dem Gelernten selbst keinen Eigenwert zu. Das tiefe Lernen wiederum lässt sich am ehesten als eigenständige Durchdringung der Wissensbestände erklären. Ziel war es zu erfahren, ob die App bzw. bestimmte Elemente helfen, die Herausforderungen der Transition-in-Phase zu meistern.

Die Auswertung der Studie ergab, dass die Nutzung der App die Sinne der Fähigkeit und des Einfallsreichtums positiv beeinflussen kann. Zudem verstärkt es das strategische und mindert das oberflächliche Lernverhalten. Die App hilft demnach bei der studentischen Selbstorganisation, fördert das eigenverantwortliche Lernen und die Einsicht in institutionelle Anforderungen in der höheren Bildung. Diese Potentiale sollten sich nutzen lassen, um die Quoten der Studienabbrüche zu verringern, werden Studierende doch über Angebote der App bei den ausgemachten Herausforderungen in der Anfangsphase des Studiums unterstützt.

In Kombination mit analogen Unterstützungsangeboten vor Ort haben die verschiedenen Komponenten der App unterschiedliche Potentiale der Unterstützung, die von der Selbstorganisation über die Prüfungsvorbereitung bishin zur Ausbildung einer studentischen Identität reichen. Gerade weil Defizite an effizienten Lernstrategien und dem Zeitmanagement enorme Potentiale an Frustration bergen, kann hier die App produktive Akzente setzen. Nicht zuletzt dienen die spielerischen Elemente der App der Motivation zur Wiedernutzung. Somit kann die App nicht nur die abgerufene Prüfungsleistung verbessern, sondern auch andere Impulse der Unterstützung setzen, die neben dem Lernverhalten auch die Selbstorganisation betreffen.

… bis zur Differenzierung verschiedener App-Features

In der jüngsten Studie befasst sich das Bremer Team zusammen mit Florian Johannsen mit der Frage, ob sich die einzelnen Komponenten der App anhand ihrer Effektivität differenzieren lassen. Diese Studie wurde auf der 45. Internationalen Konferenz zu Informationssystemen (International Conference on Information Systems – ICIS) in Bangkok vorgestellt. Zunächst konnte bestätigt werden, dass App-Nutzende ein signifikant besseres Ergebnis in den Prüfungen haben. Eine Unterteilung in verschiedene Nutzungstypen (Übungen, Quizze und Selbstorganisation) ergab keine nennenswerten Unterschiede hinsichtlich einer Verbesserung der Prüfungsleistung.

Prof. Florian Johannsen und Dr. Johannes Voshaar auf der Konferenz (Bildquelle: privat)

Die anschließende Forschungsfrage war, ob die Komponenten der App die Anforderungen und die Prinzipien des Designs unterschiedlich gut unterstützen. Festhalten lässt sich zunächst, dass alle drei App-Features die Leistung positiv unterstützen, mit einer Ausnahme: Die Beantwortung komplexer Fragestellungen wurden durch das Quiz-Feature nicht signifikant positiv gefördert. Das ist auch durchaus plausibel, zielen die Quizze doch auf die Abrufung von Wissensbeständen, und nicht auf deren Anwendung in diffizilen Fällen ab.

Relativ lässt sich sagen, dass die Übungsfunktion den stärksten Unterstützungseffekt hat, der zugleich über die verschieden Fragetypen stabil bleibt. Bei den einfachen Fragekomplexen, die Standardwissen abriefen, waren auch die Quizze für die Studierenden hilfreich. Das Selbstorganisationsfeature trägt zwar ebenfalls zur Verbesserung der Prüfungsleistung bei, aber in geringerem Ausmaß. Die Studierenden in der konkreten Studie profitierten also am meisten von der Übungsfunktion, wobei die Quizzes ergänzend für den Aufbau von Wissensbeständen nützlich waren. Die Selbstorganisationsfunktionen haben zwar einen relativ geringen Mehrwert für die Prüfungsleistung, ihre positiven Effekte könnten aber auf andere Weise entstehen und eher die grundlegende Identitätsbildung der Studierenden betreffen. Durch den Abgleich mit den beiden Designaspekten lassen sich Empfehlungen für App-Entwickler:innen, Studierende und Lehrende formulieren (Vgl. Voshaar et al. 24, S. 13f.).

Viele Fragen sind noch offen, so wird auch die Erforschung der Nützlichkeit einer mobilen Lern-App weitergehen. Neben der Frage der Zweckdienlichkeit der organisatorischen Features und ihrer deskriptiven Abbildung können auch die Komponenten der App in ihren positiven Effekten weiter aufgeschlüsselt und differenziert werden. Gerade weil neue Technologien wie das Smartphone nicht mehr aus dem Alltag wegzudenken sind, ist die Implementierung einer mobilen Lern-App sinnvoll und ihre Erforschung geboten, auch um den Bedürfnissen nach ort- und zeitunabhängigen Angeboten gerecht zu werden. Es geht bei den verschiedenen Lehr- und Lernformen eben nicht um ein Verhältnis der Konkurrenz, sondern der Komplementarität, also der gegenseitigen Ergänzung. Die Digitalisierung setzt auch hier neue Impulse, die in Technologien wie einer Lern-App produktiv aufgenommen werden können.

Literatur (chronologisch sortiert)

  • Lizzio, A. (2011), The Student Lifecycle: An Integrative Framework for Guiding Practice. Griffith University.
  • Johannsen, F; Knipp, M; Loy, T; Voshaar, J; Zimmermann, J (2021): A mobile app to support students in the „transition-in“ phase. Proceedings of the 29th European Conference on Information Systems (ECIS 2021), Research-in-Progress Paper.
  • Voshaar, J., Knipp, M., Loy, T., Zimmermann, J. and Johannsen, F. (2022), „The impact of using a mobile app on learning success in accounting education“, Accounting Education, Vol. No. pp. 1-26.
  • Johannsen, F., Knipp, M., Loy, T. et al. (2023): What impacts learning effectiveness of a mobile learning app focused on first-year students?. Inf Syst E-Bus Manage (2023). https://doi.org/10.1007/s10257-023-00644-0
  • Voshaar, J., Wecks, J.O., Johannsen, F., Knipp, M., Loy, T., Zimmermann, J. (2023): Supporting Students in the Transition to Higher Education: Evidence from a Mobile App in Accounting Education, Proceedings of the International Conference on Information Systems (ICIS 2023), Hyderabad, India.
  • Voshaar, J., Johannsen, F., Mkervalidze, S. and Zimmermann, J. (2024). Unbundling the App Advantage: Evaluating Exam Performance-enhancing Features of Mobile Learning Apps in Accounting. International Conference on Information Systems (ICIS 2024). Bangkok.

[1] Die Transition-in-Phase ist eine Etappe des Studierendenzyklus nach Lizzio (2011). Dieser unterteilte das Studium in verschiedene, teils vor- und nachgelagerte Phase, in denen sich unterschiedliche studentische Identitäten je nach genuinen Herausforderungen, Aufgaben und Status ergaben. 

Die Vermessung von Müdigkeit. Wie können wir Unfälle im Straßenverkehr und bei anderen Tätigkeiten mit Daueraufmerksamkeit verhindern?

Die Vermessung von Müdigkeit. Wie können wir Unfälle im Straßenverkehr und bei anderen Tätigkeiten mit Daueraufmerksamkeit verhindern?

Im Winter werden die Tage kürzer, und so lässt es sich kaum vermeiden, im Dunklen zu reisen. Für Autofahrer und -fahrerinnen stellt sich dabei ein besonderes Problem: Nachts, vor allem auf monotonen Strecken wie Autobahnen, kommt es zu Ermüdungserscheinungen wie Schläfrigkeit und Unaufmerksamkeit, teils sogar zum kurzen Wegnicken. Diese Phänomene bergen offensichtlich ein immenses Risiko, für die fahrzeugführende Person ebenso wie für Dritte im Fahrzeug oder andere, unbeteiligte Verkehrsteilnehmer und Passanten. Die nicht geringe Zahl an Unfällen, deren Ursache auf Ermüdungserscheinungen zurückgeführt werden kann, ist eine Motivation für die Forschung und die Suche nach Lösungen.

Professor Martin Golz aus der Fakultät Informatik der Hochschule Schmalkalden widmet sich diesen Fragen aus dem Forschungsfeld der Biomedizintechnik: Um ein Phänomen zu vermessen, muss man sich über dessen Definition im Klaren sein. Zunächst stellt sich also die Frage, was Vigilanz ist und im Gegenzug, in welchen Formen Ermüdungserscheinungen auftreten.[1] Wichtig ist dabei, verschiedene Aspekte zu differenzieren und zugleich die entscheidenden Faktoren auszumachen. Es geht also darum, ein oder mehrere verlässliche Kriterien zu finden, anhand derer Ermüdungserscheinungen detektierbar sind. Eine zentrale Herausforderung für die Forschung ist dabei, dass es keine verbindliche Definition der Ermüdung oder ihrer Anzeichen gibt und in der Folge bislang belastbare und dezisive Attribute fehlen.[2] Wie vermessen wir also Merkmale von Ermüdung?

Was ist eigentlich Ermüdung und wie zeigt sie sich?

Eine Gelegenheit, dieser Frage nachzugehen, ergab sich im Rahmen einer Anfrage aus der Wirtschaft, konkret der Tagebauindustrie: Im Minenbetrieb gibt es eine rege Logistik per Lastkraftwagen, die im Schichtbetrieb arbeiten.[3] Mehrere Faktoren, die im Regelfall Müdigkeit befördern, kommen hier zusammen: Lange Fahrten, monotone Strecken, stetige Wiederholung. Die Belastung nimmt nochmals durch die harschen Umweltbedingungen wie hohe Temperaturen und geringe Luftfeuchte sowie Staub zu. Kurzum: Ein Knochenjob, dessen hohe physischen und psychischen Belastungen regelmäßig zu Unfällen aufgrund von Ermüdung führen. Politische und ökonomische Akteure haben aufgrund der körperlichen und wirtschaftlichen Schäden und Folgekosten ein hohes Interesse, diese Unglücke zu vermeiden.

In der Industrie hat in den letzten Dekaden ein Umdenken stattgefunden, mit dem die Sorge um die Fitness der Beschäftigten in den Fokus trat: Mit dem fatigue risk management haben Strukturen und Umgangsformen in den Betrieb Einzug gehalten, die helfen, mit Ermüdungserscheinungen offen und bewusst umzugehen, diese frühzeitig zu erkennen und damit Unfälle zu vermeiden. Ferner sollen Vorgesetzte auf das Phänomen und das Risiko aufmerksam machen und die Belegschaft sensibilisieren. Um die Sicherheit der Fahrenden weiter zu fördern, sind Monitoringtechnologien sinnvoll und zweckmäßig, die Müdigkeitserscheinungen und Schlafereignisse autonom erkennen und bestenfalls verlässlich Alarm schlagen, bevor es zu Unfällen kommt. Hier kommen zwei Dinge zusammen: Zunächst die Vermessung der Erscheinungsformen von Ermüdung, und zum anderen eine Prognose. Beide Punkte müssen in der Forschung mit unterschiedlichen Ansätzen verfolgt werden.

Monitoringsysteme

Um den Einsatz der Monitoringsysteme bewerten zu können, musste zunächst eine Auswahl unter den auf dem Markt verfügbaren Systemen getroffen werden. Neben Wissenschaftler:innen wurden auch Beschäftigte und Vertreter der Unternehmen hinzugezogen: Aus der Gewichtung verschiedener Faktoren entstand ein Koordinatensystem, mit dem sich drei Monitoring-Modelle als sinnvolle Testfälle ermitteln ließen. Diese drei haben einen ähnlichen technischen Aufbau: Sie werden auf dem oder im Armaturenbrett befestigt und sind mit einer Infrarotkamera ausgestattet.

Die Ermüdung messen sie nach dem PERCLOS-Maßstab: Dieser bezieht sich auf die Zeit, während das Auge achtzig Prozent vom Lid verdeckt ist. Für diese Messung erfasst die Kamera verschiedene Aspekte, die sie aber nur in der Kombination des PERCLOS auswertet. Neben der Öffnung der Augenlider wird die Lidschlussdauer und die Pupillenweite in die Auswertung sowie u.a. die Kopfbewegung miteinbezogen. Offen ist neben der Aussagekraft des PERCLOS-Kriteriums selbst, ob ein oder mehrere Aspekte schon für sich valide Aussagen über die Ermüdung treffen. Für das Monitoring ist wichtig, einerseits eine hohe Sensibilität zu ermöglichen, andererseits aber möglichst Fehlalarme zu vermeiden, da dies wiederum die Akzeptanz verringern würde. So darf das Augenschließen bei blendendem Gegenverkehr eben nicht zum Alarm führen. In dieser Abwägung muss ein gangbarer Weg in der Anwendung gefunden werden.

Testfahrten im Labor

Aufgrund des Risikos verbieten sich Tests in Realsituationen. In der Folge griff Professor Golz auf eine computergestützte Fahrsimulation zurück, die die Vermessung von Ermüdungserscheinungen unter kontrollierten Bedingungen erlaubt. Zunächst galt es, die Testobjekte auszuwählen: Aus einer Vielzahl an Bewerbungen aus der Studierendenschaft der Hochschule Schmalkalden wurden mehrere geeignete Personen ausgewählt, um an dem Test teilzunehmen. Um die Ermüdung wahrscheinlicher zu machen – Ziel war ja deren Vermessung –, mussten die Partizipierenden einen bestimmten Tag-/Nachtrhythmus einhalten, ein Schlafprotokoll führen, auf Schläfchen am Tage verzichten und am Tag der Messung selbst wachhaltende Getränke wie Kaffee meiden. Simulierte Testfahrten wurden den realen Arbeitsroutinen der Kraftfahrer:innen des Tagebaus nachempfunden. Von 23:30 bis 08:30 mussten die sechzehn Teilnehmer:innen mehrere Einheiten von vierzig Minuten fahren. Das Testumfeld und die Testbedingungen waren so gehalten, dass sie Müdigkeit befördern: Die Strecke war monoton, es gab keinen Straßenverkehr und keine Ablenkung während der Fahrt. Zusammenfassend waren die wichtigen Kriterien der Studie, die Ermüdungserscheinungen wahrscheinlicher machen sollten: Time since sleep, time on task, time of day und das Monotonie-Empfinden.

Aufnahme aus dem Fahrsimulator (Quelle: Martin Golz)

Als Referenz zur ermittelten Müdigkeit wurde auf zwei etablierte Maßstäbe zurückgegriffen, die unabhängig von den anderen Werten funktionieren und somit als Kontrollvariablen dienen konnten: Zum einen die Selbsteinschätzung über den Grad der momentanen Müdigkeit, der in den Pausen zwischen den Fahrten abgefragt wurde (Karolinska sleepness scale). Zur Messung der subjektiv empfundenen Ermüdung hat sich diese neun-stufige Skala in der Wissenschaft als durchaus verlässlich erwiesen. Zum anderen die Position des Fahrzeugs auf der Straße: Ermüdungserscheinungen führen dazu, dass die Fahrzeuge die Fahrbahnmitte häufiger verlassen. Ein Übertritt über Fahrbahnmarkierungen lässt sich leicht ermitteln. Beide Kriterien sollen die Grundlage für die Bewertung der Monitoring-Systeme bilden. Als weitere Quelle der Vermessung wählte Professor Golz die EOG- und EEG-Signale, also die Augen- sowie die Hirnaktivität.

Wir kennen die Bilder des EEG zumeist aus dem Fernsehen: Ein Geflecht von Kabeln wird über einen Kopf gelegt und an verschiedenen Punkten Kontakt mit der Kopfhaut hergestellt. Über diese Kontakte lassen sich geringste Potentiale eines elektrischen Strömungsfeldes messen und folglich die Aktivität im Hirn in gewissem Maße nachvollziehen. Je nach Menge der Kontakte entstehen dann Aufzeichnungen einer Vielzahl an Wellen, die dem Laien nichts sagen. Die Auswertung dieser Diagramme ist eine höchst komplexe Angelegenheit und verlangt viel Erfahrung. Nur so lassen sich aus den Verschiebungen der Wellen, ihren Frequenzen und Amplituden und je nach Hirnareal differenzierte Rückschlüsse führen. Eine Frage ist, ob sich Ermüdungserscheinungen über dieses Verfahren exakt ermitteln lassen, bzw. ob eine Prognose eintretender Ermüdung möglich ist.

Erhebung und Auswertung der Daten

In einem ersten Schritt wurden die Daten der beiden unabhängigen Messungen mit den PERCLOS-Erhebungen der drei Monitoring-Systeme verglichen. Die Korrelation der PERCLOS-Werte mit den objektiven Messungen hielten nur oberflächlich stand: Sobald die zeitliche Auflösung feiner wird oder nur die Daten eines Individuums herangezogen werden, verlieren sich die hohen Korrelationswerte. Zusammenfassend ergaben sich signifikante inter- und selbst intrasubjektive Unterschiede über die Maßstäbe hinweg.

In einem zweiten Schritt versuchte Professor Golz zu klären, ob die EEG-Messungen als Referenz für eine Validierung der videobasierten Systeme zu dienen vermögen. Um hier eine Datenanalyse vornehmen zu können, wurde beide Messwerte simultan erhoben, und die Datensätze anschließend mithilfe der unabhängigen Variablen in starke und schwache Ausprägungen der Ermüdung unterteilt. Eine nichtlineare Diskriminanzanalyse sowohl der PERCLOS- als auch der EEG/EOG-Zeitreihen zeigte ein Defizit des PERCLOS, in hoher zeitlicher Auflösung zwischen schwacher und starker Ermüdung zu unterscheiden.

Aus diesen Ergebnissen ließ sich folgern, dass die Monitoringsysteme zwar unter Laborbedingungen gut arbeiten, hierfür aber wichtige Konditionen erfüllt sein müssen: Neben einer niedrigen zeitlichen Auflösung müssen die Daten vor der Auswertung möglichst über viele Personen hinweg gemittelt werden. Offen ist, ob die Messdefizite  an der Ausrichtung der Systeme am Normalverhalten der Augenbewegung liegt, wodurch untypische Ausprägungen nicht oder falsch detektiert würden. Jedenfalls erwies sich das EEG/EOG-Signal als deutliche robustere Maßgabe zur Ermittlung der Ermüdung.

Am Ende lässt sich festhalten, dass der Weg hin zu funktionierenden Monitoringsystemen von Ermüdungserscheinungen noch ein weiter ist. Ein Problem ist dabei, dass bislang keine Klarheit darüber herrscht, wie sich Ermüdung zeigt, was also generalisierbare Kriterien und Messobjekte sind. PERCLOS hat hierbei nur sehr bedingt überzeugen können. Und da es in diesem Bereich buchstäblich um Leben und Tod geht, bedarf es mehr Forschung, um geeignete Maßstäbe für Monitoringansätze zu liefern.

Die Prognose von Mikroschlafereignissen

Auch wenn das EEG durchaus verlässlich Ermüdungserscheinungen detektieren kann, bleibt doch das praktische Problem bestehen, dass die Ermittlung der Daten aufwendig ist und sachverständiger Expertise bedarf. Um breitenwirksame Akzeptanz zu erhalten, müssen andere technologische Lösungsansätze gefunden werden. Das Forschungsfeld der Neuroinformatik hat hier also noch genügend Aufgaben. Gerade die Prädiktik, also die Prognose kritischer Ermüdungserscheinungen, birgt soziale und ökonomische Relevanz.

In einem anderen, aktuelleren Projekt widmete sich Professor Golz zusammen mit seinem Team der Vorhersagbarkeit von Mikroschlafereignissen unter zu Hilfenahme von EEG-Signalen.[4] Die Herausforderungen bestanden wiederum in der Komplexität der Signalcharakteristik und der hohen inter-individualen Variabilität, also unterschiedlichen EEG-Eigenschaften je nach Person. Die Idee war, die Amplituden des EEG durch fünf Methoden der Zeitreihenvorhersage zu analysieren. Neben der prädiktiven Qualität ging es auch um die Eignung verschiedener Messpunkte des EEGs, also welches Hirnareal sich besser bzw. schlechter für die Messungen eignet.

Professor Golz bei der jüngsten Vorstellung seines Forschungssemesterberichts

Die Daten entstammten verschiedenen Testfahrten im Schmalkalder Labor, die unter den gleichen Bedingungen entstanden sind wie jene der Ermüdungserscheinungen. Durch die Verwendung der Messwerte von 79 jungen, gesunden Personen konnte auf eine große Datenmenge zurückgegriffen werden. Auch wenn sich ein Modell der Zeitreihenprognose durch eine geringe Fehleranzahl hervortat, wurde klar, dass jeder EEG-Kanal andere Parameterkombinationen zu seiner optimalen Verwendung bedurfte.

Infolge dieser Komplexität sind Prognosen schwierig, gerade wenn der Zeithorizont mit fünf Sekunden angesetzt wird. Auch eine adaptive Klassifikationsanalyse, die dem dynamischen Charakter der Signale gerechter werden sollte, hatte zwar im ersten Schritt hohe Genauigkeiten, konnte diese Ergebnisse aber nicht in der Validierung reproduzieren. Die Leistungsfähigkeit der Vorhersage ist abschließend also vorhanden, aber noch recht gering. Um hier Verbesserungen zu ermöglichen, könnten optimierte Datensätze ebenso verwandt werden wie moderne Methoden, die auf künstliche Intelligenz zurückgreifen und dem dynamischen Charakter der Daten entsprechen. Am Ende kann jede Verbesserung der Prognostizierbarkeit helfen, Leben zu retten. Somit ist es sinnvoll, an der Erkennbarkeit von Ermüdung weiter zu forschen. Das Fahrsimulationslabor und das Archiv der gewonnenen Datensätze ist hierfür eine ideale Ausgangsbasis.


[1] Vigilanz stammt vom lateinischen vigilantia, das „Wachsamkeit“ und „Fürsorge“ meint. Vigilanz bezeichnet einen Zustand andauernder Aufmerksamkeit bei eintöniger Reizfrequenz und ist umgänglich ein Synonym von Wachheit, einem Aspekt des Bewusstseins. Für die Untersuchung der Vigilanz misst man die Fähigkeit einer Person zur Daueraufmerksamkeit.

[2] Die uneindeutige Verwendung der Begriffe Müdigkeit, Fatigue und Erschöpfung ist Teil des Problems. In der Forschung wird mittlerweile dafür plädiert, die drei Begriffe als distinkte Phänomene auf einem Kontinuum zu fassen, die in Relation gesetzt werden können. Vgl. Matti, N., Mauczok, C. & Specht, M.B. (2022): Müdigkeit, Fatigue und Erschöpfung: Alles das Gleiche oder Ausprägungen eines Kontinuums? – Ein Diskussionsanstoß. Somnologie – Schlafforschung und Schlafmedizin 26, 187-198.

[3] Golz, M., Sommer, D., Trutschel, U., Sirois, B., Edwards, D. (2010): Evaluation of fatigue monitoring technologies. Somnologie – Schlafforschung und Schlafmedizin 14, 187-­199.

[4] Schneeweiß, L., Pauli, M. P., Golz, M. (2023): EEG-Vorhersage zur Prognose von Mikroschlaf, in: Stolzenburg, F., Reinboth, C., Lohr, T. & Vogel, K. (Hrsg.): NWK 2023 – Tagungsband der 23. Nachwuchswissenschaftler*innenkonferenz, Harzer Hochschultexte Nr. 14, Hochschule Harz, Wernigerode, 176-183.

Wie lässt sich Personal halten? Über wirtschaftspsychologische Faktoren der Mitarbeiterbindung

Wie lässt sich Personal halten? Über wirtschaftspsychologische Faktoren der Mitarbeiterbindung

In Zeiten obwaltenden Fachkräftemangels wird die Herausforderung für Unternehmen, qualifiziertes Personal anzuwerben oder auch nur zu halten, nicht eben geringer. Durch die Fluktuation der Beschäftigten ergeben sich nebst Potentialen frischen Winds auch Reibungsverluste, die Unternehmen vermeiden wollen. So bedarf neues Personal einer Einarbeitungszeit, und zugleich verlieren die Unternehmen mit den Mitarbeiter:innen immer individuell erworbenes Sach- und Handlungswissen. Auch müssen die Vakanzzeiten überbrückt werden, wodurch die Arbeitsbelastung der Kolleg:innen steigt. Mit den psychologischen Faktoren und Mechanismen, die dem Verbleiben der Beschäftigten dien- oder schädlich sind, befasst sich Katharina Sachse, Inhaberin der Professur für Wirtschaftspsychologie an der Hochschule Schmalkalden. Eine Studie, die diesen Themen empirisch nachgeht und zu der sie in Koautorinnenschaft mit Ulrike Gaedke jüngst einen Artikel veröffentlichte, stellte sie im Rahmen ihrer Antrittsvorlesung an der Hochschule Schmalkalden vor.

Faktoren der Bindung

Um zu verstehen, was Mitarbeiter:innen an ihren Arbeitsstellen hält, muss eine dementsprechende Perspektive eingenommen werden: Ein Faktor dieser Bindung lässt sich mit dem englischen „commitment“ umschreiben, dass begrifflich zwischen den Bedeutungen einer Verpflichtung sowie Einbindung und einer Hingabe sowie einem Engagement schwankt. Das Commitment besteht aus verschiedenen Komponenten: Im affektiven Commitment, das in der Studie im Fokus stand, geht es um eine gefühlte Bindung an das Unternehmen und den Job. Anders formuliert meint dies ein „Selbst-“Bekenntnis und „den Wunsch der Beschäftigten, Teil des Unternehmens zu sein und zu bleiben.“ Demgegenüber verschiebt sich im normativen Commitment die Relation: Es geht nicht mehr um die Wertschätzung des Unternehmens, sondern um eine wahrgenommene Verpflichtung gegenüber dem Unternehmen. Weil beispielsweise meine Firma mir diese kostspielige Weiterbildung finanziert hat, habe ich eine Bringschuld gegenüber dem Unternehmen und bin mit ihm verbunden. Als dritter Aspekt kann ein kalkulatorisches Commitment angeführt werden, das allerdings auf eine vergleichsweise oberflächliche Bindung aufgrund rationaler Erwägungen abhebt. Beschäftigte bleiben hierbei aufgrund individueller und situativer Vorteile, entwickeln jedoch keine tiefergehende Beziehung.

Die Frage der Studie ist nun, wie und ob die Bindungseffektes des affektiven Commitments mit der Einbettung in den Job  und dem psychologischen Vertragsbruch zusammenhängen respektive sich positiv oder negativ auf die Mitarbeiterbindung auswirken. Um dies zu klären, wurde eine Online-Befragung von über fünfhundert Teilnehmenden vorgenommen und ausgewertet.

Passung und psychologische Verträge

Die Einbettung besteht nicht nur selbst aus verschiedenen Aspekten, es ist zudem wichtig, zwischen den Sphären des Beruflichen und des Privaten zu trennen, die hier beide einen distinkten Einfluss haben. Die Verbindungen sind der erste Aspekt: Sie beziehen sich auf das soziale Umfeld und die Aktivitäten, also neben dem Kreis der Kolleg:innen und den Führungskräften auch kollektive Teambuildingmaßnahmen auf der einen Seite, und das familiäre Umfeld sowie die Freundes- und Bekanntenkreise und die Freizeitaktivitäten auf der anderen Seite. Je besser sich der Job mit diesen Aspekten einer sozialen Qualität verträgt, umso höher sollte die Bindung sein. Die Passung als zweiter Aspekt zielt auf die Kompatibilität zwischen dem Individuum mit seinen Kenntnissen, Talenten und seiner Biografie und dem Anforderungsprofil des Jobs: Passt die Person also zum Job, oder kann sich diese an anderer Stelle besser und ihren Talenten gemäßer einbringen? Ein Mangel dieser Passung könnte also zu einer Über- oder Unterforderung bzw. zu Frustrationserfahrungen in der beruflichen Tätigkeit führen. Auf der anderen Seite ist es die Frage, wie sich die Anforderungen des Jobs mit einem gelingendem Sozialleben übereinbringen lassen – hier ist an Dinge wie Gleitzeit und weit mehr zu denken. Die dritte Komponente ist der Verzicht und meint die Vorzüge, die bei einem Jobwechsel seitens des Beschäftigten aufzugeben wären. Neben der Vergütung sind dies u.a. Home-Office-Regelungen, Job-Tickets, betriebliche Rentenversicherungen oder Möglichkeiten der Kinderbetreuung.

Der dritte Faktor ist der psychologische Vertragsbruch und seine Folgen. Wichtig ist es, den Bruch zu vermeiden, da dieser negative Effekte auf die Mitarbeiterbindung und dessen Arbeitsbereitschaft hat. Was ist der psychologische Vertrag? Anders als der Arbeitsvertrag ist dieser kein Teil direkter Aushandlung noch wird er schriftlich fixiert oder ist er einklagbar. Der psychologische Vertrag ist eine gegenseitige Erwartungshaltung, die durch verschiedene Situationen und beteiligte Akteure geprägt werden kann. Von Seiten der Beschäftigten kann dies bereits durch die digitale Selbstpräsentation des zukünftigen Unternehmens im Internet geschehen, durch das Image oder das Leitbild. Andere Prägungen können durch das Bewerbungsgespräch oder den Onboarding Prozess einfließen. Natürlich sind darüber hinaus auch Mitarbeitergespräche und ähnliches hier relevant. Im Resultat entsteht eine Erwartungshaltung des oder der Beschäftigten gegenüber der Organisation, seien es monetäre Versprechungen, die Ausrichtung der Arbeitsstelle, Weiterbildungen oder andere Dinge. Wird dieser Erwartung nicht entsprochen, kann es zum Bruch des psychologischen Vertrags kommen: Die Folgen sind ein Vertrauensbruch, Enttäuschung und eine sinkende Arbeitsmoral. Gerade weil der psychologische Vertrag nicht kodifiziert ist, fällt es in den Aufgabenbereich der Führungskräfte, auf Signale seiner Nichteinhaltung seitens der Beschäftigten zu achten.

Befragung und Auswertung

Katharina Sachse und Ulrike Gaedke gingen den Fragen der Mitarbeiterbindung über eine Online-Befragung Anfang 2024 nach, die sie über Karrierenetzwerke und eine Hochschule für berufsbegleitendes Studium verbreiteten. Die Stichprobe umfasste 512 Individuen, die einen Fragenkatalog ausfüllen mussten, der wiederum die verschiedenen Facetten und Dimensionen der Studie abdeckte.

Im Ergebnis der Studie kann resümiert werden, dass zwischen den angesprochenen Variablen ein direkter, starker statistischer Zusammenhang festgestellt werden konnte, und die Faktoren demnach die Mitarbeiterbindung stärken können. Eine These der Studie war, dass die Einbettung das affektive Commitment stärkt, was wiederum zu einer höheren Mitarbeiterbindung führt. Auch wenn sich diese Annahme bestätigt fand, wurde gleichzeitig eine vom Commitment unabhängige Beziehung der Einbettung und der Mitarbeiterbindung festgestellt. Hier würde sich folglich eine Förderung lohnen.

Empfundene psychologische Vertragsbrüche verringern die Bindungswirkung der anderen Aspekte. Dabei sind die Vertragsbrüche keine Seltenheit: Ungefähr ein Viertel der befragten Personen konnte ein oder mehrere Beispiele nennen, wobei sich die meisten ungehaltenen Versprechen auf die Personalentwicklung und das Gehalt bezogen.

Mitarbeiter:innen binden

Im Resultat können Unternehmen, denen an der Mitarbeiterbindung aus guten Gründen gelegen sein sollte, nun auf Stellschrauben zurückgreifen. Neben klassischen Teambuildingmaßnahmen kann die Passung des Jobs beständig optimiert werden. Wichtig ist es bei diesen Maßnahmen, auf die individuellen Bedürfnisse der Beschäftigten zu achten und die Passung der privaten und der beruflichen Sphäre mitzudenken. Daneben sollten Unternehmen und speziell die Führungskräfte und die Verantwortlichen im Personalbereichs eine Sensibilität gegenüber dem psychologischen Vertrag ausbilden: Hierbei sind neben den expliziten Aussagen eben auch die impliziten Gehalte wichtig.

Der Artikel wird im April 2025 in der Zeitschrift Führung + Organisation (zfo) erscheinen. Die Studie konnten die beiden Wissenschaftlerinnen auch bei der 28. Fachtagung der Gesellschaft für angewandte Wirtschaftspsychologie (GWPs) in Hamm Anfang des Jahres vorstellen.

Seit dem Wintersemester 2024/25 hat Katharina Sachse die Professur für Wirtschaftspsychologie an der HSM inne. Sie promovierte an der TU Berlin zum Thema „Risikowahrnehmung und -verhalten privater Kapitalanleger“ und wirkte in verschiedenen Forschungsprojekten zur Kommunikation von Gesundheitsrisiken mit. Im Anschluss war sie als Arbeitspsychologin und Organisationsberaterin tätig. Zudem lehrte sie an verschiedenen Hochschulen, bevor sie 2016 eine Professur für Wirtschaftspsychologie an der FOM Hochschule in Berlin antrat. In ihrer Forschung beschäftigt sie sich mit Themen wie Commitment, Führung und Gesundheit in der modernen Arbeitswelt.

Auf dem Holzweg? Über den Werkstoff und Computersimulationen von Furnier. Oder warum es eine Kunst ist, aus dünnen Blättern Möbel zu komponieren.

Auf dem Holzweg? Über den Werkstoff und Computersimulationen von Furnier. Oder warum es eine Kunst ist, aus dünnen Blättern Möbel zu komponieren.

Was läge einer Hochschule in Süd-Thüringen näher als die Forschung am Material Holz, bildet dieses doch einen Großteil der natürlichen Umgebung Thüringer Wald und ist ein wichtiger Teil der regionalen Industrie? Als Werkstoff hat Holz kaum etwas an Relevanz verloren: Es ist ein hochwertiger, nachwachsender Rohstoff, der einerseits robust und günstig, andererseits vielseitig einsetzbar ist. Auch wenn Holzprodukte hochgradig verbreitet sind, so ist das Wissen um den Werkstoff und die komplexen Herausforderungen seiner Verarbeitung eher eine Mangelware. Dabei gibt es hier viel zu entdecken.

Vorangestellt werden muss die Unterscheidung zweier Verwendungsweisen des Materials: Neben der Nutzung von Vollholz, bei dem ganze Holzstücke aus dem Holzstamm gesägt werden und unter anderem als Bauhölzer wie Balken und Bretter Verwendung finden, gibt es eine Variante, bei der Bauteile durch Lagen dünner Holzblätter, die sogenannten Furniere, gefertigt werden. Diese Furnierlagenholzprodukte bestehen aus einzelnen Blättern, die verklebt und unter hohem Druck verpresst werden. Im Weiteren wird es uns um das Furnier als besonderen Werkstoff und spezifisch um den Aspekt der Formstabilität bei sich verändernden klimatischen Umgebungsbedingungen gehen, was im Fokus des Forschungsprojektes „FurForS“ steht.

Um Produkte wie Stühle oder furnierbasierte, edle Dekorflächen im Fahrzeuginnenraum zu fertigen, bedarf es einigem Aufwand und Kenntnis im Umgang mit Holz. Bislang beruhen viele Schritte in der Fertigung noch auf dem Erfahrungswissen der Beschäftigten: Hier kann die Wissenschaft helfen, indem sie das Verständnis des Werkstoffs Furnier vertieft. Eine offene Frage der Forschung ist zum Beispiel, ob sich das Verhalten von Furnierlagenhölzernberechnen lässt, und wie sich so die Verwendung und Fertigung optimieren ließe. Bevor wir aber zu Professor Dietzel und seinem Team der Forschungsgruppe Strukturmechanik an der Hochschule Schmalkalden kommen, beginnt unser Weg ganz klassisch beim Baum.

Werkstück mit integriertem LED-Leuchtmittel

Der lange Weg des Holzes

Unter Furnier versteht man 0,1 bis 7 mm dünne Blätter aus Holz, die unter Verwendung unterschiedlicher Verfahren vom Stamm abgetrennt werden. Das Wort selbst entstammt einer Entlehnung aus dem Französischen des 16.Jahrhundert: Fournir meinte ‚bestücken‘ und ‚beliefern‘ und bezog sich auf die Aufbringung edler, dünner Holzblätter auf weniger wertvolles Holz, also eine oberflächliche Veredelung. Heutzutage wird dies unter dem Begriff Deckfurnier gefasst,  die als Lagen von Formteilen zum Einsatz kommen. Furnierblätter werden hierbei geschichtet, verklebt und verpresst: Nicht nur entstehen so robuste Bauteile, durch die Ausnutzung der richtungsabhängigen Eigenschaften der Furnierblätter können Parameter wie Flexibilität und Festigkeit in der Konstruktion gezielt genutzt werden. Hier ist das Wissen um die Eigenschaften der Furnierblätter und ihrer Komposition entscheidend.

Baum ist aber nicht gleich Baum: Da für die weiteren Verarbeitungsschritte nur Hölzer mit höchster Qualität Verwendung finden können, ist bereits die Auswahl der passenden Bäume der erste wichtige Schritt. Astlöcher und ähnliche Störungen im Holzbild, der Maserung, müssen vermieden werden. Es hat sich eine Einteilung in A-, B- und C-Hölzer etabliert, wobei sich für Deckfurniere nur Hölzer der ersten Kategorie eignen. Die Auswahl der Hölzer beruht auf der langjährigen Erfahrung der Fachkräfte, die die Stämme von Außen beurteilen müssen. Um den Rohstoff Holz nach der ersten Selektion nutzen zu können, muss ein längerer Weg beschritten werden.

Die Stämme werden zunächst entrindet und meisthin gewässert bzw. gekocht. Ist das Material so bearbeitbar geworden, kann der Stamm im nächsten Schritt gemessert, geschält oder gesägt werden. Die drei Verfahren haben unterschiedliche Vor- und Nachteile, und eignen sich demgemäß für verschiedene Hölzer und unterschiedliche Zwecke. Zum Beispiel unterscheidet sich die minimal mögliche Dicke der Furniere, die physische Beanspruch des Holzes im Fertigungsprozess und der Materialverlust beim Trennvorgang.[1] Allen drei Verfahren gemein ist, dass durch die Belastung materielle Veränderungen im Holz bewirkt werden: Neben dem feuchtebedingten Quellen meint dies unter anderem kleine Risse auf der Schnittseite des Furniers, die infolge einer notwendigen starken Biegung des Furniers während des Schneidvorgangs entstehen. Es gibt somit eine geschlossene und eine offene Seite des Furniers, die unterschiedliche Charakteristika zeigen, zum Beispiel in ihrer Reaktion auf Feuchte wie das Quellen und Schwinden. Bei allen späteren Verarbeitungsschritten muss die Strukturveränderung des Materials bedacht werden.

Struktur & Mechanik

An diesem Punkt setzt die Forschungsgruppe Strukturmechanik an: Was passiert im Holz durch den Einfluss verschiedener Faktoren wie Feuchtegrad- und Temperaturänderungen? Dabei ist es sinnvoll, nicht von den Lagenbauteilen – also gefertigten Komponenten aus mehreren Furnierlagen – auszugehen, sondern zunächst das einzelne Furnierblatt und die Effekte zu verstehen. Die hieran gewonnen Erkenntnisse können dann die Grundlage für eine Beschreibung der komplexen Charakteristik verbundener Schichten oder gar ganzer Lagenbauteile bilden. Gerade der Zusammenhang und die wechselseitige Beeinflussung der Furnierlagen mit verschiedenen Eigenschaften macht diese umfassende Beschreibung allerdings zu einer komplexen Herausforderung. Das Projektziel ist kurzum eine softwaregestützte Bewertung der Formstabilität von Furnierlagenholzwerkstoffen.

Messverfahren der Biegung

Die beiden Seiten des Furniers reagieren unterschiedlich auf Feuchte: Durch die Fissuren, also die kleinen Risse an der Oberfläche der Holzblätter, verändert sich der Feuchtetransport innerhalb des Holzes und damit die Vorgänge des Quellens und Schwindens auf den beiden Seiten. Eine Folge ist die Verkrümmung des Furniers. Ein weiterer struktur-mechanischer Faktor ist die Faserrichtung des Holzwachstums: Durch verschiedene Anordnungen der Blätter, quer oder parallel, lassen sich Eigenschaften wie Flexibilität oder Festigkeit in der Kombination verschiedener Lagen der Furnierblätter steuern. Wiederum ist der Ausgangspunkt für ein Verständnis des Zusammenhangs der Blick auf das einzelne Furnier. Dieses Verständnis strukturmechanischer Effekte verschiedener Umweltfaktoren kann dann wiederum in die Konstruktion der Produkte einfließen und die kompositorische Ausrichtung der Lagen anleiten.

Um sich die Auswirkung der Umgebungseffekte auf das Holz vor Augen zu führen, liegt der Blick auf einen klassischen Stuhl aus Lagenholz nahe: Je nach Temperatur, Luftfeuchte und Furnier-Charakteristik verändert sich die Form des Stuhls und so z.B. die Neigung der Lehne. Dieselben Stühle sehen folglich im Detail immer etwas anders aus und geben unterschiedlich nach, was zum Beispiel bei parallelen Stuhlreihen erkennbar und somit als optischer Mangel wahrgenommen wird. Neben diesen Anwendungsfeldern ist die strukturmechanische Beschreibung aber auch für Optimierung der Fertigung und die Auslotung der Grenzen des Werkstoffs Holz zielführend.

Im Fokus der Forschungsgruppe

In der Furnierverarbeitung beruhen auch heute noch viele Prozesse auf reiner Erfahrung mit dem Material Holz. Ohne diese individuelle Leistung zu schmälern, sind hier in Folge des technischen Fortschritts Potentiale der Optimierung zu vermuten. Das Schmalkalder Team um Professor Dietzel bemüht sich um eine Berechenbarkeit des strukturmechanischen Verhaltens des Furniers, um diesen Fortschritt zu bahnen. Einerseits sollen die existierenden numerischen Modelle um die Spezifika der Furniere erweitert , und andererseits relevante Parameter der Formstabilität identifiziert werden.

Wenn heutzutage eine Umstellung in der Fertigung vorgenommen wird, bedarf es noch einer längeren Anpassung, die nach dem Modus Trial-and-Error vorgeht. Die Umstellung ist zeit- und materialaufwendig, was dem Gebot der Effizienz widerspricht. Hier wären Modelle zweckmäßig einsetzbar, die Entscheidungshilfen und Einschätzbarkeiten bieten, und so den Prozess der Anpassung verkürzen. Ferner lassen sich die strukturmechanischen Einsichten auch nutzen, um gestalterische Prozesse wie Biegungen oder die Flexibilität zu optimieren.

Auch wenn der Werkstoff Holz in seinen verschiedenen Formen weitverbreitet ist, widmen sich ihm nur einige wenige Projekte. An der Hochschule Schmalkalden forscht seit nunmehr 18 Jahren die Forschungsgruppe Strukturmechanik zu den Möglichkeiten der mathematischen Beschreibung physikalischer Eigenschaften des Rohstoffs Furnier. Hierbei verbindet die Forschungsgruppe Aspekte der Grundlagenforschung mit anwendungsnahen Funktionsintegrationen in den Werkstoff Holz.

Einblick ins Labor

Das Kooperationsprojekt FurForS

Im Projekt FurForS kooperiert die Forschungsgruppe mit der TU Dresden, und somit die beiden wenigen Akteure der Forschung am Furnier. Am Dresdner Institut für Naturstofftechnik widmet sich die Forschungsgruppe Massivholz/Furnier um Prof. André Wagenführ Themen rund um den Werkstoff Holz in seiner natürlichen Form, aber auch Holzverbundwerkstoffen. In der Kooperation mit der HSM konzentriert sich Dresden auf die kleinskalige Analytik der Furnierblätter, also den mikroskopischen Veränderungen der Strukturen, die sich zum Beispiel durch eine Behandlung in der Klimakammer ergeben.

An dem Schmalkader Team ist es indes, berechnungstechnische Ansätze zu entwickeln, Modellierungen vorzunehmen und Parameter und Faktoren zu taxieren, die einen signifikanten Einfluss auf die Strukturmechanik haben. Das Ziel ist hierbei die Entwicklung von Berechnungsmodellen, die sich auf die individuellen Eigenschaften von Furnierlagenhölzern anpassen lassen. Die Vermittlung zwischen einer Generalisierung und einer individuellen Anpassung verlangt einen hohen Rechenaufwand des Modells, der sich mit der Hinzunahme mehrerer Schichten potenziert. Bei diesem Ansatz verbindet sich die Strukturmechanik mit der Informatik, wobei der materialwissenschaftliche Fokus leitend bleibt.

Zusammengefasst haben sich die verschiedenen Projektpartner, neben der HSM und TUD auch die Kreutzfeldt GmbH & Co. KG und die GbR Lie-Design, in dem Ansinnen zusammengefunden, die Form- und Eigenspannungsänderungen von Lageholzprodukten mit modellgestützten Prognosen vorauszuberechnen. Die Modelle haben eine Gültigkeit ebenso für die Fertigung wie den späteren Einsatz, und können in beiden Hinsichten eine Optimierungsleistung erreichen, zum Beispiel was die Effizienz im Herstellungsprozess anbetrifft. Das gemeinsame Ziel der Projektpartner ist es, durch ein vertieftes Verständnis des Werkstoffs Holz seine Nutzung weiter zu optimieren und die Grenzen der Anwendung weiter auszuloten. Von der bisher genutzten Erfahrung soll es hin zu Berechungsmodellen gehen, die durch Simulationen und numerische Abbildungen das Verständnis des Materials vertiefen.

Holzblatt-Schichten vor der Pressung

Verortung an der HSM

Professor Andreas Dietzel wurde im Herbst 2021 auf die Professur „Konstruktion, Fertigungsmesstechnik und CAD“ an der Fakultät Maschinenbau berufen und engagiert sich seitdem in der Forschungsgruppe Strukturmechanik. Für ihn ist dieser Bereich keineswegs Neuland, promovierte er doch an der Hochschule Schmalkalden und der Technischen Universität Ilmenau zum Thema „Modellgestützte Ermittlung und Bewertung der Formgebungsgrenzen von Rotbuchenfurnier“ bei Professorin Hendrike Raßbach.

Auch wenn gerade Hochschulen angewandter Forschung durch den bürokratischen Aufwand der Einwerbung von Drittelmittelprojekten vor nicht eben geringe Herausforderungen gestellt werden, konnte Professor Dietzel mit den beiden wissenschaftlichen Mitarbeitern Dr.-Ing. Dennie Supriatna und M.Eng. Daniela Pachatz ein motiviertes Team zusammenstellen, das sich nun in dem Projekt FurForS einbringt.


[1] In der Handreichung „Furnier im Innenausbau“ finden sich hierzu weitaus ausführlichere Informationen. (Vgl. Initiative Furnier + Natur e.V., Furnier im Innenausbau. Definitionen – Eigenschaften – Verarbeitung – Anwendungsbeispiele“, Dresden 2011, S. 8 – 13)

Daten, Archive und Analysen: Was ist Data Analytics?

Daten, Archive und Analysen: Was ist Data Analytics?

Mit der Sammlung von Daten, dem umgangssprachlichen Gold unseres Zeitalters, haben wir uns schon oft befasst. Die Unmenge an Datenmaterial, die infolge der Digitalisierung unter anderem der industriellen Produktion und Teilen der menschlichen Kommunikation zur Verfügung steht, eröffnet unserer Gegenwart völlig neue Wege und Tiefen der Analyse. Kurzum erlauben es die Expansivität moderner Sensorik und die Steigerung der Rechenleistung und Verarbeitungskapazitäten, große Mengen an Informationen aufzunehmen, zu ordnen und Erkenntnisse aus den gesammelten Daten zu gewinnen.

Mit dieser Entwicklung erlangt der spezifische Forschungsbereich der Data Analytics immer mehr an Bedeutung. Hierbei geht es um die Werkzeuge, die Technologien und Prozesse, mit deren Hilfe Muster, Verläufe und Problemlösungen gestützt auf ein Konvolut an Daten ermittelt werden können. Neben der eigentlichen analytischen Auswertung ist die Sicherung der Qualität der Datensätze und eine effiziente Archivverwaltung für die weiteren Schritte elementar.

Können elektrische Schafe halluzinieren?

Mit der Verbreitung KI-gestützter Technologien traten Phänomene in den Fokus der Öffentlichkeit, die der Data Analytics thematisch nahestehen: Infrage steht vereinfacht formuliert, ob zum Beispiel Chat GPT lügen kann. Bei manchen Anfragen kam es zu Ausgaben, die schlicht falsch waren, unter anderem ganz offensichtlicher Fehlurteile wie die Anzahl bestimmter Buchstaben in einem Wort. Dieses Phänomen wurde als Halluzination beschrieben und erhielt einige Aufmerksamkeit: Die Ermittlung der Ursache der Fehlausgabe hatte das Problem der Komplexität des Programms, aber nicht nur der Architektur der künstlichen Intelligenz mit seinen Legionen an Knotenpunkten und Schichten, sondern auch in Hinsicht der Datenmengen und deren komplexer Verwaltung. Letzterer Aspekt zielt auf die Archivstrukturen und den Umgang mit den riesigen Datenmengen und -banken, die großen Sprachmodellen wie Chat GPT für den Trainingsprozess zugrunde liegen.

Neben der Frage, warum diese Fehler überhaupt aufkamen, war auch offen, an welchen Zeitpunkt sie entstanden. Die Programme selbst waren selbstredend nicht zur Ausgabe falscher Antworten angehalten, gleichwohl verlangt der Umgang mit der natürlichen Sprache und manche Formen der Anwendung eine gewisse Qualität der Kreativität, also der Dehnung und Übertragung, die die Programme leisten müssen. Zum Beispiel bei dem Wunsch, den dritten Akt von Romeo und Julia in der Sprache modernen Ostküsten-HipHops zu reformulieren – ein solches Werk existiert bislang nicht, das Modell muss also selbst kreativ werden um diese Anfrage zu beantworten. Es werden große Anstrengungen unternommen, die Anzahl der Halluzinationen von Modellen zu minimieren, was auch die Relevanz zeigt, wie Daten verwertet und verarbeitet, Datensätze gereinigt oder auch korrumpierte Daten aussortiert oder gerettet werden. Und weiter, wie komplexe Technologien mit einem Gros an Datensätzen interagieren. Und hier setzt die Data Analytics an.

Was ist Data Analytics?

Die Data Analytics befasst sich mit der Analyse von Daten und deren Auswertung zu unterschiedlichen Zwecken. Sie ist ein multidisziplinäres Forschungsfeld zwischen der Informatik, der Mathematik und der Statistik sowie weiterer Bereiche, die produktiv verknüpft werden. Generell lässt sich die Data Analytics in vier Ansätze unterteilen: Die deskriptive Analyse versucht zu beschreiben, welche Veränderungen bereits geschehen sind. Dagegen zielt die diagnostische Analytik auf eine Erklärung, warum etwas wie passiert ist. Die letzten beiden Zugänge schlagen eine andere Richtung ein: Aus den Daten Prognosen über zukünftige Entwicklungen abzuleiten ist das Ziel der prädiktiven Analysen. Diese Prognose wird im Falle der präskriptiven Analytik noch durch die optimale Reaktion ergänzt. Die unterschiedlichen Ansätze verfolgen nicht nur verschiedene Ziele, sie gehen auch anders mit den Daten um und haben differenzierte Ansprüche an die Daten.

Seit gut zwei Jahren hat Constantin Pohl die Professur für „Data Analytics“ an der Fakultät für Informatik der Hochschule Schmalkalden inne und nutzt die Gelegenheit seiner Antrittsvorlesung, ein Licht auf verschiedene Facetten seiner Forschung und seiner Lehre zu werfen. Bereits in seiner Dissertation befasste er sich mit der Frage, wie sich moderne Hardware zur Beschleunigung von Datenbank-Anfragen optimal nutzen ließe. Anders formuliert war das Thema, wie Datenverwaltungen strukturiert und organisiert sein müssen, um Ressourcen und Kapazitäten bedarfsgerecht zu nutzen und Suchanfragen effizient zu verarbeiten. Die Datenmengen auf Servern nehmen einerseits beständig zu und macht Suchvorgänge aufwändiger und langsamer, zugleich erlauben die vielen Kerne moderner Prozessoren über das Multithreading parallele Verarbeitungen. So gilt es, Managementsystem für Datenbanken und Datenströme zu entwickeln, die den neuen Anforderungen gerecht werden und zudem die technischen Möglichkeiten optimal nutzen.

Öl-Druck und Reparaturzyklen

In einem zurückliegenden Forschungsprojekt widmete sich Constantin Pohl der Frage, wie KI-Modelle für die Wartung von industriellen Anlagen und Maschinen wie einem Druckluftkompressor genutzt werden können. Das Ziel ist, Wartungsarbeiten an Verschleißteilen nicht mehr an fixen Zeitpunkten oder nach Werkzeugausfällen anzusetzen, sondern vorausschauend anhand konkreter und in Echtzeit erhobener Daten der laufenden Maschinen. Um diese Optimierung zu realisieren ist eine Prognose wichtig: Anhand von Sensordaten sollen Aussagen über die Zukunft getroffen werden, zum Beispiel das ein Filter noch 22 Stunden halten wird, bevor er gewechselt werden sollte. Hieran ließen sich dann entsprechende Reparaturmaßnahmen orientieren.

Die Ausgangsbasis sind wieder verschiedene Sensoren, welche die Maschinen anhand unterschiedlicher Parameter vermessen. In dem konkreten Projekt wurden 26 Merkmale sensorisch erfasst, neben der Temperatur und der Ölqualität auch der Differenzdruck zwischen verschiedenen Filtern. Bevor mit diesen Daten aber Aussagen getroffen werden können, mussten die Algorithmen anhand der Ausfälle der Kompressoren trainiert werden. In Regressionsmodellen wurden unterschiedliche vorverarbeitete und ausgewählte Datenmengen genutzt, um Ausfälle vorherzusagen. Wichtig ist dabei zu verstehen, dass es hier nicht um eine Größe wie die Temperatur ging, um diese Prognose zu machen: Die Modelle berücksichtigen viele Daten und ihre Verläufe, auch über eine längere Zeit, und verknüpften diese zugleich. Diese komplexen Berechnungen sind die spezifischen Leistungen der KI-Modelle, die zur Erkennung von Mustern und Strukturen sowie Abweichungen geeignet sind.

Am Ende des Projektes ließ sich die Prognostizierbarkeit grundsätzlich umsetzen. Mit einem entwickelten Ölsensor und der Nutzung der regulären Sensorik konnten die fehlerhaften Vorhersagen auf 0,09% reduziert werden. Auch die maximalen Abweichungen waren bei einer Gesamtzahl 158.000 Vorhersagen nur in einem Fall bei sechs Tagen und ansonsten bei einem Tag. Der entscheidende Faktor für die erfolgreiche Ermittlung und Prognose ist der Ölsensor.

Datenströme

Neben dieser Thematik befasst sich Professor Pohl auch mit Fragen des Stream Processing: In der Datenverarbeitung lassen sich zwei Ansätze unterscheiden, die sich für verschiedene Anwendungen und Ziele eignen. Der klassische Weg ist die Paketlösung: In einem bestimmten Zeitraum werden Daten erfasst und dann als Block archiviert. Im Anschluss können diese Daten verarbeitet und ausgewertet werden. Offensichtlich ist hierbei die große Latenz, also die Zeitspanne, die zwischen der Messung und den Ergebnissen einer Auswertung steht. Das Stream Processing zielt dagegen auf die Auswertung der Datenströme in Echtzeit, wobei durch diesen Fokus andere Imperative der Verarbeitung wichtig werden.

Die Analyse von Datenströmen steht vor der Herausforderung, eine permanente Aufnahme und Verarbeitung zu gewährleisten. Die Auslastung muss so gestaltet werden, dass durch die Interaktion verschiedener Komponenten keine Flaschenhälse oder Stausituationen entstehen. Kurzum geht es darum, effiziente Strukturen zu etablieren, die eine möglichst permanente und effiziente Verteilung und Verarbeitung erlauben und die Kapazitäten entsprechend nutzen.

Constantin Pohl befasst sich mit der Entwicklung und Erprobung von Stream Processing Engines. Im konkreten Fall ging es um die Vorhersage des Zielhafens und der Ankunftszeit. Die pendelnden Schiffe geben während ihren Reisen permanent Informationen weiter, zum Beispiel über ihre Position, ihre Geschwindigkeit und den Schiffstyp, die in einem komplexen Modell für Vorsagen ihrer Zielhäfen genutzt werden können. Kurzum bietet sich so die Möglichkeit, über eine Einschätzung einer komplexen Sachlage mit vielen Akteuren und zu beachtenden Parametern Strategien der Optimierung der Zielhäfen zu entwickeln.

Fußstapfen

Constantin Pohl hat bislang noch eine Juniorprofessur an der Hochschule Schmalkalden, die im Rahmen des bundesweiten Projektes „FH-Personal“ geschaffen wurde. Mit seiner Berufung wurde die Professur von Martin Golz zu einer Schwerpunktprofessur, die es diesem erlaubt, das Lehrdeputat zu senken und sich vermehrt der Forschung zu widmen.

Professor Pohl kann seine Arbeit in einem laufenden Lehr- und Forschungsbetrieb aufnehmen und den Lehrstuhl intensiv kennenlernen. Ziel ist es, die Reibungsverluste zu minimieren und durch geteilte Wege strukturelle Kontinuitäten zu etablieren. Er unterrichtet neben Grundlagen der Daten- und Wissensverarbeitung auch Deep Learning Architekturen und Wissensentdeckung in Datenbanken. Als Mitglied im Prüfungsausschuss der Fakultät Informatik widmet er sich gemeinsam mit den anderen Mitgliedern den Problemen der Studierenden in Prüfungsangelegenheiten. Auch am Hochschulinformationstag und dem Absolvententreffen stellte er sich und seine Forschung dem interessierten Publikum vor.

risING – Der Tag der Ingenieurwissenschaften an der Hochschule Schmalkalden

risING – Der Tag der Ingenieurwissenschaften an der Hochschule Schmalkalden

Mitte Juni durfte die Hochschule Schmalkalden den Tag der Ingenieurwissenschaften unter dem Titel „risING. Regionale Innovationen, globale Transformationen“ ausrichten. In einem ganztägigen, abwechslungsreichen Programm präsentierten sich die Thüringer Ingenieurwissenschaften zugleich sich selbst und der interessierten Öffentlichkeit. In Vorträgen konnten sich verschiedene Projekte aus Forschung und Lehre vorstellen und Nachwuchswissenschaftler:innen in einem Pitchwettbewerb beweisen. Abgerundet wurde das Programm durch eine Präsentation aller eingereichten Poster und eine Ausstellung von Kooperationspartnern im Foyer. Prägend in allen Hinsichten blieb die thüringenweite, kooperative Ausrichtung der Ingenieurwissenschaften, die auch ein Markenkern der Allianz Thüringer Ingenieurwissenschaften darstellt.

Die Allianz THÜR ING ist ein Bündnis von sieben Thüringer Hochschulen mit ingenieurwissenschaftlichen Studiengängen, das es sich zu Aufgabe gemacht hat, die Bekanntheit der Ingenieurwissenschaften in der Öffentlichkeit zu steigern. Ziel dieser Kooperation ist es zudem, junge Menschen für das Studium der Ingenieurwissenschaften zu begeistern und zu diesem Zweck die Vielfalt der Studiengänge, die Anwendungsnähe und die innovative Relevanz hervorzukehren.  Ab von vielen weiteren wissenschaftskommunikativen Offerten sind es die Tage der Ingenieurwissenschaften, die eben solche Impulse setzen sollen. Neben der Allianz THÜR ING unterstützte die Thüringer Ingenieurskammer das Organisationsteam der Hochschule Schmalkalden bei der Umsetzung des Tages, zum Beispiel bei der Bewertung der Pitches und der Preisverleihung am Ende der Veranstaltung.

Um was es geht: Die Relevanz der Ingenieurwissenschaften

In seiner Begrüßungsrede wies Professor Gundolf Baier, Präsident der Hochschule Schmalkalden und Sprecher der Allianz THÜR ING, auf die verschiedenen gesellschaftlichen Herausforderungen unserer Gegenwart hin, auf welche die Ingenieurwissenschaften innovative Antworten finden müssten und auch würden: Neben der Demographie seien dies die Digitalisierung und die Dekarbonisierung – kurz die großen D‘s. Gerade im Falle der letzten beiden Herausforderungen werden die Potentiale der Ingenieurwissenschaften deutlich: Die techno- und ökologischen Transformationsprozesse prägen bereits unsere Gegenwart und unseren Alltag von der Kommunikation über Behördengänge bis hin zu Einkäufen, und werden dies in Zukunft wohl immer stärker tun. Darüber hinaus spielen die D’s aber auch eine immer größere Rolle für die Wirtschaft und den Standort Deutschland.

Hochschulen angewandter Wissenschaften nehmen die letzten beiden Impulse gesellschaftlicher Transformationen in ihrer Forschung auf und versuchen, neben ebenso relevanten Aspekten von Grundlagenarbeiten, anwendungsnahe Lösungsansätze für Gesellschaft und Wirtschaft zu entwickeln. Diese Implementierbarkeit ihrer Forschungsarbeiten und die Arbeit an konkreten Problemen ist ein gewichtiges Pfund, die mehr in die Wahrnehmung der Öffentlichkeit gerückt werden soll.

Anlässe wie die Tage der Ingenieurwissenschaften lassen sich nutzen, um mit der Öffentlichkeit in Kontakt zu treten und diese über die Tätigkeiten und die Sinnhaftigkeit der Ingenieurwissenschaften zu informieren: Was sind die Themen der Ingenieur:innen, vor welchen Herausforderungen stehen sie und wie gehen sie mit den Aufgaben um? Welche Bereiche umfasst das ingenieurwissenschaftliche Spektrum und wie gestalten sich die internen und externen Austauschbeziehungen, zum Beispiel zu den Forschungseinrichtungen von Unternehmen? Wie lassen sich Patente einrichten, Start-Ups gründen oder Forschungsdaten in der wissenschaftlichen Community teilen? Der Tag der Ingenieurwissenschaften nutzte die Gelegenheit, um ein Licht auf diese verschiedenen Aspekte zu werfen.

risING: Impulse der Politik

Der Tag der Ingenieurwissenschaften steckte sein thematisches Portfolio bereits in seinem Titel „risING. Regionale Innovationen, globale Transformationen“ ab. Einerseits wird hierbei ein Bezug zur RIS-Strategie der Landesregierung hergestellt, die wiederum auf eine regionale Innovationsstrategie abzielt: Im Hinblick auf verschiedene Felder und thematische Komplexe rund um Zukunftsfragen wurden Akteure der Thüringer Forschungslandschaft anhand ihrer Schwerpunkte und Kompetenzen markiert. Das Ziel ist, dass die beteiligten Institutionen und Personen zu verknüpfen und den Austausch an Wissen und Expertise anzuregen, um und so schließlich die Forschung gemeinsam voranzutreiben. In Kooperationen lassen sich die Potentiale ganz unterschiedlicher Akteure und Regionen Thüringens produktiv nutzen, so die dahinterstehende Idee. In einem kleinen Bundesland wie Thüringen kann Forschung keine One-Man-Show sein, vielmehr legen die kurzen Wege eine enge, produktive Zusammenarbeit und die intensive Vernetzung nahe.

Kooperative Projekte sind in der Forschungslandschaft zwar keine neue Erscheinung, doch nimmt die Zusammenarbeit von Hochschule, außeruniversitären Forschungseinrichtungen und Partnern aus Wirtschaft und Gesellschaft immer mehr zu. Da sich so die verschiedenen Schwerpunkte unterschiedlicher Akteure einbringen und die Beteiligten die Heterogenität der Forschungslandschaft gewinnbringend nutzen können, bieten sich diese Kooperationsprojekte zur Präsentation ingenieurwissenschaftlicher Aktivitäten und deren interdisziplinärer Potentiale an.

Forschungsprojekte: Intelligente Mobilität und 3D-Elektronik-Systeme

Am Tag der Ingenieurwissenschaften konnte Professor Frank Schrödel von der Hochschule Schmalkalden die hochschulübergreifende Forschungsgruppe vernetztes und kognitives Fahren, kurz CoCoMobility, vorstellen. Neben der HSM sind die Fachhochschule Erfurt, die Technische Universität Ilmenau und die Bauhaus-Universität Weimar an diesem Forschungsprojekt zum Thema intelligente Vernetzung moderner Mobilität beteiligt. Die Vielfältigkeit der Kooperationspartner spiegelt die Differenziertheit der hier einbegriffenen Themen: Neben der intelligenten Verkehrsinfrastruktur und der Vernetzung von Fahrzeugen, Infrastruktur und Testumgebungen arbeitet die Forschungsgruppe an Effekten auf den Verkehr, Aspekten der Sicherheit sowie an Einflüssen der Umwelt.

Die Umsetzung der neuen Mobilität angefangen beim autonomen Fahren bis hin zur smarten Verkehrslenkung bedarf der Kommunikation, zum Beispiel zwischen den Mobilen und der Infrastruktur. An dieser intelligenten Konnektivität forscht der Projektpartner TUI. Die BUW fokussiert sich auf den Ablauf des Verkehrs, also Fragen der Vorhersagbarkeit und u.a. individuell als angenehm empfundener Abstände. Die Steigerung der Verkehrssicherheit vulnerabler Gruppen steht im Blickfeld der FHE. Und die HSM widmet sich der menschenzentrieten autonomen Entscheidungsfindung im Kontext der autonomen Mobilität. In diesem kooperativen Forschungsprojekt können die unterschiedlichen Partner ihre Expertise einbringen.

Professor Roy Knechtel nutzte die Gelegenheit, um den neuen Forschungsschwerpunkt 3D-Elektronik-Systeme der Hochschule Schmalkalden vorzustellen. Die Welt der Mikroelektronik ist noch heute weitgehend eine Scheibe, sind doch jene dünnen Siliziumscheiben, die sogenannten Wafer, die Grundbausteine. Dennoch lässt sich ein Trend hin zur Dreidimensionalität feststellen: Um die Funktionen moderner smarter Geräte wie Handys oder Uhren erfüllen zu können, müssen Chips, Sensoren und andere technische Komponenten in die dritte Dimension wachsen: Kurzum geht es darum, hochkomplexe Bauteile zu stapeln und zu verbinden, um so immer kompaktere, effizientere Komponenten zu erzeugen und den Erfordernissen von Funktionalität, Formfaktor, Passgenauigkeit und Rentabilität gerecht zu werden.

Das Ziel des Projektes ist die Herstellung komplexer mikroelektronischer Bauteile direkt auf dem wafer, um so auch die Wertschöpfung einer bislang recht globalisierten Industrie vor Ort halten zu können. Um die für diese Bauteile notwendige Präzision erreichen zu können, muss ein Fokus auf den Materialien und der Strukturanalyse ihrer Charakteristika liegen. Neben Martin Seyring aus dem Team von Roy Knechtel ist mit Stephanie Lippmann von der FSU Jena und dem dortigen Otto-Schott-Institut für Materialforschung im Projekt für diese Aspekte eingebunden. Aber auch Unternehmen wie X-Fab beteiligen sich als Partner aus der Wirtschaft an diesem Forschungsschwerpunkt.

Nachwuchs: Die vielen Facetten der Ingenieurwissenschaften

Am Tag der Ingenieurwissenschaften gab auch dem akademischen Nachwuchs in unterschiedlichen Hinsichten Raum: Schon vor Längerem gab es einen Call for Poster, der um Einreichungen zu innovativen Themen der Thüringer Ingenieurwissenschaften aufrief. All diese eingereichten Poster wurden im Rahmen einer Präsentation per Slideshow gezeigt und gaben während der Pausen zu Gesprächen Anlass. Zudem wählte eine Jury aus den Einreichungen zwölf aus, die dann am Tag der Ingenieurwissenschaften ihr Poster in einem Pitch vorstellen konnten. Am Ende der Veranstaltung wurden wiederum durch eine Jury, unter anderem mit Vertreter:innen der Ingenieurskammer besetzt, die besten drei Pitches ausgewählt und die Gewinner mit einem Preisgeld bedacht.

Hier ist nicht genügend Platz, alle Beiträge eingehend zu würdigen, daher muss eine Synopsis genügen. Alle Pitches werden in Bälde auf dem Youtubekanal der Allianz THÜRING verfügbar sein, alle Poster sind auf der Seite der Hochschule Schmalkalden im Bereich Forschung zu finden. Zudem werden die Präsentationen, sofern möglich, ebenso auf diesen Seiten veröffentlicht.

Martin Patrick Pauli von der Hochschule Schmalkalden verdeutlichte die Folgen des Data-Leakage-Problems, welches bei dem Training von KI-Algorithmen mit Daten auftreten kann. Letztlich kann es dabei zu überoptimistischen Annahmen der Trefferquoten und damit zu einer Verzerrung der Ergebnisse kommen. Um diese nur scheinbare Lösung zu vermieden, gilt es ebenso aufmerksam gegenüber den Daten und ihrer Aufbereitung zu bleiben wie es nützlich ist, auf verschiedene Kontrollmethoden in der Datenverarbeitung zurückzugreifen.

Christian Diegel von der Technischen Universität Ilmenau stellte in seinem Pitch ein Verfahren vor, beim dem es um eine Optimierung des Laserstrahlschweißens geht. Infolge der hohen Prozessgeschwindigkeit lösen sich aus dem Schmelzkanal Spritzer ab, die dann wieder mehr oder weniger aufwändig entfernt werden müssen. Durch die Addition einer Nebenintensivität nahe dem zentralen Laser ließe sich das Schmelzbad vergrößern und so die Dynamik des Materials verringern, wodurch es wiederum weniger Ablösungen gäbe, so der Ansatz. Durch die Einbringung von Tracer-Teilchen ins Material konnte mithilfe von Hochgeschwindigkeits-Röntgenuntersuchungen die Fluidität des Materials beobachtet und Wege zur Optimierung des Laserschweißens gefunden werden.

Tobias Tefke stellte den Aufbau eines Ethical-Hacking-Labors inklusive einer Capture-the-flag-Umgebung vor, die den Studierenden der Informatik an der Hochschule Schmalkalden helfen soll: In virtuellen Arbeitsumgebungen geht es darum, mögliche Schwachstellen in der Infrastruktur von Softwaresystemen zu finden und die Lücken in der Sicherheit zu schließen. Hier verknüpfen sich also Ansätze der Informatik und der Didaktik.

Analoger nimmt sich das Projekt von Lucas Hauck, ebenfalls von der Hochschule Schmalkalden, aus: Er geht den technischen Herausforderungen, den Möglichkeiten und Grenzen der additiven Fertigung elektronischer Bauteile im dreidimensionalen Raum nach. Der 3D-Druck besticht dabei durch ein Angebot vieler Verfahren und die mögliche Verwendung unterschiedlicher Materialien sowie die Aufbringbarkeit auf multiple Untergründe. Hauck geht diesem Komplex anhand eines 3D-Druck-Systems nach, wobei dessen Flexibilität der möglichen Verfahren das Angebot denkbarer Lösungswege vervielfacht und übersichtlich macht. Um den Aufwand individueller Ansätze zu minimieren, soll ein grundlegender Verfahrenskatalog entwickelt werden, der den Umgang mit solchen Geräten über Designregeln standardisieren und vereinfachen soll.

Wie können Drohnen und künstliche Intelligenz die Bauindustrie unterstützen? In ihrem Pitch umriss Lisa Schneeweiß das Projekt BauKiRo, das sich neben der Aufzeichnung des Baufortschritts auch dem Vergleich der realisierten Bauausführung mit dem Bauplan widmet. Dieser Kooperation der HSM mit der FAU Erlangen-Nürnberg steht vor den Herausforderungen des Einsatzes von Drohnen in komplexen Umgebungen und KI-unterstützten Auswertung von Videoaufnahmen und dem Abgleich mit vorliegenden Plänen. Der Zweck dieses Projektes ist unter anderem, Baumängel frühzeitig zu erkennen.

Sreekar Babu Malli vom ThIWert, dem Thüringer Innovationszentrum für Wertstoffe, befasst sich im Projekt SeRo.inTech mit innovativen Technologien, wertvolle Rohstoffe aus Abfällen zu gewinnen. Er stellte das Kooperationsprojekt der HSN mit der BUW am Beispiel von Sperrmüll vor: In der üblichen Entsorgung von Abfällen bleiben Teile an verwertbaren Materialien und Rohstoffen ungenutzt. Das Projekt versucht unter anderem, die die großen Bestandteile an Holz im Sperrmüll aufzubereiten. Daran schließt sich eine Verteilung der Objekte nach Qualität und möglicher Weiterverwendung an. Ziel ist es, einen möglichst abgeschlossenen Kreislauf der verwendeten natürlichen Rohstoffe zu realisieren und selbst qualitativ minderwertige Materialien nachhaltig zu nutzen.

Michael Werner von der Hochschule Schmalkalden stellte das Innovationslabor KIOptiPak vor, das wiederum ein Teil des KI HUB Kunststoffverpackungen ist. Ziel dieser Kooperation verschiedener Partner aus Wissenschaft und Wirtschaft ist es, Kunststoffverpackungen so zu gestalten, dass die Wiederverwertbarkeit maximiert und die Kunststoffabfälle von Verpackungen minimiert werden. Das KIOptiPak zielt dabei auf die Frage, wie Verpackungen designt sein müssen, um dieses Ideal eines Kreislaufs zu erreichen, zum Beispiel im Hinblick auf das verwendete Material und die direkte Einbeziehung von Vorgaben des Recyclings. Werners Interesse lag dabei auf der Qualität des wiederaufbereiteten Kunststoffreziklats und dem Umgang mit Schwankungen des Materials in der Verarbeitung. Diese Erkenntnisse sollen dann in KI-Modelle einfließen, die anhand der Vermessung des verwandten Materials schon bei laufender Produktion Angaben über die Güte und Verwendbarkeit des Produkts geben können.

Ein Thema, das Aspekte von Forschung und Transfer mit einem didaktischen Ansatz verknüpft, stellte Carsten Gatermann von der TUI vor: Ausgangspunkt war die Frage eines Schülers, ob sich eine vertikale Windenergieanlage auch in Privathaushalten installieren ließe. Neben den elektrotechnischen Fragestellungen galt es, der kreativen Neugier des Schülers Raum zu lassen: Wie müssen Projektarbeiten gestaltet werden, um den individuellen Freiraum der Forschung mit der notwendigen Unterstützung und Orientierung zu verbinden? Der Ansatz „Knowledge on Demand“ trennt Themen in Teilaufgaben, zwischen denen sich die Beteiligten immer wieder abstimmen: Weil das selbstständige Arbeiten von den Schülern erst erlernt werden muss, wird die eigenständige Forschung mit einem engen Betreuungsverhältnis ergänzt. Je nach individuellem Vermögen können dann die Aufgaben dann frei oder gesteuert angegangen werden.

Wie lässt sich der natürliche Rohstoff Holz weiter nutzen? Daniela Pachatz von der HSM stellte drei Anwendungsbeispiele aus dem Projekt FiWood vor, in dem um die Integration von Funktionen in Schichtholzprodukten geht. Ein Projekt ist ein Sitzpult, in das verschiedenen Funktionen wie eine Heizung und Sensoren (Temperatur und u.a. Luftfeuchte) eingelassen sind. Die Wärmefunktion ist auch Teil von Bodenheizelementen, die über die Abgabe von Infrarotwärme den Effekt der thermischen Behaglichkeit erreichen sollen. Nicht zuletzt lassen sich auch LED-Arrays in den Furnieren integrieren, und so leuchtende Holzelemente herstellen.

Walpola Perera von der FHE ist Teil des Forschungsprojektes Kimono-EF, das die Mobilität beeinträchtigter Menschen im Stadtraum sicherer machen will. Weil die Grünphasen von Ampelanlagen oftmals zu kurz sind, um betroffenen Menschen eine vollständige Überquerung der Straßen oder Straßenbahnschienen zu erlauben, soll hier innovative Technologie Einzug halten. Zunächst werden mit KI-optimierten Erfassungssystemen wie Kameras Personen frühzeitig ausfindig gemacht, die einen längeren Zeitraum für die Querung benötigen könnten, zum Beispiel Personen in Rollstühlen oder mit Kinderwägen. Anschließend werden die spezifischen Grünphasen verlängert und die anderen Verkehrsteilnehmer informiert. Weiter gedacht könnte mit Hilfe dieser Benachrichtigungssysteme auch eine intelligente Verkehrssteuerung autonomer Fahrzeuge ergänzt werden.

Einen Ansatz, die Photolithographie mit extremem ultraviolettem Licht zu verbessern, stellte Niranjan Kannali Ramesha von der HSM vor. Moderne Computerchips werden durch ein spezifisches Verfahren hergestellt, das sich als Buchdruck mit Licht umschreiben ließe. Auf dem Wafer, also einer Siliziumscheibe, wird eine photosensitive Schicht aufgetragen und dann durch eine Maske hindurch dem Licht ausgesetzt, wodurch sich hochkomplexe und kleine elektronische Bauteile wie Transistoren aufbringen lassen. Der bestimmende Faktor der Größe der Bauteile ist momentan die Wellenlänge des Lichts, wodurch sich der Einsatz extremen ultravioletten Lichts erklärt. Um die Produktionskapazität zu steigern, müssen kraftvollere EUV-Quellen als die bislang genutzte Variante über Zinnkügelchen gefunden werden. Das Projekt ging dem Ansatz nach, das EUV von Freien-Elektronen-Lasern wie dem FLASH als Quelle zu nutzen. Zentral ist hierbei die Frage, ob und wie sich das EUV-Licht in einem Fokuspunkt konzentrieren lässt, wofür wiederum die Erfassung der Wellenfront eine entscheidende Rolle spielt. Im Weiteren brauche es optische Systeme, die Abweichungen der Wellenfont korrigierten.

Martin Sennewald (TUI) stellte abschließend einen Aspekt des Forschungsprojektes DimFSW vor, das darauf abzielt, die Beschädigungen von Werkzeugen bei Schmelzschweißverfahren wie dem Rührreibschweißen abzuschätzen und das Aufkommen von Ausfällen von Produktionsabläufen zu minimieren. Die Fügetechnik stehe grundsätzlich vor steigenden Herausforderungen, unter anderem aufgrund wachsender Ansprüche der Bauteilkomplexität, dem Leichtbau und der Qualität. Zum Beispiel verlangt die Elektromobilität weitaus komplexe Bauteile als die bisherigen Modelle. Für die Fertigung folgen hieraus nicht nur die Wirkung hoher Prozesskräfte, sondern auch ein erhöhter Verschleiß der Werkzeuge. Wie lässt sich dieser Verschleiß so bestimmen, dass Ausfälle in laufenden Produktionsprozessen vermieden werden können? Der Ansatz ist, auf die tatsächlichen Prozesskräfte und -momente wie der vorliegenden Spannungen am Schweißstift im Prozess zurückzugreifen, wobei diese aus den Kraft-/Drehmomentdaten gewonnen werden.

Nachhaltigkeit und Netzwerke, Daten und Patente

Neben diesen konkreten Forschungsvorhaben gab der Tag der Ingenieurwissenschaften auch Projekten Raum, die Forschung und Lehre strukturell verbessern wollen. Mit ThüLeNa präsentierten die Professoren Frank Pothen (EAH) und Matthias W. Schneider (HSM) ein jüngst gestartetes Projekt, das sich dem Aspekt der Nachhaltigkeit im Lehren und Lernen widmet und dies stärken will. Dieser Nachhaltigkeitsgedanke umfasst Aspekte der Entwicklung neuer Technologien ebenso wie eine soziale und ökologische Verantwortung sowie die Einholung sozialer und ökonomischer Akzeptanz. Das Ziel von ThüLeNa ist es, die Ingenieurwissenschaften auf diese Herausforderungen auf verschiedenen Ebenen vorzubereiten und die Transformation produktiv zu begleiten, und zum Beispiel die Nachhaltigkeit in Lehrformaten zu integrieren und bereits vorhandene Strukturen und Kompetenzen zu stärken.

Wie lässt sich die Forschung und Entwicklung in Thüringen kooperativ verknüpfen? Das Thüringer Zentrum für Maschinenbau nimmt sich dieser Aufgabe an, wie Dr. Andreas Patschger in seinem Vortrag deutlich machte. Das ThZM ist eine Kooperation aus fünf Forschungseinrichtungen, u.a. der TUI und der HSM, das sich neben wirtschaftspolitischen Impulsen vor allem dem Wissens-Transfer hin zu kleinen und mittleren Unternehmen verschrieben hat. Es geht also darum, gefundene Lösungen in die Anwendung zu bringen und hierzu Institutionen der F&T mit den zentralen Akteuren, also Unternehmen, in Kontakt zu bringen. Beide Seiten können hierbei voneinander lernen. Ein weiterer Ansatz des ThZM ist zudem die Netzwerkarbeit, um die Akteure in Austausch zu bringen, zum Beispiel in Formaten wie der Cross-Cluster-Initiative Thüringen. Hierin tauschen sich kleine und mittlere Unternehmen über ihre Erfahrungen, Bedarfe und gemeinsamen Interessen aus, was zukünftigen Kooperationsprojekten ebenso den Weg ebnet wie es den Partnern einen Überblick in geteilte Problemlagen erlaubt. Nicht nur können die Beteiligten so von best-practise-Beispielen profitieren, sondern auch mögliche Kooperationspartner in der Nachbarschaft kennengelernt werden.

Eine andere Frage ist die der Forschungsdaten, wobei hier nicht nur an die Statistiken empirischer Sozialwissenschaften zu denken ist, sondern auch an die massiven Datenmengen, die zum Beispiel im Maschinenbau per Sensoren an den Werkzeugen erhoben werden. Da diese Informationen mit viel Aufwand gewonnen werden, ist es sinnvoll und von einem allgemeinen wissenschaftlichen Interesse, die erhobenen Daten zu teilen, im Kreise der Wissenschaft oder auch in der Öffentlichkeit. Um Wissenschaftler:innen bei diesen Projekten zu unterstützen wurde mit dem FDM-HAWK eine Initiative des Forschungsdatenmanagement ins Leben gerufen, deren Mitarbeiter:innen auf verschiedenen Feldern helfen können. Wie Sarah Boelter (EAH Jena) hervorhob, fängt dies bereits bei grundsätzlichen Dingen wie dem Datenschutz- und der -sicherheit an, geht über den planvollen Umgang mit Daten und ihrer Erhebung schon im Vorfeld und reicht bis in Detailfragen wie den passenden Metadaten, verlässlichen Plattformen und den kompatiblen Formaten der entsprechenden Daten.

Ein anderer Punkt sind die Patente: Jan Axel Schleicher gab einen Einblick in seine Tätigkeit und die Aufgabe von PATON, dem Landespatentzentrum Thüringen. Letztlich ist es das Ziel, unter anderem Wissenschaftler:innen dabei zu unterstützen, Patente zu beantragen und die verschiedenen Fallstricke einer solchen Anmeldung zu vermeiden. Welche Kriterien müssen erfüllt werden, um ein Patent anmelden zu können? Hier ist unter anderem an den Stand der Technik zu denken, dessen Mängel und das Potential der Erfindung, wobei hier wiederum zwischen der Aufgabe und der Lösung der Erfindung geschieden werden kann. Nicht zuletzt stellte Schleicher den Ablauf einer Patentanmeldung vor, um eventuell Betroffenen eine Orientierung zu geben.

Sven Uwe Büttner vom StarterWerk gab einen Überblick über die Dos and Don’ts von Existenzgründungen: Was braucht es eigentlich, um erfolgreich von einer Idee zu einer Unternehmung zu gelangen? In das Zentrum stellte Büttner das kreative, engagierte Individuum, das eine Idee verwirklichen will. Neben der Definition einer Baseline, der Perzeption des Marktes und der Interessen potentieller Kund:innen ging es um die Nutzung wichtiger Kontaktnetzwerke und die Fokussierung gepaart mit einer Offenheit, die den Weg zum Ziel nicht weniger gerichtet, nur etwas breiter werden lässt.

Ein Fazit

Am Ende des Tages konnten die Gäste, die Referierenden und das Organisationsteam auf einen erfolgreichen, informativen Tag der Ingenieurwissenschaften zurückblicken, der verschiedene Aspekte der Thüringer Ingenieurwissenschaften beleuchtete und der zugleich ebenso für die Öffentlichkeit wie für Wissenschaftler:innen lohnenswerte Inhalte bereithielt.

Die Veranstalter wollen zum Abschluss allen Beteiligten danken, die im Vorfeld oder am Tag selbst mit ihrem Engagement für das Gelingen beitrugen.

Drucken mit Licht – Über die Potentiale der Fotolithografie

Drucken mit Licht – Über die Potentiale der Fotolithografie

Um immer kleinere und effizientere Mikrochips produzieren zu können, müssen permanent neue Wege beschritten und Technologien erforscht werden. Gegenwärtig sind es spezielle Verfahren der Fotolithographie, in welchem Halbleiter mit Hilfe von extremem ultraviolettem Licht hergestellt werden, die entscheidende Potentiale versprechen. Auch wenn der technische Aufwand dieser Methode immens ist und eine lange Zeit der Forschung und Entwicklung bedurfte, bietet sie enorme Chancen für die Fertigung von hochkomplexen Bauteilen. An der Hochschule Schmalkalden will sich Professor Christian Rödel, vor kurzem auf die Professur für Physik und angewandte Lasertechnik berufen, diesem Gebiet in Forschung und Lehre widmen.

Um den praktischen Nutzen der Mikroelektronik und die Fortschritte der letzten Dekaden erkennen zu können, genügt ein Blick in unsere Hosentaschen: Auch wenn die Smartphones mittlerweile aus dem Alltag nicht mehr wegzudenken sind, ist es doch erstaunlich, was die kleinen Geräte gerade im Hinblick auf ihren noch jungen Ursprung vermögen. Da der technische Fortschritt ein stetiger Prozess der Innovation ist, sucht die Mikroelektronik weiter nach Mitteln und Ansätzen, Bauteile zu verkleinern bzw. komplexer gestalten zu können. Ein Weg dahin sind fotolithographische Methoden, bei denen Chips mit Hilfe von Lasern fotolithografisch hergestellt werden. Einerseits bieten sich im Rückgriff auf das extreme ultraviolette Licht spezifische Vorteile gerade für die Miniaturisierung elektronischer Bauteile, andererseits haben diese Verfahren in ihrer Anwendung hohe technische und praktische Voraussetzungen.

Die Forschung in diesem Bereich wurde in letzten Dekaden vor allem durch ein Unternehmen aus den Niederlanden vorangetrieben: Vor nunmehr dreißig Jahren begann hier die Erforschung der technischen Grundlagen und führte zur Entwicklung einer Apparatur, die heute zu den komplexesten und teuersten Systemen gehört und die ASML zu einem der wertvollsten Unternehmen der Welt gemacht hat. Der Vorsprung im Bereich von Forschung und Entwicklung, den sich ASML erarbeitet hat, beruht auf einer langfristigen Spezialisierung, die selbst noch die Zulieferfirmen umfasst. Im Moment ist nur diese Firma in der Lage, Anlagen herzustellen, die Fotolithographie mit extremem ultraviolettem Licht verwenden. Die Produktion modernster Chips ist in der Folge von diesem einen Anbieter abhängig, was letztlich sogar geopolitische Komplikationen nach sich zieht.[1]

Schreiben mit Licht

Lithographie ist ursprünglich ein Flachdruckverfahren, was meint, dass der Druck nicht über eine vertieft oder erhaben gearbeitete Zeichnung auf der Druckplatte erfolgt, sondern die druckenden und nichtdruckenden Partien auf einer Ebene liegen. Die Maske wird hierbei durch eine Versiegelung der Steinplatte aufgetragen, wobei das Prinzip auf der Unmischbarkeit von Fett und Wasser basiert. Während die druckenden Partien die fettreiche Druckfarbe aufnehmen, werden die nichtdruckenden Stellen mit einem Wasserfilm befeuchtet und stoßen die Druckfarbe ab. Im Falle der Fotolithographie wird dieses Prinzip durch Licht und lichtreaktive Substanzen umgesetzt. Kurz gefasst wird eine hauchdünne Siliziumscheibe, Wafer genannt, mit einem Licht-empfindlichen Fotolack beschichtet und anschließend mittels einer kurzzeitigen Strahlung über eine Maske belichtet, wodurch sich die Chemie des Lacks verändert und die Muster übertragen werden. Durch Wiederholung dieses Prozesses entstehen komplexe 3-dimensionale Strukturen – die Mikrochips. Auch wenn dieses Verfahren schon eine längere Zeit eine übliche Methode in der Herstellung von Microchips war, verändern sich durch die EUV-Lithographie die Rahmenbedingungen und Möglichkeitsräume.

Der Grad an Präzision, den diese Maschine verlangen, lässt sich fast nur in der Prosa von Superlativen Ausdruck verleihen. Ein Beispiel: Die Laser sind so genau, dass sie es erlauben würden, von der Erde aus eine Münze auf der Mondoberfläche zu treffen. Es geht hier darum, komplexe elektronische Bauteile im Nanometerbereich zu bauen, wobei sich verschiedene physikalische und optische Herausforderungen kombinieren. Um sich die Größenordnung auch nur annähernd vorstellen zu können: Wir sprechen hier von dem Tausendstel eines menschlichen Haars. Hier wurde nun das Licht selbst zum Problem: Um auf dieser Ebene arbeiten zu können, reicht die Qualität des Lichts der üblichen Laser aufgrund der Wellenlänge nicht aus.

In diesem Vorlesungsexperiment soll Studierenden die vergrößernde Abbildung eines Maßstabs näher gebracht werden. In der Fotolithografie wird vom Prinzip her ähnlich eine Maske auf einen Siliziumwafer mit Fotolack abgebildet.

Das Unsichtbare nutzbar machen

Warum also der Rückgriff auf das extreme ultraviolette Licht? Licht ist bekanntlich eine elektromagnetische Welle und besitzt charakteristische Wellenlängen, die wiederum die Bedingungen ihrer Anwendung vorgeben. Kürzere Wellenlängen lassen das Schreiben kleinerer Strukturen zu, pointiert formuliert. Um ein lebenspraktisches Beispiel zu bemühen: Auch wenn sie von identischer Größe sind, unterscheidet sich der Wellenlängenbereich der schreibenden und lesenden Laser von CD´s und Blu-Ray´s, wodurch vielmehr Daten auf das BD-Medium geschrieben werden können. Das ultraviolette Licht, das außerhalb der menschlichen Wahrnehmbarkeit liegt – außer indirekt im Falle des Sonnenbrandes –, hat eine sehr niedrige Wellenlänge. Extremes ultraviolettes Licht hat eine Wellenlänge von 13,5 Nanometer und liegt damit weit außerhalb des Bereichs menschlicher Perzeption. Dieses extrem ultraviolette Licht wird benötigt, um die Miniaturisierung voranzutreiben und kleinere Strukturen und Integrationsdichten in einer Größenordnung von unter 15 Nanometer realisieren zu können.

Um mit diesem Licht arbeiten zu können bedarf es allerdings einiger Vorkehrungen: Da dies Licht sehr leicht absorbiert wird, muss die gesamte Belichtung mit EUV-Strahlung im Vakuum vollzogen werden. Zudem können keine Linsen verwandt werden, wie es üblicherweise mit Lasertechnologien in Verbindung gebracht wird, vielmehr funktioniert die Bündelung des Lichts über hochpräszise Spiegel, deren Herstellungsprozess für sich schon höchst anspruchsvoll ist.

Auch wenn die Forschung an der Nutzung des extremen ultravioletten Lichts schon länger weilte, gelang erst Mitte des letzten Jahrzehnts ein entscheidender Durchbruch: Indem man flüssiges Zinn als Lichtquelle nutzen konnte, wurde die Schwelle zur Massenproduktion überschritten, durch die sich die Anschaffung einer solchen Maschine überhaupt erst lohnt. Das Zinn wird dabei als Tropfen in der Maschine mit einem Laserpuls beschossen, wodurch die Kugel die Form eines Eierkuchens annimmt. Im Anschluss wird das Zinn von einem stärkeren Laserpuls nochmals beschossen, wodurch dann das EUV-Licht entsteht und über verschiedene Spiegel zur Maske und dann zum Wafer geführt wird. Erst durch dieses Verfahren wurde die Produktion von Computerchips in Masse möglich und die EUV-Lithographie rentabel. Im Angesicht der Preise der Apparaturen zwischen 185 und 360 Millionen Euro muss sich die Anschaffung lohnen. Daher bedarf es eines hohen Outputs und einer verlässlichen Produktion, was wiederum die beständige Weiterentwicklung nahezu aller Komponenten der Maschine umfasst.

Partnerschaften, Forschung und Lehre

In Anbetracht der Komplexität dieser Technologie lässt sich erahnen, wie viele Wissenschaftlter:innen an ihrer Erforschung beteiligt waren und nunmehr damit beschäftigt sind, sie weiter zu verbessern. Zugleich macht die Komplexität eine Konzentration notwendig. An der Hochschule Schmalkalden möchte sich Prof. Christian Rödel mit der spektralen Charakterisierung von EUV-Quellen und Komponenten beschäftigen, die in der EUV-Lithografie eingesetzt werden können. Das sind zum einen dünne Filterfolien, aber auch EUV-Spiegel, die aus vielen Nanometer-dünnen Schichten bestehen.

Um Komponenten testen und optimieren zu können, die in der EUV-Lithographie und der Inspektion eingesetzt werden, wurde an der an der Hochschule Schmalkalden, gefördert durch Mittel der Carl-Zeiss-Stiftung, das Projekt EUV-4-LITHO ins Leben gerufen. Mit Unterstützung von Kooperationspartnern aus der Region bis ins europäische Ausland wird Professor Rödel und sein Team ein hochauflösendes EUV-Spektrometer entwickeln, mit dem sich die Vielschichtsysteme der Spiegel und ihre Eigenschaften der Reflektivität mit bisher unerreichter Präzision vermessen lassen.

Das Reflexionsgitter aus dem Vorlesungsexperiment spaltet das weiße Umgebungslicht in die spektralen Bestandteile auf. Im Projekt EUV-4-LITHO soll ebenso ein Reflexionsgitter eingesetzt werden, um die EUV-Strahlung spektral zu charakterisieren.

Auch wenn die EUV-Lithografie eine innovative Technologie der Gegenwart ist, lassen sich hier Forschung und Lehre verbinden. So entstand zum Beispiel im Projekt EUV-4-LITHO bereits eine Masterarbeit und es wurde eine Exkursion zum DESY, dem Deutschen Elektronen-Synchrotron, unternommen, um hier Untersuchungen mit EUV-Strahlung von Freien-Elektronen-Lasern vorzunehmen. Neben der Lehre steht für Professor Rödel die Kooperation im Fokus seiner Arbeit an der Hochschule für angewandte Wissenschaften. Neben den mannigfaltigen Projektpartnerschaften geht es ihm auch im die konkrete Vernetzung vor Ort, zum Beispiel der Verknüpfung von Forschungsthemen des Maschinenbaus und der Elektrotechnik. Dabei liegt im auch die Präzisionsmesstechnik am Herzen, die im Maschinenbau eingesetzt wird.


[1] Wer sich über diesen Aspekt informieren möchte: Chris Miller, Chip War. The Fight for the World’s Most Critical Technology, New York 2022.

* Das Beitragsbild zeigt ein Vorlesungs- und Praktikumsexperiment, in dem die charakteristischen Linien einer Natriumdampflampe bei 589 nm mit einem Reflexionsgitter spektral untersucht werden. Eine Xenon-basierte EUV-Lichtquelle soll an der Hochschule Schmalkalden entwickelt werden, die in ähnlicher Weise bezüglich des Spektrums bei 13,5 nm untersucht werden soll.