Tickt die GenZ anders? Eine empirische Überprüfung generationaler Unterschiede

Tickt die GenZ anders? Eine empirische Überprüfung generationaler Unterschiede

Seit ein paar Jahren mehren sich journalistische Beiträge, in denen vermeintliche Defizite der GenZ, von allgemeinen Wertvorstellungen bis hin zur spezifischen Arbeitsmoral, aufgegriffen werden. Personen dieser Alterskohorte, ungefähr die Geburtsjahre von 1995 bis 2010, werden Bequemlichkeit, Freizeitorientierung und unter anderem fehlender Ehrgeiz vorgeworfen. Der Frage, wie sich die Einstellungen der GenZ zur Arbeit und ihre Ansprüche an ihre Arbeitsverhältnisse von jenen vorheriger Generationen unterscheiden und ob diese Abweichungen einer wissenschaftlichen Überprüfung standhalten, ist eine offene Frage der Forschung. Professorin Katharina Sachse ist dieser in Zusammenarbeit mit Claus-Peter Heinrich, Silke F. Heiss und Sandra Sülzenbrück im Rahmen einer jüngst veröffentlichten Studie mit dem Titel „Arbeitgeberattraktivität aus Sicht der Generationen. Einigkeit statt Unterschiede“ nachgegangen.

Der Begriff „Generation“ ist unscharf und wird in Wissenschaft und Alltag unterschiedlich genutzt. Viele Menschen fühlen sich zwar einer Generation zugehörig, doch bleibt unklar, wodurch diese Einheit eigentlich zusammengehalten wird.

Der Jugendforscher Jürgen Zinnecker unterscheidet drei Perspektiven:

  1. Geburtskohorten – Menschen, die im gleichen Zeitraum geboren wurden.
  2. Lebensabschnitte – etwa Großeltern, Eltern und Kinder, die durch unterschiedliche Lebenssituationen geprägt sind.
  3. Zeitgeschichtliche Ereignisse – prägende Momente wie 9/11 oder die Einführung des iPhones.

Alle drei Ansätze zeigen, dass „Generation“ Unterschiedliches meinen kann. Letztlich sollte man den Generationenbegriff nicht als feste Grenze verstehen, sondern als Hilfsmittel, um Veränderungen zwischen Gruppen sichtbar zu machen.

Wichtig ist, dass verschiedene Disziplinen den Begriff unterschiedlich verwenden: Pädagogik, Soziologie oder Geschichtswissenschaft setzen jeweils eigene Akzente. Nützlich bleibt der Begriff vor allem, um Selbst- und Fremdverortungen von Menschen in ihrer Zeit zu beschreiben. In den Personalabteilungen von Unternehmen werden mitunter Generationenzuordnungen genutzt, um spezifische Personalmaßnahmen daran auszurichten. Die Wirtschaftspsychologie beleuchtet wissenschaftlich, wie Mitarbeitende gewonnen und gehalten werden können, und untersucht dabei auch, ob sich die oft diskutierten Unterschiede zwischen Generationen – etwa bei der GenZ – tatsächlich nachweisen lassen.

GenZ: Zwischen Krisen und Kritik

Und schon sind wir bei der GenZ, deren Jugend bzw. junges Erwachsenenleben vor allem von Krisen geprägt war, angefangen bei der Euro-Krise und der „Flüchtlings“-Krise bis zur Pandemie und ihren Folgen und schließlich der Ukraine-„Krise“. (Vgl. Katharina Sache et al., Arbeitgeberattraktivität aus Sicht der Generationen. Einigkeit statt Unterschiede, Berlin 2025, S.12) Die zunehmende Digitalisierung des Alltags, des Soziallebens und der Kommunikation sollte sich zudem auf Weltverständnis und -verhältnis dieser Generation auswirken. Auch wenn also die Kindheit und Jugend der GenZ von besonderen Umständen geprägt wurde und bestimmte Effekte auf diese Generation mithin plausibel sind, geht die eingangs notierte Kritik an der Arbeitsmoral dieser Generation weniger von weichen Einstellungsvarianzen als von festen, greifbaren Unterschieden im Wertesystem der GenZ aus, die diese von anderen Kohorten trenne. Der Generationsbegriff dient hier nicht im Sinne einer Auslotung von weichen Einstellungsunterschieden, sondern als Zuschreibung fassbarer, übergreifender Wesensmerkmale einer Altersgruppe.

Die Kritik zielt vornehmlich auf den Themenbereich der Arbeit, und lässt sich in die individuelle Arbeitsmoral und die Ansprüche der betroffenen Personen an ihre Arbeitgeber unterscheiden. Als Beispiele: Die WirtschaftsWoche titelt, die GenZ wäre lieber arbeitslos als unglücklich. Deutschlandfunk Nova konstatiert eine hohe Bereitschaft zum Arbeitsstellen- bzw. Arbeitgeberwechsel, RP online fragt nach einer allzu hohen Sensibilität im Berufsleben. Im Presseportal ist von immensen Gehaltsvorstellungen der GenZ zu lesen, der Focus sieht eine mangelnde Bereitschaft zu Überstunden. Prominent äußerte der ZDF-Moderator Lanz eine Kritik an den postmateriellen Werten der GenZ und ihrer Suche nach der idealen Work-Life-Balance. Neben Artikeln und Büchern über die GenZ gibt es zahlreiche Videos auf Plattformen wie YouTube. Abseits von kritischen Impulsen stehen oftmals Beratungsangebote an Unternehmen und Personalverantwortliche im Fokus.

Die evidenzbasierte Überprüfung

Nicht nur stellt sich die Frage, ob diese Beschreibungen der Generation Z überhaupt zutreffen, sondern auch, ob die normativen Veränderungen zum Beispiel der Anspruchshaltungen einer Work-Life-Balance ein auf diese Generation begrenzter Effekt sind, oder doch eher eine alle Generationen umfassende sozio-kulturelle Verschiebung im Sinne des Zeitgeistes markieren. In einer empirischen Studie ist die Forschungsgruppe um Katharina Sachse der Frage nachgegangen, ob die behaupteten Unterschiede zwischen den Generationen einer Überprüfung standhalten.

Gemäß einer populären Unterscheidung der Generationen in Kohorten lassen sich Baby Boomer, die Generation X, Y (Millenials) und Z trennen und durch mehr oder weniger grobe Zuschreibungen charakterisieren. Aus Sicht von Unternehmen, die sich in einem immer umkämpfteren Wettbewerb um Fachkräfte wähnen, sind diese Profile von Bedeutung, lassen sich doch vermeintlich durch ihre Berücksichtigung Rekrutierungschancen maximieren und Fluktuationsrisiken minimieren. Aus der Vermutung, Sicherheit wäre für die Motivation älterer Mitarbeitender, Selbstverwirklichung im Beruf für jene jüngerer Generationen wichtig, könnten maßgeschneiderte Ausschreibungsprofile und Jobkonditionen generiert werden. (Vgl. Sachse et al. 2025, S.09f.)

Die Frage ist nun, ob die grundlegende These einer greifbaren Unterschiedlichkeit der Generationen und ihrer Gewichtung von Faktoren der Arbeitgeberattraktivität überhaupt zutrifft. Die Forschungslage zur GenZ ist noch dünn, weil es allein deshalb noch kaum belastbare Studien geben kann, weil die GenZ erst in jüngerer Zeit den Arbeitsmarkt betritt und Erfahrungen sammeln kann. Internationale Studien, die ihren Fokus generell auf Generationenunterschiede legen, haben bisher keine gravierenden Unterschiede zwischen den Generationen feststellen können. (Vgl. Sachse et al. 2025, S. 17f.)

Das Ziel der Studie von Professorin Sachse und ihrem Forschungsteam war einerseits, eine empirische Studie am Beispiel Deutschlands zu liefern, und zudem einen Fokus auf die Einstellungen gegenüber den Arbeitgebern bereitzustellen.[1] Die Auswertung der Umfrage konnte auf Daten von 1133 berufstätigen Personen zurückgreifen, wobei alle Generationen quantitativ ungefähr gleich vertreten waren.

Die Befragung ging in 68 Items entlang von 19 Dimensionen unterschiedlichen Arbeitgeberattraktivitätsfaktoren nach. Eine regressionsanalytische Auswertung der Daten ergab, dass sowohl instrumentelle (Einkommen, Sicherheit, Benefits u.a.) als auch symbolische Merkmale (soziale und altruistische Werte sowie Status, also Prestige und Autorität u.a.) für die Arbeitgeberattraktivität relevant sind. Die Gewichtung der Faktoren unterscheidet sich dabei nicht bedeutsam zwischen den Generationen. Vor allem bei den wichtigsten Merkmalen wie Identifikation mit dem Arbeitgeber, Führung und Arbeitsaufgaben gibt es keine Unterschiede zwischen den Generationen – für alle sind diese gleich relevant. Kurzum lässt sich der Bruch zwischen den Generationen und eine distinkte Eigenart der GenZ in ihren Arbeitswerten und Erwartungen empirisch nicht bestätigen.

Fazit: Eine unnötige Polarisierung

Das heißt nicht, dass sich die Attraktivitätsfaktoren über die Zeit nicht verändern würden. Hierfür scheint aber eher ein Zeitgeisteffekt ausschlaggebend, der sui generis alle Generationen anbetrifft. So stellte eine andere Untersuchung fest, dass sich die Präferenzen zur Länge der Arbeitszeit im Allgemeinen geändert haben – auch die Babyboomer achten heute mehr auf Work-Life-Balance als früher.

Ein Zuschnitt der Rekrutierung auf die Generation Z ist demgemäß unnötig. Mitarbeitenden in allen Berufslebensphasen – vom Jobeinstieg bis zum Übergang in die Rentenzeit – sollten Arbeitsbedingungen geboten werden, die zu ihren Bedürfnissen passen. Dazu gehören eine gute Führung, sinnvolle Tätigkeiten, angemessene Entlohnung sowie Arbeitsaufgaben, bei denen die eigenen Kompetenzen genutzt und erweitert werden können.

Es lässt sich festhalten, dass es zwar einzelne generationale Varianzen gibt, diese sind aber nur minimal. Unter anderem die Veränderungen des Zeitgeistes und die genuinen Effekte von Lebensabschnitten sind bei Vergleichen von Generationen stets mitzubedenken. Die GenZ befindet sich am Beginn ihres Berufslebens in einer Orientierungsphase, in der sie verschiedene Erfahrungen sammeln muss, um den passenden Arbeitgeber und Berufsweg zu finden[2]. Allein dadurch lassen sich Unterschiede zu den Mitgliedern älterer Generationen am Arbeitsmarkt erklären.

Dem Begriff der Generation fehlt es neben einer konzeptionellen Schärfe auch an einem empirischen Profil, das sich anhand konkreter Beobachtung bestätigen ließe: Zwar lassen sich zwischen Generationen einzelne Unterschiede auch in der Attraktivität der Arbeitgeberfaktoren und Arbeitswerte ausmachen, diese sind aber zu gering, um als Scheidelinie zwischen den Generationen dienen zu können. Die Arbeitswerte der Generationen liegen trotz einer gewissen Varianz nahe beieinander. Kurzum: Die GenZ tickt nicht anders.


[1] Die Anlage von Studien hat notwendigerweise Auswirkungen auf die eröffnete Perspektive: In einer Querschnittsstudie, in der alle Personen zu einem Zeitpunkt befragt werden, können zwar alle Generationen abgebildet werden, gleichzeitig kann die Generation nicht vom Lebensabschnitt getrennt werden. Zum Befragungszeitpunkt befinden sich alle Mitglieder einer Generation auch im selben Alter und damit in derselben Lebensphase. Eventuell identifizierte Unterschiede zwischen den Generationen können somit auch durch Alters- bzw. Lebensphaseneffekte zustande kommen.

[2] Es lassen sich die Phasen der Exploration, der Etablierung, der Erhaltung und des Rückzugs trennen, wobei jede eigenen Logiken und Präferenzen unterworfen ist.  (Vg. Sachse et al. 2025, S. 16)

Stiftungsprofessuren als Impulsgeber der Forschung am Beispiel von Roy Knechtel

Stiftungsprofessuren als Impulsgeber der Forschung am Beispiel von Roy Knechtel

Auch wenn Stiftungsprofessuren noch recht neuartige Strukturen sind, haben sie sich mittlerweile in der bundesdeutschen Wissenschaftslandschaft fest etabliert. Sie bieten einen genuinen Vorzug, der gerade aus Sicht von Forschung und Transfer ins Gewicht fällt: Stiftungsprofessuren nehmen innovative Potentiale technologischer Entwicklungen auf und begünstigen deren Übersetzung in universitäre Einrichtungen. Ihre Anzahl hat in der jüngsten Vergangenheit zugenommen, wodurch in Deutschland mittlerweile bis zu 2 % der Gesamtzahl Stiftungsprofessuren ausmachen. Bevor wir uns einem konkreten Beispiel einer solchen Stiftungsprofessur an der Hochschule Schmalkalden zuwenden, muss geklärt werden, was traditionelle von Stiftungsprofessuren unterscheidet.

Anders als bei den üblichen Professuren wird die Finanzierung nicht staatlicherseits aufgebracht, sondern vom jeweiligen Stifter, also Institutionen, Unternehmen oder auch Privatpersonen. Zudem ist der Zeitraum der eigentlichen Stiftungsprofessur begrenzt, zumeist auf fünf, teils auf zehn Jahre. In Absprache mit den Hochschulen wird die gestiftete dann üblicherweise in eine klassische Professur umgewandelt und so die Kontinuität der Forschung und der erarbeiteten Expertise gewährleistet. Ein zentraler Vorteil dieser Stiftungsprofessuren ist, dass über diese Methode innovative Forschungsfelder erschlossen werden können: Die Stifter legen im Austausch mit den entsprechenden Gremien der Hochschulen den thematischen Fokus der Professur fest, und stellen die Mittel für die Professur sowie weitere Sach- und Investitionsmittel (z.B. für  Laboreinrichtungen) bereit. Durch diese externen Initiativen können neuartige Themen und Bereiche Eingang finden, die bislang kein Teil des etablierten Kanons waren.

Der Reiz dieser Einrichtungen geht für Hochschulen neben dem Punkt der geminderten Kosten zum großen Teil von diesen Impulsen auf die Forschung aus, wie sich auch anhand der Stiftungsprofessur Roy Knechtels durch die Carl-Zeiss-Stiftung an der Hochschule Schmalkalden verdeutlichen lässt. Der Hochschule bot sich hier die Gelegenheit, in einem zukunftsträchtigen Forschungsfeld Expertise und Kompetenzen aufzubauen. Da der Förderzeitraum dieser Stiftungsprofessur kürzlich auslief, ist nun ein guter Augenblick für ein Resümee.

Möglichkeiten und Herausforderungen

Neuberufene Professoren und Professorinnen stehen für gewöhnlich einerseits vor der Aufgabe, die Ausrichtung ihres Lehrstuhls in Forschung und Lehre anhand ihrer Interessen und Vorstellungen vorzunehmen zu müssen. Neben Personal und Technik umfasst dies auch die Fixierung thematischer Schwerpunkte. Andererseits bestehen die Lehrstühle zumeist bereits, wodurch es einen gewissen Rahmen und einen Bestand an vorhandenem Personal sowie Forschungs- und Lehrmitteln gibt. Im Unterschied zu diesen Fortführungen von klassischen Professuren ist es eine Eigenart von Stiftungsprofessuren, eine Neugründung zu sein und nicht an einen bereits bestehenden Lehrstuhl anzuknüpfen, was Möglichkeiten bietet, aber auch Herausforderungen mit sich bringt.

An der Hochschule Schmalkalden wurde Roy Knechtel im April 2019 auf die von der Carl-Zeiss-Stiftung geförderte Forschungsprofessur „Autonome intelligente Sensorik“ berufen. Der Förderzeitraum der Professur war für einen Zeitraum von fünf Jahren angesetzt und dauerte dementsprechend bis zum März 2024. Die von der Carl-Zeiss-Stiftung im Rahmen eines ausgeschriebenen Programms geförderte Professur zielte auf einen Bereich, in dem sich Roy Knechtel in über zwanzig Jahren Expertise und Erfahrungen im Rahmen seiner Tätigkeit im Erfurter Unternehmen X-FAB aneignen konnte: Die Entwicklung von MEMS (Micro Electromechanical Systems) Sensortechnologie.

Neben kleineren Projekten zu Sensoranwendungen lag der ein besonderer Schwerpunkt der Forschung der vergangenen Jahre auf technologischen Teilschritten zur Realisierung von Sensoren und deren 3D-Integration mit Mikroelektronik zu komplexen elektronischen Systemen, insbesondere zu Sensoraufbauten. Es versteht sich von selbst, dass für diese Forschungsfragen spezifische Anlagen, Labore und Apparaturen notwendig sind. Im Besten Falle sind diese schon vorhanden, ansonsten muss der mehr oder weniger aufwendige Weg ihrer Anschaffung beschritten werden.

An der Hochschule Schmalkalden fand Roy Knechtel bei Antritt seiner Professur ein Reinraumlabor vor, das neben der Partikelfreiheit auch eine Kontrolle der Umgebungsbedingungen wie Temperatur und Luftfeuchte zuließ. Hiermit lag bereits eine günstige Ausgangssituation vor. Zudem wurde bis Ende letzten Jahres die Klimatechnik des Reinraumlabors modernisiert. Aber auch in Hinsicht der Anlagentechnik konnte Roy Knechtel auf ein bestehendes Fundament aufbauen: Nicht nur gab es einen Hochtemperaturofen, der bis zu 800°C für Anglasprozesse von Siebdruckmaterialien erzeugen kann, sondern auch einen Siedrucker und einen Siebreiniger. Zudem waren neben chemischen Boxen und einem Drahtbonder auch Mikroskoptechnik einschließlich eines Rasterelektronenmikroskops mit EDX-Technologie für Materialanalysen und einen löttechnischen Bestand mit einer Hotplate und einer halbautomatischen Lötstation bereits vorhanden.

Grundlegung der Forschung

Roy Knechtel musste folglich keineswegs bei null anfangen, sondern konnte sich auf Anlagen konzentrieren, die für das neue Forschungsgebiet zentral sind. Die Neuausrichtung auf moderne Integrationstechnologien der Mikroelektronik und Mikrosystemtechnik insbesondere hinsichtlich der Sensorintegration machte es notwendig, Prozessierungsanlagen – wie verschiedene Typen von 3D-Druckern – und spezielle Analysetechnik in Form von Mikroskopen anzuschaffen.

Die verschiedenen 3D-Drucker dienen als Grundlage der Forschung. Der Anycubic Photon Mono m5s pro erlaubt das 3D-Drucken von Kunststoffen mit fotolitografischen Mitteln, also Licht. Hierfür werden spezielle Polymere verwandt, die auf den UV-Anteil des Lichts reagieren. Bei der Fertigung von mechanischen Bauteilen lässt sich eine Auflösung von bis zu 18,5µm erreichen, was eine hohe Präzision darstellt. Der Bambulab X1E ist ein Filament 3D-Drucker mit verschiedenen Austrittsdüsen zum Drucken von feinen Strukturen. Durch seine zahlreichen Sensoren und Softwareapplikationen ist ein präziser und schneller Druck möglich. Ein anderer Vorteil bietet sich in der Verarbeitung von bis zu 5 Farben und Materialien in einen Druck.

Die wichtigste Anschaffung lässt sich mit dem Begriff 3D-Drucker nur ansatzweise beschreiben: Das KRONOS 15XBT[1] System ist eher ein 3D-Integrationssystem, das viele verschiedene Möglichkeiten der Verfahren und verwandten Komponenten erlaubt, um elektronische Bauteile dreidimensional zu fertigen. Das 5-Achsen-System ermöglicht zum Beispiel die Verwendung von 10 Drucktechnologien, und weiter bieten sich mit 8 unterstützten Modulen Erweiterungen der Bildgebungsverfahren, der Vor- sowie Nachbehandlung und der Ergebnisoptimierung. Das System gestattet die Verarbeitung verschiedenster Materialen mit stark unterschiedlichen Viskositäten und Eigenschaften auf topographisch komplexen Substraten. Der Anwendungsbereich wird in der Folge um ein Vielfaches breiter: Nicht nur können verschiedenartige Verfahren zum Drucken, Härten und Prüfen simultan verwendet und kombiniert werden, es kann zudem beinahe alles von elektrisch Leitenden Pasten, über isolierende Tinten bis zu zähflüssigem Glas gedruckt werden.

Diese Drucktechnologien durch eine klassische Fotolithografie ergänzt, die technologisch gesehen die Grundlage der modernen Halbleiterfertigung darstellt. Zwar bietet der neu angeschaffte maskenlose digitale Belichter MLA100 von Heidelberg Instruments eine geringere Arbeitsgeschwindigkeit, er benötigt aber keine teuren Masken und ermöglicht dennoch eine Auflösung bis zu einem Mikrometer (ein Tausendstel Mikrometer). In Kombination mit einer Tischsputtereranlage lassen sich damit metallische Mikrostrukturen (auch als Kombination von zwei Metallen) mit elektronischen und magnetischen Funktionen oder als Fügesysteme herstellen. Die Kombination mit den Druckverfahren ist Gegenstand aktueller Forschungen.

Um die Fortführung eines wichtigen Forschungsfelds von Roy Knechtel aus seiner Zeit in der Industrie, das WaferBonden, also das definierte Stapeln und Fügen von Halbleiterwafern zur Realisierung dreidimensionaler Substrate und Elektronik- sowie Sensoriklösungen, zu ermöglichen, konnte durch eine Sonderförderung der Carl-Zeiss-Stiftung eine WaferBonderanlage beschafft werden. Diese wird inzwischen sehr intensiv genutzt. Da auch für das WaferBonden die Prozesskontrolle, d. h. die Analyse der Ergebnisse sehr wichtig ist, konnte ein Scanning Acoustic Microscope (SAM) als Leihgabe von der Firma PVA Tepla genutzt werden, das die Forschungen im Bereich des WaferBondens auf ein nochmals höheres Niveau gehoben hat.

Als ein weiterer Bereich der Anschaffungen kommen die Mikrokopie hinzu, mit deren Hilfe unter anderem die Prozessergebnisse vermessen und evaluiert werden können. Ein Lichtmikroskop der Firma Zeiss (LSM 700) arbeitet mit Hilfe eines Lasers, um kleinste Merkmale wiedergeben zu können. Der Laserstrahl fährt dabei über das Objekt und scannt jeden Punkt einzeln über das reflektierte Licht. Aus diesen einzelnen Informationen wird dann ein Bild zusammengefügt. Zudem kann das Mikroskop verschiedene Schichten erfassen, wodurch die Erstellung eines dreidimensionalen Modells möglich wird. Zuletzt bietet das Mikroskop auch Instrumente der Korrektur der Bildgebung an.

Das andere Mikroskop stammt ebenfalls von Zeiss: Es ist ein Rasterelektronenmikroskop vom Typ EVO MA15. Die Objekte, die dieses Mikroskop erfassen kann, sind nochmals kleiner. Um Dinge der Größenordnung einer Haarsträhne abbilden zu können, greift das Gerät nicht auf Licht zurück, sondern auf Elektronen. Ein Strahl von Teilchen wird auf die Materialien gerichtet, und die Elektronen schlagen andere Elektronen aus oder prallen an ihnen ab. Aus diesen Informationen wird dann ein Bild gewonnen. Diese Detailschärfe des Mikroskops ist zweckmäßig, wenn es zum Beispiel um Oberflächen von Micro-Chips geht. Auch die winzigen Muster (d.h. Mikro- und Nanostrukturen), die bei der Herstellung dieser Chips verwendet werden, können so erfasst werden. Zudem verfügt das Mikroskop über die Option des energiedispersiven Röntgens (EDX), was zum Beispiel für die Analyse der Vermischung zweier Metalle zu einer Legierung nützlich ist. Mit dieser Technologie ist es möglich, festzustellen, um welches neue Material es sich handelt.

Das Team und neue Herausforderungen

Mit der erfolgreichen Anschaffung dieser Geräte kann nun die nächste Phase eingeläutet werden, eben die der intensiven Forschung an und mit den Geräten. Micalea Wenig ist eine technologisch versierte wissenschaftliche Mitarbeiterin. Sie sorgt für den reibungslosen Betrieb des Reinraums und der Anlagen, ist inzwischen Expertin am SAM und führt eigene Forschungen durch. Mit Lukas Hauck konnte Roy Knechtel einen Doktoranden gewinnen, der sich mit dem 15XBT auseinandersetzt und der untersucht, ob sich Grundregeln in der Nutzung des Systems mit verschiedenen Verfahren und Materialien aufstellen lassen. Zudem konnte mit Dr. Martin Seyring ein wissenschaftlicher Mitarbeiter ins Team geholt werden, der einen für die Mikroelektronik durchaus relevanten Bereich abdeckt: Die Materialwissenschaften. Um immer kleinere und komplexere elektronische Bauteile und Schaltungen fertigen zu können, sind die Materialien und die Prozesse in diesen wichtig. Kurzum hat sich nun ein Team zusammengefunden, das die technischen Möglichkeiten für die weitere Forschung bestens nutzen kann.

Dies zeigt sich anhand mehrerer Forschungsprojekte mit der Thüringer Industrie über die letzten Jahre hinweg. Ein aktuell laufendes, von der Carl-Zeiss-Stiftung gefördertes Projekt hat zu einer weiteren personellen und fachlichen Verstärkung dieser Forschergruppe geführt (über das wir demnächst berichten werden) sowie zu mehr als zehn wissenschaftlichen Veröffentlichungen (reviewte Artikel in Fachjournalen und Konferenzbeiträgen).

Abschließend kann festgehalten werden, dass die Stiftungsprofessur wie angedacht umgesetzt wurde: Es konnten die infrastrukturellen Grundlagen für State-of-the-Art-Forschungen geschaffen und ausgebaut werden, eine leistungsfähige Forschungsgruppe etabliert werden, die weiter wächst und an relevanten Projekten arbeitet und viele Ideen für neue zukünftige Forschungen hat. Hierfür gilt ein besonderer Dank der beteiligten Wissenschaftler sowie der Hochschule Schmalkalden an die Carl-Zeiss-Stiftung für die sehr umfangreiche finanzielle Förderung, aber auch für Weiterbildungsveranstaltungen wie das Vernetzungstreffen der von ihr berufenen Stiftungsprofessorinnen und -professoren, die diesen nachhaltigen Forschungsaufbau ermöglicht haben.


[1] Drucksystem 3D- Elektronikintegration Kofinanziert von der Europäischen Union im Rahmen des Förderprogramms Richtlinie zur Förderung der Forschung FTI Thüringen Forschung, Vorhabens-Nr. 2022 FGI 0019

Freie Fahrt für heiße Schmelze. Welche Vorteile können additiv hergestellte Werkzeuge bei der Extrusion bieten?

Freie Fahrt für heiße Schmelze. Welche Vorteile können additiv hergestellte Werkzeuge bei der Extrusion bieten?

Forschung an Hochschulen angewandter Wissenschaften ist praxisnah und transferorientiert: Die Potentiale der wechselseitigen Kooperation von Wissenschaft und Wirtschaft können an Forschungsprojekten wie ExAM deutlich gemacht werden, das Stefan Roth, Professor für Produktentwicklung und Konstruktion an der HSM und Teil des Teams der Angewandten Kunststofftechnik (AKT), gerade umsetzt.

Um was geht es? Zunächst ist es sinnvoll, die Extrusion als ein spezielles Verfahren in der Kunststofftechnik vorzustellen: Grundsätzlich ist die Extrusion eine Möglichkeit der Fertigung von „endlosen“ Kunststoffteilen wie Rohre und Schläuche, wobei die eigentliche Methode auch in anderen Zusammenhängen angewandt wird, zum Beispiel bei der Herstellung von Nudeln. Kurz lässt sich eine Extrusionsanlage als eine Apparatur beschreiben, die Rohmaterialien wie Kunststoffe, Metalle oder Lebensmittel verflüssigt und durch eine Düse – auch Matrize genannt – presst, wobei diese Öffnung die Form des Produkts ergibt. Im Unterschied zu anderen Verfahren ist der Austritt kontinuierlich, was wiederum spezifische Möglichkeiten, aber auch Herausforderungen mit sich bringt. Wichtig ist dabei, dass die Komplexität über die Düse hinausgeht und neben der Schmelze unter anderem auch Prozessschritte wie die Abkühlung umfasst. Bevor wir uns dem Forschungsprojekt ExAM zuwenden, worin es um die Vorteile der additiven Fertigung von Werkzeugen wie der Düse geht, verbleiben wir zunächst beim Extrusionsprozess.

Die Extrusion

Wie bereits erwähnt ist die Extrusion keine einzelne Maschine, sondern lässt sich eher als eine Anlage mit verschiedenen Teilen und Stationen verstehen. Gehen wir kurz den Weg des Produktes: Am Anfang steht das Rohmaterial, also das Granulat, das über einen Befülltrichter in den Extruder eingeführt wird. In diesem befinden sich eine Schnecke, die sich dreht und das so Material zum Ausgang transportiert und es dabei vermengt, verdichtet und erwärmt. Durch die in der Schneckenbewegung entstehende Reibung des Materials wird Wärme produziert, durch welche das Granulat aufgeschmolzen wird. Dieser Schmelzprozess wird durch außen auf der Anlage angebrachte Heizbänder gefördert.

So entsteht eine Schmelze, die im weiteren Gang durch die Schnecke verknetet und homogenisiert wird. Die Schmelze wird dann durch die Düse gepresst und so in die gewünschte Form gebracht. So entsteht ein im Grunde endloses Formteil, wie wir es zum Beispiel als Kabelschacht, Fensterprofil oder Folie kennen.  Im Anschluss wird das Produkt abgekühlt und simultan kalibriert, wobei sich hier die Verfahren je nach Eigencharakteristik des Produkts unterscheiden. Die Aufgabe ist es, Verformungen zu vermeiden, die durch die thermoplastischen Eigenschaften des Materials beim Abkühlen entstehen. Am Ende des Prozesses wird das endlose Extrudat abgelängt oder aufgewickelt.

Ansätze der Optimierung

Wichtig ist zu verstehen, dass es nicht um ein Material, ein Verfahren und eine Maschine geht, durch die letztendlich ein Produkt entsteht, sondern verschiedene Parameter die Möglichkeiten und Grenzen des Prozesses und des Produkts sowie deren Qualität entscheidend beeinflussen. Zum Beispiel haben sowohl die Schneckentypen als auch ihre Verfahrensweisen (z.B. ihre Rotation) Auswirkungen auf die Schmelze: Je nach Material eignen sich andere Schneckentypen. Variablen wie Menge, Geschwindigkeit und Wärme kommen hinzu, aber auch die Rolle von Additiven, also Zusätzen neben dem Granulat, denen wiederum eigene Eigenschaften zukommen. All diese Komponenten müssen je nach Material und Produkt abgestimmt werden, um am Ende des Prozesses eine möglichst passgenaue und effiziente Produktion zu realisieren. Gerade für Produkte, wie sie typischerweise mittels Extrusion hergestellt werden, sind die Aspekte der Quantität zentral. Durch die hohen Stückzahlen haben hier Verbesserungen der Produktion enorme Effekte.

In solchen grundlegenden und generalisierbaren Bereichen bietet sich die industrielle Gemeinschaftsforschung als Träger von Forschungsprojekten an. Von den IGF-Projekten und dessen Ergebnissen können alle Beteiligten profitieren, ohne hier von dem Konkurrenzdruck ausgebremst zu werden. Anders formuliert geht es hier um eine ambitionierte, vorwettbewerbliche Kooperation, die Forschung zum gemeinsamen Nutzen fördert. Getragen wird diese Gemeinschaft vom Bundesministerium für Wirtschaft und Klimaschutz, sie verbindet aktuell 101 Forschungsvereinigungen und 1200 Forschungseinrichtungen. Einer dieser Forschungsbereiche, repräsentiert durch die Forschungsgemeinschaft Deutscher Werkzeug- und Formenbauer FDWF e.V., betrifft die Frage, ob und wie sich die Vorteile additiv gefertigter Werkzeuge im Extrusionsverfahren bemessen lassen. Und damit sind wir an der Hochschule Schmalkalden.

Das Forschungsprojekt

Das Forschungsprojekt ExAM rückt den Fokus weg von klassisch hergestellten Werkzeugen, die subtraktiv gefertigt werden, hin zum Verfahren der additiven Fertigung. Dieses ist in anderen Bereichen – sowohl im Allgemeinen als auch auf dem Gebiet der Kunststofffertigung – schon etabliert, und nun stellt sich die Frage, ob sich diese Vorteile auf das Verfahren der Extrusion übertragen lassen. Ein auf der Hand liegender Nutzen ist, dass die additiven Verfahren mehr Freiheitsgrade bei Fertigung der Werkzeuge bieten, und somit neue bzw. innovative Ansätze der Konstruktion ermöglichen.

Klassisch werden die Werkzeuge in Zerspanungsverfahren wie dem Fräsen, oder Drehen gefertigt, poliert und die Komponenten anschließend zusammengebaut. Eine notwendige Folge dieses Vorgehens sind Restriktionen wie Übergänge und Toträume, die negative Auswirkungen auf den Fluss der Schmelze haben. Der Schicht-für-Schicht-Aufbau der additiven Fertigung kann eben diese Restriktionen vermeiden. Die Optimierung der Werkzeuge führt dann zu einer Verbesserung der Produkte bzw. des Fertigungsprozesses: Bessere Bauteileigenschaften und maßhaltigere Teile sind ebenso Ziele wie die robustere und einfachere Ausgestaltung der Prozesse. So lassen sich unter anderem die optischen Eigenschaften optimieren auch der Ausschuss von Teilen minimieren. Kurzum haben Ingenieur:innen bei der Konstruktion mehr Möglichkeiten: Offen ist hingegen die Frage, ob sich der Mehraufwand der additiven Fertigung lohnt.

Bleiben wir bei den Möglichkeiten: Der zentrale Punkt ist die Führung der Schmelze im Werkzeug, die möglichst homogen zum Austrittspunkt geleitet und in Form gebracht werden soll. Stockungen, Stausituationen und Toträume müssen auch aus Sicht der Materialqualität vermieden werden, führen diese doch unter anderem zu Schlieren oder farblichen Mängeln. Das sich in Toträumen ansammelnde Material degradiert mit der Zeit, stört den Fluss und hat negative Effekte auf die mechanischen und optischen Eigenschaften des Materials. Wichtig ist ferner die Kontrolle der Geschwindigkeit der Schmelze, was wiederum in Abhängigkeit zum Druck und der Temperatur steht. Die additive Fertigung der Werkzeuge erlaubt die Umsetzung einer gezielten Temperierung, und somit die bestmögliche Auslegung der Schmelzekanäle und -führung. Zugleich lassen sich innovative Geometrien in Form von Kühlkanälen in das Werkzeug einbringen.

Ziel der Konstruktion ist die Optimierung des Schmelzraums, die eine möglichst schnelle Durchleitung bei gleichbleibender Qualität erlaubt. Die Effizienzsteigerung kann bei der Massenproduktion entscheidende Vorteile bieten. Dieser ökonomische Nutzen in der Produktion, den die additiven Bauteile liefern, soll im Forschungsprojekt ExAM geklärt werden. Am Ende des Projektes steht neben der Bewertung der Vorteile die Entwicklung eines Leitfadens, der die Konstruktion und die Auslegung additiv gefertigter Bauteile aufbereitet und allen Kooperationspartnern zur Verfügung steht. Anhand dieses Leitfadens können die Unternehmen dann gemäß ihrer eigenen Ansprüche und Ziele additive Werkzeuge entwickeln. Durch diese grundlegende Zugänglichkeit kann die Technologie der additiven Fertigung von Werkzeugen breit in Anwendung gebracht und die innovativen Impulse für die Steigerung der Produktqualitätsmerkmale genutzt werden.

Innovativer Transfer

Die Nutzung von additiv gefertigten und optimierten Werkzeugen ist im Bereich des Spritzgusses keineswegs Neuland, aber für das Verfahren der Extrusion schon. Somit gilt es weniger, neue Technologien zu entwickeln als darum, schon vorhandene in ein neues Gebiet zu übertragen. So lassen sich die bereits vorhandenen Erfahrungen aus dem Spritzguss in den Aspekten wie der Temperierung und der Flussführung der Schmelze nutzen. Infolge der grundlegenden Anwendungsorientierung bietet sich dieses Thema als kooperatives Projekt der industriellen Gemeinschaftsforschung (IGF) an, wobei von den erforschten Technologien alle beteiligten Unternehmen profitieren können sollen. Als ein hier angesiedeltes Projekt steht die Anwendungsnähe im Fokus, also die anvisierten Wettbewerbsvorteile der kooperierenden Institutionen und Unternehmen.

Das zweijährige Projekt ExAM startete im letzten Herbst und verbindet drei Kooperationspartner mit drei unterschiedlichen Schwerpunkten: Im Fokus der Hochschule Schmalkalden steht die Extrusion und das Feld der Health Tech, die Kunststofftechnik der Universität Paderborn konzentriert sich auf das technische Profil; und das Fraunhofer Institut für additive Produktionstechnologien mit Sitz in Hamburg-Bergedorf ist im Projekt auf das Thema der Simulation und additiven Fertigung der Werkzeuge im laserbasierten Pulverbettverfahren spezialisiert.

Die durch das additive Verfahren ermöglichte Formvielfalt in der Konstruktion ist dabei für die HSM eine Herausforderung, ergeben sich doch viele neue Optionen. Zugleich setzt hier aber auch die innovative Optimierung der Werkzeuge an. Neben der eigentlichen Form das Bauteils werden auch verschiedene Werkzeugstähle für das additive Laserschmelzverfahren untersucht, wobei es immer um bereits kommerziell verfügbare Typen geht. Wichtig ist die Unkompliziertheit der anschließenden Nutzung. Nicht zuletzt muss jede einzelne Optimierung den gesamten Prozess der Extrusionsanlage mitbedenken und eventuelle Wechselwirkungen in Betracht ziehen.

Team bei der Vorstellung des 3D-Druckers

Jüngst konnte die Fakultät Maschinenbau und das AKT eine Neuanschaffung vermelden, die auch die Forschung am ExAM-Projekt unterstützen kann: Der innovative 3D-Drucker des Herstellers NewAIM3D wurde erfolgreich in Betrieb genommen und steht nun für Forschung und Lehre bereit. Mit diesem Drucker nach dem Pelletdirektextruderprinzip ist es möglich, Kunststoffe, Compounds, in handelsüblicher Granulatform direkt und effizient zu verarbeiten. So wird beispielsweise der Druck mit Granulaten, bestehend aus Metallpulver und Binder, sogenannten Feedstocks, möglich. Die daraus entstehenden Bauteile werden anschließend gesintert und erlangen so die Dichte und Eigenschaften von konventionellen Stählen. Das Verfahren stellt so eine Alternative zum etablierten jedoch aufwändigen additiven Laserschmelzverfahren von Metallpulvern dar. Die Anschaffung des Druckers wurde im Rahmen der dritten Förderperiode des Thüringer Zentrums für Maschinenbau ermöglicht und durch das Thüringer Ministerium für Wirtschaft, Landwirtschaft und ländlichen Raum gefördert. Zudem unterstützt der Freistaat Thüringen das Vorhaben, das durch Mittel der Europäischen Union im Rahmen des Europäischen Fonds für regionale Entwicklung (EFRE) kofinanziert wird.

In Kürze wird an dieser Stelle noch ein Video eingestellt, dass die Allianz Thüringer Ingenieurwissenschaften zu diesem Projekt produziert hat.

Abbrüche verhindern, Leistung verbessern: Wie eine Lern-App Studierende in der Anfangsphase unterstützt

Abbrüche verhindern, Leistung verbessern: Wie eine Lern-App Studierende in der Anfangsphase unterstützt

Die Zahl an Studienabbrüchen ist seit Langem hoch, gerade in den ersten Jahren geben viele Studierende ihr Studium vorzeitig auf. Die Gründe für diese Entscheidungen sind vielfältig und lassen sich nicht verallgemeinern. Auf der einen Seite beruhen sie auf gewonnenen Erfahrungen mit den jeweiligen Fachbereichen: Die individuelle Einsicht darin, dass Fachgebiete oder Methoden den eigenen Präferenzen nicht entgegenkommen, führt dazu, das Fach zu wechseln oder gänzlich andere Wege zu gehen. Andere Gründe für den Abbruch des Studiums sind dagegen vermeidbar: So stellt der Wechsel von der schulischen hin zur universitären, höheren Bildung viele junge Menschen vor Herausforderungen. Neben dem Umfeld ändern sich auch die Ansprüche an die Organisationsfähigkeit, das selbstständige Lernverhalten und nicht zuletzt die Komplexität der vermittelten Inhalte. Hier könnte eine mobile Lern-App Abhilfe schaffen.

Institutionen wie Hochschulen ist daran gelegen, die Zahl vermeidbarer Studienabbrüche zu minimieren. Eine mögliche Antwort holt die Studierenden gezielt in ihrem Alltag ab: Die Nutzung von mobilen Endgeräten ist aus dem Leben junger Erwachsener nicht mehr wegzudenken. Smartphones dienen nicht mehr nur allein der Kommunikation, sondern neben der Organisation und Navigation nun vermehrt auch dem Banking und vielen anderen Dingen. Kurzum: Die Geräte sind Teil des Alltags und der Umgang mit ihnen ist ebenso häufig wie intensiv. Anhand dieses Befundes lassen sich durchaus Potentiale absehen, die es nahelegen, diese Geräte zu nutzen, um Studierende zu unterstützen. Es stellt sich mithin die Frage, ob und wie sich eine mobile Lernapplikation dazu eignen könnte, die Anfangsphase des Studiums und seine Herausforderungen für die Betroffenen zu erleichtern und somit den Abbruch eines Studiums zu verhindern. 

Von der Konzeption eines Anforderungsprofils…

Professor Florian Johannsen begann bereits in seiner Zeit an der Universität Bremen mit einem Team eine entsprechende App für den Bereich Wirtschaftswissenschaften zu entwickeln. Auch nach dem Antritt seiner Professur für Betriebliche Anwendungssysteme an der Fakultät für Informatik der HSM ist er weiter Teil dieses Projektes an der Bremer Universität. Auf Seiten des Lehrstuhls für Allgemeine Betriebswirtschaftslehre, Unternehmensrechnung und Controlling (Universität Bremen) besteht das Projektteam neben Professor Jochen Zimmermann, Dr. Martin Kipp, Dr. Johannes Voshaar und M.Sc. Janik Ole Wecks auch aus den Kollegen Prof. Thomas Loy (mittlerweile Universität der Bundeswehr München) sowie dem studentischen Mitarbeiter Patrick Heusmann. In mittlerweile fünf Publikationen präsentieren die Forschenden unterschiedliche Etappen der Entwicklung und folglich auch verschiedene Stufen der Implementierung der App „WiWiNow“.

Anwendungsbeispiel

Am Anfang stand die Frage, worin die Gründe für Studienabbrüche liegen und was die spezifischen Bedürfnisse und Herausforderungen von Studierenden am Beginn ihrer akademischen Laufbahn sind: Was sind die individuellen Motive und Situationen, die den Ausschlag für den Abbruch geben? Und wie kann ein App die Studierenden unterstützen, welche Funktionen und Features muss sie bieten? Wichtig ist hierbei die Einbeziehung der Betroffenen, da es genau um ihre Erfahrungen geht und sie am besten Auskunft darüber geben können, welche Angebote nicht nur nützlich wären, sondern auch tatsächlich genutzt werden. Dieser Punkt ist so trivial wie relevant: Beim Design einer App ist nicht nur die Funktionalität und die Usability zu beachten, sondern auch die Wahrscheinlichkeit einer regelmäßigen Nutzung. Es geht darum, die App als aktiven Teil in den Alltag zu integrieren, und so die nützlichen Effekte zu potenzieren. Aber der Reihe nach…

Am Beginn stand die empirische Evidenz, dass nicht nur der Bildungshintergrund einen Einfluss auf Erfolg und Misserfolg der höheren Bildungswege hat, sondern auch schlechte Erfahrungen im Studium selbst sowie psychologische Faktoren wie ineffiziente Lernstrategien oder der Mangel an Selbstorganisation (Vgl. Johannsen et al. 21, S. 1). Diese Kompetenzen werden in der Hochschulbildung vorausgesetzt, was einen großen Unterschied zum schulischen Kontext darstellt. Zugleich sind sie für so manchen Studierenden das umgangssprachliche Neuland. Die Abbruchquoten sind in der ersten Phase vergleichsweise hoch, zugleich haben Studien mit Blick auf das deutsche Bildungssystem einen Mangel an sozialer und akademischer Integration festgestellt, der zu den vermehrten Abbrüchen führt (Vgl. Johannsen et al. 23, S. 636f.). Diesen Herausforderungen der Transition-in-Phase[1] könnte eine App Abhilfe verschaffen, die nicht nur dazu dient, Seminar- und Vorlesungstermine zu koordinieren, sondern auch das Lernverhalten trackt und transparent macht sowie Wissen durch Übungen vertieft und über spielerische Elemente abruft. 

… zur Entwicklung einer App…

Die erste Phase des Projektes befasste sich mit der Konzeption eines Prototyps anhand spezifischer Design-Vorgaben und mit der Taxierung eines technischen Rahmens: Die Fixierung von drei Meta-Anforderungen wurde in acht Design-Anforderungen überführt, welche die App erfüllen muss (Vgl. Johannsen et al. 23, Fig. 2, S. 639). Es ging also darum zu klären, was die App liefern soll, und was die beste technische Lösung wäre. Nach einer ersten Orientierung über das Design der Anwendung und einer Übersicht über die am Markt befindlichen Alternativangebote wurde eine Gruppe Studierender befragt, die sich im zweiten oder dritten Studienjahr befanden: Die Idee war, von deren Erfahrungen der Herausforderungen zu lernen, etwaige Lösungswege zu eruieren und schließlich Anforderungen an die App einzuholen. Eine zweite Umfrage zielte auf eine Gruppe von Lehrenden, die in engem Kontakt zu den Studierenden stehen und mit ihren Problemen vertraut sind. Zugleich verfügen sie über einen reichhaltigen Erfahrungsschatz des akademischen Alltags. Anhand dieser beiden Usergruppen wurden User Journeys beschrieben, also wie mögliche Anwender:innen mit der App umgehen und wie sie durch sie geleitet werden. Anhand des Prototyps konnten dann verschiedene Testphasen vollzogen werden, und sowohl das Front- als auch das Backend verbessert werden. 

Nun war der Zeitpunkt da, die App unter realen Bedingungen zu testen. In einem verpflichtenden Einführungskurs zum Rechnungswesen im Wintersemester 2020/21 wurde die App den Studierenden zur Verfügung gestellt. Um Verzerrungen zu vermeiden, gab es keine Gratifikationen für die Teilnahme an der Studie. Wichtig zu erwähnen ist noch der Umstand der Pandemie und die Folge, dass der Lehrbetrieb ins Digitale verschoben wurde – was natürlich die Testbedingungen veränderte. Von den Teilnehmenden wurden sozio-demografische und strukturelle Daten abgefragt, die in die spätere Auswertung einfließen sollten. Hinzu kamen die Daten der App-Nutzung (u.a. Dauer der Nutzung und Quiz-Performanz), die Daten der Kursteilnahme (neben dem Kurs auch das begleitende Tutorium) und der akademischen Performanz (die Prüfungsleistung). Selbstredend wurden die Daten anonymisiert und dem Datenschutz genüge getan. Am Ende konnten die Daten von 575 Teilnehmenden in die Studie aufgenommen werden (Vgl. Voshaar et al. 22, S. 7).

Im Ergebnis ließ sich festhalten, dass sich ein intensiverer Gebrauch der App signifikant positiv auf das Prüfungsergebnis auswirkt. Gerade weil die höhere Nutzung der App auch mit Faktoren der Besuche der Vorkurse und der Tutorien positiv korrelierte – und folglich unklar war, was der entscheidende Faktor der Leistungssteigerung war –, wurden weitere Untersuchungen nötig. Mit anderen Worten: Es blieb offen, ob die Nutzung der App selbst positive Effekte hatte oder ob leistungsstärkere bzw. motiviertere Studierende die App eher von sich aus nutzten, was den Einfluss der App verringern würde (Vgl. Voshaar et al. 22, S. 14). Nach der Korrektur mit Hilfe einer Kontrollvariable, die auf die Einflussfaktoren der Selbst-Selektion abgestimmt war, haben sich die ersten Ergebnisse aber als robust erwiesen. Nach diesen durchaus positiven Befunden konnten die Forschungen um die App weitergeführt werden.

… über die Bestimmung von Qualitätsdimensionen der Nutzung …

Ein weiterer Ansatz, der zu einer Veröffentlichung geführt hat, befasst sich mit den verschiedenen Qualitätsdimensionen der Akzeptanz, die eine Anwendung aufweisen kann und die mit ihrer Nutzung einhergehen. Hierbei wurden vier Qualitätsdimensionen ausgemacht, die von der App bedient werden sollten und die wiederum selbst in Unterkategorien aufgegliedert werden können: Geht es in der Systemqualität um die Art und Weise, wie die Informationen durch eine App aufbereitet werden, zielt die Servicequalität auf die angebotene Unterstützung ab. Die Informationsqualität wiederum umfasst die Evaluation der ausgegebenen Inhalte, wogegen die Qualitätsdimension des wahrgenommenen Vergnügens (perceived enjoyment) bei der Nutzung ebenso selbsterklärend wie eine für die Wiedernutzung relevante Kategorie ist (Vgl. Johannsen et al. 23, S. 641 – 644). Mit der Intension der Wiedernutzung und der wahrgenommenen Nutzer:innenzufriedenheit (perceived user satisfaction) schließen sich dann zwei Aspekte aus der User-Perspektive an, die wiederum mit unterschiedlichen Qualitätsdimensionen gekoppelt werden können und zugleich beide auf die Lerneffektivität als letzten Aspekt Einfluss haben.

Ein Ziel im Design der App war es, die Funktionalität und den Komfort kommerzieller Apps in der Strukturierung des Alltags mit universitätsbezogenen Inhalten, organisatorischen Funktionalitäten und spielerischen Elementen zu kombinieren (Vgl. Johannsen et al. 23, S. 638f.). Mit Hilfe der unterschiedlichen Qualitätsdimensionen lassen sich Stärken und Schwächen in der Nutzer:innenfreundlichkeit eruieren, was wiederum die Implementierbarkeit in den Alltag zumindest indirekt erhellt. 

Im Ergebnis wurde eine Umfrage zu den Erfahrungen der Nutzung ausgewertet, an der sich zum Semesterende 131 Studierende beteiligten, wobei das eigentliche Sample aus unterschiedlichen Gründen (z. B. unvollständige Datensätze) 113 Studierende umfasste. In diese Auswertung flossen die vermerkten Qualitätsdimensionen ein, die in unterschiedlichen Items abgefragt wurden. Die System- und die Informationsqualität sowie die Qualitätsdimension des wahrgenommenen Vergnügens fördern die Nutzer:innenzufriedenheit, wobei die letzte Qualitätsdimension auch die Intension zur Wiedernutzung verstärkt. Die Lerneffektivität wird wiederum durch die Nutzer:innenzufriedenheit und die Intension positiv beeinflusst. Anhand dieser Daten konnte das Design der App und seine Erfüllung der Anforderungen überprüft und justiert werden (Vgl. Johannsen et al. 23, S. 651ff.). Ferner konnten vier spezifische Designprinzipien formuliert werden, die eine App bezogen auf die Transition-in-Phase beachten sollte: Neben einer Teilnahme-Management-Funktion bedarf es einer Kontrollfunktion des selbstständigen Lernens. Zudem muss eine plattformübergreifende Zugänglichkeit gegeben sein und die Inhalte einfach zu organisieren sein (Vgl. Johannsen et al. 23, S. 655f.).

… über die Verbesserung des Lernverhaltens …

In einer weiteren Studie, die auf der 44. Internationalen Konferenz zu Informationssystemen (International Conference on Information Systems – ICIS) in Hyderabad vorgestellt wurde, wird der Versuch unternommen, die App an etablierten Ansätzen der Lerneffektivität zu messen. Zwar wurde eine Verbesserung der Noten in den Abschlussprüfungen bereits nachgewiesen, dieser Aspekt ist aber nur ein Teilbeitrag zum Ziel, die Abbruchsquoten des Studiums zu senken. Das Konzept der fünf Erfolgsfaktoren studentischen Erfolgs hat Lizzio (2011) bezogen auf die Transition-in-Phase entwickelt: Die Erfolgsfaktoren sind die Verbundenheit (connectedness) z.B. mit dem akademischen Leben, die Fähigkeit (capability) der Selbstorganisation u.a., die Sinnhaftigkeit (purpose) z.B. akademischer Praxen, der Einfallsreichtum (resourcefulness) in der Koordinierung verschiedener Anforderungen und die Kultur (culture) im Sinne einer Wertschätzung der höheren Bildung. Der zweite Ansatz differenziert unterschiedliche Lernmodelle mit je eigenen Charakteristika: Neben dem oberflächlichen Lernen kann das strategische und zuletzt das tiefe Lernen angeführt werden (Vgl. Voshaar et al. 23, S. 3f.). Bleibt das erste Lernverhalten unfokussiert und ephemer, unterwirft sich das zweite Modell der Maxime der Effizienz und spricht dem Gelernten selbst keinen Eigenwert zu. Das tiefe Lernen wiederum lässt sich am ehesten als eigenständige Durchdringung der Wissensbestände erklären. Ziel war es zu erfahren, ob die App bzw. bestimmte Elemente helfen, die Herausforderungen der Transition-in-Phase zu meistern.

Die Auswertung der Studie ergab, dass die Nutzung der App die Sinne der Fähigkeit und des Einfallsreichtums positiv beeinflussen kann. Zudem verstärkt es das strategische und mindert das oberflächliche Lernverhalten. Die App hilft demnach bei der studentischen Selbstorganisation, fördert das eigenverantwortliche Lernen und die Einsicht in institutionelle Anforderungen in der höheren Bildung. Diese Potentiale sollten sich nutzen lassen, um die Quoten der Studienabbrüche zu verringern, werden Studierende doch über Angebote der App bei den ausgemachten Herausforderungen in der Anfangsphase des Studiums unterstützt.

In Kombination mit analogen Unterstützungsangeboten vor Ort haben die verschiedenen Komponenten der App unterschiedliche Potentiale der Unterstützung, die von der Selbstorganisation über die Prüfungsvorbereitung bishin zur Ausbildung einer studentischen Identität reichen. Gerade weil Defizite an effizienten Lernstrategien und dem Zeitmanagement enorme Potentiale an Frustration bergen, kann hier die App produktive Akzente setzen. Nicht zuletzt dienen die spielerischen Elemente der App der Motivation zur Wiedernutzung. Somit kann die App nicht nur die abgerufene Prüfungsleistung verbessern, sondern auch andere Impulse der Unterstützung setzen, die neben dem Lernverhalten auch die Selbstorganisation betreffen.

… bis zur Differenzierung verschiedener App-Features

In der jüngsten Studie befasst sich das Bremer Team zusammen mit Florian Johannsen mit der Frage, ob sich die einzelnen Komponenten der App anhand ihrer Effektivität differenzieren lassen. Diese Studie wurde auf der 45. Internationalen Konferenz zu Informationssystemen (International Conference on Information Systems – ICIS) in Bangkok vorgestellt. Zunächst konnte bestätigt werden, dass App-Nutzende ein signifikant besseres Ergebnis in den Prüfungen haben. Eine Unterteilung in verschiedene Nutzungstypen (Übungen, Quizze und Selbstorganisation) ergab keine nennenswerten Unterschiede hinsichtlich einer Verbesserung der Prüfungsleistung.

Prof. Florian Johannsen und Dr. Johannes Voshaar auf der Konferenz (Bildquelle: privat)

Die anschließende Forschungsfrage war, ob die Komponenten der App die Anforderungen und die Prinzipien des Designs unterschiedlich gut unterstützen. Festhalten lässt sich zunächst, dass alle drei App-Features die Leistung positiv unterstützen, mit einer Ausnahme: Die Beantwortung komplexer Fragestellungen wurden durch das Quiz-Feature nicht signifikant positiv gefördert. Das ist auch durchaus plausibel, zielen die Quizze doch auf die Abrufung von Wissensbeständen, und nicht auf deren Anwendung in diffizilen Fällen ab.

Relativ lässt sich sagen, dass die Übungsfunktion den stärksten Unterstützungseffekt hat, der zugleich über die verschieden Fragetypen stabil bleibt. Bei den einfachen Fragekomplexen, die Standardwissen abriefen, waren auch die Quizze für die Studierenden hilfreich. Das Selbstorganisationsfeature trägt zwar ebenfalls zur Verbesserung der Prüfungsleistung bei, aber in geringerem Ausmaß. Die Studierenden in der konkreten Studie profitierten also am meisten von der Übungsfunktion, wobei die Quizzes ergänzend für den Aufbau von Wissensbeständen nützlich waren. Die Selbstorganisationsfunktionen haben zwar einen relativ geringen Mehrwert für die Prüfungsleistung, ihre positiven Effekte könnten aber auf andere Weise entstehen und eher die grundlegende Identitätsbildung der Studierenden betreffen. Durch den Abgleich mit den beiden Designaspekten lassen sich Empfehlungen für App-Entwickler:innen, Studierende und Lehrende formulieren (Vgl. Voshaar et al. 24, S. 13f.).

Viele Fragen sind noch offen, so wird auch die Erforschung der Nützlichkeit einer mobilen Lern-App weitergehen. Neben der Frage der Zweckdienlichkeit der organisatorischen Features und ihrer deskriptiven Abbildung können auch die Komponenten der App in ihren positiven Effekten weiter aufgeschlüsselt und differenziert werden. Gerade weil neue Technologien wie das Smartphone nicht mehr aus dem Alltag wegzudenken sind, ist die Implementierung einer mobilen Lern-App sinnvoll und ihre Erforschung geboten, auch um den Bedürfnissen nach ort- und zeitunabhängigen Angeboten gerecht zu werden. Es geht bei den verschiedenen Lehr- und Lernformen eben nicht um ein Verhältnis der Konkurrenz, sondern der Komplementarität, also der gegenseitigen Ergänzung. Die Digitalisierung setzt auch hier neue Impulse, die in Technologien wie einer Lern-App produktiv aufgenommen werden können.

Literatur (chronologisch sortiert)

  • Lizzio, A. (2011), The Student Lifecycle: An Integrative Framework for Guiding Practice. Griffith University.
  • Johannsen, F; Knipp, M; Loy, T; Voshaar, J; Zimmermann, J (2021): A mobile app to support students in the „transition-in“ phase. Proceedings of the 29th European Conference on Information Systems (ECIS 2021), Research-in-Progress Paper.
  • Voshaar, J., Knipp, M., Loy, T., Zimmermann, J. and Johannsen, F. (2022), „The impact of using a mobile app on learning success in accounting education“, Accounting Education, Vol. No. pp. 1-26.
  • Johannsen, F., Knipp, M., Loy, T. et al. (2023): What impacts learning effectiveness of a mobile learning app focused on first-year students?. Inf Syst E-Bus Manage (2023). https://doi.org/10.1007/s10257-023-00644-0
  • Voshaar, J., Wecks, J.O., Johannsen, F., Knipp, M., Loy, T., Zimmermann, J. (2023): Supporting Students in the Transition to Higher Education: Evidence from a Mobile App in Accounting Education, Proceedings of the International Conference on Information Systems (ICIS 2023), Hyderabad, India.
  • Voshaar, J., Johannsen, F., Mkervalidze, S. and Zimmermann, J. (2024). Unbundling the App Advantage: Evaluating Exam Performance-enhancing Features of Mobile Learning Apps in Accounting. International Conference on Information Systems (ICIS 2024). Bangkok.

[1] Die Transition-in-Phase ist eine Etappe des Studierendenzyklus nach Lizzio (2011). Dieser unterteilte das Studium in verschiedene, teils vor- und nachgelagerte Phase, in denen sich unterschiedliche studentische Identitäten je nach genuinen Herausforderungen, Aufgaben und Status ergaben. 

Die Vermessung von Müdigkeit. Wie können wir Unfälle im Straßenverkehr und bei anderen Tätigkeiten mit Daueraufmerksamkeit verhindern?

Die Vermessung von Müdigkeit. Wie können wir Unfälle im Straßenverkehr und bei anderen Tätigkeiten mit Daueraufmerksamkeit verhindern?

Im Winter werden die Tage kürzer, und so lässt es sich kaum vermeiden, im Dunklen zu reisen. Für Autofahrer und -fahrerinnen stellt sich dabei ein besonderes Problem: Nachts, vor allem auf monotonen Strecken wie Autobahnen, kommt es zu Ermüdungserscheinungen wie Schläfrigkeit und Unaufmerksamkeit, teils sogar zum kurzen Wegnicken. Diese Phänomene bergen offensichtlich ein immenses Risiko, für die fahrzeugführende Person ebenso wie für Dritte im Fahrzeug oder andere, unbeteiligte Verkehrsteilnehmer und Passanten. Die nicht geringe Zahl an Unfällen, deren Ursache auf Ermüdungserscheinungen zurückgeführt werden kann, ist eine Motivation für die Forschung und die Suche nach Lösungen.

Professor Martin Golz aus der Fakultät Informatik der Hochschule Schmalkalden widmet sich diesen Fragen aus dem Forschungsfeld der Biomedizintechnik: Um ein Phänomen zu vermessen, muss man sich über dessen Definition im Klaren sein. Zunächst stellt sich also die Frage, was Vigilanz ist und im Gegenzug, in welchen Formen Ermüdungserscheinungen auftreten.[1] Wichtig ist dabei, verschiedene Aspekte zu differenzieren und zugleich die entscheidenden Faktoren auszumachen. Es geht also darum, ein oder mehrere verlässliche Kriterien zu finden, anhand derer Ermüdungserscheinungen detektierbar sind. Eine zentrale Herausforderung für die Forschung ist dabei, dass es keine verbindliche Definition der Ermüdung oder ihrer Anzeichen gibt und in der Folge bislang belastbare und dezisive Attribute fehlen.[2] Wie vermessen wir also Merkmale von Ermüdung?

Was ist eigentlich Ermüdung und wie zeigt sie sich?

Eine Gelegenheit, dieser Frage nachzugehen, ergab sich im Rahmen einer Anfrage aus der Wirtschaft, konkret der Tagebauindustrie: Im Minenbetrieb gibt es eine rege Logistik per Lastkraftwagen, die im Schichtbetrieb arbeiten.[3] Mehrere Faktoren, die im Regelfall Müdigkeit befördern, kommen hier zusammen: Lange Fahrten, monotone Strecken, stetige Wiederholung. Die Belastung nimmt nochmals durch die harschen Umweltbedingungen wie hohe Temperaturen und geringe Luftfeuchte sowie Staub zu. Kurzum: Ein Knochenjob, dessen hohe physischen und psychischen Belastungen regelmäßig zu Unfällen aufgrund von Ermüdung führen. Politische und ökonomische Akteure haben aufgrund der körperlichen und wirtschaftlichen Schäden und Folgekosten ein hohes Interesse, diese Unglücke zu vermeiden.

In der Industrie hat in den letzten Dekaden ein Umdenken stattgefunden, mit dem die Sorge um die Fitness der Beschäftigten in den Fokus trat: Mit dem fatigue risk management haben Strukturen und Umgangsformen in den Betrieb Einzug gehalten, die helfen, mit Ermüdungserscheinungen offen und bewusst umzugehen, diese frühzeitig zu erkennen und damit Unfälle zu vermeiden. Ferner sollen Vorgesetzte auf das Phänomen und das Risiko aufmerksam machen und die Belegschaft sensibilisieren. Um die Sicherheit der Fahrenden weiter zu fördern, sind Monitoringtechnologien sinnvoll und zweckmäßig, die Müdigkeitserscheinungen und Schlafereignisse autonom erkennen und bestenfalls verlässlich Alarm schlagen, bevor es zu Unfällen kommt. Hier kommen zwei Dinge zusammen: Zunächst die Vermessung der Erscheinungsformen von Ermüdung, und zum anderen eine Prognose. Beide Punkte müssen in der Forschung mit unterschiedlichen Ansätzen verfolgt werden.

Monitoringsysteme

Um den Einsatz der Monitoringsysteme bewerten zu können, musste zunächst eine Auswahl unter den auf dem Markt verfügbaren Systemen getroffen werden. Neben Wissenschaftler:innen wurden auch Beschäftigte und Vertreter der Unternehmen hinzugezogen: Aus der Gewichtung verschiedener Faktoren entstand ein Koordinatensystem, mit dem sich drei Monitoring-Modelle als sinnvolle Testfälle ermitteln ließen. Diese drei haben einen ähnlichen technischen Aufbau: Sie werden auf dem oder im Armaturenbrett befestigt und sind mit einer Infrarotkamera ausgestattet.

Die Ermüdung messen sie nach dem PERCLOS-Maßstab: Dieser bezieht sich auf die Zeit, während das Auge achtzig Prozent vom Lid verdeckt ist. Für diese Messung erfasst die Kamera verschiedene Aspekte, die sie aber nur in der Kombination des PERCLOS auswertet. Neben der Öffnung der Augenlider wird die Lidschlussdauer und die Pupillenweite in die Auswertung sowie u.a. die Kopfbewegung miteinbezogen. Offen ist neben der Aussagekraft des PERCLOS-Kriteriums selbst, ob ein oder mehrere Aspekte schon für sich valide Aussagen über die Ermüdung treffen. Für das Monitoring ist wichtig, einerseits eine hohe Sensibilität zu ermöglichen, andererseits aber möglichst Fehlalarme zu vermeiden, da dies wiederum die Akzeptanz verringern würde. So darf das Augenschließen bei blendendem Gegenverkehr eben nicht zum Alarm führen. In dieser Abwägung muss ein gangbarer Weg in der Anwendung gefunden werden.

Testfahrten im Labor

Aufgrund des Risikos verbieten sich Tests in Realsituationen. In der Folge griff Professor Golz auf eine computergestützte Fahrsimulation zurück, die die Vermessung von Ermüdungserscheinungen unter kontrollierten Bedingungen erlaubt. Zunächst galt es, die Testobjekte auszuwählen: Aus einer Vielzahl an Bewerbungen aus der Studierendenschaft der Hochschule Schmalkalden wurden mehrere geeignete Personen ausgewählt, um an dem Test teilzunehmen. Um die Ermüdung wahrscheinlicher zu machen – Ziel war ja deren Vermessung –, mussten die Partizipierenden einen bestimmten Tag-/Nachtrhythmus einhalten, ein Schlafprotokoll führen, auf Schläfchen am Tage verzichten und am Tag der Messung selbst wachhaltende Getränke wie Kaffee meiden. Simulierte Testfahrten wurden den realen Arbeitsroutinen der Kraftfahrer:innen des Tagebaus nachempfunden. Von 23:30 bis 08:30 mussten die sechzehn Teilnehmer:innen mehrere Einheiten von vierzig Minuten fahren. Das Testumfeld und die Testbedingungen waren so gehalten, dass sie Müdigkeit befördern: Die Strecke war monoton, es gab keinen Straßenverkehr und keine Ablenkung während der Fahrt. Zusammenfassend waren die wichtigen Kriterien der Studie, die Ermüdungserscheinungen wahrscheinlicher machen sollten: Time since sleep, time on task, time of day und das Monotonie-Empfinden.

Aufnahme aus dem Fahrsimulator (Quelle: Martin Golz)

Als Referenz zur ermittelten Müdigkeit wurde auf zwei etablierte Maßstäbe zurückgegriffen, die unabhängig von den anderen Werten funktionieren und somit als Kontrollvariablen dienen konnten: Zum einen die Selbsteinschätzung über den Grad der momentanen Müdigkeit, der in den Pausen zwischen den Fahrten abgefragt wurde (Karolinska sleepness scale). Zur Messung der subjektiv empfundenen Ermüdung hat sich diese neun-stufige Skala in der Wissenschaft als durchaus verlässlich erwiesen. Zum anderen die Position des Fahrzeugs auf der Straße: Ermüdungserscheinungen führen dazu, dass die Fahrzeuge die Fahrbahnmitte häufiger verlassen. Ein Übertritt über Fahrbahnmarkierungen lässt sich leicht ermitteln. Beide Kriterien sollen die Grundlage für die Bewertung der Monitoring-Systeme bilden. Als weitere Quelle der Vermessung wählte Professor Golz die EOG- und EEG-Signale, also die Augen- sowie die Hirnaktivität.

Wir kennen die Bilder des EEG zumeist aus dem Fernsehen: Ein Geflecht von Kabeln wird über einen Kopf gelegt und an verschiedenen Punkten Kontakt mit der Kopfhaut hergestellt. Über diese Kontakte lassen sich geringste Potentiale eines elektrischen Strömungsfeldes messen und folglich die Aktivität im Hirn in gewissem Maße nachvollziehen. Je nach Menge der Kontakte entstehen dann Aufzeichnungen einer Vielzahl an Wellen, die dem Laien nichts sagen. Die Auswertung dieser Diagramme ist eine höchst komplexe Angelegenheit und verlangt viel Erfahrung. Nur so lassen sich aus den Verschiebungen der Wellen, ihren Frequenzen und Amplituden und je nach Hirnareal differenzierte Rückschlüsse führen. Eine Frage ist, ob sich Ermüdungserscheinungen über dieses Verfahren exakt ermitteln lassen, bzw. ob eine Prognose eintretender Ermüdung möglich ist.

Erhebung und Auswertung der Daten

In einem ersten Schritt wurden die Daten der beiden unabhängigen Messungen mit den PERCLOS-Erhebungen der drei Monitoring-Systeme verglichen. Die Korrelation der PERCLOS-Werte mit den objektiven Messungen hielten nur oberflächlich stand: Sobald die zeitliche Auflösung feiner wird oder nur die Daten eines Individuums herangezogen werden, verlieren sich die hohen Korrelationswerte. Zusammenfassend ergaben sich signifikante inter- und selbst intrasubjektive Unterschiede über die Maßstäbe hinweg.

In einem zweiten Schritt versuchte Professor Golz zu klären, ob die EEG-Messungen als Referenz für eine Validierung der videobasierten Systeme zu dienen vermögen. Um hier eine Datenanalyse vornehmen zu können, wurde beide Messwerte simultan erhoben, und die Datensätze anschließend mithilfe der unabhängigen Variablen in starke und schwache Ausprägungen der Ermüdung unterteilt. Eine nichtlineare Diskriminanzanalyse sowohl der PERCLOS- als auch der EEG/EOG-Zeitreihen zeigte ein Defizit des PERCLOS, in hoher zeitlicher Auflösung zwischen schwacher und starker Ermüdung zu unterscheiden.

Aus diesen Ergebnissen ließ sich folgern, dass die Monitoringsysteme zwar unter Laborbedingungen gut arbeiten, hierfür aber wichtige Konditionen erfüllt sein müssen: Neben einer niedrigen zeitlichen Auflösung müssen die Daten vor der Auswertung möglichst über viele Personen hinweg gemittelt werden. Offen ist, ob die Messdefizite  an der Ausrichtung der Systeme am Normalverhalten der Augenbewegung liegt, wodurch untypische Ausprägungen nicht oder falsch detektiert würden. Jedenfalls erwies sich das EEG/EOG-Signal als deutliche robustere Maßgabe zur Ermittlung der Ermüdung.

Am Ende lässt sich festhalten, dass der Weg hin zu funktionierenden Monitoringsystemen von Ermüdungserscheinungen noch ein weiter ist. Ein Problem ist dabei, dass bislang keine Klarheit darüber herrscht, wie sich Ermüdung zeigt, was also generalisierbare Kriterien und Messobjekte sind. PERCLOS hat hierbei nur sehr bedingt überzeugen können. Und da es in diesem Bereich buchstäblich um Leben und Tod geht, bedarf es mehr Forschung, um geeignete Maßstäbe für Monitoringansätze zu liefern.

Die Prognose von Mikroschlafereignissen

Auch wenn das EEG durchaus verlässlich Ermüdungserscheinungen detektieren kann, bleibt doch das praktische Problem bestehen, dass die Ermittlung der Daten aufwendig ist und sachverständiger Expertise bedarf. Um breitenwirksame Akzeptanz zu erhalten, müssen andere technologische Lösungsansätze gefunden werden. Das Forschungsfeld der Neuroinformatik hat hier also noch genügend Aufgaben. Gerade die Prädiktik, also die Prognose kritischer Ermüdungserscheinungen, birgt soziale und ökonomische Relevanz.

In einem anderen, aktuelleren Projekt widmete sich Professor Golz zusammen mit seinem Team der Vorhersagbarkeit von Mikroschlafereignissen unter zu Hilfenahme von EEG-Signalen.[4] Die Herausforderungen bestanden wiederum in der Komplexität der Signalcharakteristik und der hohen inter-individualen Variabilität, also unterschiedlichen EEG-Eigenschaften je nach Person. Die Idee war, die Amplituden des EEG durch fünf Methoden der Zeitreihenvorhersage zu analysieren. Neben der prädiktiven Qualität ging es auch um die Eignung verschiedener Messpunkte des EEGs, also welches Hirnareal sich besser bzw. schlechter für die Messungen eignet.

Professor Golz bei der jüngsten Vorstellung seines Forschungssemesterberichts

Die Daten entstammten verschiedenen Testfahrten im Schmalkalder Labor, die unter den gleichen Bedingungen entstanden sind wie jene der Ermüdungserscheinungen. Durch die Verwendung der Messwerte von 79 jungen, gesunden Personen konnte auf eine große Datenmenge zurückgegriffen werden. Auch wenn sich ein Modell der Zeitreihenprognose durch eine geringe Fehleranzahl hervortat, wurde klar, dass jeder EEG-Kanal andere Parameterkombinationen zu seiner optimalen Verwendung bedurfte.

Infolge dieser Komplexität sind Prognosen schwierig, gerade wenn der Zeithorizont mit fünf Sekunden angesetzt wird. Auch eine adaptive Klassifikationsanalyse, die dem dynamischen Charakter der Signale gerechter werden sollte, hatte zwar im ersten Schritt hohe Genauigkeiten, konnte diese Ergebnisse aber nicht in der Validierung reproduzieren. Die Leistungsfähigkeit der Vorhersage ist abschließend also vorhanden, aber noch recht gering. Um hier Verbesserungen zu ermöglichen, könnten optimierte Datensätze ebenso verwandt werden wie moderne Methoden, die auf künstliche Intelligenz zurückgreifen und dem dynamischen Charakter der Daten entsprechen. Am Ende kann jede Verbesserung der Prognostizierbarkeit helfen, Leben zu retten. Somit ist es sinnvoll, an der Erkennbarkeit von Ermüdung weiter zu forschen. Das Fahrsimulationslabor und das Archiv der gewonnenen Datensätze ist hierfür eine ideale Ausgangsbasis.


[1] Vigilanz stammt vom lateinischen vigilantia, das „Wachsamkeit“ und „Fürsorge“ meint. Vigilanz bezeichnet einen Zustand andauernder Aufmerksamkeit bei eintöniger Reizfrequenz und ist umgänglich ein Synonym von Wachheit, einem Aspekt des Bewusstseins. Für die Untersuchung der Vigilanz misst man die Fähigkeit einer Person zur Daueraufmerksamkeit.

[2] Die uneindeutige Verwendung der Begriffe Müdigkeit, Fatigue und Erschöpfung ist Teil des Problems. In der Forschung wird mittlerweile dafür plädiert, die drei Begriffe als distinkte Phänomene auf einem Kontinuum zu fassen, die in Relation gesetzt werden können. Vgl. Matti, N., Mauczok, C. & Specht, M.B. (2022): Müdigkeit, Fatigue und Erschöpfung: Alles das Gleiche oder Ausprägungen eines Kontinuums? – Ein Diskussionsanstoß. Somnologie – Schlafforschung und Schlafmedizin 26, 187-198.

[3] Golz, M., Sommer, D., Trutschel, U., Sirois, B., Edwards, D. (2010): Evaluation of fatigue monitoring technologies. Somnologie – Schlafforschung und Schlafmedizin 14, 187-­199.

[4] Schneeweiß, L., Pauli, M. P., Golz, M. (2023): EEG-Vorhersage zur Prognose von Mikroschlaf, in: Stolzenburg, F., Reinboth, C., Lohr, T. & Vogel, K. (Hrsg.): NWK 2023 – Tagungsband der 23. Nachwuchswissenschaftler*innenkonferenz, Harzer Hochschultexte Nr. 14, Hochschule Harz, Wernigerode, 176-183.

Wie lässt sich Personal halten? Über wirtschaftspsychologische Faktoren der Mitarbeiterbindung

Wie lässt sich Personal halten? Über wirtschaftspsychologische Faktoren der Mitarbeiterbindung

In Zeiten obwaltenden Fachkräftemangels wird die Herausforderung für Unternehmen, qualifiziertes Personal anzuwerben oder auch nur zu halten, nicht eben geringer. Durch die Fluktuation der Beschäftigten ergeben sich nebst Potentialen frischen Winds auch Reibungsverluste, die Unternehmen vermeiden wollen. So bedarf neues Personal einer Einarbeitungszeit, und zugleich verlieren die Unternehmen mit den Mitarbeiter:innen immer individuell erworbenes Sach- und Handlungswissen. Auch müssen die Vakanzzeiten überbrückt werden, wodurch die Arbeitsbelastung der Kolleg:innen steigt. Mit den psychologischen Faktoren und Mechanismen, die dem Verbleiben der Beschäftigten dien- oder schädlich sind, befasst sich Katharina Sachse, Inhaberin der Professur für Wirtschaftspsychologie an der Hochschule Schmalkalden. Eine Studie, die diesen Themen empirisch nachgeht und zu der sie in Koautorinnenschaft mit Ulrike Gaedke jüngst einen Artikel veröffentlichte, stellte sie im Rahmen ihrer Antrittsvorlesung an der Hochschule Schmalkalden vor.

Faktoren der Bindung

Um zu verstehen, was Mitarbeiter:innen an ihren Arbeitsstellen hält, muss eine dementsprechende Perspektive eingenommen werden: Ein Faktor dieser Bindung lässt sich mit dem englischen „commitment“ umschreiben, dass begrifflich zwischen den Bedeutungen einer Verpflichtung sowie Einbindung und einer Hingabe sowie einem Engagement schwankt. Das Commitment besteht aus verschiedenen Komponenten: Im affektiven Commitment, das in der Studie im Fokus stand, geht es um eine gefühlte Bindung an das Unternehmen und den Job. Anders formuliert meint dies ein „Selbst-“Bekenntnis und „den Wunsch der Beschäftigten, Teil des Unternehmens zu sein und zu bleiben.“ Demgegenüber verschiebt sich im normativen Commitment die Relation: Es geht nicht mehr um die Wertschätzung des Unternehmens, sondern um eine wahrgenommene Verpflichtung gegenüber dem Unternehmen. Weil beispielsweise meine Firma mir diese kostspielige Weiterbildung finanziert hat, habe ich eine Bringschuld gegenüber dem Unternehmen und bin mit ihm verbunden. Als dritter Aspekt kann ein kalkulatorisches Commitment angeführt werden, das allerdings auf eine vergleichsweise oberflächliche Bindung aufgrund rationaler Erwägungen abhebt. Beschäftigte bleiben hierbei aufgrund individueller und situativer Vorteile, entwickeln jedoch keine tiefergehende Beziehung.

Die Frage der Studie ist nun, wie und ob die Bindungseffektes des affektiven Commitments mit der Einbettung in den Job  und dem psychologischen Vertragsbruch zusammenhängen respektive sich positiv oder negativ auf die Mitarbeiterbindung auswirken. Um dies zu klären, wurde eine Online-Befragung von über fünfhundert Teilnehmenden vorgenommen und ausgewertet.

Passung und psychologische Verträge

Die Einbettung besteht nicht nur selbst aus verschiedenen Aspekten, es ist zudem wichtig, zwischen den Sphären des Beruflichen und des Privaten zu trennen, die hier beide einen distinkten Einfluss haben. Die Verbindungen sind der erste Aspekt: Sie beziehen sich auf das soziale Umfeld und die Aktivitäten, also neben dem Kreis der Kolleg:innen und den Führungskräften auch kollektive Teambuildingmaßnahmen auf der einen Seite, und das familiäre Umfeld sowie die Freundes- und Bekanntenkreise und die Freizeitaktivitäten auf der anderen Seite. Je besser sich der Job mit diesen Aspekten einer sozialen Qualität verträgt, umso höher sollte die Bindung sein. Die Passung als zweiter Aspekt zielt auf die Kompatibilität zwischen dem Individuum mit seinen Kenntnissen, Talenten und seiner Biografie und dem Anforderungsprofil des Jobs: Passt die Person also zum Job, oder kann sich diese an anderer Stelle besser und ihren Talenten gemäßer einbringen? Ein Mangel dieser Passung könnte also zu einer Über- oder Unterforderung bzw. zu Frustrationserfahrungen in der beruflichen Tätigkeit führen. Auf der anderen Seite ist es die Frage, wie sich die Anforderungen des Jobs mit einem gelingendem Sozialleben übereinbringen lassen – hier ist an Dinge wie Gleitzeit und weit mehr zu denken. Die dritte Komponente ist der Verzicht und meint die Vorzüge, die bei einem Jobwechsel seitens des Beschäftigten aufzugeben wären. Neben der Vergütung sind dies u.a. Home-Office-Regelungen, Job-Tickets, betriebliche Rentenversicherungen oder Möglichkeiten der Kinderbetreuung.

Der dritte Faktor ist der psychologische Vertragsbruch und seine Folgen. Wichtig ist es, den Bruch zu vermeiden, da dieser negative Effekte auf die Mitarbeiterbindung und dessen Arbeitsbereitschaft hat. Was ist der psychologische Vertrag? Anders als der Arbeitsvertrag ist dieser kein Teil direkter Aushandlung noch wird er schriftlich fixiert oder ist er einklagbar. Der psychologische Vertrag ist eine gegenseitige Erwartungshaltung, die durch verschiedene Situationen und beteiligte Akteure geprägt werden kann. Von Seiten der Beschäftigten kann dies bereits durch die digitale Selbstpräsentation des zukünftigen Unternehmens im Internet geschehen, durch das Image oder das Leitbild. Andere Prägungen können durch das Bewerbungsgespräch oder den Onboarding Prozess einfließen. Natürlich sind darüber hinaus auch Mitarbeitergespräche und ähnliches hier relevant. Im Resultat entsteht eine Erwartungshaltung des oder der Beschäftigten gegenüber der Organisation, seien es monetäre Versprechungen, die Ausrichtung der Arbeitsstelle, Weiterbildungen oder andere Dinge. Wird dieser Erwartung nicht entsprochen, kann es zum Bruch des psychologischen Vertrags kommen: Die Folgen sind ein Vertrauensbruch, Enttäuschung und eine sinkende Arbeitsmoral. Gerade weil der psychologische Vertrag nicht kodifiziert ist, fällt es in den Aufgabenbereich der Führungskräfte, auf Signale seiner Nichteinhaltung seitens der Beschäftigten zu achten.

Befragung und Auswertung

Katharina Sachse und Ulrike Gaedke gingen den Fragen der Mitarbeiterbindung über eine Online-Befragung Anfang 2024 nach, die sie über Karrierenetzwerke und eine Hochschule für berufsbegleitendes Studium verbreiteten. Die Stichprobe umfasste 512 Individuen, die einen Fragenkatalog ausfüllen mussten, der wiederum die verschiedenen Facetten und Dimensionen der Studie abdeckte.

Im Ergebnis der Studie kann resümiert werden, dass zwischen den angesprochenen Variablen ein direkter, starker statistischer Zusammenhang festgestellt werden konnte, und die Faktoren demnach die Mitarbeiterbindung stärken können. Eine These der Studie war, dass die Einbettung das affektive Commitment stärkt, was wiederum zu einer höheren Mitarbeiterbindung führt. Auch wenn sich diese Annahme bestätigt fand, wurde gleichzeitig eine vom Commitment unabhängige Beziehung der Einbettung und der Mitarbeiterbindung festgestellt. Hier würde sich folglich eine Förderung lohnen.

Empfundene psychologische Vertragsbrüche verringern die Bindungswirkung der anderen Aspekte. Dabei sind die Vertragsbrüche keine Seltenheit: Ungefähr ein Viertel der befragten Personen konnte ein oder mehrere Beispiele nennen, wobei sich die meisten ungehaltenen Versprechen auf die Personalentwicklung und das Gehalt bezogen.

Mitarbeiter:innen binden

Im Resultat können Unternehmen, denen an der Mitarbeiterbindung aus guten Gründen gelegen sein sollte, nun auf Stellschrauben zurückgreifen. Neben klassischen Teambuildingmaßnahmen kann die Passung des Jobs beständig optimiert werden. Wichtig ist es bei diesen Maßnahmen, auf die individuellen Bedürfnisse der Beschäftigten zu achten und die Passung der privaten und der beruflichen Sphäre mitzudenken. Daneben sollten Unternehmen und speziell die Führungskräfte und die Verantwortlichen im Personalbereichs eine Sensibilität gegenüber dem psychologischen Vertrag ausbilden: Hierbei sind neben den expliziten Aussagen eben auch die impliziten Gehalte wichtig.

Der Artikel wird im April 2025 in der Zeitschrift Führung + Organisation (zfo) erscheinen. Die Studie konnten die beiden Wissenschaftlerinnen auch bei der 28. Fachtagung der Gesellschaft für angewandte Wirtschaftspsychologie (GWPs) in Hamm Anfang des Jahres vorstellen.

Seit dem Wintersemester 2024/25 hat Katharina Sachse die Professur für Wirtschaftspsychologie an der HSM inne. Sie promovierte an der TU Berlin zum Thema „Risikowahrnehmung und -verhalten privater Kapitalanleger“ und wirkte in verschiedenen Forschungsprojekten zur Kommunikation von Gesundheitsrisiken mit. Im Anschluss war sie als Arbeitspsychologin und Organisationsberaterin tätig. Zudem lehrte sie an verschiedenen Hochschulen, bevor sie 2016 eine Professur für Wirtschaftspsychologie an der FOM Hochschule in Berlin antrat. In ihrer Forschung beschäftigt sie sich mit Themen wie Commitment, Führung und Gesundheit in der modernen Arbeitswelt.

Auf dem Holzweg? Über den Werkstoff und Computersimulationen von Furnier. Oder warum es eine Kunst ist, aus dünnen Blättern Möbel zu komponieren.

Auf dem Holzweg? Über den Werkstoff und Computersimulationen von Furnier. Oder warum es eine Kunst ist, aus dünnen Blättern Möbel zu komponieren.

Was läge einer Hochschule in Süd-Thüringen näher als die Forschung am Material Holz, bildet dieses doch einen Großteil der natürlichen Umgebung Thüringer Wald und ist ein wichtiger Teil der regionalen Industrie? Als Werkstoff hat Holz kaum etwas an Relevanz verloren: Es ist ein hochwertiger, nachwachsender Rohstoff, der einerseits robust und günstig, andererseits vielseitig einsetzbar ist. Auch wenn Holzprodukte hochgradig verbreitet sind, so ist das Wissen um den Werkstoff und die komplexen Herausforderungen seiner Verarbeitung eher eine Mangelware. Dabei gibt es hier viel zu entdecken.

Vorangestellt werden muss die Unterscheidung zweier Verwendungsweisen des Materials: Neben der Nutzung von Vollholz, bei dem ganze Holzstücke aus dem Holzstamm gesägt werden und unter anderem als Bauhölzer wie Balken und Bretter Verwendung finden, gibt es eine Variante, bei der Bauteile durch Lagen dünner Holzblätter, die sogenannten Furniere, gefertigt werden. Diese Furnierlagenholzprodukte bestehen aus einzelnen Blättern, die verklebt und unter hohem Druck verpresst werden. Im Weiteren wird es uns um das Furnier als besonderen Werkstoff und spezifisch um den Aspekt der Formstabilität bei sich verändernden klimatischen Umgebungsbedingungen gehen, was im Fokus des Forschungsprojektes „FurForS“ steht.

Um Produkte wie Stühle oder furnierbasierte, edle Dekorflächen im Fahrzeuginnenraum zu fertigen, bedarf es einigem Aufwand und Kenntnis im Umgang mit Holz. Bislang beruhen viele Schritte in der Fertigung noch auf dem Erfahrungswissen der Beschäftigten: Hier kann die Wissenschaft helfen, indem sie das Verständnis des Werkstoffs Furnier vertieft. Eine offene Frage der Forschung ist zum Beispiel, ob sich das Verhalten von Furnierlagenhölzernberechnen lässt, und wie sich so die Verwendung und Fertigung optimieren ließe. Bevor wir aber zu Professor Dietzel und seinem Team der Forschungsgruppe Strukturmechanik an der Hochschule Schmalkalden kommen, beginnt unser Weg ganz klassisch beim Baum.

Werkstück mit integriertem LED-Leuchtmittel

Der lange Weg des Holzes

Unter Furnier versteht man 0,1 bis 7 mm dünne Blätter aus Holz, die unter Verwendung unterschiedlicher Verfahren vom Stamm abgetrennt werden. Das Wort selbst entstammt einer Entlehnung aus dem Französischen des 16.Jahrhundert: Fournir meinte ‚bestücken‘ und ‚beliefern‘ und bezog sich auf die Aufbringung edler, dünner Holzblätter auf weniger wertvolles Holz, also eine oberflächliche Veredelung. Heutzutage wird dies unter dem Begriff Deckfurnier gefasst,  die als Lagen von Formteilen zum Einsatz kommen. Furnierblätter werden hierbei geschichtet, verklebt und verpresst: Nicht nur entstehen so robuste Bauteile, durch die Ausnutzung der richtungsabhängigen Eigenschaften der Furnierblätter können Parameter wie Flexibilität und Festigkeit in der Konstruktion gezielt genutzt werden. Hier ist das Wissen um die Eigenschaften der Furnierblätter und ihrer Komposition entscheidend.

Baum ist aber nicht gleich Baum: Da für die weiteren Verarbeitungsschritte nur Hölzer mit höchster Qualität Verwendung finden können, ist bereits die Auswahl der passenden Bäume der erste wichtige Schritt. Astlöcher und ähnliche Störungen im Holzbild, der Maserung, müssen vermieden werden. Es hat sich eine Einteilung in A-, B- und C-Hölzer etabliert, wobei sich für Deckfurniere nur Hölzer der ersten Kategorie eignen. Die Auswahl der Hölzer beruht auf der langjährigen Erfahrung der Fachkräfte, die die Stämme von Außen beurteilen müssen. Um den Rohstoff Holz nach der ersten Selektion nutzen zu können, muss ein längerer Weg beschritten werden.

Die Stämme werden zunächst entrindet und meisthin gewässert bzw. gekocht. Ist das Material so bearbeitbar geworden, kann der Stamm im nächsten Schritt gemessert, geschält oder gesägt werden. Die drei Verfahren haben unterschiedliche Vor- und Nachteile, und eignen sich demgemäß für verschiedene Hölzer und unterschiedliche Zwecke. Zum Beispiel unterscheidet sich die minimal mögliche Dicke der Furniere, die physische Beanspruch des Holzes im Fertigungsprozess und der Materialverlust beim Trennvorgang.[1] Allen drei Verfahren gemein ist, dass durch die Belastung materielle Veränderungen im Holz bewirkt werden: Neben dem feuchtebedingten Quellen meint dies unter anderem kleine Risse auf der Schnittseite des Furniers, die infolge einer notwendigen starken Biegung des Furniers während des Schneidvorgangs entstehen. Es gibt somit eine geschlossene und eine offene Seite des Furniers, die unterschiedliche Charakteristika zeigen, zum Beispiel in ihrer Reaktion auf Feuchte wie das Quellen und Schwinden. Bei allen späteren Verarbeitungsschritten muss die Strukturveränderung des Materials bedacht werden.

Struktur & Mechanik

An diesem Punkt setzt die Forschungsgruppe Strukturmechanik an: Was passiert im Holz durch den Einfluss verschiedener Faktoren wie Feuchtegrad- und Temperaturänderungen? Dabei ist es sinnvoll, nicht von den Lagenbauteilen – also gefertigten Komponenten aus mehreren Furnierlagen – auszugehen, sondern zunächst das einzelne Furnierblatt und die Effekte zu verstehen. Die hieran gewonnen Erkenntnisse können dann die Grundlage für eine Beschreibung der komplexen Charakteristik verbundener Schichten oder gar ganzer Lagenbauteile bilden. Gerade der Zusammenhang und die wechselseitige Beeinflussung der Furnierlagen mit verschiedenen Eigenschaften macht diese umfassende Beschreibung allerdings zu einer komplexen Herausforderung. Das Projektziel ist kurzum eine softwaregestützte Bewertung der Formstabilität von Furnierlagenholzwerkstoffen.

Messverfahren der Biegung

Die beiden Seiten des Furniers reagieren unterschiedlich auf Feuchte: Durch die Fissuren, also die kleinen Risse an der Oberfläche der Holzblätter, verändert sich der Feuchtetransport innerhalb des Holzes und damit die Vorgänge des Quellens und Schwindens auf den beiden Seiten. Eine Folge ist die Verkrümmung des Furniers. Ein weiterer struktur-mechanischer Faktor ist die Faserrichtung des Holzwachstums: Durch verschiedene Anordnungen der Blätter, quer oder parallel, lassen sich Eigenschaften wie Flexibilität oder Festigkeit in der Kombination verschiedener Lagen der Furnierblätter steuern. Wiederum ist der Ausgangspunkt für ein Verständnis des Zusammenhangs der Blick auf das einzelne Furnier. Dieses Verständnis strukturmechanischer Effekte verschiedener Umweltfaktoren kann dann wiederum in die Konstruktion der Produkte einfließen und die kompositorische Ausrichtung der Lagen anleiten.

Um sich die Auswirkung der Umgebungseffekte auf das Holz vor Augen zu führen, liegt der Blick auf einen klassischen Stuhl aus Lagenholz nahe: Je nach Temperatur, Luftfeuchte und Furnier-Charakteristik verändert sich die Form des Stuhls und so z.B. die Neigung der Lehne. Dieselben Stühle sehen folglich im Detail immer etwas anders aus und geben unterschiedlich nach, was zum Beispiel bei parallelen Stuhlreihen erkennbar und somit als optischer Mangel wahrgenommen wird. Neben diesen Anwendungsfeldern ist die strukturmechanische Beschreibung aber auch für Optimierung der Fertigung und die Auslotung der Grenzen des Werkstoffs Holz zielführend.

Im Fokus der Forschungsgruppe

In der Furnierverarbeitung beruhen auch heute noch viele Prozesse auf reiner Erfahrung mit dem Material Holz. Ohne diese individuelle Leistung zu schmälern, sind hier in Folge des technischen Fortschritts Potentiale der Optimierung zu vermuten. Das Schmalkalder Team um Professor Dietzel bemüht sich um eine Berechenbarkeit des strukturmechanischen Verhaltens des Furniers, um diesen Fortschritt zu bahnen. Einerseits sollen die existierenden numerischen Modelle um die Spezifika der Furniere erweitert , und andererseits relevante Parameter der Formstabilität identifiziert werden.

Wenn heutzutage eine Umstellung in der Fertigung vorgenommen wird, bedarf es noch einer längeren Anpassung, die nach dem Modus Trial-and-Error vorgeht. Die Umstellung ist zeit- und materialaufwendig, was dem Gebot der Effizienz widerspricht. Hier wären Modelle zweckmäßig einsetzbar, die Entscheidungshilfen und Einschätzbarkeiten bieten, und so den Prozess der Anpassung verkürzen. Ferner lassen sich die strukturmechanischen Einsichten auch nutzen, um gestalterische Prozesse wie Biegungen oder die Flexibilität zu optimieren.

Auch wenn der Werkstoff Holz in seinen verschiedenen Formen weitverbreitet ist, widmen sich ihm nur einige wenige Projekte. An der Hochschule Schmalkalden forscht seit nunmehr 18 Jahren die Forschungsgruppe Strukturmechanik zu den Möglichkeiten der mathematischen Beschreibung physikalischer Eigenschaften des Rohstoffs Furnier. Hierbei verbindet die Forschungsgruppe Aspekte der Grundlagenforschung mit anwendungsnahen Funktionsintegrationen in den Werkstoff Holz.

Einblick ins Labor

Das Kooperationsprojekt FurForS

Im Projekt FurForS kooperiert die Forschungsgruppe mit der TU Dresden, und somit die beiden wenigen Akteure der Forschung am Furnier. Am Dresdner Institut für Naturstofftechnik widmet sich die Forschungsgruppe Massivholz/Furnier um Prof. André Wagenführ Themen rund um den Werkstoff Holz in seiner natürlichen Form, aber auch Holzverbundwerkstoffen. In der Kooperation mit der HSM konzentriert sich Dresden auf die kleinskalige Analytik der Furnierblätter, also den mikroskopischen Veränderungen der Strukturen, die sich zum Beispiel durch eine Behandlung in der Klimakammer ergeben.

An dem Schmalkader Team ist es indes, berechnungstechnische Ansätze zu entwickeln, Modellierungen vorzunehmen und Parameter und Faktoren zu taxieren, die einen signifikanten Einfluss auf die Strukturmechanik haben. Das Ziel ist hierbei die Entwicklung von Berechnungsmodellen, die sich auf die individuellen Eigenschaften von Furnierlagenhölzern anpassen lassen. Die Vermittlung zwischen einer Generalisierung und einer individuellen Anpassung verlangt einen hohen Rechenaufwand des Modells, der sich mit der Hinzunahme mehrerer Schichten potenziert. Bei diesem Ansatz verbindet sich die Strukturmechanik mit der Informatik, wobei der materialwissenschaftliche Fokus leitend bleibt.

Zusammengefasst haben sich die verschiedenen Projektpartner, neben der HSM und TUD auch die Kreutzfeldt GmbH & Co. KG und die GbR Lie-Design, in dem Ansinnen zusammengefunden, die Form- und Eigenspannungsänderungen von Lageholzprodukten mit modellgestützten Prognosen vorauszuberechnen. Die Modelle haben eine Gültigkeit ebenso für die Fertigung wie den späteren Einsatz, und können in beiden Hinsichten eine Optimierungsleistung erreichen, zum Beispiel was die Effizienz im Herstellungsprozess anbetrifft. Das gemeinsame Ziel der Projektpartner ist es, durch ein vertieftes Verständnis des Werkstoffs Holz seine Nutzung weiter zu optimieren und die Grenzen der Anwendung weiter auszuloten. Von der bisher genutzten Erfahrung soll es hin zu Berechungsmodellen gehen, die durch Simulationen und numerische Abbildungen das Verständnis des Materials vertiefen.

Holzblatt-Schichten vor der Pressung

Verortung an der HSM

Professor Andreas Dietzel wurde im Herbst 2021 auf die Professur „Konstruktion, Fertigungsmesstechnik und CAD“ an der Fakultät Maschinenbau berufen und engagiert sich seitdem in der Forschungsgruppe Strukturmechanik. Für ihn ist dieser Bereich keineswegs Neuland, promovierte er doch an der Hochschule Schmalkalden und der Technischen Universität Ilmenau zum Thema „Modellgestützte Ermittlung und Bewertung der Formgebungsgrenzen von Rotbuchenfurnier“ bei Professorin Hendrike Raßbach.

Auch wenn gerade Hochschulen angewandter Forschung durch den bürokratischen Aufwand der Einwerbung von Drittelmittelprojekten vor nicht eben geringe Herausforderungen gestellt werden, konnte Professor Dietzel mit den beiden wissenschaftlichen Mitarbeitern Dr.-Ing. Dennie Supriatna und M.Eng. Daniela Pachatz ein motiviertes Team zusammenstellen, das sich nun in dem Projekt FurForS einbringt.


[1] In der Handreichung „Furnier im Innenausbau“ finden sich hierzu weitaus ausführlichere Informationen. (Vgl. Initiative Furnier + Natur e.V., Furnier im Innenausbau. Definitionen – Eigenschaften – Verarbeitung – Anwendungsbeispiele“, Dresden 2011, S. 8 – 13)

Der Mensch im Mittelpunkt. Die Innovationen im Werkzeugbau zwischen Ökonomie und Ökologie

Der Mensch im Mittelpunkt. Die Innovationen im Werkzeugbau zwischen Ökonomie und Ökologie

Automatisierung, Digitalisierung, Künstliche Intelligenz: Die Herausforderungen des Maschinen- und Werkzeugbaus waren in den letzten Jahren durchaus mannigfaltig. Aber dies waren bei Leibe nicht die einzigen Aufgaben: Die Nachhaltigkeit gewinnt immer mehr an Bedeutung, und der Maschinen- und Werkzeugbau muss sich im Spannungsfeld zwischen Ökonomie und Ökologie verorten. Gleichwohl wäre es falsch, diese Spannung als ein Gegeneinander aufzufassen, vielmehr kann und sollte der Druck als Initial für innovative Veränderungen aufgenommen werden, so ein Kredo des jüngsten Praxisforum Werkzeugbau des Verbands Deutscher Werkzeug- und Formenbauer (VDWF)  und der WBA Aachener Werkzeugbau Akademie an der Hochschule Schmalkalden.

Das Motto des Tages mit seinem umfänglichen Programm war: „Der Mensch steht im Mittelpunkt. Die Bedürfnisse von Menschen, ihr Komfort und ihre Interessen sind ein antreibender Motor der Innovationskraft des Maschinen- und Werkzeugbaus in seinen verschiedenen Facetten. Den Alltag bequemer zu machen zählt hier ebenso dazu wie Produkte besser und ökologischer sowie kostengünstig und daher allgemein verfügbar anzubieten. Um diese Ziele zu erreichen, können Instrumente wie die Künstliche Intelligenz helfen.

Die Nachhaltigkeit erhielt in den letzten Jahren mehr und mehr Bedeutung. Gerade weil der Klimawandel und seine Folgen immer deutlicher zutage treten und ins gesellschaftliche Bewusstsein rücken, richten sich Forderungen an die Politik und die Wirtschaft. Allerdings trifft diese Entwicklung den Maschinen – und Werkzeugbau keineswegs unvorbereitet: Der sorgsame Umgang mit Materialien, Rohstoffen und Energieträgern war schon immer geboten und ein wichtiger Aspekt von Entwicklungen und Innovationen, von Hochschulen angewandter Wissenschaften, forschenden Unternehmen und ihren gemeinsamen Kooperationsprojekten.

Gastgeber der Veranstaltung war die Angewandte Kunststofftechnik der Hochschule Schmalkalden, wobei Prof. Dr. Thomas Seul, Inhaber der Professur für Fertigungstechnik und Werkzeugkonstruktion an der HSM und Präsident des VDWF, auch die Aufgabe der Begrüßung übernahm. Hier griff er das Motto „Der Mensch steht im Mittelpunkt“ auf und machte zugleich deutlich, dass auch die Studiengänge Menschen, also engagierte und interessierte Studierende, bräuchte. Um all die technologischen, ökonomischen und ökologischen Herausforderungen angehen zu können, bedarf es gut ausgebildete Problemlöser: Gerade anwendungsnahe ingenieurwissenschaftliche Studiengänge wie die Kunststofftechnik vermitteln im Rahmen des Bachelor- und Masterstudiums Fertigkeiten und Fähigkeiten, die die zukünftigen Ingenieure und Ingenieurinnen in die Lage versetzen, innovative Antworten auf komplexe Herausforderungen zu finden.

Aussstellung und Austausch im Foyer

Innovationen, Rezyklate und ökologische Potentiale

Die thematische Ausrichtung der Treffpunkte wechselt mit dem Ort der Veranstaltung, und in Schmalkalden steht traditionellerweise der Spritzguss im Fokus. In den verschiedenen Vorträgen des Tages wurden unterschiedliche Aspekte der Nachhaltigkeit verhandelt: Die Frage war unter anderem, wie wir Rezyklate optimal nutzen, Kreisläufe schließen oder den Energiebedarf gemäß ökologischer Imperative decken können.

Den Anfang machte Frank Schockemöhle von dem Unternehmen Pöppelmann, der sich mit dem Thema «Reduzierung der Treibhausgasemission durch Einsatz von Rezyklaten» befasste. Das Familienunternehmen aus Lohne hat eine nachhaltige Kreislaufwirtschaft ihrer Produktion und Produkte ins Visier genommen und eine mehrstufige Strategie zur Umsetzung konzipiert. Es versteht sich von selbst, dass der Lebenszyklus von Kunststoffen maximiert werden sollte, werden diese Materialien doch in aufwändigen Verfahren gewonnen. Ein Ansatz ist dabei, Kunststoffe zu recyceln und wieder in den Kreislauf zu überführen, wobei auch die EU den Unternehmen aufgibt, entsprechende Mengen an postconsumer-Material, das in anderen Worten schon einmal genutzt wurde, einzubringen. Probleme sind dabei der Aufwand der Aufbereitung und die eingeschränkten Möglichkeiten der Wiederverwendung. Die Wiederverwertung wird umso aufwändiger, je mehr Materialien, also unterschiedliche Kunststoffe oder andere Materialien wie Papier und Metall Verwendung finden. Etiketten oder die Aluminiumdeckel bei Joghurtverpackungen sind hier bekannte Beispiele. Je sortenreiner also ein Objekt ist, umso einfacher die Wiederverwertung: Wichtig ist, dies schon beim Produktdesign selbst zu bedenken. Zum anderen Problem: Zum einen eignen sich natürlich Rezyklate nicht für alle Anwendungen, bleiben doch zumeist Restbestände an farblichen und olfaktorischen Beimengungen. Viele andere Bereiche, in denen zum Beispiel kein direkter Kontakt mit dem Produkt besteht, könnten Rezyklate verwendet werden, dürfen es aber aufgrund der momentanen Gesetzeslage nicht. Hier gäbe es also Stellschrauben. Durch ein konsequentes Design for recycling und eine Anpassung bestimmter Normen ließen sich die Treibhausgasemissionen noch weiter senken. Andere Wege zur Senkung von Emissionen sind die Reduzierung des Materials und die Etablierung echter Kreislaufsysteme von Rohstoffen.

Die Aachener Werkzeugbau Akademie (WBA) ist in den Feldern Beratung, digitale Lösungen, Weiterbildung und Forschung speziell für den Werkzeugbau aktiv. Dr. David Welling, der Geschäftsführer der WBA, arbeitete in seinem Vortrag „Der öko-effektive Werkzeugbau – ökologisch notwendig und ökonomisch erfolgreich “ den Nutzen von Nachhaltigkeitsinitiativen heraus. Zunächst ging es ihm um eine Bestandsaufnahme der gegenwärtigen Situation des Werkzeugbaus, die sich nicht anders als eine multiple und anhaltende Krise bezeichnen lässt. So träfe eine Strategie- auf eine Erfolgskrise, woraus am Ende eine Liquiditätskrise folgen könne. Die Krisenhaftigkeit zeige sich auch an wichtigen Indikatoren wie einer sinkenden durchschnittlichen Marge, einer stagnierenden Wertschöpfung pro Mitarbeitenden und einer sinkenden Quote von Aufträgen ohne Budgetüberschreitung (ab 2019). Neben die ökonomischen Herausforderungen träten nun noch ökologische, wobei Dr. David Welling dafür plädierte, beide Aspekte gemeinsam zu lösen. Der ökologische Druck besteht nicht nur aus der Selbstverpflichtung der EU zur Klimaneutralität und den entsprechenden Maßnahmen, sondern auch aus den Strafen für nichtgemeldete CO2-Emissionen, Berichtspflichten und Nachhaltigkeitsanforderungen. Der Ansatz der Öko-Effektivität zielt darauf, Herausforderungen auf beiden Feldern mit einer Lösung zu begegnen, also beides zusammenzudenken und produktiv zu nutzen. Zum Beispiel regen die hohen Energiekosten zu einem noch effizienteren Produzieren an, was wiederum die Treibhausgasemissionen senkt.

Blick ins Auditorium

Karosserien und Schäume

Klaus Sammer, Leiter Werkzeugbau, Instandhaltung und Vorentwicklung der Leichtmetallgießerei, und Thomas Kopp gaben einen Einblick in die Entwicklungen beim Karosseriebau bei BMW Landshut: Bei dem Karosseriebau war die Herausforderung schon immer, komplexe und zugleich große Bauteile effizient herzustellen. Das Verfahren des Aluminium-Druckgusses wurde hierbei immer mehr verfeinert: Die in Landshut vor Kurzem entwickelte Mehrplatten-Technologie[i] erlaubt, bei der Konstruktion der Komponenten den Primat von der Optimierung des Fließwegs hin zur Funktionalität zu verlegen. Zugleich lassen sich so Material und Gewicht einsparen, was wiederum zu Einsparungen bei den Emissionen führt. Eine weitere Herausforderung, vor die in der momentanen Lage vermutlich alles Gießereien und Schmelzen stehen, sind die hohen Energiekosten. Durch diesen Druck bietet sich eine Umstellung auf nachhaltige Rohstoffe wie Solarenergie und grünen Wasserstoff an, was wiederum dem Ansatz der Öko-Effektivität entspricht. Natürlich entstehen wiederum Folgeprobleme wie unterschiedliche Temperaturen beim Verbrennen, die Korrosion durch das anfallende Wasser und höheren Verbräuche im Vergleich zum Erdgas: Aufgabe ist es dann, Erfahrungen mit den neuen Verfahren zu sammeln und Lösungen für eventuelle Probleme zu finden. Auch die Elektromobilität ist in diesem Sinne eine Herausforderung, die zu Innovationen anregt: Die Karosserien müssen nun noch komplexer werden und mehr Funktionen integrieren, was wiederum neue Verfahren ihrer industriellen Produktion verlangt. Die Serienfertigung zieht zudem weitere Anforderungen von der Kosteneffizienz bis hin zur Klimabilanz nach sich. Das jüngst vorgestellte „Injector Casting“[ii] Verfahren der Leichtmetallgießerei aus Landshut könnte eine innovative Lösung sein.

Eine andere innovative Möglichkeit zur Einsparung an Material im Kunststoffspritzguss ist das Schäumen. Neben diesem Aspekt bietet dieser Ansatz auch andere Vorzüge, auf die Uwe Kolshorn vom Kunststoff-Instituts Lüdenscheid in seinem Vortrag „Die <andere Denke> beim Kunststoffschäumen – geringere Drücke, Aluwerkzeuge und längere Fließwege, was will man mehr!?“ hinwies. Zunächst sind Schäume keine komplett neuen Bauformen, sondern orientieren sich an den zellularen Formen der Natur. Zugleich ist Schaum nicht gleich Schaum: Verschiedene Materialien und Herstellungsverfahren führen zu unterschiedlichen Eigenschaften und Anwendungsmöglichkeiten. Die grundsätzlichen Vorteile des Schäumens beim Spritzguss sind die geringere Viskosität des Materials (Zähflüssigkeit) und der Verzicht auf den Nachdruck, entsteht der Druck doch im Inneren – eben durch das Aufschäumen. Somit werden unter anderem eine schnellere Füllung und niedrigere Temperaturen des Materials und des Werkzeugs, möglich. Wichtig ist es, bei der Konstruktion der Komponenten bereits die Charakteristika des Schaums im Blick zu haben und die gebotenen Vorteile zu nutzen. Zugleich hat die Verwendung von Schaum auch gewisse Nachteile, mit denen umgegangen werden muss. Beispiele sind die typischen Randausprägungen in Kissenform oder Schlieren auf der Oberfläche. Je nach Anwendungssituation lassen sich hier unterschiedliche Lösungsansätze finden.

Unternehmensführung bei Formconsult in Schmalkalden

Bewegte Zeiten

Christen Merkle, Geschäftsführer von AHP Merkle, zeichnete in einem lebendigen Vortrag mit dem Titel „Was mich bewegt.“ ein Bild der Situation, in der sich kleine und mittlere Unternehmen wie der Spezialist für Zylinder aus dem baden-württembergischen Gottenheim momentan befinden. Neben der schwierigen Lage der Wirtschaft beschäftigen die Unternehmer der schlingernde Kurs der Politik und der Wandel gesellschaftlicher Einstellungen. Unternehmerische Entscheidungen, zum Beispiel Investitionen, brauchen aber langfristige Planbar- und Verlässlichkeit der Rahmenbedingungen, zum Beispiel der Wirtschaftspolitik. Hier gebe es, vorsichtig formuliert, Verbesserungspotentiale. Die Krisenhaftigkeit der Zeit und die Strukturprobleme wie der Fachkräftemangel beiseite präsentierte sich Christen Merkle als leidenschaftlicher, in der Region verwurzelter Familienunternehmer, der sich seiner sozialen und ökologischen Verantwortung bewusst ist. Ein Beispiel der Vorzüge einer solchen langfristigen Orientierung zeigte sich in der Pandemie: Merkle verzichtete auf Maßnahmen wie Kurzarbeit und setzte auf Forschung und Entwicklung, von der das Unternehmen nun mir erfolgreichen Produkten profizieren kann.

Den letzten Input gab dann Stephan Hoffmann, Geschäftsführer der Formconsult Werkzeugbau GmbH aus Schmalkalden, dessen Vortrag in eine Firmenbesichtigung mündete. Das Unternehmen stellt hochpräzise Werkzeuge her und hat sich auf Mehrkomponenten- und Zweifarbentechnik spezialisiert. Der innovative Werkzeugbau beruhe auf drei Säulen, wobei die Entwicklung, Konzipierung und die Simulierung erste Säule wäre. Neben der Kooperation mit Partner wie der HSM und der GFE sorge hierbei auch die Unterstützung von Start-Ups für die Freisetzung innovativer Potentiale. Die zweite Säule besteht im Werkzeugbau selbst, seiner Spezialisierung und der Fertigung. Aspekten der Nachhaltigkeit könne hier genüge getan werden, indem bei den Produktionsstätten auf Energieeffizienz und die Nutzung erneuerbarer Energien – wo möglich – zurückgegriffen werde, sei es durch Solarpanels oder die Klimatisierung über hocheffiziente Wärmepumpen. Die dritte und letzte Säule ist das Technikum, was der Qualitätssicherung dient. Bemusterung, Vermessung und u.a. die Dokumentation sollen neben einer beständigen Zertifizierung die Qualität der Produktion und der Produkte garantieren.

Gruppenbild im Foyer des Hauptgebäudes (© Fabian Diehr/wortundform)

Das Resümee der Veranstaltung legt einen Blick auf den Anfang der Veranstaltung nahe, also die Begrüßungsworte von Prof. Thomas Seul: Sein Plädoyer war die konstruktive Zusammenarbeit von Hochschulen für angewandte Forschung und Unternehmen. Durch diese Kooperation könnte die Expertise der akademischen Forschungsbereiche genutzt werden und so letztlich beide Seiten profitieren. Eine andere Möglichkeit der Zusammenarbeit sind übergreifende Netzwerktreffen wie das Praxisforum, das von Partner aus der Wirtschaft (FDU Hotrunner, HoliMaker, Meusburger, Moulding Expo, Partool und Process Garding) gesponsert und somit in dieser Ausrichtung dankenswerterweise möglich gemacht wurde.

PS: Der Bericht zum vorherigen VDWF-Treffpunkt Werkzeugbau


[i] https://www.aluminium-journal.de/druckguss-bmw-setzt-auf-mehrplatten-werkzeugtechnik

[ii] https://www.bmwgroup-werke.com/landshut/de/aktuelles/2023/erster-guss-in-neuer-high-tech-leichtmetallgiesserei.html

Daten, Archive und Analysen: Was ist Data Analytics?

Daten, Archive und Analysen: Was ist Data Analytics?

Mit der Sammlung von Daten, dem umgangssprachlichen Gold unseres Zeitalters, haben wir uns schon oft befasst. Die Unmenge an Datenmaterial, die infolge der Digitalisierung unter anderem der industriellen Produktion und Teilen der menschlichen Kommunikation zur Verfügung steht, eröffnet unserer Gegenwart völlig neue Wege und Tiefen der Analyse. Kurzum erlauben es die Expansivität moderner Sensorik und die Steigerung der Rechenleistung und Verarbeitungskapazitäten, große Mengen an Informationen aufzunehmen, zu ordnen und Erkenntnisse aus den gesammelten Daten zu gewinnen.

Mit dieser Entwicklung erlangt der spezifische Forschungsbereich der Data Analytics immer mehr an Bedeutung. Hierbei geht es um die Werkzeuge, die Technologien und Prozesse, mit deren Hilfe Muster, Verläufe und Problemlösungen gestützt auf ein Konvolut an Daten ermittelt werden können. Neben der eigentlichen analytischen Auswertung ist die Sicherung der Qualität der Datensätze und eine effiziente Archivverwaltung für die weiteren Schritte elementar.

Können elektrische Schafe halluzinieren?

Mit der Verbreitung KI-gestützter Technologien traten Phänomene in den Fokus der Öffentlichkeit, die der Data Analytics thematisch nahestehen: Infrage steht vereinfacht formuliert, ob zum Beispiel Chat GPT lügen kann. Bei manchen Anfragen kam es zu Ausgaben, die schlicht falsch waren, unter anderem ganz offensichtlicher Fehlurteile wie die Anzahl bestimmter Buchstaben in einem Wort. Dieses Phänomen wurde als Halluzination beschrieben und erhielt einige Aufmerksamkeit: Die Ermittlung der Ursache der Fehlausgabe hatte das Problem der Komplexität des Programms, aber nicht nur der Architektur der künstlichen Intelligenz mit seinen Legionen an Knotenpunkten und Schichten, sondern auch in Hinsicht der Datenmengen und deren komplexer Verwaltung. Letzterer Aspekt zielt auf die Archivstrukturen und den Umgang mit den riesigen Datenmengen und -banken, die großen Sprachmodellen wie Chat GPT für den Trainingsprozess zugrunde liegen.

Neben der Frage, warum diese Fehler überhaupt aufkamen, war auch offen, an welchen Zeitpunkt sie entstanden. Die Programme selbst waren selbstredend nicht zur Ausgabe falscher Antworten angehalten, gleichwohl verlangt der Umgang mit der natürlichen Sprache und manche Formen der Anwendung eine gewisse Qualität der Kreativität, also der Dehnung und Übertragung, die die Programme leisten müssen. Zum Beispiel bei dem Wunsch, den dritten Akt von Romeo und Julia in der Sprache modernen Ostküsten-HipHops zu reformulieren – ein solches Werk existiert bislang nicht, das Modell muss also selbst kreativ werden um diese Anfrage zu beantworten. Es werden große Anstrengungen unternommen, die Anzahl der Halluzinationen von Modellen zu minimieren, was auch die Relevanz zeigt, wie Daten verwertet und verarbeitet, Datensätze gereinigt oder auch korrumpierte Daten aussortiert oder gerettet werden. Und weiter, wie komplexe Technologien mit einem Gros an Datensätzen interagieren. Und hier setzt die Data Analytics an.

Was ist Data Analytics?

Die Data Analytics befasst sich mit der Analyse von Daten und deren Auswertung zu unterschiedlichen Zwecken. Sie ist ein multidisziplinäres Forschungsfeld zwischen der Informatik, der Mathematik und der Statistik sowie weiterer Bereiche, die produktiv verknüpft werden. Generell lässt sich die Data Analytics in vier Ansätze unterteilen: Die deskriptive Analyse versucht zu beschreiben, welche Veränderungen bereits geschehen sind. Dagegen zielt die diagnostische Analytik auf eine Erklärung, warum etwas wie passiert ist. Die letzten beiden Zugänge schlagen eine andere Richtung ein: Aus den Daten Prognosen über zukünftige Entwicklungen abzuleiten ist das Ziel der prädiktiven Analysen. Diese Prognose wird im Falle der präskriptiven Analytik noch durch die optimale Reaktion ergänzt. Die unterschiedlichen Ansätze verfolgen nicht nur verschiedene Ziele, sie gehen auch anders mit den Daten um und haben differenzierte Ansprüche an die Daten.

Seit gut zwei Jahren hat Constantin Pohl die Professur für „Data Analytics“ an der Fakultät für Informatik der Hochschule Schmalkalden inne und nutzt die Gelegenheit seiner Antrittsvorlesung, ein Licht auf verschiedene Facetten seiner Forschung und seiner Lehre zu werfen. Bereits in seiner Dissertation befasste er sich mit der Frage, wie sich moderne Hardware zur Beschleunigung von Datenbank-Anfragen optimal nutzen ließe. Anders formuliert war das Thema, wie Datenverwaltungen strukturiert und organisiert sein müssen, um Ressourcen und Kapazitäten bedarfsgerecht zu nutzen und Suchanfragen effizient zu verarbeiten. Die Datenmengen auf Servern nehmen einerseits beständig zu und macht Suchvorgänge aufwändiger und langsamer, zugleich erlauben die vielen Kerne moderner Prozessoren über das Multithreading parallele Verarbeitungen. So gilt es, Managementsystem für Datenbanken und Datenströme zu entwickeln, die den neuen Anforderungen gerecht werden und zudem die technischen Möglichkeiten optimal nutzen.

Öl-Druck und Reparaturzyklen

In einem zurückliegenden Forschungsprojekt widmete sich Constantin Pohl der Frage, wie KI-Modelle für die Wartung von industriellen Anlagen und Maschinen wie einem Druckluftkompressor genutzt werden können. Das Ziel ist, Wartungsarbeiten an Verschleißteilen nicht mehr an fixen Zeitpunkten oder nach Werkzeugausfällen anzusetzen, sondern vorausschauend anhand konkreter und in Echtzeit erhobener Daten der laufenden Maschinen. Um diese Optimierung zu realisieren ist eine Prognose wichtig: Anhand von Sensordaten sollen Aussagen über die Zukunft getroffen werden, zum Beispiel das ein Filter noch 22 Stunden halten wird, bevor er gewechselt werden sollte. Hieran ließen sich dann entsprechende Reparaturmaßnahmen orientieren.

Die Ausgangsbasis sind wieder verschiedene Sensoren, welche die Maschinen anhand unterschiedlicher Parameter vermessen. In dem konkreten Projekt wurden 26 Merkmale sensorisch erfasst, neben der Temperatur und der Ölqualität auch der Differenzdruck zwischen verschiedenen Filtern. Bevor mit diesen Daten aber Aussagen getroffen werden können, mussten die Algorithmen anhand der Ausfälle der Kompressoren trainiert werden. In Regressionsmodellen wurden unterschiedliche vorverarbeitete und ausgewählte Datenmengen genutzt, um Ausfälle vorherzusagen. Wichtig ist dabei zu verstehen, dass es hier nicht um eine Größe wie die Temperatur ging, um diese Prognose zu machen: Die Modelle berücksichtigen viele Daten und ihre Verläufe, auch über eine längere Zeit, und verknüpften diese zugleich. Diese komplexen Berechnungen sind die spezifischen Leistungen der KI-Modelle, die zur Erkennung von Mustern und Strukturen sowie Abweichungen geeignet sind.

Am Ende des Projektes ließ sich die Prognostizierbarkeit grundsätzlich umsetzen. Mit einem entwickelten Ölsensor und der Nutzung der regulären Sensorik konnten die fehlerhaften Vorhersagen auf 0,09% reduziert werden. Auch die maximalen Abweichungen waren bei einer Gesamtzahl 158.000 Vorhersagen nur in einem Fall bei sechs Tagen und ansonsten bei einem Tag. Der entscheidende Faktor für die erfolgreiche Ermittlung und Prognose ist der Ölsensor.

Datenströme

Neben dieser Thematik befasst sich Professor Pohl auch mit Fragen des Stream Processing: In der Datenverarbeitung lassen sich zwei Ansätze unterscheiden, die sich für verschiedene Anwendungen und Ziele eignen. Der klassische Weg ist die Paketlösung: In einem bestimmten Zeitraum werden Daten erfasst und dann als Block archiviert. Im Anschluss können diese Daten verarbeitet und ausgewertet werden. Offensichtlich ist hierbei die große Latenz, also die Zeitspanne, die zwischen der Messung und den Ergebnissen einer Auswertung steht. Das Stream Processing zielt dagegen auf die Auswertung der Datenströme in Echtzeit, wobei durch diesen Fokus andere Imperative der Verarbeitung wichtig werden.

Die Analyse von Datenströmen steht vor der Herausforderung, eine permanente Aufnahme und Verarbeitung zu gewährleisten. Die Auslastung muss so gestaltet werden, dass durch die Interaktion verschiedener Komponenten keine Flaschenhälse oder Stausituationen entstehen. Kurzum geht es darum, effiziente Strukturen zu etablieren, die eine möglichst permanente und effiziente Verteilung und Verarbeitung erlauben und die Kapazitäten entsprechend nutzen.

Constantin Pohl befasst sich mit der Entwicklung und Erprobung von Stream Processing Engines. Im konkreten Fall ging es um die Vorhersage des Zielhafens und der Ankunftszeit. Die pendelnden Schiffe geben während ihren Reisen permanent Informationen weiter, zum Beispiel über ihre Position, ihre Geschwindigkeit und den Schiffstyp, die in einem komplexen Modell für Vorsagen ihrer Zielhäfen genutzt werden können. Kurzum bietet sich so die Möglichkeit, über eine Einschätzung einer komplexen Sachlage mit vielen Akteuren und zu beachtenden Parametern Strategien der Optimierung der Zielhäfen zu entwickeln.

Fußstapfen

Constantin Pohl hat bislang noch eine Juniorprofessur an der Hochschule Schmalkalden, die im Rahmen des bundesweiten Projektes „FH-Personal“ geschaffen wurde. Mit seiner Berufung wurde die Professur von Martin Golz zu einer Schwerpunktprofessur, die es diesem erlaubt, das Lehrdeputat zu senken und sich vermehrt der Forschung zu widmen.

Professor Pohl kann seine Arbeit in einem laufenden Lehr- und Forschungsbetrieb aufnehmen und den Lehrstuhl intensiv kennenlernen. Ziel ist es, die Reibungsverluste zu minimieren und durch geteilte Wege strukturelle Kontinuitäten zu etablieren. Er unterrichtet neben Grundlagen der Daten- und Wissensverarbeitung auch Deep Learning Architekturen und Wissensentdeckung in Datenbanken. Als Mitglied im Prüfungsausschuss der Fakultät Informatik widmet er sich gemeinsam mit den anderen Mitgliedern den Problemen der Studierenden in Prüfungsangelegenheiten. Auch am Hochschulinformationstag und dem Absolvententreffen stellte er sich und seine Forschung dem interessierten Publikum vor.

Der 3.E-Science Day an der Hochschule Schmalkalden

Der 3.E-Science Day an der Hochschule Schmalkalden

Zum nunmehr dritten Mal wurde von der Fakultät der Elektrotechnik zum E-Science Day geladen. Ziel dieser Veranstaltung ist es zunächst, einen Überblick über die Forschungsaktivitäten an der Fakultät, also über unterschiedliche aktuelle Themen und Projekte, zu geben. Zudem werden Kooperationspartner aus der Wirtschaft und von wissenschaftlichen Institutionen eingeladen und können sich vorstellen. Ferner besteht der Zweck des E-Science Days darin, die Öffentlichkeit von der Schmalkalder Stadtgesellschaft bis hin zu jungen Menschen, die gerade auf der Suche nach einem passenden Studiengang sind, aufmerksam und neugierig auf die Forschungsthemen und -vorhaben zu machen.

Messstationen, Künstliche Intelligenz und Computerchips

Nach der Begrüßung durch die Professoren Roy Knechtel und Silvio Bachmann im Namen der Fakultät Elektrotechnik wurde der erste Vortrag von Professor  Martin Schreivogel gehalten, der an der HSM die Professur für die Grundlagen der Elektrotechnik innehat. Dieser nutzte die Gelegenheit nicht nur dazu, kurz in das Thema der Gassensorik einzuführen, sondern auch, ein Projekt zur Luftgütevermessung via kompakter Messboxen vorzustellen. Das zu lösende Problem war die Ermittlung der Luftgüte in Innenstädten: Anstelle von punktuellen Messungen ist es für eine Beurteilung zweckmäßiger, über viele, im Stadtraum verteilte Messstationen ein detailliertes und dynamisches Bild der Verteilung zu erhalten, also die Luftströme und die Effekte der städtischen Architektur mit in Betracht zu ziehen. Hierfür waren ebenso viele technische Herausforderungen der Sensorik insbesondere hinsichtlich der Kompaktheit der Geräte sowie die Kosteneffizienz zu meistern, die eine Vielzahl solcher Stationen erst möglich macht. Zudem umriss Martin Schreivogel ein aktuelles Vorhaben, das in der Optimierung bereits laufender Wasserstoffanlagen besteht. Eine der zentralen Aufgabe der Energiewende ist die Speicherung und der Transport von Energie, und eine Lösung dafür ist die Transformation in Wasserstoff. Die Forschungsfrage ist nun, wie sich die Prozesse der Elektrolyse unter Realbedingungen optimieren lassen.

Im Anschluss gaben Professorin Maria Schweigel, Inhaberin der Professur für autonome Systeme, und Lisa Schneeweiß einen Einblick in den aktuellen Forschungsstand des Projektes BauKIRo. Dieses Forschungsvorhaben findet in Zusammenarbeit mit dem Lehrstuhl FAPS der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) über eine industrielle Gemeinschaftsforschung mit dem Deutschen Beton- und Bautechnik-Verein E.V. (DBV) statt und wird vom BMWK gefördert. Die Idee hinter dem Projekt ist digitale Herstellung von Bauplänen, für deren Vermessung nicht nur Drohnen, sondern auch Applikationen genutzt werden, die auf künstliche Intelligenz zurückgreifen. Ein Zwischenergebnis besteht in der Notwendigkeit, die Drohnen, die den Baufortschritt prüfen und dokumentieren sollen, auf die spezifische Umgebung sich im Bau befindlicher Gebäude anzupassen. Hierbei geht es zum Beispiel um die Gefahr, die von herumhängenden Kabeln verursacht werden. Ein anderes Problem ist die Datenverarbeitung der Bilder, wodurch fehlerhafte Punktwolken entstehen können. Somit hat die Forschung neue Aufgaben, ihren Ansatz anzupassen und zu optimieren.

Über das von der Carl-Zeiß-Stiftung geförderte Projekt „Material innovations for wafer-level packaging technologies“ informierte Professor Roy Knechtel, Inhaber der Professur für Autonome Intelligente Sensoren. Dieses Verfahren bietet die Möglichkeit, im Vergleich zur klassischen Herstellung kleinere und kosteneffizientere integrierte Halbleiterbauelemente herstellen zu können. Üblicherweise werden die dünnen Siliziumscheiben, die Wafer, zunächst getrennt und im Anschluss in einem komplexen Prozess mit einem Umgehäuse und elektrischen sowie Montageanschlüssen versehen. Im „wafer-level packaging“-Verfahren indes werden die Komponenten schon auf dem Wafer selbst aufgebracht und eingehaust. Durch diese 3D-Integration lassen sich noch kleinere, leistungsstarke Chips herstellen, wie sie zum Beispiel für Smartphones der neueren Generationen Verwendung finden. Ein anderes Beispiel eines solchen Chips sind die Infrarot-Sensoren der Smartwatch eines namhaften Herstellers. In dem Forschungsprojekt ergeben sich zugleich enge Kooperationsmöglichen mit der Materialwissenschaft und den technischen Möglichkeiten von 3D-Druck-Systemen.

Den Abschluss des ersten Blocks machte dann der Vortrag Norbert Greifzus vom Team der „Eingebetteten Diagnosesysteme (EDS)“. Er stellte eine Kooperation zwischen der Elektrotechnik und dem Maschinenbau vor, bei dem es um den Einsatz künstlicher Intelligenz bei Verfahren des Spritzgusses geht. Kurzum können verschiedene Sensordaten und speziell trainierte Programme dabei helfen, fehlerhafte Teile zu prognostizieren und so rechtzeitige Eingriffe in die Fertigung vorzunehmen, um diesen Ausschuss zu vermeiden. Hier werden unter anderem Messungen von Temperatur und Druck verwandt und auf Basis der Verläufe vieler vorheriger Messungen bewertet. Wichtig ist hierbei zugleich, dass die Modelle der künstlichen Intelligenz das Zustandekommen ihrer Beurteilung transparent machen, um so letzter die Akzeptanz bei den Nutzenden zu erhöhen. Dies wäre zum Beispiel über eine graphische Ausgabe von Markierungen an Verlaufskurven der Temperatur oder des Drucks möglich.

Infrarotsensoren, Mikrostrukturen und 3D-Drucker

Der zweite Teil des E-Science-Days wurde mit einem online-Vortrag von Rachel Gleeson vom belgischen Unternehmen Melexis eingeläutet. Sie kooperiert in ihrer Forschung mit dem in Erfurt ansässigen Unternehmen X-FAB sowie mit Roy Knechtel. In ihrem Beitrag konturierte sie zunächst die Breite der Anwendungsmöglichkeiten von miniaturisierten Infrarotsensoren, denen über die Messung der thermischen Strahlung die präzise berührungslose und somit schnelle Ermittlung von Temperaturen möglich ist. Dieser Auffächerung zuvor ging ein Blick auf die Komplexität der Integration der Komponenten in eines Mikro-Elektro-Mechanischen Systems (MEMS) bei einer gleichzeitigen Minimierung des Platz- und Stromverbrauchs. Wichtig ist hierbei zu beachten, dass es unterschiedliche Infrarotsensoren für verschiedene Anwendungen gibt, zum Beispiel unterscheiden man Sensoren für punktuelle Messungen und bildgebende Sensorarrays. Je nach Anwendungsfeld unterscheiden sich auch die Ansprüche an Präzision: So nimmt sich die erforderte Exaktheit auf dem Gebiet medizinischer Anwendungen um einiges höher aus, als bei Produkten für Konsumenten wie zum Beispiel Fitnesstrackern oder Heimelektronik.

Die Infrarotsensoren finden in unserer Gegenwart bereits breite Verwendung: Zum einen in Geräten wie Smartphones und -watches, die so die Körpertemperatur ermitteln können. Damit ist die Health-Tech ein relevantes Anwendungsfeld, das noch an Bedeutung gewinnen wird. Ein zentraler Pluspunkt in diesem Bereich medizinischer Anwendungen ist, dass die Temperaturmessung ohne direkten Kontakt funktioniert. Andere Gebiete sind zum Beispiel die wärmesensorische Vermessung von Gebäuden, was unter anderem dem Auffinden von Stellen dient, an denen Wärme verloren geht. Ein Nebeneffekt der Vermessung über Infrarotsensoren ist, dass sie ihre Daten anonymisiert erheben, sind doch Personen detektier aber nicht identifizierbar. Dies macht die Sensoren auch für die Überwachung und Automation von Gebäuden nützlich, wie zum Beispiel bei der smarten Steuerung von Licht- oder Heizungsanlagen, die z.B. in Bürogebäuden Anwendung findet.

Stephanie Lippmann forscht an der Friedrich-Schiller-Universität Jena zu Themen der Materialwissenschaften und hat hier zurzeit eine Vertretungsprofessur für metallische Werkstoffe am Otto-Schott-Institut für Materialforschung inne. Grundsätzlich widmet sie sich Aspekten der Metallphysik, genauer thermodynamischen und kinetischen Prozessen bei mikroskopischen Strukturveränderungen der Werkstoffe während Zustandsänderungen, sogenannten Phasen­umwandlungen. Die Thermodynamik befasst sich zunächst als Teilgebiet der Physik mit Fragen der Umwandlung und Änderung von Energie innerhalb eines oder mehrerer Systeme.

Die Kinetik betrachtet die Zeitabhängigkeit, also die Geschwindigkeit, dieser Umwandlungsprozesse. Im Fokus von Stephanie Lippmanns Forschung wiederum stehen die mikrostrukturellen Prozesse in metallischen Legierungen bei besonders schnellen Phasenumwandlungen, also wenn z.B. eine Schmelze erstarrt, aber auch bei Festkörperphasenübergängen während rascher Wärmebehandlungen. Den Prozessen dieser „rapid phase tranformations“ im Material versucht sie mittels einer spezifischen Testanlage und unter besonderen Konditionen nachzugehen, die eine sehr schnelle Erhitzung und Abkühlung der Testobjekte bietet. Um diese Umwandlungsprozesse genauer zu verstehen, verwendet Stephanie Lippmann die thermo-kinetische Modellierung, mit dem Ziel, die Materialstruktur, das sogenannte Gefüge, gezielt anhand der Zusammensetzung und der Wärmebehandlung einstellen zu können. Über die Steuerung des Gefüges ist es schließlich möglich, die Eigenschaften einer Legierung für die gewünschte Anwendung zu optimieren. 

Für die Elektrotechnik ist diese Forschung der benachbarten Disziplin gerade deswegen so relevant, weil solche strukturellen Umwandlungsprozesse auch bei der Herstellung und Qualifizierung von mikroelektronischen Schaltkreisen auftreten. Ein grundlegenderes Verständnis hilft unter anderem auch die Ursachen von Mängeln im elektronischen Bauteil zu verstehen. Da in den zunehmend komplexeren, und weiter miniaturisierten Objekten die Anforderungen an die Reinheit und Zuverlässigkeit der verwendeten metallischen Komponenten immer weiter steigen, ist es hier zentral, voneinander zu lernen. Zu diesem Zweck wurde im Rahmen des bereits vorgestellten Projekts „Material innovations for wafer-level packaging technologies“ eine Kooperation zwischen Friedrich-Schiller-Universität Jena und der Hochschule Schmalkalden auf den Weg gebracht.

Den offiziellen Teil des E-Science-Day abrunden durfte Martin Hedges von der Neotech AMT GmbH aus Nürnberg, wobei die Abkürzung für Advanced Manufacturing Technologies for 3D Printed Electronics steht und sich das Unternehmen entsprechend vor allem im Bereich des 3D-Drucks von komplexen elektronischen Bauteilen einen Namen gemacht hat. Durch diese Expertise ergab sich auch die Kooperation mit der elektrotechnischen Fakultät und mit Roy Knechtel. Wie dieser schon in seiner einführenden Vorstellung klarmachte, ist eine Vision in der Elektrotechnik, ein Gerät zu haben, dass vollständige elektronische Bauteile wie Schaltungen herstellen kann. Die 3D-Drucker, die Neotech entwickelte, kommen diesem Ziel schon recht nahe.

Der 3D-Druck von elektronischen Bauteilen hat allen voran den Vorteil, ein schnelles und günstiges Prototypingverfahren  zu sein und zugleich eine Vielfalt an möglichen Formen zu gestatten. Hierbei kommt hinzu, dass die 3D-Drucker von Neotech verschiedene Verfahren des 3D-Drucks als Funktionen bieten und sich so die Anwendungsbreite durch die Kombination noch deutlich steigern lässt. Ein Beispiel der neuen Möglichkeiten war die Herstellung einer Glühbirne: Bei üblichen Glühbirnen sind neben den Materialien, die das Produkt bei der Herstellung bedarf, auch die Ressourcen einzupreisen, die das Recycling verlangt. Der 3D-Druck lässt es hier zu, beide Enden bereits im Design zu bedenken und so nachhaltige Lösungen zu ermöglichen.

Im kleineren Rahmen wurde im Anschluss in den Räumen der Fakultät Elektrotechnik die Einweihung eines solchen 3D-Druck-Systems feierlich begangen, an dem Forschenden nun den Möglichkeiten und Grenzen dieser Herstellungsverfahren nachgehen werden. Ziel ist es gemäß der Vision, eine rein additive Herstellungsweise zu entwickeln, die es erlaubt, ganze elektronische Bauteile wie Sensoren zu produzieren. Möglich machte dies eine Förderung von der Europäischen Union.