Die Vermessung von Müdigkeit. Wie können wir Unfälle im Straßenverkehr und bei anderen Tätigkeiten mit Daueraufmerksamkeit verhindern?

Die Vermessung von Müdigkeit. Wie können wir Unfälle im Straßenverkehr und bei anderen Tätigkeiten mit Daueraufmerksamkeit verhindern?

Im Winter werden die Tage kürzer, und so lässt es sich kaum vermeiden, im Dunklen zu reisen. Für Autofahrer und -fahrerinnen stellt sich dabei ein besonderes Problem: Nachts, vor allem auf monotonen Strecken wie Autobahnen, kommt es zu Ermüdungserscheinungen wie Schläfrigkeit und Unaufmerksamkeit, teils sogar zum kurzen Wegnicken. Diese Phänomene bergen offensichtlich ein immenses Risiko, für die fahrzeugführende Person ebenso wie für Dritte im Fahrzeug oder andere, unbeteiligte Verkehrsteilnehmer und Passanten. Die nicht geringe Zahl an Unfällen, deren Ursache auf Ermüdungserscheinungen zurückgeführt werden kann, ist eine Motivation für die Forschung und die Suche nach Lösungen.

Professor Martin Golz aus der Fakultät Informatik der Hochschule Schmalkalden widmet sich diesen Fragen aus dem Forschungsfeld der Biomedizintechnik: Um ein Phänomen zu vermessen, muss man sich über dessen Definition im Klaren sein. Zunächst stellt sich also die Frage, was Vigilanz ist und im Gegenzug, in welchen Formen Ermüdungserscheinungen auftreten.[1] Wichtig ist dabei, verschiedene Aspekte zu differenzieren und zugleich die entscheidenden Faktoren auszumachen. Es geht also darum, ein oder mehrere verlässliche Kriterien zu finden, anhand derer Ermüdungserscheinungen detektierbar sind. Eine zentrale Herausforderung für die Forschung ist dabei, dass es keine verbindliche Definition der Ermüdung oder ihrer Anzeichen gibt und in der Folge bislang belastbare und dezisive Attribute fehlen.[2] Wie vermessen wir also Merkmale von Ermüdung?

Was ist eigentlich Ermüdung und wie zeigt sie sich?

Eine Gelegenheit, dieser Frage nachzugehen, ergab sich im Rahmen einer Anfrage aus der Wirtschaft, konkret der Tagebauindustrie: Im Minenbetrieb gibt es eine rege Logistik per Lastkraftwagen, die im Schichtbetrieb arbeiten.[3] Mehrere Faktoren, die im Regelfall Müdigkeit befördern, kommen hier zusammen: Lange Fahrten, monotone Strecken, stetige Wiederholung. Die Belastung nimmt nochmals durch die harschen Umweltbedingungen wie hohe Temperaturen und geringe Luftfeuchte sowie Staub zu. Kurzum: Ein Knochenjob, dessen hohe physischen und psychischen Belastungen regelmäßig zu Unfällen aufgrund von Ermüdung führen. Politische und ökonomische Akteure haben aufgrund der körperlichen und wirtschaftlichen Schäden und Folgekosten ein hohes Interesse, diese Unglücke zu vermeiden.

In der Industrie hat in den letzten Dekaden ein Umdenken stattgefunden, mit dem die Sorge um die Fitness der Beschäftigten in den Fokus trat: Mit dem fatigue risk management haben Strukturen und Umgangsformen in den Betrieb Einzug gehalten, die helfen, mit Ermüdungserscheinungen offen und bewusst umzugehen, diese frühzeitig zu erkennen und damit Unfälle zu vermeiden. Ferner sollen Vorgesetzte auf das Phänomen und das Risiko aufmerksam machen und die Belegschaft sensibilisieren. Um die Sicherheit der Fahrenden weiter zu fördern, sind Monitoringtechnologien sinnvoll und zweckmäßig, die Müdigkeitserscheinungen und Schlafereignisse autonom erkennen und bestenfalls verlässlich Alarm schlagen, bevor es zu Unfällen kommt. Hier kommen zwei Dinge zusammen: Zunächst die Vermessung der Erscheinungsformen von Ermüdung, und zum anderen eine Prognose. Beide Punkte müssen in der Forschung mit unterschiedlichen Ansätzen verfolgt werden.

Monitoringsysteme

Um den Einsatz der Monitoringsysteme bewerten zu können, musste zunächst eine Auswahl unter den auf dem Markt verfügbaren Systemen getroffen werden. Neben Wissenschaftler:innen wurden auch Beschäftigte und Vertreter der Unternehmen hinzugezogen: Aus der Gewichtung verschiedener Faktoren entstand ein Koordinatensystem, mit dem sich drei Monitoring-Modelle als sinnvolle Testfälle ermitteln ließen. Diese drei haben einen ähnlichen technischen Aufbau: Sie werden auf dem oder im Armaturenbrett befestigt und sind mit einer Infrarotkamera ausgestattet.

Die Ermüdung messen sie nach dem PERCLOS-Maßstab: Dieser bezieht sich auf die Zeit, während das Auge achtzig Prozent vom Lid verdeckt ist. Für diese Messung erfasst die Kamera verschiedene Aspekte, die sie aber nur in der Kombination des PERCLOS auswertet. Neben der Öffnung der Augenlider wird die Lidschlussdauer und die Pupillenweite in die Auswertung sowie u.a. die Kopfbewegung miteinbezogen. Offen ist neben der Aussagekraft des PERCLOS-Kriteriums selbst, ob ein oder mehrere Aspekte schon für sich valide Aussagen über die Ermüdung treffen. Für das Monitoring ist wichtig, einerseits eine hohe Sensibilität zu ermöglichen, andererseits aber möglichst Fehlalarme zu vermeiden, da dies wiederum die Akzeptanz verringern würde. So darf das Augenschließen bei blendendem Gegenverkehr eben nicht zum Alarm führen. In dieser Abwägung muss ein gangbarer Weg in der Anwendung gefunden werden.

Testfahrten im Labor

Aufgrund des Risikos verbieten sich Tests in Realsituationen. In der Folge griff Professor Golz auf eine computergestützte Fahrsimulation zurück, die die Vermessung von Ermüdungserscheinungen unter kontrollierten Bedingungen erlaubt. Zunächst galt es, die Testobjekte auszuwählen: Aus einer Vielzahl an Bewerbungen aus der Studierendenschaft der Hochschule Schmalkalden wurden mehrere geeignete Personen ausgewählt, um an dem Test teilzunehmen. Um die Ermüdung wahrscheinlicher zu machen – Ziel war ja deren Vermessung –, mussten die Partizipierenden einen bestimmten Tag-/Nachtrhythmus einhalten, ein Schlafprotokoll führen, auf Schläfchen am Tage verzichten und am Tag der Messung selbst wachhaltende Getränke wie Kaffee meiden. Simulierte Testfahrten wurden den realen Arbeitsroutinen der Kraftfahrer:innen des Tagebaus nachempfunden. Von 23:30 bis 08:30 mussten die sechzehn Teilnehmer:innen mehrere Einheiten von vierzig Minuten fahren. Das Testumfeld und die Testbedingungen waren so gehalten, dass sie Müdigkeit befördern: Die Strecke war monoton, es gab keinen Straßenverkehr und keine Ablenkung während der Fahrt. Zusammenfassend waren die wichtigen Kriterien der Studie, die Ermüdungserscheinungen wahrscheinlicher machen sollten: Time since sleep, time on task, time of day und das Monotonie-Empfinden.

Aufnahme aus dem Fahrsimulator (Quelle: Martin Golz)

Als Referenz zur ermittelten Müdigkeit wurde auf zwei etablierte Maßstäbe zurückgegriffen, die unabhängig von den anderen Werten funktionieren und somit als Kontrollvariablen dienen konnten: Zum einen die Selbsteinschätzung über den Grad der momentanen Müdigkeit, der in den Pausen zwischen den Fahrten abgefragt wurde (Karolinska sleepness scale). Zur Messung der subjektiv empfundenen Ermüdung hat sich diese neun-stufige Skala in der Wissenschaft als durchaus verlässlich erwiesen. Zum anderen die Position des Fahrzeugs auf der Straße: Ermüdungserscheinungen führen dazu, dass die Fahrzeuge die Fahrbahnmitte häufiger verlassen. Ein Übertritt über Fahrbahnmarkierungen lässt sich leicht ermitteln. Beide Kriterien sollen die Grundlage für die Bewertung der Monitoring-Systeme bilden. Als weitere Quelle der Vermessung wählte Professor Golz die EOG- und EEG-Signale, also die Augen- sowie die Hirnaktivität.

Wir kennen die Bilder des EEG zumeist aus dem Fernsehen: Ein Geflecht von Kabeln wird über einen Kopf gelegt und an verschiedenen Punkten Kontakt mit der Kopfhaut hergestellt. Über diese Kontakte lassen sich geringste Potentiale eines elektrischen Strömungsfeldes messen und folglich die Aktivität im Hirn in gewissem Maße nachvollziehen. Je nach Menge der Kontakte entstehen dann Aufzeichnungen einer Vielzahl an Wellen, die dem Laien nichts sagen. Die Auswertung dieser Diagramme ist eine höchst komplexe Angelegenheit und verlangt viel Erfahrung. Nur so lassen sich aus den Verschiebungen der Wellen, ihren Frequenzen und Amplituden und je nach Hirnareal differenzierte Rückschlüsse führen. Eine Frage ist, ob sich Ermüdungserscheinungen über dieses Verfahren exakt ermitteln lassen, bzw. ob eine Prognose eintretender Ermüdung möglich ist.

Erhebung und Auswertung der Daten

In einem ersten Schritt wurden die Daten der beiden unabhängigen Messungen mit den PERCLOS-Erhebungen der drei Monitoring-Systeme verglichen. Die Korrelation der PERCLOS-Werte mit den objektiven Messungen hielten nur oberflächlich stand: Sobald die zeitliche Auflösung feiner wird oder nur die Daten eines Individuums herangezogen werden, verlieren sich die hohen Korrelationswerte. Zusammenfassend ergaben sich signifikante inter- und selbst intrasubjektive Unterschiede über die Maßstäbe hinweg.

In einem zweiten Schritt versuchte Professor Golz zu klären, ob die EEG-Messungen als Referenz für eine Validierung der videobasierten Systeme zu dienen vermögen. Um hier eine Datenanalyse vornehmen zu können, wurde beide Messwerte simultan erhoben, und die Datensätze anschließend mithilfe der unabhängigen Variablen in starke und schwache Ausprägungen der Ermüdung unterteilt. Eine nichtlineare Diskriminanzanalyse sowohl der PERCLOS- als auch der EEG/EOG-Zeitreihen zeigte ein Defizit des PERCLOS, in hoher zeitlicher Auflösung zwischen schwacher und starker Ermüdung zu unterscheiden.

Aus diesen Ergebnissen ließ sich folgern, dass die Monitoringsysteme zwar unter Laborbedingungen gut arbeiten, hierfür aber wichtige Konditionen erfüllt sein müssen: Neben einer niedrigen zeitlichen Auflösung müssen die Daten vor der Auswertung möglichst über viele Personen hinweg gemittelt werden. Offen ist, ob die Messdefizite  an der Ausrichtung der Systeme am Normalverhalten der Augenbewegung liegt, wodurch untypische Ausprägungen nicht oder falsch detektiert würden. Jedenfalls erwies sich das EEG/EOG-Signal als deutliche robustere Maßgabe zur Ermittlung der Ermüdung.

Am Ende lässt sich festhalten, dass der Weg hin zu funktionierenden Monitoringsystemen von Ermüdungserscheinungen noch ein weiter ist. Ein Problem ist dabei, dass bislang keine Klarheit darüber herrscht, wie sich Ermüdung zeigt, was also generalisierbare Kriterien und Messobjekte sind. PERCLOS hat hierbei nur sehr bedingt überzeugen können. Und da es in diesem Bereich buchstäblich um Leben und Tod geht, bedarf es mehr Forschung, um geeignete Maßstäbe für Monitoringansätze zu liefern.

Die Prognose von Mikroschlafereignissen

Auch wenn das EEG durchaus verlässlich Ermüdungserscheinungen detektieren kann, bleibt doch das praktische Problem bestehen, dass die Ermittlung der Daten aufwendig ist und sachverständiger Expertise bedarf. Um breitenwirksame Akzeptanz zu erhalten, müssen andere technologische Lösungsansätze gefunden werden. Das Forschungsfeld der Neuroinformatik hat hier also noch genügend Aufgaben. Gerade die Prädiktik, also die Prognose kritischer Ermüdungserscheinungen, birgt soziale und ökonomische Relevanz.

In einem anderen, aktuelleren Projekt widmete sich Professor Golz zusammen mit seinem Team der Vorhersagbarkeit von Mikroschlafereignissen unter zu Hilfenahme von EEG-Signalen.[4] Die Herausforderungen bestanden wiederum in der Komplexität der Signalcharakteristik und der hohen inter-individualen Variabilität, also unterschiedlichen EEG-Eigenschaften je nach Person. Die Idee war, die Amplituden des EEG durch fünf Methoden der Zeitreihenvorhersage zu analysieren. Neben der prädiktiven Qualität ging es auch um die Eignung verschiedener Messpunkte des EEGs, also welches Hirnareal sich besser bzw. schlechter für die Messungen eignet.

Professor Golz bei der jüngsten Vorstellung seines Forschungssemesterberichts

Die Daten entstammten verschiedenen Testfahrten im Schmalkalder Labor, die unter den gleichen Bedingungen entstanden sind wie jene der Ermüdungserscheinungen. Durch die Verwendung der Messwerte von 79 jungen, gesunden Personen konnte auf eine große Datenmenge zurückgegriffen werden. Auch wenn sich ein Modell der Zeitreihenprognose durch eine geringe Fehleranzahl hervortat, wurde klar, dass jeder EEG-Kanal andere Parameterkombinationen zu seiner optimalen Verwendung bedurfte.

Infolge dieser Komplexität sind Prognosen schwierig, gerade wenn der Zeithorizont mit fünf Sekunden angesetzt wird. Auch eine adaptive Klassifikationsanalyse, die dem dynamischen Charakter der Signale gerechter werden sollte, hatte zwar im ersten Schritt hohe Genauigkeiten, konnte diese Ergebnisse aber nicht in der Validierung reproduzieren. Die Leistungsfähigkeit der Vorhersage ist abschließend also vorhanden, aber noch recht gering. Um hier Verbesserungen zu ermöglichen, könnten optimierte Datensätze ebenso verwandt werden wie moderne Methoden, die auf künstliche Intelligenz zurückgreifen und dem dynamischen Charakter der Daten entsprechen. Am Ende kann jede Verbesserung der Prognostizierbarkeit helfen, Leben zu retten. Somit ist es sinnvoll, an der Erkennbarkeit von Ermüdung weiter zu forschen. Das Fahrsimulationslabor und das Archiv der gewonnenen Datensätze ist hierfür eine ideale Ausgangsbasis.


[1] Vigilanz stammt vom lateinischen vigilantia, das „Wachsamkeit“ und „Fürsorge“ meint. Vigilanz bezeichnet einen Zustand andauernder Aufmerksamkeit bei eintöniger Reizfrequenz und ist umgänglich ein Synonym von Wachheit, einem Aspekt des Bewusstseins. Für die Untersuchung der Vigilanz misst man die Fähigkeit einer Person zur Daueraufmerksamkeit.

[2] Die uneindeutige Verwendung der Begriffe Müdigkeit, Fatigue und Erschöpfung ist Teil des Problems. In der Forschung wird mittlerweile dafür plädiert, die drei Begriffe als distinkte Phänomene auf einem Kontinuum zu fassen, die in Relation gesetzt werden können. Vgl. Matti, N., Mauczok, C. & Specht, M.B. (2022): Müdigkeit, Fatigue und Erschöpfung: Alles das Gleiche oder Ausprägungen eines Kontinuums? – Ein Diskussionsanstoß. Somnologie – Schlafforschung und Schlafmedizin 26, 187-198.

[3] Golz, M., Sommer, D., Trutschel, U., Sirois, B., Edwards, D. (2010): Evaluation of fatigue monitoring technologies. Somnologie – Schlafforschung und Schlafmedizin 14, 187-­199.

[4] Schneeweiß, L., Pauli, M. P., Golz, M. (2023): EEG-Vorhersage zur Prognose von Mikroschlaf, in: Stolzenburg, F., Reinboth, C., Lohr, T. & Vogel, K. (Hrsg.): NWK 2023 – Tagungsband der 23. Nachwuchswissenschaftler*innenkonferenz, Harzer Hochschultexte Nr. 14, Hochschule Harz, Wernigerode, 176-183.

Wie lässt sich Personal halten? Über wirtschaftspsychologische Faktoren der Mitarbeiterbindung

Wie lässt sich Personal halten? Über wirtschaftspsychologische Faktoren der Mitarbeiterbindung

In Zeiten obwaltenden Fachkräftemangels wird die Herausforderung für Unternehmen, qualifiziertes Personal anzuwerben oder auch nur zu halten, nicht eben geringer. Durch die Fluktuation der Beschäftigten ergeben sich nebst Potentialen frischen Winds auch Reibungsverluste, die Unternehmen vermeiden wollen. So bedarf neues Personal einer Einarbeitungszeit, und zugleich verlieren die Unternehmen mit den Mitarbeiter:innen immer individuell erworbenes Sach- und Handlungswissen. Auch müssen die Vakanzzeiten überbrückt werden, wodurch die Arbeitsbelastung der Kolleg:innen steigt. Mit den psychologischen Faktoren und Mechanismen, die dem Verbleiben der Beschäftigten dien- oder schädlich sind, befasst sich Katharina Sachse, Inhaberin der Professur für Wirtschaftspsychologie an der Hochschule Schmalkalden. Eine Studie, die diesen Themen empirisch nachgeht und zu der sie in Koautorinnenschaft mit Ulrike Gaedke jüngst einen Artikel veröffentlichte, stellte sie im Rahmen ihrer Antrittsvorlesung an der Hochschule Schmalkalden vor.

Faktoren der Bindung

Um zu verstehen, was Mitarbeiter:innen an ihren Arbeitsstellen hält, muss eine dementsprechende Perspektive eingenommen werden: Ein Faktor dieser Bindung lässt sich mit dem englischen „commitment“ umschreiben, dass begrifflich zwischen den Bedeutungen einer Verpflichtung sowie Einbindung und einer Hingabe sowie einem Engagement schwankt. Das Commitment besteht aus verschiedenen Komponenten: Im affektiven Commitment, das in der Studie im Fokus stand, geht es um eine gefühlte Bindung an das Unternehmen und den Job. Anders formuliert meint dies ein „Selbst-“Bekenntnis und „den Wunsch der Beschäftigten, Teil des Unternehmens zu sein und zu bleiben.“ Demgegenüber verschiebt sich im normativen Commitment die Relation: Es geht nicht mehr um die Wertschätzung des Unternehmens, sondern um eine wahrgenommene Verpflichtung gegenüber dem Unternehmen. Weil beispielsweise meine Firma mir diese kostspielige Weiterbildung finanziert hat, habe ich eine Bringschuld gegenüber dem Unternehmen und bin mit ihm verbunden. Als dritter Aspekt kann ein kalkulatorisches Commitment angeführt werden, das allerdings auf eine vergleichsweise oberflächliche Bindung aufgrund rationaler Erwägungen abhebt. Beschäftigte bleiben hierbei aufgrund individueller und situativer Vorteile, entwickeln jedoch keine tiefergehende Beziehung.

Die Frage der Studie ist nun, wie und ob die Bindungseffektes des affektiven Commitments mit der Einbettung in den Job  und dem psychologischen Vertragsbruch zusammenhängen respektive sich positiv oder negativ auf die Mitarbeiterbindung auswirken. Um dies zu klären, wurde eine Online-Befragung von über fünfhundert Teilnehmenden vorgenommen und ausgewertet.

Passung und psychologische Verträge

Die Einbettung besteht nicht nur selbst aus verschiedenen Aspekten, es ist zudem wichtig, zwischen den Sphären des Beruflichen und des Privaten zu trennen, die hier beide einen distinkten Einfluss haben. Die Verbindungen sind der erste Aspekt: Sie beziehen sich auf das soziale Umfeld und die Aktivitäten, also neben dem Kreis der Kolleg:innen und den Führungskräften auch kollektive Teambuildingmaßnahmen auf der einen Seite, und das familiäre Umfeld sowie die Freundes- und Bekanntenkreise und die Freizeitaktivitäten auf der anderen Seite. Je besser sich der Job mit diesen Aspekten einer sozialen Qualität verträgt, umso höher sollte die Bindung sein. Die Passung als zweiter Aspekt zielt auf die Kompatibilität zwischen dem Individuum mit seinen Kenntnissen, Talenten und seiner Biografie und dem Anforderungsprofil des Jobs: Passt die Person also zum Job, oder kann sich diese an anderer Stelle besser und ihren Talenten gemäßer einbringen? Ein Mangel dieser Passung könnte also zu einer Über- oder Unterforderung bzw. zu Frustrationserfahrungen in der beruflichen Tätigkeit führen. Auf der anderen Seite ist es die Frage, wie sich die Anforderungen des Jobs mit einem gelingendem Sozialleben übereinbringen lassen – hier ist an Dinge wie Gleitzeit und weit mehr zu denken. Die dritte Komponente ist der Verzicht und meint die Vorzüge, die bei einem Jobwechsel seitens des Beschäftigten aufzugeben wären. Neben der Vergütung sind dies u.a. Home-Office-Regelungen, Job-Tickets, betriebliche Rentenversicherungen oder Möglichkeiten der Kinderbetreuung.

Der dritte Faktor ist der psychologische Vertragsbruch und seine Folgen. Wichtig ist es, den Bruch zu vermeiden, da dieser negative Effekte auf die Mitarbeiterbindung und dessen Arbeitsbereitschaft hat. Was ist der psychologische Vertrag? Anders als der Arbeitsvertrag ist dieser kein Teil direkter Aushandlung noch wird er schriftlich fixiert oder ist er einklagbar. Der psychologische Vertrag ist eine gegenseitige Erwartungshaltung, die durch verschiedene Situationen und beteiligte Akteure geprägt werden kann. Von Seiten der Beschäftigten kann dies bereits durch die digitale Selbstpräsentation des zukünftigen Unternehmens im Internet geschehen, durch das Image oder das Leitbild. Andere Prägungen können durch das Bewerbungsgespräch oder den Onboarding Prozess einfließen. Natürlich sind darüber hinaus auch Mitarbeitergespräche und ähnliches hier relevant. Im Resultat entsteht eine Erwartungshaltung des oder der Beschäftigten gegenüber der Organisation, seien es monetäre Versprechungen, die Ausrichtung der Arbeitsstelle, Weiterbildungen oder andere Dinge. Wird dieser Erwartung nicht entsprochen, kann es zum Bruch des psychologischen Vertrags kommen: Die Folgen sind ein Vertrauensbruch, Enttäuschung und eine sinkende Arbeitsmoral. Gerade weil der psychologische Vertrag nicht kodifiziert ist, fällt es in den Aufgabenbereich der Führungskräfte, auf Signale seiner Nichteinhaltung seitens der Beschäftigten zu achten.

Befragung und Auswertung

Katharina Sachse und Ulrike Gaedke gingen den Fragen der Mitarbeiterbindung über eine Online-Befragung Anfang 2024 nach, die sie über Karrierenetzwerke und eine Hochschule für berufsbegleitendes Studium verbreiteten. Die Stichprobe umfasste 512 Individuen, die einen Fragenkatalog ausfüllen mussten, der wiederum die verschiedenen Facetten und Dimensionen der Studie abdeckte.

Im Ergebnis der Studie kann resümiert werden, dass zwischen den angesprochenen Variablen ein direkter, starker statistischer Zusammenhang festgestellt werden konnte, und die Faktoren demnach die Mitarbeiterbindung stärken können. Eine These der Studie war, dass die Einbettung das affektive Commitment stärkt, was wiederum zu einer höheren Mitarbeiterbindung führt. Auch wenn sich diese Annahme bestätigt fand, wurde gleichzeitig eine vom Commitment unabhängige Beziehung der Einbettung und der Mitarbeiterbindung festgestellt. Hier würde sich folglich eine Förderung lohnen.

Empfundene psychologische Vertragsbrüche verringern die Bindungswirkung der anderen Aspekte. Dabei sind die Vertragsbrüche keine Seltenheit: Ungefähr ein Viertel der befragten Personen konnte ein oder mehrere Beispiele nennen, wobei sich die meisten ungehaltenen Versprechen auf die Personalentwicklung und das Gehalt bezogen.

Mitarbeiter:innen binden

Im Resultat können Unternehmen, denen an der Mitarbeiterbindung aus guten Gründen gelegen sein sollte, nun auf Stellschrauben zurückgreifen. Neben klassischen Teambuildingmaßnahmen kann die Passung des Jobs beständig optimiert werden. Wichtig ist es bei diesen Maßnahmen, auf die individuellen Bedürfnisse der Beschäftigten zu achten und die Passung der privaten und der beruflichen Sphäre mitzudenken. Daneben sollten Unternehmen und speziell die Führungskräfte und die Verantwortlichen im Personalbereichs eine Sensibilität gegenüber dem psychologischen Vertrag ausbilden: Hierbei sind neben den expliziten Aussagen eben auch die impliziten Gehalte wichtig.

Der Artikel wird im April 2025 in der Zeitschrift Führung + Organisation (zfo) erscheinen. Die Studie konnten die beiden Wissenschaftlerinnen auch bei der 28. Fachtagung der Gesellschaft für angewandte Wirtschaftspsychologie (GWPs) in Hamm Anfang des Jahres vorstellen.

Seit dem Wintersemester 2024/25 hat Katharina Sachse die Professur für Wirtschaftspsychologie an der HSM inne. Sie promovierte an der TU Berlin zum Thema „Risikowahrnehmung und -verhalten privater Kapitalanleger“ und wirkte in verschiedenen Forschungsprojekten zur Kommunikation von Gesundheitsrisiken mit. Im Anschluss war sie als Arbeitspsychologin und Organisationsberaterin tätig. Zudem lehrte sie an verschiedenen Hochschulen, bevor sie 2016 eine Professur für Wirtschaftspsychologie an der FOM Hochschule in Berlin antrat. In ihrer Forschung beschäftigt sie sich mit Themen wie Commitment, Führung und Gesundheit in der modernen Arbeitswelt.

Auf dem Holzweg? Über den Werkstoff und Computersimulationen von Furnier. Oder warum es eine Kunst ist, aus dünnen Blättern Möbel zu komponieren.

Auf dem Holzweg? Über den Werkstoff und Computersimulationen von Furnier. Oder warum es eine Kunst ist, aus dünnen Blättern Möbel zu komponieren.

Was läge einer Hochschule in Süd-Thüringen näher als die Forschung am Material Holz, bildet dieses doch einen Großteil der natürlichen Umgebung Thüringer Wald und ist ein wichtiger Teil der regionalen Industrie? Als Werkstoff hat Holz kaum etwas an Relevanz verloren: Es ist ein hochwertiger, nachwachsender Rohstoff, der einerseits robust und günstig, andererseits vielseitig einsetzbar ist. Auch wenn Holzprodukte hochgradig verbreitet sind, so ist das Wissen um den Werkstoff und die komplexen Herausforderungen seiner Verarbeitung eher eine Mangelware. Dabei gibt es hier viel zu entdecken.

Vorangestellt werden muss die Unterscheidung zweier Verwendungsweisen des Materials: Neben der Nutzung von Vollholz, bei dem ganze Holzstücke aus dem Holzstamm gesägt werden und unter anderem als Bauhölzer wie Balken und Bretter Verwendung finden, gibt es eine Variante, bei der Bauteile durch Lagen dünner Holzblätter, die sogenannten Furniere, gefertigt werden. Diese Furnierlagenholzprodukte bestehen aus einzelnen Blättern, die verklebt und unter hohem Druck verpresst werden. Im Weiteren wird es uns um das Furnier als besonderen Werkstoff und spezifisch um den Aspekt der Formstabilität bei sich verändernden klimatischen Umgebungsbedingungen gehen, was im Fokus des Forschungsprojektes „FurForS“ steht.

Um Produkte wie Stühle oder furnierbasierte, edle Dekorflächen im Fahrzeuginnenraum zu fertigen, bedarf es einigem Aufwand und Kenntnis im Umgang mit Holz. Bislang beruhen viele Schritte in der Fertigung noch auf dem Erfahrungswissen der Beschäftigten: Hier kann die Wissenschaft helfen, indem sie das Verständnis des Werkstoffs Furnier vertieft. Eine offene Frage der Forschung ist zum Beispiel, ob sich das Verhalten von Furnierlagenhölzernberechnen lässt, und wie sich so die Verwendung und Fertigung optimieren ließe. Bevor wir aber zu Professor Dietzel und seinem Team der Forschungsgruppe Strukturmechanik an der Hochschule Schmalkalden kommen, beginnt unser Weg ganz klassisch beim Baum.

Werkstück mit integriertem LED-Leuchtmittel

Der lange Weg des Holzes

Unter Furnier versteht man 0,1 bis 7 mm dünne Blätter aus Holz, die unter Verwendung unterschiedlicher Verfahren vom Stamm abgetrennt werden. Das Wort selbst entstammt einer Entlehnung aus dem Französischen des 16.Jahrhundert: Fournir meinte ‚bestücken‘ und ‚beliefern‘ und bezog sich auf die Aufbringung edler, dünner Holzblätter auf weniger wertvolles Holz, also eine oberflächliche Veredelung. Heutzutage wird dies unter dem Begriff Deckfurnier gefasst,  die als Lagen von Formteilen zum Einsatz kommen. Furnierblätter werden hierbei geschichtet, verklebt und verpresst: Nicht nur entstehen so robuste Bauteile, durch die Ausnutzung der richtungsabhängigen Eigenschaften der Furnierblätter können Parameter wie Flexibilität und Festigkeit in der Konstruktion gezielt genutzt werden. Hier ist das Wissen um die Eigenschaften der Furnierblätter und ihrer Komposition entscheidend.

Baum ist aber nicht gleich Baum: Da für die weiteren Verarbeitungsschritte nur Hölzer mit höchster Qualität Verwendung finden können, ist bereits die Auswahl der passenden Bäume der erste wichtige Schritt. Astlöcher und ähnliche Störungen im Holzbild, der Maserung, müssen vermieden werden. Es hat sich eine Einteilung in A-, B- und C-Hölzer etabliert, wobei sich für Deckfurniere nur Hölzer der ersten Kategorie eignen. Die Auswahl der Hölzer beruht auf der langjährigen Erfahrung der Fachkräfte, die die Stämme von Außen beurteilen müssen. Um den Rohstoff Holz nach der ersten Selektion nutzen zu können, muss ein längerer Weg beschritten werden.

Die Stämme werden zunächst entrindet und meisthin gewässert bzw. gekocht. Ist das Material so bearbeitbar geworden, kann der Stamm im nächsten Schritt gemessert, geschält oder gesägt werden. Die drei Verfahren haben unterschiedliche Vor- und Nachteile, und eignen sich demgemäß für verschiedene Hölzer und unterschiedliche Zwecke. Zum Beispiel unterscheidet sich die minimal mögliche Dicke der Furniere, die physische Beanspruch des Holzes im Fertigungsprozess und der Materialverlust beim Trennvorgang.[1] Allen drei Verfahren gemein ist, dass durch die Belastung materielle Veränderungen im Holz bewirkt werden: Neben dem feuchtebedingten Quellen meint dies unter anderem kleine Risse auf der Schnittseite des Furniers, die infolge einer notwendigen starken Biegung des Furniers während des Schneidvorgangs entstehen. Es gibt somit eine geschlossene und eine offene Seite des Furniers, die unterschiedliche Charakteristika zeigen, zum Beispiel in ihrer Reaktion auf Feuchte wie das Quellen und Schwinden. Bei allen späteren Verarbeitungsschritten muss die Strukturveränderung des Materials bedacht werden.

Struktur & Mechanik

An diesem Punkt setzt die Forschungsgruppe Strukturmechanik an: Was passiert im Holz durch den Einfluss verschiedener Faktoren wie Feuchtegrad- und Temperaturänderungen? Dabei ist es sinnvoll, nicht von den Lagenbauteilen – also gefertigten Komponenten aus mehreren Furnierlagen – auszugehen, sondern zunächst das einzelne Furnierblatt und die Effekte zu verstehen. Die hieran gewonnen Erkenntnisse können dann die Grundlage für eine Beschreibung der komplexen Charakteristik verbundener Schichten oder gar ganzer Lagenbauteile bilden. Gerade der Zusammenhang und die wechselseitige Beeinflussung der Furnierlagen mit verschiedenen Eigenschaften macht diese umfassende Beschreibung allerdings zu einer komplexen Herausforderung. Das Projektziel ist kurzum eine softwaregestützte Bewertung der Formstabilität von Furnierlagenholzwerkstoffen.

Messverfahren der Biegung

Die beiden Seiten des Furniers reagieren unterschiedlich auf Feuchte: Durch die Fissuren, also die kleinen Risse an der Oberfläche der Holzblätter, verändert sich der Feuchtetransport innerhalb des Holzes und damit die Vorgänge des Quellens und Schwindens auf den beiden Seiten. Eine Folge ist die Verkrümmung des Furniers. Ein weiterer struktur-mechanischer Faktor ist die Faserrichtung des Holzwachstums: Durch verschiedene Anordnungen der Blätter, quer oder parallel, lassen sich Eigenschaften wie Flexibilität oder Festigkeit in der Kombination verschiedener Lagen der Furnierblätter steuern. Wiederum ist der Ausgangspunkt für ein Verständnis des Zusammenhangs der Blick auf das einzelne Furnier. Dieses Verständnis strukturmechanischer Effekte verschiedener Umweltfaktoren kann dann wiederum in die Konstruktion der Produkte einfließen und die kompositorische Ausrichtung der Lagen anleiten.

Um sich die Auswirkung der Umgebungseffekte auf das Holz vor Augen zu führen, liegt der Blick auf einen klassischen Stuhl aus Lagenholz nahe: Je nach Temperatur, Luftfeuchte und Furnier-Charakteristik verändert sich die Form des Stuhls und so z.B. die Neigung der Lehne. Dieselben Stühle sehen folglich im Detail immer etwas anders aus und geben unterschiedlich nach, was zum Beispiel bei parallelen Stuhlreihen erkennbar und somit als optischer Mangel wahrgenommen wird. Neben diesen Anwendungsfeldern ist die strukturmechanische Beschreibung aber auch für Optimierung der Fertigung und die Auslotung der Grenzen des Werkstoffs Holz zielführend.

Im Fokus der Forschungsgruppe

In der Furnierverarbeitung beruhen auch heute noch viele Prozesse auf reiner Erfahrung mit dem Material Holz. Ohne diese individuelle Leistung zu schmälern, sind hier in Folge des technischen Fortschritts Potentiale der Optimierung zu vermuten. Das Schmalkalder Team um Professor Dietzel bemüht sich um eine Berechenbarkeit des strukturmechanischen Verhaltens des Furniers, um diesen Fortschritt zu bahnen. Einerseits sollen die existierenden numerischen Modelle um die Spezifika der Furniere erweitert , und andererseits relevante Parameter der Formstabilität identifiziert werden.

Wenn heutzutage eine Umstellung in der Fertigung vorgenommen wird, bedarf es noch einer längeren Anpassung, die nach dem Modus Trial-and-Error vorgeht. Die Umstellung ist zeit- und materialaufwendig, was dem Gebot der Effizienz widerspricht. Hier wären Modelle zweckmäßig einsetzbar, die Entscheidungshilfen und Einschätzbarkeiten bieten, und so den Prozess der Anpassung verkürzen. Ferner lassen sich die strukturmechanischen Einsichten auch nutzen, um gestalterische Prozesse wie Biegungen oder die Flexibilität zu optimieren.

Auch wenn der Werkstoff Holz in seinen verschiedenen Formen weitverbreitet ist, widmen sich ihm nur einige wenige Projekte. An der Hochschule Schmalkalden forscht seit nunmehr 18 Jahren die Forschungsgruppe Strukturmechanik zu den Möglichkeiten der mathematischen Beschreibung physikalischer Eigenschaften des Rohstoffs Furnier. Hierbei verbindet die Forschungsgruppe Aspekte der Grundlagenforschung mit anwendungsnahen Funktionsintegrationen in den Werkstoff Holz.

Einblick ins Labor

Das Kooperationsprojekt FurForS

Im Projekt FurForS kooperiert die Forschungsgruppe mit der TU Dresden, und somit die beiden wenigen Akteure der Forschung am Furnier. Am Dresdner Institut für Naturstofftechnik widmet sich die Forschungsgruppe Massivholz/Furnier um Prof. André Wagenführ Themen rund um den Werkstoff Holz in seiner natürlichen Form, aber auch Holzverbundwerkstoffen. In der Kooperation mit der HSM konzentriert sich Dresden auf die kleinskalige Analytik der Furnierblätter, also den mikroskopischen Veränderungen der Strukturen, die sich zum Beispiel durch eine Behandlung in der Klimakammer ergeben.

An dem Schmalkader Team ist es indes, berechnungstechnische Ansätze zu entwickeln, Modellierungen vorzunehmen und Parameter und Faktoren zu taxieren, die einen signifikanten Einfluss auf die Strukturmechanik haben. Das Ziel ist hierbei die Entwicklung von Berechnungsmodellen, die sich auf die individuellen Eigenschaften von Furnierlagenhölzern anpassen lassen. Die Vermittlung zwischen einer Generalisierung und einer individuellen Anpassung verlangt einen hohen Rechenaufwand des Modells, der sich mit der Hinzunahme mehrerer Schichten potenziert. Bei diesem Ansatz verbindet sich die Strukturmechanik mit der Informatik, wobei der materialwissenschaftliche Fokus leitend bleibt.

Zusammengefasst haben sich die verschiedenen Projektpartner, neben der HSM und TUD auch die Kreutzfeldt GmbH & Co. KG und die GbR Lie-Design, in dem Ansinnen zusammengefunden, die Form- und Eigenspannungsänderungen von Lageholzprodukten mit modellgestützten Prognosen vorauszuberechnen. Die Modelle haben eine Gültigkeit ebenso für die Fertigung wie den späteren Einsatz, und können in beiden Hinsichten eine Optimierungsleistung erreichen, zum Beispiel was die Effizienz im Herstellungsprozess anbetrifft. Das gemeinsame Ziel der Projektpartner ist es, durch ein vertieftes Verständnis des Werkstoffs Holz seine Nutzung weiter zu optimieren und die Grenzen der Anwendung weiter auszuloten. Von der bisher genutzten Erfahrung soll es hin zu Berechungsmodellen gehen, die durch Simulationen und numerische Abbildungen das Verständnis des Materials vertiefen.

Holzblatt-Schichten vor der Pressung

Verortung an der HSM

Professor Andreas Dietzel wurde im Herbst 2021 auf die Professur „Konstruktion, Fertigungsmesstechnik und CAD“ an der Fakultät Maschinenbau berufen und engagiert sich seitdem in der Forschungsgruppe Strukturmechanik. Für ihn ist dieser Bereich keineswegs Neuland, promovierte er doch an der Hochschule Schmalkalden und der Technischen Universität Ilmenau zum Thema „Modellgestützte Ermittlung und Bewertung der Formgebungsgrenzen von Rotbuchenfurnier“ bei Professorin Hendrike Raßbach.

Auch wenn gerade Hochschulen angewandter Forschung durch den bürokratischen Aufwand der Einwerbung von Drittelmittelprojekten vor nicht eben geringe Herausforderungen gestellt werden, konnte Professor Dietzel mit den beiden wissenschaftlichen Mitarbeitern Dr.-Ing. Dennie Supriatna und M.Eng. Daniela Pachatz ein motiviertes Team zusammenstellen, das sich nun in dem Projekt FurForS einbringt.


[1] In der Handreichung „Furnier im Innenausbau“ finden sich hierzu weitaus ausführlichere Informationen. (Vgl. Initiative Furnier + Natur e.V., Furnier im Innenausbau. Definitionen – Eigenschaften – Verarbeitung – Anwendungsbeispiele“, Dresden 2011, S. 8 – 13)

Der Mensch im Mittelpunkt. Die Innovationen im Werkzeugbau zwischen Ökonomie und Ökologie

Der Mensch im Mittelpunkt. Die Innovationen im Werkzeugbau zwischen Ökonomie und Ökologie

Automatisierung, Digitalisierung, Künstliche Intelligenz: Die Herausforderungen des Maschinen- und Werkzeugbaus waren in den letzten Jahren durchaus mannigfaltig. Aber dies waren bei Leibe nicht die einzigen Aufgaben: Die Nachhaltigkeit gewinnt immer mehr an Bedeutung, und der Maschinen- und Werkzeugbau muss sich im Spannungsfeld zwischen Ökonomie und Ökologie verorten. Gleichwohl wäre es falsch, diese Spannung als ein Gegeneinander aufzufassen, vielmehr kann und sollte der Druck als Initial für innovative Veränderungen aufgenommen werden, so ein Kredo des jüngsten Praxisforum Werkzeugbau des Verbands Deutscher Werkzeug- und Formenbauer (VDWF)  und der WBA Aachener Werkzeugbau Akademie an der Hochschule Schmalkalden.

Das Motto des Tages mit seinem umfänglichen Programm war: „Der Mensch steht im Mittelpunkt. Die Bedürfnisse von Menschen, ihr Komfort und ihre Interessen sind ein antreibender Motor der Innovationskraft des Maschinen- und Werkzeugbaus in seinen verschiedenen Facetten. Den Alltag bequemer zu machen zählt hier ebenso dazu wie Produkte besser und ökologischer sowie kostengünstig und daher allgemein verfügbar anzubieten. Um diese Ziele zu erreichen, können Instrumente wie die Künstliche Intelligenz helfen.

Die Nachhaltigkeit erhielt in den letzten Jahren mehr und mehr Bedeutung. Gerade weil der Klimawandel und seine Folgen immer deutlicher zutage treten und ins gesellschaftliche Bewusstsein rücken, richten sich Forderungen an die Politik und die Wirtschaft. Allerdings trifft diese Entwicklung den Maschinen – und Werkzeugbau keineswegs unvorbereitet: Der sorgsame Umgang mit Materialien, Rohstoffen und Energieträgern war schon immer geboten und ein wichtiger Aspekt von Entwicklungen und Innovationen, von Hochschulen angewandter Wissenschaften, forschenden Unternehmen und ihren gemeinsamen Kooperationsprojekten.

Gastgeber der Veranstaltung war die Angewandte Kunststofftechnik der Hochschule Schmalkalden, wobei Prof. Dr. Thomas Seul, Inhaber der Professur für Fertigungstechnik und Werkzeugkonstruktion an der HSM und Präsident des VDWF, auch die Aufgabe der Begrüßung übernahm. Hier griff er das Motto „Der Mensch steht im Mittelpunkt“ auf und machte zugleich deutlich, dass auch die Studiengänge Menschen, also engagierte und interessierte Studierende, bräuchte. Um all die technologischen, ökonomischen und ökologischen Herausforderungen angehen zu können, bedarf es gut ausgebildete Problemlöser: Gerade anwendungsnahe ingenieurwissenschaftliche Studiengänge wie die Kunststofftechnik vermitteln im Rahmen des Bachelor- und Masterstudiums Fertigkeiten und Fähigkeiten, die die zukünftigen Ingenieure und Ingenieurinnen in die Lage versetzen, innovative Antworten auf komplexe Herausforderungen zu finden.

Aussstellung und Austausch im Foyer

Innovationen, Rezyklate und ökologische Potentiale

Die thematische Ausrichtung der Treffpunkte wechselt mit dem Ort der Veranstaltung, und in Schmalkalden steht traditionellerweise der Spritzguss im Fokus. In den verschiedenen Vorträgen des Tages wurden unterschiedliche Aspekte der Nachhaltigkeit verhandelt: Die Frage war unter anderem, wie wir Rezyklate optimal nutzen, Kreisläufe schließen oder den Energiebedarf gemäß ökologischer Imperative decken können.

Den Anfang machte Frank Schockemöhle von dem Unternehmen Pöppelmann, der sich mit dem Thema «Reduzierung der Treibhausgasemission durch Einsatz von Rezyklaten» befasste. Das Familienunternehmen aus Lohne hat eine nachhaltige Kreislaufwirtschaft ihrer Produktion und Produkte ins Visier genommen und eine mehrstufige Strategie zur Umsetzung konzipiert. Es versteht sich von selbst, dass der Lebenszyklus von Kunststoffen maximiert werden sollte, werden diese Materialien doch in aufwändigen Verfahren gewonnen. Ein Ansatz ist dabei, Kunststoffe zu recyceln und wieder in den Kreislauf zu überführen, wobei auch die EU den Unternehmen aufgibt, entsprechende Mengen an postconsumer-Material, das in anderen Worten schon einmal genutzt wurde, einzubringen. Probleme sind dabei der Aufwand der Aufbereitung und die eingeschränkten Möglichkeiten der Wiederverwendung. Die Wiederverwertung wird umso aufwändiger, je mehr Materialien, also unterschiedliche Kunststoffe oder andere Materialien wie Papier und Metall Verwendung finden. Etiketten oder die Aluminiumdeckel bei Joghurtverpackungen sind hier bekannte Beispiele. Je sortenreiner also ein Objekt ist, umso einfacher die Wiederverwertung: Wichtig ist, dies schon beim Produktdesign selbst zu bedenken. Zum anderen Problem: Zum einen eignen sich natürlich Rezyklate nicht für alle Anwendungen, bleiben doch zumeist Restbestände an farblichen und olfaktorischen Beimengungen. Viele andere Bereiche, in denen zum Beispiel kein direkter Kontakt mit dem Produkt besteht, könnten Rezyklate verwendet werden, dürfen es aber aufgrund der momentanen Gesetzeslage nicht. Hier gäbe es also Stellschrauben. Durch ein konsequentes Design for recycling und eine Anpassung bestimmter Normen ließen sich die Treibhausgasemissionen noch weiter senken. Andere Wege zur Senkung von Emissionen sind die Reduzierung des Materials und die Etablierung echter Kreislaufsysteme von Rohstoffen.

Die Aachener Werkzeugbau Akademie (WBA) ist in den Feldern Beratung, digitale Lösungen, Weiterbildung und Forschung speziell für den Werkzeugbau aktiv. Dr. David Welling, der Geschäftsführer der WBA, arbeitete in seinem Vortrag „Der öko-effektive Werkzeugbau – ökologisch notwendig und ökonomisch erfolgreich “ den Nutzen von Nachhaltigkeitsinitiativen heraus. Zunächst ging es ihm um eine Bestandsaufnahme der gegenwärtigen Situation des Werkzeugbaus, die sich nicht anders als eine multiple und anhaltende Krise bezeichnen lässt. So träfe eine Strategie- auf eine Erfolgskrise, woraus am Ende eine Liquiditätskrise folgen könne. Die Krisenhaftigkeit zeige sich auch an wichtigen Indikatoren wie einer sinkenden durchschnittlichen Marge, einer stagnierenden Wertschöpfung pro Mitarbeitenden und einer sinkenden Quote von Aufträgen ohne Budgetüberschreitung (ab 2019). Neben die ökonomischen Herausforderungen träten nun noch ökologische, wobei Dr. David Welling dafür plädierte, beide Aspekte gemeinsam zu lösen. Der ökologische Druck besteht nicht nur aus der Selbstverpflichtung der EU zur Klimaneutralität und den entsprechenden Maßnahmen, sondern auch aus den Strafen für nichtgemeldete CO2-Emissionen, Berichtspflichten und Nachhaltigkeitsanforderungen. Der Ansatz der Öko-Effektivität zielt darauf, Herausforderungen auf beiden Feldern mit einer Lösung zu begegnen, also beides zusammenzudenken und produktiv zu nutzen. Zum Beispiel regen die hohen Energiekosten zu einem noch effizienteren Produzieren an, was wiederum die Treibhausgasemissionen senkt.

Blick ins Auditorium

Karosserien und Schäume

Klaus Sammer, Leiter Werkzeugbau, Instandhaltung und Vorentwicklung der Leichtmetallgießerei, und Thomas Kopp gaben einen Einblick in die Entwicklungen beim Karosseriebau bei BMW Landshut: Bei dem Karosseriebau war die Herausforderung schon immer, komplexe und zugleich große Bauteile effizient herzustellen. Das Verfahren des Aluminium-Druckgusses wurde hierbei immer mehr verfeinert: Die in Landshut vor Kurzem entwickelte Mehrplatten-Technologie[i] erlaubt, bei der Konstruktion der Komponenten den Primat von der Optimierung des Fließwegs hin zur Funktionalität zu verlegen. Zugleich lassen sich so Material und Gewicht einsparen, was wiederum zu Einsparungen bei den Emissionen führt. Eine weitere Herausforderung, vor die in der momentanen Lage vermutlich alles Gießereien und Schmelzen stehen, sind die hohen Energiekosten. Durch diesen Druck bietet sich eine Umstellung auf nachhaltige Rohstoffe wie Solarenergie und grünen Wasserstoff an, was wiederum dem Ansatz der Öko-Effektivität entspricht. Natürlich entstehen wiederum Folgeprobleme wie unterschiedliche Temperaturen beim Verbrennen, die Korrosion durch das anfallende Wasser und höheren Verbräuche im Vergleich zum Erdgas: Aufgabe ist es dann, Erfahrungen mit den neuen Verfahren zu sammeln und Lösungen für eventuelle Probleme zu finden. Auch die Elektromobilität ist in diesem Sinne eine Herausforderung, die zu Innovationen anregt: Die Karosserien müssen nun noch komplexer werden und mehr Funktionen integrieren, was wiederum neue Verfahren ihrer industriellen Produktion verlangt. Die Serienfertigung zieht zudem weitere Anforderungen von der Kosteneffizienz bis hin zur Klimabilanz nach sich. Das jüngst vorgestellte „Injector Casting“[ii] Verfahren der Leichtmetallgießerei aus Landshut könnte eine innovative Lösung sein.

Eine andere innovative Möglichkeit zur Einsparung an Material im Kunststoffspritzguss ist das Schäumen. Neben diesem Aspekt bietet dieser Ansatz auch andere Vorzüge, auf die Uwe Kolshorn vom Kunststoff-Instituts Lüdenscheid in seinem Vortrag „Die <andere Denke> beim Kunststoffschäumen – geringere Drücke, Aluwerkzeuge und längere Fließwege, was will man mehr!?“ hinwies. Zunächst sind Schäume keine komplett neuen Bauformen, sondern orientieren sich an den zellularen Formen der Natur. Zugleich ist Schaum nicht gleich Schaum: Verschiedene Materialien und Herstellungsverfahren führen zu unterschiedlichen Eigenschaften und Anwendungsmöglichkeiten. Die grundsätzlichen Vorteile des Schäumens beim Spritzguss sind die geringere Viskosität des Materials (Zähflüssigkeit) und der Verzicht auf den Nachdruck, entsteht der Druck doch im Inneren – eben durch das Aufschäumen. Somit werden unter anderem eine schnellere Füllung und niedrigere Temperaturen des Materials und des Werkzeugs, möglich. Wichtig ist es, bei der Konstruktion der Komponenten bereits die Charakteristika des Schaums im Blick zu haben und die gebotenen Vorteile zu nutzen. Zugleich hat die Verwendung von Schaum auch gewisse Nachteile, mit denen umgegangen werden muss. Beispiele sind die typischen Randausprägungen in Kissenform oder Schlieren auf der Oberfläche. Je nach Anwendungssituation lassen sich hier unterschiedliche Lösungsansätze finden.

Unternehmensführung bei Formconsult in Schmalkalden

Bewegte Zeiten

Christen Merkle, Geschäftsführer von AHP Merkle, zeichnete in einem lebendigen Vortrag mit dem Titel „Was mich bewegt.“ ein Bild der Situation, in der sich kleine und mittlere Unternehmen wie der Spezialist für Zylinder aus dem baden-württembergischen Gottenheim momentan befinden. Neben der schwierigen Lage der Wirtschaft beschäftigen die Unternehmer der schlingernde Kurs der Politik und der Wandel gesellschaftlicher Einstellungen. Unternehmerische Entscheidungen, zum Beispiel Investitionen, brauchen aber langfristige Planbar- und Verlässlichkeit der Rahmenbedingungen, zum Beispiel der Wirtschaftspolitik. Hier gebe es, vorsichtig formuliert, Verbesserungspotentiale. Die Krisenhaftigkeit der Zeit und die Strukturprobleme wie der Fachkräftemangel beiseite präsentierte sich Christen Merkle als leidenschaftlicher, in der Region verwurzelter Familienunternehmer, der sich seiner sozialen und ökologischen Verantwortung bewusst ist. Ein Beispiel der Vorzüge einer solchen langfristigen Orientierung zeigte sich in der Pandemie: Merkle verzichtete auf Maßnahmen wie Kurzarbeit und setzte auf Forschung und Entwicklung, von der das Unternehmen nun mir erfolgreichen Produkten profizieren kann.

Den letzten Input gab dann Stephan Hoffmann, Geschäftsführer der Formconsult Werkzeugbau GmbH aus Schmalkalden, dessen Vortrag in eine Firmenbesichtigung mündete. Das Unternehmen stellt hochpräzise Werkzeuge her und hat sich auf Mehrkomponenten- und Zweifarbentechnik spezialisiert. Der innovative Werkzeugbau beruhe auf drei Säulen, wobei die Entwicklung, Konzipierung und die Simulierung erste Säule wäre. Neben der Kooperation mit Partner wie der HSM und der GFE sorge hierbei auch die Unterstützung von Start-Ups für die Freisetzung innovativer Potentiale. Die zweite Säule besteht im Werkzeugbau selbst, seiner Spezialisierung und der Fertigung. Aspekten der Nachhaltigkeit könne hier genüge getan werden, indem bei den Produktionsstätten auf Energieeffizienz und die Nutzung erneuerbarer Energien – wo möglich – zurückgegriffen werde, sei es durch Solarpanels oder die Klimatisierung über hocheffiziente Wärmepumpen. Die dritte und letzte Säule ist das Technikum, was der Qualitätssicherung dient. Bemusterung, Vermessung und u.a. die Dokumentation sollen neben einer beständigen Zertifizierung die Qualität der Produktion und der Produkte garantieren.

Gruppenbild im Foyer des Hauptgebäudes (© Fabian Diehr/wortundform)

Das Resümee der Veranstaltung legt einen Blick auf den Anfang der Veranstaltung nahe, also die Begrüßungsworte von Prof. Thomas Seul: Sein Plädoyer war die konstruktive Zusammenarbeit von Hochschulen für angewandte Forschung und Unternehmen. Durch diese Kooperation könnte die Expertise der akademischen Forschungsbereiche genutzt werden und so letztlich beide Seiten profitieren. Eine andere Möglichkeit der Zusammenarbeit sind übergreifende Netzwerktreffen wie das Praxisforum, das von Partner aus der Wirtschaft (FDU Hotrunner, HoliMaker, Meusburger, Moulding Expo, Partool und Process Garding) gesponsert und somit in dieser Ausrichtung dankenswerterweise möglich gemacht wurde.

PS: Der Bericht zum vorherigen VDWF-Treffpunkt Werkzeugbau


[i] https://www.aluminium-journal.de/druckguss-bmw-setzt-auf-mehrplatten-werkzeugtechnik

[ii] https://www.bmwgroup-werke.com/landshut/de/aktuelles/2023/erster-guss-in-neuer-high-tech-leichtmetallgiesserei.html

Daten, Archive und Analysen: Was ist Data Analytics?

Daten, Archive und Analysen: Was ist Data Analytics?

Mit der Sammlung von Daten, dem umgangssprachlichen Gold unseres Zeitalters, haben wir uns schon oft befasst. Die Unmenge an Datenmaterial, die infolge der Digitalisierung unter anderem der industriellen Produktion und Teilen der menschlichen Kommunikation zur Verfügung steht, eröffnet unserer Gegenwart völlig neue Wege und Tiefen der Analyse. Kurzum erlauben es die Expansivität moderner Sensorik und die Steigerung der Rechenleistung und Verarbeitungskapazitäten, große Mengen an Informationen aufzunehmen, zu ordnen und Erkenntnisse aus den gesammelten Daten zu gewinnen.

Mit dieser Entwicklung erlangt der spezifische Forschungsbereich der Data Analytics immer mehr an Bedeutung. Hierbei geht es um die Werkzeuge, die Technologien und Prozesse, mit deren Hilfe Muster, Verläufe und Problemlösungen gestützt auf ein Konvolut an Daten ermittelt werden können. Neben der eigentlichen analytischen Auswertung ist die Sicherung der Qualität der Datensätze und eine effiziente Archivverwaltung für die weiteren Schritte elementar.

Können elektrische Schafe halluzinieren?

Mit der Verbreitung KI-gestützter Technologien traten Phänomene in den Fokus der Öffentlichkeit, die der Data Analytics thematisch nahestehen: Infrage steht vereinfacht formuliert, ob zum Beispiel Chat GPT lügen kann. Bei manchen Anfragen kam es zu Ausgaben, die schlicht falsch waren, unter anderem ganz offensichtlicher Fehlurteile wie die Anzahl bestimmter Buchstaben in einem Wort. Dieses Phänomen wurde als Halluzination beschrieben und erhielt einige Aufmerksamkeit: Die Ermittlung der Ursache der Fehlausgabe hatte das Problem der Komplexität des Programms, aber nicht nur der Architektur der künstlichen Intelligenz mit seinen Legionen an Knotenpunkten und Schichten, sondern auch in Hinsicht der Datenmengen und deren komplexer Verwaltung. Letzterer Aspekt zielt auf die Archivstrukturen und den Umgang mit den riesigen Datenmengen und -banken, die großen Sprachmodellen wie Chat GPT für den Trainingsprozess zugrunde liegen.

Neben der Frage, warum diese Fehler überhaupt aufkamen, war auch offen, an welchen Zeitpunkt sie entstanden. Die Programme selbst waren selbstredend nicht zur Ausgabe falscher Antworten angehalten, gleichwohl verlangt der Umgang mit der natürlichen Sprache und manche Formen der Anwendung eine gewisse Qualität der Kreativität, also der Dehnung und Übertragung, die die Programme leisten müssen. Zum Beispiel bei dem Wunsch, den dritten Akt von Romeo und Julia in der Sprache modernen Ostküsten-HipHops zu reformulieren – ein solches Werk existiert bislang nicht, das Modell muss also selbst kreativ werden um diese Anfrage zu beantworten. Es werden große Anstrengungen unternommen, die Anzahl der Halluzinationen von Modellen zu minimieren, was auch die Relevanz zeigt, wie Daten verwertet und verarbeitet, Datensätze gereinigt oder auch korrumpierte Daten aussortiert oder gerettet werden. Und weiter, wie komplexe Technologien mit einem Gros an Datensätzen interagieren. Und hier setzt die Data Analytics an.

Was ist Data Analytics?

Die Data Analytics befasst sich mit der Analyse von Daten und deren Auswertung zu unterschiedlichen Zwecken. Sie ist ein multidisziplinäres Forschungsfeld zwischen der Informatik, der Mathematik und der Statistik sowie weiterer Bereiche, die produktiv verknüpft werden. Generell lässt sich die Data Analytics in vier Ansätze unterteilen: Die deskriptive Analyse versucht zu beschreiben, welche Veränderungen bereits geschehen sind. Dagegen zielt die diagnostische Analytik auf eine Erklärung, warum etwas wie passiert ist. Die letzten beiden Zugänge schlagen eine andere Richtung ein: Aus den Daten Prognosen über zukünftige Entwicklungen abzuleiten ist das Ziel der prädiktiven Analysen. Diese Prognose wird im Falle der präskriptiven Analytik noch durch die optimale Reaktion ergänzt. Die unterschiedlichen Ansätze verfolgen nicht nur verschiedene Ziele, sie gehen auch anders mit den Daten um und haben differenzierte Ansprüche an die Daten.

Seit gut zwei Jahren hat Constantin Pohl die Professur für „Data Analytics“ an der Fakultät für Informatik der Hochschule Schmalkalden inne und nutzt die Gelegenheit seiner Antrittsvorlesung, ein Licht auf verschiedene Facetten seiner Forschung und seiner Lehre zu werfen. Bereits in seiner Dissertation befasste er sich mit der Frage, wie sich moderne Hardware zur Beschleunigung von Datenbank-Anfragen optimal nutzen ließe. Anders formuliert war das Thema, wie Datenverwaltungen strukturiert und organisiert sein müssen, um Ressourcen und Kapazitäten bedarfsgerecht zu nutzen und Suchanfragen effizient zu verarbeiten. Die Datenmengen auf Servern nehmen einerseits beständig zu und macht Suchvorgänge aufwändiger und langsamer, zugleich erlauben die vielen Kerne moderner Prozessoren über das Multithreading parallele Verarbeitungen. So gilt es, Managementsystem für Datenbanken und Datenströme zu entwickeln, die den neuen Anforderungen gerecht werden und zudem die technischen Möglichkeiten optimal nutzen.

Öl-Druck und Reparaturzyklen

In einem zurückliegenden Forschungsprojekt widmete sich Constantin Pohl der Frage, wie KI-Modelle für die Wartung von industriellen Anlagen und Maschinen wie einem Druckluftkompressor genutzt werden können. Das Ziel ist, Wartungsarbeiten an Verschleißteilen nicht mehr an fixen Zeitpunkten oder nach Werkzeugausfällen anzusetzen, sondern vorausschauend anhand konkreter und in Echtzeit erhobener Daten der laufenden Maschinen. Um diese Optimierung zu realisieren ist eine Prognose wichtig: Anhand von Sensordaten sollen Aussagen über die Zukunft getroffen werden, zum Beispiel das ein Filter noch 22 Stunden halten wird, bevor er gewechselt werden sollte. Hieran ließen sich dann entsprechende Reparaturmaßnahmen orientieren.

Die Ausgangsbasis sind wieder verschiedene Sensoren, welche die Maschinen anhand unterschiedlicher Parameter vermessen. In dem konkreten Projekt wurden 26 Merkmale sensorisch erfasst, neben der Temperatur und der Ölqualität auch der Differenzdruck zwischen verschiedenen Filtern. Bevor mit diesen Daten aber Aussagen getroffen werden können, mussten die Algorithmen anhand der Ausfälle der Kompressoren trainiert werden. In Regressionsmodellen wurden unterschiedliche vorverarbeitete und ausgewählte Datenmengen genutzt, um Ausfälle vorherzusagen. Wichtig ist dabei zu verstehen, dass es hier nicht um eine Größe wie die Temperatur ging, um diese Prognose zu machen: Die Modelle berücksichtigen viele Daten und ihre Verläufe, auch über eine längere Zeit, und verknüpften diese zugleich. Diese komplexen Berechnungen sind die spezifischen Leistungen der KI-Modelle, die zur Erkennung von Mustern und Strukturen sowie Abweichungen geeignet sind.

Am Ende des Projektes ließ sich die Prognostizierbarkeit grundsätzlich umsetzen. Mit einem entwickelten Ölsensor und der Nutzung der regulären Sensorik konnten die fehlerhaften Vorhersagen auf 0,09% reduziert werden. Auch die maximalen Abweichungen waren bei einer Gesamtzahl 158.000 Vorhersagen nur in einem Fall bei sechs Tagen und ansonsten bei einem Tag. Der entscheidende Faktor für die erfolgreiche Ermittlung und Prognose ist der Ölsensor.

Datenströme

Neben dieser Thematik befasst sich Professor Pohl auch mit Fragen des Stream Processing: In der Datenverarbeitung lassen sich zwei Ansätze unterscheiden, die sich für verschiedene Anwendungen und Ziele eignen. Der klassische Weg ist die Paketlösung: In einem bestimmten Zeitraum werden Daten erfasst und dann als Block archiviert. Im Anschluss können diese Daten verarbeitet und ausgewertet werden. Offensichtlich ist hierbei die große Latenz, also die Zeitspanne, die zwischen der Messung und den Ergebnissen einer Auswertung steht. Das Stream Processing zielt dagegen auf die Auswertung der Datenströme in Echtzeit, wobei durch diesen Fokus andere Imperative der Verarbeitung wichtig werden.

Die Analyse von Datenströmen steht vor der Herausforderung, eine permanente Aufnahme und Verarbeitung zu gewährleisten. Die Auslastung muss so gestaltet werden, dass durch die Interaktion verschiedener Komponenten keine Flaschenhälse oder Stausituationen entstehen. Kurzum geht es darum, effiziente Strukturen zu etablieren, die eine möglichst permanente und effiziente Verteilung und Verarbeitung erlauben und die Kapazitäten entsprechend nutzen.

Constantin Pohl befasst sich mit der Entwicklung und Erprobung von Stream Processing Engines. Im konkreten Fall ging es um die Vorhersage des Zielhafens und der Ankunftszeit. Die pendelnden Schiffe geben während ihren Reisen permanent Informationen weiter, zum Beispiel über ihre Position, ihre Geschwindigkeit und den Schiffstyp, die in einem komplexen Modell für Vorsagen ihrer Zielhäfen genutzt werden können. Kurzum bietet sich so die Möglichkeit, über eine Einschätzung einer komplexen Sachlage mit vielen Akteuren und zu beachtenden Parametern Strategien der Optimierung der Zielhäfen zu entwickeln.

Fußstapfen

Constantin Pohl hat bislang noch eine Juniorprofessur an der Hochschule Schmalkalden, die im Rahmen des bundesweiten Projektes „FH-Personal“ geschaffen wurde. Mit seiner Berufung wurde die Professur von Martin Golz zu einer Schwerpunktprofessur, die es diesem erlaubt, das Lehrdeputat zu senken und sich vermehrt der Forschung zu widmen.

Professor Pohl kann seine Arbeit in einem laufenden Lehr- und Forschungsbetrieb aufnehmen und den Lehrstuhl intensiv kennenlernen. Ziel ist es, die Reibungsverluste zu minimieren und durch geteilte Wege strukturelle Kontinuitäten zu etablieren. Er unterrichtet neben Grundlagen der Daten- und Wissensverarbeitung auch Deep Learning Architekturen und Wissensentdeckung in Datenbanken. Als Mitglied im Prüfungsausschuss der Fakultät Informatik widmet er sich gemeinsam mit den anderen Mitgliedern den Problemen der Studierenden in Prüfungsangelegenheiten. Auch am Hochschulinformationstag und dem Absolvententreffen stellte er sich und seine Forschung dem interessierten Publikum vor.

Der 3.E-Science Day an der Hochschule Schmalkalden

Der 3.E-Science Day an der Hochschule Schmalkalden

Zum nunmehr dritten Mal wurde von der Fakultät der Elektrotechnik zum E-Science Day geladen. Ziel dieser Veranstaltung ist es zunächst, einen Überblick über die Forschungsaktivitäten an der Fakultät, also über unterschiedliche aktuelle Themen und Projekte, zu geben. Zudem werden Kooperationspartner aus der Wirtschaft und von wissenschaftlichen Institutionen eingeladen und können sich vorstellen. Ferner besteht der Zweck des E-Science Days darin, die Öffentlichkeit von der Schmalkalder Stadtgesellschaft bis hin zu jungen Menschen, die gerade auf der Suche nach einem passenden Studiengang sind, aufmerksam und neugierig auf die Forschungsthemen und -vorhaben zu machen.

Messstationen, Künstliche Intelligenz und Computerchips

Nach der Begrüßung durch die Professoren Roy Knechtel und Silvio Bachmann im Namen der Fakultät Elektrotechnik wurde der erste Vortrag von Professor  Martin Schreivogel gehalten, der an der HSM die Professur für die Grundlagen der Elektrotechnik innehat. Dieser nutzte die Gelegenheit nicht nur dazu, kurz in das Thema der Gassensorik einzuführen, sondern auch, ein Projekt zur Luftgütevermessung via kompakter Messboxen vorzustellen. Das zu lösende Problem war die Ermittlung der Luftgüte in Innenstädten: Anstelle von punktuellen Messungen ist es für eine Beurteilung zweckmäßiger, über viele, im Stadtraum verteilte Messstationen ein detailliertes und dynamisches Bild der Verteilung zu erhalten, also die Luftströme und die Effekte der städtischen Architektur mit in Betracht zu ziehen. Hierfür waren ebenso viele technische Herausforderungen der Sensorik insbesondere hinsichtlich der Kompaktheit der Geräte sowie die Kosteneffizienz zu meistern, die eine Vielzahl solcher Stationen erst möglich macht. Zudem umriss Martin Schreivogel ein aktuelles Vorhaben, das in der Optimierung bereits laufender Wasserstoffanlagen besteht. Eine der zentralen Aufgabe der Energiewende ist die Speicherung und der Transport von Energie, und eine Lösung dafür ist die Transformation in Wasserstoff. Die Forschungsfrage ist nun, wie sich die Prozesse der Elektrolyse unter Realbedingungen optimieren lassen.

Im Anschluss gaben Professorin Maria Schweigel, Inhaberin der Professur für autonome Systeme, und Lisa Schneeweiß einen Einblick in den aktuellen Forschungsstand des Projektes BauKIRo. Dieses Forschungsvorhaben findet in Zusammenarbeit mit dem Lehrstuhl FAPS der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) über eine industrielle Gemeinschaftsforschung mit dem Deutschen Beton- und Bautechnik-Verein E.V. (DBV) statt und wird vom BMWK gefördert. Die Idee hinter dem Projekt ist digitale Herstellung von Bauplänen, für deren Vermessung nicht nur Drohnen, sondern auch Applikationen genutzt werden, die auf künstliche Intelligenz zurückgreifen. Ein Zwischenergebnis besteht in der Notwendigkeit, die Drohnen, die den Baufortschritt prüfen und dokumentieren sollen, auf die spezifische Umgebung sich im Bau befindlicher Gebäude anzupassen. Hierbei geht es zum Beispiel um die Gefahr, die von herumhängenden Kabeln verursacht werden. Ein anderes Problem ist die Datenverarbeitung der Bilder, wodurch fehlerhafte Punktwolken entstehen können. Somit hat die Forschung neue Aufgaben, ihren Ansatz anzupassen und zu optimieren.

Über das von der Carl-Zeiß-Stiftung geförderte Projekt „Material innovations for wafer-level packaging technologies“ informierte Professor Roy Knechtel, Inhaber der Professur für Autonome Intelligente Sensoren. Dieses Verfahren bietet die Möglichkeit, im Vergleich zur klassischen Herstellung kleinere und kosteneffizientere integrierte Halbleiterbauelemente herstellen zu können. Üblicherweise werden die dünnen Siliziumscheiben, die Wafer, zunächst getrennt und im Anschluss in einem komplexen Prozess mit einem Umgehäuse und elektrischen sowie Montageanschlüssen versehen. Im „wafer-level packaging“-Verfahren indes werden die Komponenten schon auf dem Wafer selbst aufgebracht und eingehaust. Durch diese 3D-Integration lassen sich noch kleinere, leistungsstarke Chips herstellen, wie sie zum Beispiel für Smartphones der neueren Generationen Verwendung finden. Ein anderes Beispiel eines solchen Chips sind die Infrarot-Sensoren der Smartwatch eines namhaften Herstellers. In dem Forschungsprojekt ergeben sich zugleich enge Kooperationsmöglichen mit der Materialwissenschaft und den technischen Möglichkeiten von 3D-Druck-Systemen.

Den Abschluss des ersten Blocks machte dann der Vortrag Norbert Greifzus vom Team der „Eingebetteten Diagnosesysteme (EDS)“. Er stellte eine Kooperation zwischen der Elektrotechnik und dem Maschinenbau vor, bei dem es um den Einsatz künstlicher Intelligenz bei Verfahren des Spritzgusses geht. Kurzum können verschiedene Sensordaten und speziell trainierte Programme dabei helfen, fehlerhafte Teile zu prognostizieren und so rechtzeitige Eingriffe in die Fertigung vorzunehmen, um diesen Ausschuss zu vermeiden. Hier werden unter anderem Messungen von Temperatur und Druck verwandt und auf Basis der Verläufe vieler vorheriger Messungen bewertet. Wichtig ist hierbei zugleich, dass die Modelle der künstlichen Intelligenz das Zustandekommen ihrer Beurteilung transparent machen, um so letzter die Akzeptanz bei den Nutzenden zu erhöhen. Dies wäre zum Beispiel über eine graphische Ausgabe von Markierungen an Verlaufskurven der Temperatur oder des Drucks möglich.

Infrarotsensoren, Mikrostrukturen und 3D-Drucker

Der zweite Teil des E-Science-Days wurde mit einem online-Vortrag von Rachel Gleeson vom belgischen Unternehmen Melexis eingeläutet. Sie kooperiert in ihrer Forschung mit dem in Erfurt ansässigen Unternehmen X-FAB sowie mit Roy Knechtel. In ihrem Beitrag konturierte sie zunächst die Breite der Anwendungsmöglichkeiten von miniaturisierten Infrarotsensoren, denen über die Messung der thermischen Strahlung die präzise berührungslose und somit schnelle Ermittlung von Temperaturen möglich ist. Dieser Auffächerung zuvor ging ein Blick auf die Komplexität der Integration der Komponenten in eines Mikro-Elektro-Mechanischen Systems (MEMS) bei einer gleichzeitigen Minimierung des Platz- und Stromverbrauchs. Wichtig ist hierbei zu beachten, dass es unterschiedliche Infrarotsensoren für verschiedene Anwendungen gibt, zum Beispiel unterscheiden man Sensoren für punktuelle Messungen und bildgebende Sensorarrays. Je nach Anwendungsfeld unterscheiden sich auch die Ansprüche an Präzision: So nimmt sich die erforderte Exaktheit auf dem Gebiet medizinischer Anwendungen um einiges höher aus, als bei Produkten für Konsumenten wie zum Beispiel Fitnesstrackern oder Heimelektronik.

Die Infrarotsensoren finden in unserer Gegenwart bereits breite Verwendung: Zum einen in Geräten wie Smartphones und -watches, die so die Körpertemperatur ermitteln können. Damit ist die Health-Tech ein relevantes Anwendungsfeld, das noch an Bedeutung gewinnen wird. Ein zentraler Pluspunkt in diesem Bereich medizinischer Anwendungen ist, dass die Temperaturmessung ohne direkten Kontakt funktioniert. Andere Gebiete sind zum Beispiel die wärmesensorische Vermessung von Gebäuden, was unter anderem dem Auffinden von Stellen dient, an denen Wärme verloren geht. Ein Nebeneffekt der Vermessung über Infrarotsensoren ist, dass sie ihre Daten anonymisiert erheben, sind doch Personen detektier aber nicht identifizierbar. Dies macht die Sensoren auch für die Überwachung und Automation von Gebäuden nützlich, wie zum Beispiel bei der smarten Steuerung von Licht- oder Heizungsanlagen, die z.B. in Bürogebäuden Anwendung findet.

Stephanie Lippmann forscht an der Friedrich-Schiller-Universität Jena zu Themen der Materialwissenschaften und hat hier zurzeit eine Vertretungsprofessur für metallische Werkstoffe am Otto-Schott-Institut für Materialforschung inne. Grundsätzlich widmet sie sich Aspekten der Metallphysik, genauer thermodynamischen und kinetischen Prozessen bei mikroskopischen Strukturveränderungen der Werkstoffe während Zustandsänderungen, sogenannten Phasen­umwandlungen. Die Thermodynamik befasst sich zunächst als Teilgebiet der Physik mit Fragen der Umwandlung und Änderung von Energie innerhalb eines oder mehrerer Systeme.

Die Kinetik betrachtet die Zeitabhängigkeit, also die Geschwindigkeit, dieser Umwandlungsprozesse. Im Fokus von Stephanie Lippmanns Forschung wiederum stehen die mikrostrukturellen Prozesse in metallischen Legierungen bei besonders schnellen Phasenumwandlungen, also wenn z.B. eine Schmelze erstarrt, aber auch bei Festkörperphasenübergängen während rascher Wärmebehandlungen. Den Prozessen dieser „rapid phase tranformations“ im Material versucht sie mittels einer spezifischen Testanlage und unter besonderen Konditionen nachzugehen, die eine sehr schnelle Erhitzung und Abkühlung der Testobjekte bietet. Um diese Umwandlungsprozesse genauer zu verstehen, verwendet Stephanie Lippmann die thermo-kinetische Modellierung, mit dem Ziel, die Materialstruktur, das sogenannte Gefüge, gezielt anhand der Zusammensetzung und der Wärmebehandlung einstellen zu können. Über die Steuerung des Gefüges ist es schließlich möglich, die Eigenschaften einer Legierung für die gewünschte Anwendung zu optimieren. 

Für die Elektrotechnik ist diese Forschung der benachbarten Disziplin gerade deswegen so relevant, weil solche strukturellen Umwandlungsprozesse auch bei der Herstellung und Qualifizierung von mikroelektronischen Schaltkreisen auftreten. Ein grundlegenderes Verständnis hilft unter anderem auch die Ursachen von Mängeln im elektronischen Bauteil zu verstehen. Da in den zunehmend komplexeren, und weiter miniaturisierten Objekten die Anforderungen an die Reinheit und Zuverlässigkeit der verwendeten metallischen Komponenten immer weiter steigen, ist es hier zentral, voneinander zu lernen. Zu diesem Zweck wurde im Rahmen des bereits vorgestellten Projekts „Material innovations for wafer-level packaging technologies“ eine Kooperation zwischen Friedrich-Schiller-Universität Jena und der Hochschule Schmalkalden auf den Weg gebracht.

Den offiziellen Teil des E-Science-Day abrunden durfte Martin Hedges von der Neotech AMT GmbH aus Nürnberg, wobei die Abkürzung für Advanced Manufacturing Technologies for 3D Printed Electronics steht und sich das Unternehmen entsprechend vor allem im Bereich des 3D-Drucks von komplexen elektronischen Bauteilen einen Namen gemacht hat. Durch diese Expertise ergab sich auch die Kooperation mit der elektrotechnischen Fakultät und mit Roy Knechtel. Wie dieser schon in seiner einführenden Vorstellung klarmachte, ist eine Vision in der Elektrotechnik, ein Gerät zu haben, dass vollständige elektronische Bauteile wie Schaltungen herstellen kann. Die 3D-Drucker, die Neotech entwickelte, kommen diesem Ziel schon recht nahe.

Der 3D-Druck von elektronischen Bauteilen hat allen voran den Vorteil, ein schnelles und günstiges Prototypingverfahren  zu sein und zugleich eine Vielfalt an möglichen Formen zu gestatten. Hierbei kommt hinzu, dass die 3D-Drucker von Neotech verschiedene Verfahren des 3D-Drucks als Funktionen bieten und sich so die Anwendungsbreite durch die Kombination noch deutlich steigern lässt. Ein Beispiel der neuen Möglichkeiten war die Herstellung einer Glühbirne: Bei üblichen Glühbirnen sind neben den Materialien, die das Produkt bei der Herstellung bedarf, auch die Ressourcen einzupreisen, die das Recycling verlangt. Der 3D-Druck lässt es hier zu, beide Enden bereits im Design zu bedenken und so nachhaltige Lösungen zu ermöglichen.

Im kleineren Rahmen wurde im Anschluss in den Räumen der Fakultät Elektrotechnik die Einweihung eines solchen 3D-Druck-Systems feierlich begangen, an dem Forschenden nun den Möglichkeiten und Grenzen dieser Herstellungsverfahren nachgehen werden. Ziel ist es gemäß der Vision, eine rein additive Herstellungsweise zu entwickeln, die es erlaubt, ganze elektronische Bauteile wie Sensoren zu produzieren. Möglich machte dies eine Förderung von der Europäischen Union.

risING – Der Tag der Ingenieurwissenschaften an der Hochschule Schmalkalden

risING – Der Tag der Ingenieurwissenschaften an der Hochschule Schmalkalden

Mitte Juni durfte die Hochschule Schmalkalden den Tag der Ingenieurwissenschaften unter dem Titel „risING. Regionale Innovationen, globale Transformationen“ ausrichten. In einem ganztägigen, abwechslungsreichen Programm präsentierten sich die Thüringer Ingenieurwissenschaften zugleich sich selbst und der interessierten Öffentlichkeit. In Vorträgen konnten sich verschiedene Projekte aus Forschung und Lehre vorstellen und Nachwuchswissenschaftler:innen in einem Pitchwettbewerb beweisen. Abgerundet wurde das Programm durch eine Präsentation aller eingereichten Poster und eine Ausstellung von Kooperationspartnern im Foyer. Prägend in allen Hinsichten blieb die thüringenweite, kooperative Ausrichtung der Ingenieurwissenschaften, die auch ein Markenkern der Allianz Thüringer Ingenieurwissenschaften darstellt.

Die Allianz THÜR ING ist ein Bündnis von sieben Thüringer Hochschulen mit ingenieurwissenschaftlichen Studiengängen, das es sich zu Aufgabe gemacht hat, die Bekanntheit der Ingenieurwissenschaften in der Öffentlichkeit zu steigern. Ziel dieser Kooperation ist es zudem, junge Menschen für das Studium der Ingenieurwissenschaften zu begeistern und zu diesem Zweck die Vielfalt der Studiengänge, die Anwendungsnähe und die innovative Relevanz hervorzukehren.  Ab von vielen weiteren wissenschaftskommunikativen Offerten sind es die Tage der Ingenieurwissenschaften, die eben solche Impulse setzen sollen. Neben der Allianz THÜR ING unterstützte die Thüringer Ingenieurskammer das Organisationsteam der Hochschule Schmalkalden bei der Umsetzung des Tages, zum Beispiel bei der Bewertung der Pitches und der Preisverleihung am Ende der Veranstaltung.

Um was es geht: Die Relevanz der Ingenieurwissenschaften

In seiner Begrüßungsrede wies Professor Gundolf Baier, Präsident der Hochschule Schmalkalden und Sprecher der Allianz THÜR ING, auf die verschiedenen gesellschaftlichen Herausforderungen unserer Gegenwart hin, auf welche die Ingenieurwissenschaften innovative Antworten finden müssten und auch würden: Neben der Demographie seien dies die Digitalisierung und die Dekarbonisierung – kurz die großen D‘s. Gerade im Falle der letzten beiden Herausforderungen werden die Potentiale der Ingenieurwissenschaften deutlich: Die techno- und ökologischen Transformationsprozesse prägen bereits unsere Gegenwart und unseren Alltag von der Kommunikation über Behördengänge bis hin zu Einkäufen, und werden dies in Zukunft wohl immer stärker tun. Darüber hinaus spielen die D’s aber auch eine immer größere Rolle für die Wirtschaft und den Standort Deutschland.

Hochschulen angewandter Wissenschaften nehmen die letzten beiden Impulse gesellschaftlicher Transformationen in ihrer Forschung auf und versuchen, neben ebenso relevanten Aspekten von Grundlagenarbeiten, anwendungsnahe Lösungsansätze für Gesellschaft und Wirtschaft zu entwickeln. Diese Implementierbarkeit ihrer Forschungsarbeiten und die Arbeit an konkreten Problemen ist ein gewichtiges Pfund, die mehr in die Wahrnehmung der Öffentlichkeit gerückt werden soll.

Anlässe wie die Tage der Ingenieurwissenschaften lassen sich nutzen, um mit der Öffentlichkeit in Kontakt zu treten und diese über die Tätigkeiten und die Sinnhaftigkeit der Ingenieurwissenschaften zu informieren: Was sind die Themen der Ingenieur:innen, vor welchen Herausforderungen stehen sie und wie gehen sie mit den Aufgaben um? Welche Bereiche umfasst das ingenieurwissenschaftliche Spektrum und wie gestalten sich die internen und externen Austauschbeziehungen, zum Beispiel zu den Forschungseinrichtungen von Unternehmen? Wie lassen sich Patente einrichten, Start-Ups gründen oder Forschungsdaten in der wissenschaftlichen Community teilen? Der Tag der Ingenieurwissenschaften nutzte die Gelegenheit, um ein Licht auf diese verschiedenen Aspekte zu werfen.

risING: Impulse der Politik

Der Tag der Ingenieurwissenschaften steckte sein thematisches Portfolio bereits in seinem Titel „risING. Regionale Innovationen, globale Transformationen“ ab. Einerseits wird hierbei ein Bezug zur RIS-Strategie der Landesregierung hergestellt, die wiederum auf eine regionale Innovationsstrategie abzielt: Im Hinblick auf verschiedene Felder und thematische Komplexe rund um Zukunftsfragen wurden Akteure der Thüringer Forschungslandschaft anhand ihrer Schwerpunkte und Kompetenzen markiert. Das Ziel ist, dass die beteiligten Institutionen und Personen zu verknüpfen und den Austausch an Wissen und Expertise anzuregen, um und so schließlich die Forschung gemeinsam voranzutreiben. In Kooperationen lassen sich die Potentiale ganz unterschiedlicher Akteure und Regionen Thüringens produktiv nutzen, so die dahinterstehende Idee. In einem kleinen Bundesland wie Thüringen kann Forschung keine One-Man-Show sein, vielmehr legen die kurzen Wege eine enge, produktive Zusammenarbeit und die intensive Vernetzung nahe.

Kooperative Projekte sind in der Forschungslandschaft zwar keine neue Erscheinung, doch nimmt die Zusammenarbeit von Hochschule, außeruniversitären Forschungseinrichtungen und Partnern aus Wirtschaft und Gesellschaft immer mehr zu. Da sich so die verschiedenen Schwerpunkte unterschiedlicher Akteure einbringen und die Beteiligten die Heterogenität der Forschungslandschaft gewinnbringend nutzen können, bieten sich diese Kooperationsprojekte zur Präsentation ingenieurwissenschaftlicher Aktivitäten und deren interdisziplinärer Potentiale an.

Forschungsprojekte: Intelligente Mobilität und 3D-Elektronik-Systeme

Am Tag der Ingenieurwissenschaften konnte Professor Frank Schrödel von der Hochschule Schmalkalden die hochschulübergreifende Forschungsgruppe vernetztes und kognitives Fahren, kurz CoCoMobility, vorstellen. Neben der HSM sind die Fachhochschule Erfurt, die Technische Universität Ilmenau und die Bauhaus-Universität Weimar an diesem Forschungsprojekt zum Thema intelligente Vernetzung moderner Mobilität beteiligt. Die Vielfältigkeit der Kooperationspartner spiegelt die Differenziertheit der hier einbegriffenen Themen: Neben der intelligenten Verkehrsinfrastruktur und der Vernetzung von Fahrzeugen, Infrastruktur und Testumgebungen arbeitet die Forschungsgruppe an Effekten auf den Verkehr, Aspekten der Sicherheit sowie an Einflüssen der Umwelt.

Die Umsetzung der neuen Mobilität angefangen beim autonomen Fahren bis hin zur smarten Verkehrslenkung bedarf der Kommunikation, zum Beispiel zwischen den Mobilen und der Infrastruktur. An dieser intelligenten Konnektivität forscht der Projektpartner TUI. Die BUW fokussiert sich auf den Ablauf des Verkehrs, also Fragen der Vorhersagbarkeit und u.a. individuell als angenehm empfundener Abstände. Die Steigerung der Verkehrssicherheit vulnerabler Gruppen steht im Blickfeld der FHE. Und die HSM widmet sich der menschenzentrieten autonomen Entscheidungsfindung im Kontext der autonomen Mobilität. In diesem kooperativen Forschungsprojekt können die unterschiedlichen Partner ihre Expertise einbringen.

Professor Roy Knechtel nutzte die Gelegenheit, um den neuen Forschungsschwerpunkt 3D-Elektronik-Systeme der Hochschule Schmalkalden vorzustellen. Die Welt der Mikroelektronik ist noch heute weitgehend eine Scheibe, sind doch jene dünnen Siliziumscheiben, die sogenannten Wafer, die Grundbausteine. Dennoch lässt sich ein Trend hin zur Dreidimensionalität feststellen: Um die Funktionen moderner smarter Geräte wie Handys oder Uhren erfüllen zu können, müssen Chips, Sensoren und andere technische Komponenten in die dritte Dimension wachsen: Kurzum geht es darum, hochkomplexe Bauteile zu stapeln und zu verbinden, um so immer kompaktere, effizientere Komponenten zu erzeugen und den Erfordernissen von Funktionalität, Formfaktor, Passgenauigkeit und Rentabilität gerecht zu werden.

Das Ziel des Projektes ist die Herstellung komplexer mikroelektronischer Bauteile direkt auf dem wafer, um so auch die Wertschöpfung einer bislang recht globalisierten Industrie vor Ort halten zu können. Um die für diese Bauteile notwendige Präzision erreichen zu können, muss ein Fokus auf den Materialien und der Strukturanalyse ihrer Charakteristika liegen. Neben Martin Seyring aus dem Team von Roy Knechtel ist mit Stephanie Lippmann von der FSU Jena und dem dortigen Otto-Schott-Institut für Materialforschung im Projekt für diese Aspekte eingebunden. Aber auch Unternehmen wie X-Fab beteiligen sich als Partner aus der Wirtschaft an diesem Forschungsschwerpunkt.

Nachwuchs: Die vielen Facetten der Ingenieurwissenschaften

Am Tag der Ingenieurwissenschaften gab auch dem akademischen Nachwuchs in unterschiedlichen Hinsichten Raum: Schon vor Längerem gab es einen Call for Poster, der um Einreichungen zu innovativen Themen der Thüringer Ingenieurwissenschaften aufrief. All diese eingereichten Poster wurden im Rahmen einer Präsentation per Slideshow gezeigt und gaben während der Pausen zu Gesprächen Anlass. Zudem wählte eine Jury aus den Einreichungen zwölf aus, die dann am Tag der Ingenieurwissenschaften ihr Poster in einem Pitch vorstellen konnten. Am Ende der Veranstaltung wurden wiederum durch eine Jury, unter anderem mit Vertreter:innen der Ingenieurskammer besetzt, die besten drei Pitches ausgewählt und die Gewinner mit einem Preisgeld bedacht.

Hier ist nicht genügend Platz, alle Beiträge eingehend zu würdigen, daher muss eine Synopsis genügen. Alle Pitches werden in Bälde auf dem Youtubekanal der Allianz THÜRING verfügbar sein, alle Poster sind auf der Seite der Hochschule Schmalkalden im Bereich Forschung zu finden. Zudem werden die Präsentationen, sofern möglich, ebenso auf diesen Seiten veröffentlicht.

Martin Patrick Pauli von der Hochschule Schmalkalden verdeutlichte die Folgen des Data-Leakage-Problems, welches bei dem Training von KI-Algorithmen mit Daten auftreten kann. Letztlich kann es dabei zu überoptimistischen Annahmen der Trefferquoten und damit zu einer Verzerrung der Ergebnisse kommen. Um diese nur scheinbare Lösung zu vermieden, gilt es ebenso aufmerksam gegenüber den Daten und ihrer Aufbereitung zu bleiben wie es nützlich ist, auf verschiedene Kontrollmethoden in der Datenverarbeitung zurückzugreifen.

Christian Diegel von der Technischen Universität Ilmenau stellte in seinem Pitch ein Verfahren vor, beim dem es um eine Optimierung des Laserstrahlschweißens geht. Infolge der hohen Prozessgeschwindigkeit lösen sich aus dem Schmelzkanal Spritzer ab, die dann wieder mehr oder weniger aufwändig entfernt werden müssen. Durch die Addition einer Nebenintensivität nahe dem zentralen Laser ließe sich das Schmelzbad vergrößern und so die Dynamik des Materials verringern, wodurch es wiederum weniger Ablösungen gäbe, so der Ansatz. Durch die Einbringung von Tracer-Teilchen ins Material konnte mithilfe von Hochgeschwindigkeits-Röntgenuntersuchungen die Fluidität des Materials beobachtet und Wege zur Optimierung des Laserschweißens gefunden werden.

Tobias Tefke stellte den Aufbau eines Ethical-Hacking-Labors inklusive einer Capture-the-flag-Umgebung vor, die den Studierenden der Informatik an der Hochschule Schmalkalden helfen soll: In virtuellen Arbeitsumgebungen geht es darum, mögliche Schwachstellen in der Infrastruktur von Softwaresystemen zu finden und die Lücken in der Sicherheit zu schließen. Hier verknüpfen sich also Ansätze der Informatik und der Didaktik.

Analoger nimmt sich das Projekt von Lucas Hauck, ebenfalls von der Hochschule Schmalkalden, aus: Er geht den technischen Herausforderungen, den Möglichkeiten und Grenzen der additiven Fertigung elektronischer Bauteile im dreidimensionalen Raum nach. Der 3D-Druck besticht dabei durch ein Angebot vieler Verfahren und die mögliche Verwendung unterschiedlicher Materialien sowie die Aufbringbarkeit auf multiple Untergründe. Hauck geht diesem Komplex anhand eines 3D-Druck-Systems nach, wobei dessen Flexibilität der möglichen Verfahren das Angebot denkbarer Lösungswege vervielfacht und übersichtlich macht. Um den Aufwand individueller Ansätze zu minimieren, soll ein grundlegender Verfahrenskatalog entwickelt werden, der den Umgang mit solchen Geräten über Designregeln standardisieren und vereinfachen soll.

Wie können Drohnen und künstliche Intelligenz die Bauindustrie unterstützen? In ihrem Pitch umriss Lisa Schneeweiß das Projekt BauKiRo, das sich neben der Aufzeichnung des Baufortschritts auch dem Vergleich der realisierten Bauausführung mit dem Bauplan widmet. Dieser Kooperation der HSM mit der FAU Erlangen-Nürnberg steht vor den Herausforderungen des Einsatzes von Drohnen in komplexen Umgebungen und KI-unterstützten Auswertung von Videoaufnahmen und dem Abgleich mit vorliegenden Plänen. Der Zweck dieses Projektes ist unter anderem, Baumängel frühzeitig zu erkennen.

Sreekar Babu Malli vom ThIWert, dem Thüringer Innovationszentrum für Wertstoffe, befasst sich im Projekt SeRo.inTech mit innovativen Technologien, wertvolle Rohstoffe aus Abfällen zu gewinnen. Er stellte das Kooperationsprojekt der HSN mit der BUW am Beispiel von Sperrmüll vor: In der üblichen Entsorgung von Abfällen bleiben Teile an verwertbaren Materialien und Rohstoffen ungenutzt. Das Projekt versucht unter anderem, die die großen Bestandteile an Holz im Sperrmüll aufzubereiten. Daran schließt sich eine Verteilung der Objekte nach Qualität und möglicher Weiterverwendung an. Ziel ist es, einen möglichst abgeschlossenen Kreislauf der verwendeten natürlichen Rohstoffe zu realisieren und selbst qualitativ minderwertige Materialien nachhaltig zu nutzen.

Michael Werner von der Hochschule Schmalkalden stellte das Innovationslabor KIOptiPak vor, das wiederum ein Teil des KI HUB Kunststoffverpackungen ist. Ziel dieser Kooperation verschiedener Partner aus Wissenschaft und Wirtschaft ist es, Kunststoffverpackungen so zu gestalten, dass die Wiederverwertbarkeit maximiert und die Kunststoffabfälle von Verpackungen minimiert werden. Das KIOptiPak zielt dabei auf die Frage, wie Verpackungen designt sein müssen, um dieses Ideal eines Kreislaufs zu erreichen, zum Beispiel im Hinblick auf das verwendete Material und die direkte Einbeziehung von Vorgaben des Recyclings. Werners Interesse lag dabei auf der Qualität des wiederaufbereiteten Kunststoffreziklats und dem Umgang mit Schwankungen des Materials in der Verarbeitung. Diese Erkenntnisse sollen dann in KI-Modelle einfließen, die anhand der Vermessung des verwandten Materials schon bei laufender Produktion Angaben über die Güte und Verwendbarkeit des Produkts geben können.

Ein Thema, das Aspekte von Forschung und Transfer mit einem didaktischen Ansatz verknüpft, stellte Carsten Gatermann von der TUI vor: Ausgangspunkt war die Frage eines Schülers, ob sich eine vertikale Windenergieanlage auch in Privathaushalten installieren ließe. Neben den elektrotechnischen Fragestellungen galt es, der kreativen Neugier des Schülers Raum zu lassen: Wie müssen Projektarbeiten gestaltet werden, um den individuellen Freiraum der Forschung mit der notwendigen Unterstützung und Orientierung zu verbinden? Der Ansatz „Knowledge on Demand“ trennt Themen in Teilaufgaben, zwischen denen sich die Beteiligten immer wieder abstimmen: Weil das selbstständige Arbeiten von den Schülern erst erlernt werden muss, wird die eigenständige Forschung mit einem engen Betreuungsverhältnis ergänzt. Je nach individuellem Vermögen können dann die Aufgaben dann frei oder gesteuert angegangen werden.

Wie lässt sich der natürliche Rohstoff Holz weiter nutzen? Daniela Pachatz von der HSM stellte drei Anwendungsbeispiele aus dem Projekt FiWood vor, in dem um die Integration von Funktionen in Schichtholzprodukten geht. Ein Projekt ist ein Sitzpult, in das verschiedenen Funktionen wie eine Heizung und Sensoren (Temperatur und u.a. Luftfeuchte) eingelassen sind. Die Wärmefunktion ist auch Teil von Bodenheizelementen, die über die Abgabe von Infrarotwärme den Effekt der thermischen Behaglichkeit erreichen sollen. Nicht zuletzt lassen sich auch LED-Arrays in den Furnieren integrieren, und so leuchtende Holzelemente herstellen.

Walpola Perera von der FHE ist Teil des Forschungsprojektes Kimono-EF, das die Mobilität beeinträchtigter Menschen im Stadtraum sicherer machen will. Weil die Grünphasen von Ampelanlagen oftmals zu kurz sind, um betroffenen Menschen eine vollständige Überquerung der Straßen oder Straßenbahnschienen zu erlauben, soll hier innovative Technologie Einzug halten. Zunächst werden mit KI-optimierten Erfassungssystemen wie Kameras Personen frühzeitig ausfindig gemacht, die einen längeren Zeitraum für die Querung benötigen könnten, zum Beispiel Personen in Rollstühlen oder mit Kinderwägen. Anschließend werden die spezifischen Grünphasen verlängert und die anderen Verkehrsteilnehmer informiert. Weiter gedacht könnte mit Hilfe dieser Benachrichtigungssysteme auch eine intelligente Verkehrssteuerung autonomer Fahrzeuge ergänzt werden.

Einen Ansatz, die Photolithographie mit extremem ultraviolettem Licht zu verbessern, stellte Niranjan Kannali Ramesha von der HSM vor. Moderne Computerchips werden durch ein spezifisches Verfahren hergestellt, das sich als Buchdruck mit Licht umschreiben ließe. Auf dem Wafer, also einer Siliziumscheibe, wird eine photosensitive Schicht aufgetragen und dann durch eine Maske hindurch dem Licht ausgesetzt, wodurch sich hochkomplexe und kleine elektronische Bauteile wie Transistoren aufbringen lassen. Der bestimmende Faktor der Größe der Bauteile ist momentan die Wellenlänge des Lichts, wodurch sich der Einsatz extremen ultravioletten Lichts erklärt. Um die Produktionskapazität zu steigern, müssen kraftvollere EUV-Quellen als die bislang genutzte Variante über Zinnkügelchen gefunden werden. Das Projekt ging dem Ansatz nach, das EUV von Freien-Elektronen-Lasern wie dem FLASH als Quelle zu nutzen. Zentral ist hierbei die Frage, ob und wie sich das EUV-Licht in einem Fokuspunkt konzentrieren lässt, wofür wiederum die Erfassung der Wellenfront eine entscheidende Rolle spielt. Im Weiteren brauche es optische Systeme, die Abweichungen der Wellenfont korrigierten.

Martin Sennewald (TUI) stellte abschließend einen Aspekt des Forschungsprojektes DimFSW vor, das darauf abzielt, die Beschädigungen von Werkzeugen bei Schmelzschweißverfahren wie dem Rührreibschweißen abzuschätzen und das Aufkommen von Ausfällen von Produktionsabläufen zu minimieren. Die Fügetechnik stehe grundsätzlich vor steigenden Herausforderungen, unter anderem aufgrund wachsender Ansprüche der Bauteilkomplexität, dem Leichtbau und der Qualität. Zum Beispiel verlangt die Elektromobilität weitaus komplexe Bauteile als die bisherigen Modelle. Für die Fertigung folgen hieraus nicht nur die Wirkung hoher Prozesskräfte, sondern auch ein erhöhter Verschleiß der Werkzeuge. Wie lässt sich dieser Verschleiß so bestimmen, dass Ausfälle in laufenden Produktionsprozessen vermieden werden können? Der Ansatz ist, auf die tatsächlichen Prozesskräfte und -momente wie der vorliegenden Spannungen am Schweißstift im Prozess zurückzugreifen, wobei diese aus den Kraft-/Drehmomentdaten gewonnen werden.

Nachhaltigkeit und Netzwerke, Daten und Patente

Neben diesen konkreten Forschungsvorhaben gab der Tag der Ingenieurwissenschaften auch Projekten Raum, die Forschung und Lehre strukturell verbessern wollen. Mit ThüLeNa präsentierten die Professoren Frank Pothen (EAH) und Matthias W. Schneider (HSM) ein jüngst gestartetes Projekt, das sich dem Aspekt der Nachhaltigkeit im Lehren und Lernen widmet und dies stärken will. Dieser Nachhaltigkeitsgedanke umfasst Aspekte der Entwicklung neuer Technologien ebenso wie eine soziale und ökologische Verantwortung sowie die Einholung sozialer und ökonomischer Akzeptanz. Das Ziel von ThüLeNa ist es, die Ingenieurwissenschaften auf diese Herausforderungen auf verschiedenen Ebenen vorzubereiten und die Transformation produktiv zu begleiten, und zum Beispiel die Nachhaltigkeit in Lehrformaten zu integrieren und bereits vorhandene Strukturen und Kompetenzen zu stärken.

Wie lässt sich die Forschung und Entwicklung in Thüringen kooperativ verknüpfen? Das Thüringer Zentrum für Maschinenbau nimmt sich dieser Aufgabe an, wie Dr. Andreas Patschger in seinem Vortrag deutlich machte. Das ThZM ist eine Kooperation aus fünf Forschungseinrichtungen, u.a. der TUI und der HSM, das sich neben wirtschaftspolitischen Impulsen vor allem dem Wissens-Transfer hin zu kleinen und mittleren Unternehmen verschrieben hat. Es geht also darum, gefundene Lösungen in die Anwendung zu bringen und hierzu Institutionen der F&T mit den zentralen Akteuren, also Unternehmen, in Kontakt zu bringen. Beide Seiten können hierbei voneinander lernen. Ein weiterer Ansatz des ThZM ist zudem die Netzwerkarbeit, um die Akteure in Austausch zu bringen, zum Beispiel in Formaten wie der Cross-Cluster-Initiative Thüringen. Hierin tauschen sich kleine und mittlere Unternehmen über ihre Erfahrungen, Bedarfe und gemeinsamen Interessen aus, was zukünftigen Kooperationsprojekten ebenso den Weg ebnet wie es den Partnern einen Überblick in geteilte Problemlagen erlaubt. Nicht nur können die Beteiligten so von best-practise-Beispielen profitieren, sondern auch mögliche Kooperationspartner in der Nachbarschaft kennengelernt werden.

Eine andere Frage ist die der Forschungsdaten, wobei hier nicht nur an die Statistiken empirischer Sozialwissenschaften zu denken ist, sondern auch an die massiven Datenmengen, die zum Beispiel im Maschinenbau per Sensoren an den Werkzeugen erhoben werden. Da diese Informationen mit viel Aufwand gewonnen werden, ist es sinnvoll und von einem allgemeinen wissenschaftlichen Interesse, die erhobenen Daten zu teilen, im Kreise der Wissenschaft oder auch in der Öffentlichkeit. Um Wissenschaftler:innen bei diesen Projekten zu unterstützen wurde mit dem FDM-HAWK eine Initiative des Forschungsdatenmanagement ins Leben gerufen, deren Mitarbeiter:innen auf verschiedenen Feldern helfen können. Wie Sarah Boelter (EAH Jena) hervorhob, fängt dies bereits bei grundsätzlichen Dingen wie dem Datenschutz- und der -sicherheit an, geht über den planvollen Umgang mit Daten und ihrer Erhebung schon im Vorfeld und reicht bis in Detailfragen wie den passenden Metadaten, verlässlichen Plattformen und den kompatiblen Formaten der entsprechenden Daten.

Ein anderer Punkt sind die Patente: Jan Axel Schleicher gab einen Einblick in seine Tätigkeit und die Aufgabe von PATON, dem Landespatentzentrum Thüringen. Letztlich ist es das Ziel, unter anderem Wissenschaftler:innen dabei zu unterstützen, Patente zu beantragen und die verschiedenen Fallstricke einer solchen Anmeldung zu vermeiden. Welche Kriterien müssen erfüllt werden, um ein Patent anmelden zu können? Hier ist unter anderem an den Stand der Technik zu denken, dessen Mängel und das Potential der Erfindung, wobei hier wiederum zwischen der Aufgabe und der Lösung der Erfindung geschieden werden kann. Nicht zuletzt stellte Schleicher den Ablauf einer Patentanmeldung vor, um eventuell Betroffenen eine Orientierung zu geben.

Sven Uwe Büttner vom StarterWerk gab einen Überblick über die Dos and Don’ts von Existenzgründungen: Was braucht es eigentlich, um erfolgreich von einer Idee zu einer Unternehmung zu gelangen? In das Zentrum stellte Büttner das kreative, engagierte Individuum, das eine Idee verwirklichen will. Neben der Definition einer Baseline, der Perzeption des Marktes und der Interessen potentieller Kund:innen ging es um die Nutzung wichtiger Kontaktnetzwerke und die Fokussierung gepaart mit einer Offenheit, die den Weg zum Ziel nicht weniger gerichtet, nur etwas breiter werden lässt.

Ein Fazit

Am Ende des Tages konnten die Gäste, die Referierenden und das Organisationsteam auf einen erfolgreichen, informativen Tag der Ingenieurwissenschaften zurückblicken, der verschiedene Aspekte der Thüringer Ingenieurwissenschaften beleuchtete und der zugleich ebenso für die Öffentlichkeit wie für Wissenschaftler:innen lohnenswerte Inhalte bereithielt.

Die Veranstalter wollen zum Abschluss allen Beteiligten danken, die im Vorfeld oder am Tag selbst mit ihrem Engagement für das Gelingen beitrugen.

Drucken mit Licht – Über die Potentiale der Fotolithografie

Drucken mit Licht – Über die Potentiale der Fotolithografie

Um immer kleinere und effizientere Mikrochips produzieren zu können, müssen permanent neue Wege beschritten und Technologien erforscht werden. Gegenwärtig sind es spezielle Verfahren der Fotolithographie, in welchem Halbleiter mit Hilfe von extremem ultraviolettem Licht hergestellt werden, die entscheidende Potentiale versprechen. Auch wenn der technische Aufwand dieser Methode immens ist und eine lange Zeit der Forschung und Entwicklung bedurfte, bietet sie enorme Chancen für die Fertigung von hochkomplexen Bauteilen. An der Hochschule Schmalkalden will sich Professor Christian Rödel, vor kurzem auf die Professur für Physik und angewandte Lasertechnik berufen, diesem Gebiet in Forschung und Lehre widmen.

Um den praktischen Nutzen der Mikroelektronik und die Fortschritte der letzten Dekaden erkennen zu können, genügt ein Blick in unsere Hosentaschen: Auch wenn die Smartphones mittlerweile aus dem Alltag nicht mehr wegzudenken sind, ist es doch erstaunlich, was die kleinen Geräte gerade im Hinblick auf ihren noch jungen Ursprung vermögen. Da der technische Fortschritt ein stetiger Prozess der Innovation ist, sucht die Mikroelektronik weiter nach Mitteln und Ansätzen, Bauteile zu verkleinern bzw. komplexer gestalten zu können. Ein Weg dahin sind fotolithographische Methoden, bei denen Chips mit Hilfe von Lasern fotolithografisch hergestellt werden. Einerseits bieten sich im Rückgriff auf das extreme ultraviolette Licht spezifische Vorteile gerade für die Miniaturisierung elektronischer Bauteile, andererseits haben diese Verfahren in ihrer Anwendung hohe technische und praktische Voraussetzungen.

Die Forschung in diesem Bereich wurde in letzten Dekaden vor allem durch ein Unternehmen aus den Niederlanden vorangetrieben: Vor nunmehr dreißig Jahren begann hier die Erforschung der technischen Grundlagen und führte zur Entwicklung einer Apparatur, die heute zu den komplexesten und teuersten Systemen gehört und die ASML zu einem der wertvollsten Unternehmen der Welt gemacht hat. Der Vorsprung im Bereich von Forschung und Entwicklung, den sich ASML erarbeitet hat, beruht auf einer langfristigen Spezialisierung, die selbst noch die Zulieferfirmen umfasst. Im Moment ist nur diese Firma in der Lage, Anlagen herzustellen, die Fotolithographie mit extremem ultraviolettem Licht verwenden. Die Produktion modernster Chips ist in der Folge von diesem einen Anbieter abhängig, was letztlich sogar geopolitische Komplikationen nach sich zieht.[1]

Schreiben mit Licht

Lithographie ist ursprünglich ein Flachdruckverfahren, was meint, dass der Druck nicht über eine vertieft oder erhaben gearbeitete Zeichnung auf der Druckplatte erfolgt, sondern die druckenden und nichtdruckenden Partien auf einer Ebene liegen. Die Maske wird hierbei durch eine Versiegelung der Steinplatte aufgetragen, wobei das Prinzip auf der Unmischbarkeit von Fett und Wasser basiert. Während die druckenden Partien die fettreiche Druckfarbe aufnehmen, werden die nichtdruckenden Stellen mit einem Wasserfilm befeuchtet und stoßen die Druckfarbe ab. Im Falle der Fotolithographie wird dieses Prinzip durch Licht und lichtreaktive Substanzen umgesetzt. Kurz gefasst wird eine hauchdünne Siliziumscheibe, Wafer genannt, mit einem Licht-empfindlichen Fotolack beschichtet und anschließend mittels einer kurzzeitigen Strahlung über eine Maske belichtet, wodurch sich die Chemie des Lacks verändert und die Muster übertragen werden. Durch Wiederholung dieses Prozesses entstehen komplexe 3-dimensionale Strukturen – die Mikrochips. Auch wenn dieses Verfahren schon eine längere Zeit eine übliche Methode in der Herstellung von Microchips war, verändern sich durch die EUV-Lithographie die Rahmenbedingungen und Möglichkeitsräume.

Der Grad an Präzision, den diese Maschine verlangen, lässt sich fast nur in der Prosa von Superlativen Ausdruck verleihen. Ein Beispiel: Die Laser sind so genau, dass sie es erlauben würden, von der Erde aus eine Münze auf der Mondoberfläche zu treffen. Es geht hier darum, komplexe elektronische Bauteile im Nanometerbereich zu bauen, wobei sich verschiedene physikalische und optische Herausforderungen kombinieren. Um sich die Größenordnung auch nur annähernd vorstellen zu können: Wir sprechen hier von dem Tausendstel eines menschlichen Haars. Hier wurde nun das Licht selbst zum Problem: Um auf dieser Ebene arbeiten zu können, reicht die Qualität des Lichts der üblichen Laser aufgrund der Wellenlänge nicht aus.

In diesem Vorlesungsexperiment soll Studierenden die vergrößernde Abbildung eines Maßstabs näher gebracht werden. In der Fotolithografie wird vom Prinzip her ähnlich eine Maske auf einen Siliziumwafer mit Fotolack abgebildet.

Das Unsichtbare nutzbar machen

Warum also der Rückgriff auf das extreme ultraviolette Licht? Licht ist bekanntlich eine elektromagnetische Welle und besitzt charakteristische Wellenlängen, die wiederum die Bedingungen ihrer Anwendung vorgeben. Kürzere Wellenlängen lassen das Schreiben kleinerer Strukturen zu, pointiert formuliert. Um ein lebenspraktisches Beispiel zu bemühen: Auch wenn sie von identischer Größe sind, unterscheidet sich der Wellenlängenbereich der schreibenden und lesenden Laser von CD´s und Blu-Ray´s, wodurch vielmehr Daten auf das BD-Medium geschrieben werden können. Das ultraviolette Licht, das außerhalb der menschlichen Wahrnehmbarkeit liegt – außer indirekt im Falle des Sonnenbrandes –, hat eine sehr niedrige Wellenlänge. Extremes ultraviolettes Licht hat eine Wellenlänge von 13,5 Nanometer und liegt damit weit außerhalb des Bereichs menschlicher Perzeption. Dieses extrem ultraviolette Licht wird benötigt, um die Miniaturisierung voranzutreiben und kleinere Strukturen und Integrationsdichten in einer Größenordnung von unter 15 Nanometer realisieren zu können.

Um mit diesem Licht arbeiten zu können bedarf es allerdings einiger Vorkehrungen: Da dies Licht sehr leicht absorbiert wird, muss die gesamte Belichtung mit EUV-Strahlung im Vakuum vollzogen werden. Zudem können keine Linsen verwandt werden, wie es üblicherweise mit Lasertechnologien in Verbindung gebracht wird, vielmehr funktioniert die Bündelung des Lichts über hochpräszise Spiegel, deren Herstellungsprozess für sich schon höchst anspruchsvoll ist.

Auch wenn die Forschung an der Nutzung des extremen ultravioletten Lichts schon länger weilte, gelang erst Mitte des letzten Jahrzehnts ein entscheidender Durchbruch: Indem man flüssiges Zinn als Lichtquelle nutzen konnte, wurde die Schwelle zur Massenproduktion überschritten, durch die sich die Anschaffung einer solchen Maschine überhaupt erst lohnt. Das Zinn wird dabei als Tropfen in der Maschine mit einem Laserpuls beschossen, wodurch die Kugel die Form eines Eierkuchens annimmt. Im Anschluss wird das Zinn von einem stärkeren Laserpuls nochmals beschossen, wodurch dann das EUV-Licht entsteht und über verschiedene Spiegel zur Maske und dann zum Wafer geführt wird. Erst durch dieses Verfahren wurde die Produktion von Computerchips in Masse möglich und die EUV-Lithographie rentabel. Im Angesicht der Preise der Apparaturen zwischen 185 und 360 Millionen Euro muss sich die Anschaffung lohnen. Daher bedarf es eines hohen Outputs und einer verlässlichen Produktion, was wiederum die beständige Weiterentwicklung nahezu aller Komponenten der Maschine umfasst.

Partnerschaften, Forschung und Lehre

In Anbetracht der Komplexität dieser Technologie lässt sich erahnen, wie viele Wissenschaftlter:innen an ihrer Erforschung beteiligt waren und nunmehr damit beschäftigt sind, sie weiter zu verbessern. Zugleich macht die Komplexität eine Konzentration notwendig. An der Hochschule Schmalkalden möchte sich Prof. Christian Rödel mit der spektralen Charakterisierung von EUV-Quellen und Komponenten beschäftigen, die in der EUV-Lithografie eingesetzt werden können. Das sind zum einen dünne Filterfolien, aber auch EUV-Spiegel, die aus vielen Nanometer-dünnen Schichten bestehen.

Um Komponenten testen und optimieren zu können, die in der EUV-Lithographie und der Inspektion eingesetzt werden, wurde an der an der Hochschule Schmalkalden, gefördert durch Mittel der Carl-Zeiss-Stiftung, das Projekt EUV-4-LITHO ins Leben gerufen. Mit Unterstützung von Kooperationspartnern aus der Region bis ins europäische Ausland wird Professor Rödel und sein Team ein hochauflösendes EUV-Spektrometer entwickeln, mit dem sich die Vielschichtsysteme der Spiegel und ihre Eigenschaften der Reflektivität mit bisher unerreichter Präzision vermessen lassen.

Das Reflexionsgitter aus dem Vorlesungsexperiment spaltet das weiße Umgebungslicht in die spektralen Bestandteile auf. Im Projekt EUV-4-LITHO soll ebenso ein Reflexionsgitter eingesetzt werden, um die EUV-Strahlung spektral zu charakterisieren.

Auch wenn die EUV-Lithografie eine innovative Technologie der Gegenwart ist, lassen sich hier Forschung und Lehre verbinden. So entstand zum Beispiel im Projekt EUV-4-LITHO bereits eine Masterarbeit und es wurde eine Exkursion zum DESY, dem Deutschen Elektronen-Synchrotron, unternommen, um hier Untersuchungen mit EUV-Strahlung von Freien-Elektronen-Lasern vorzunehmen. Neben der Lehre steht für Professor Rödel die Kooperation im Fokus seiner Arbeit an der Hochschule für angewandte Wissenschaften. Neben den mannigfaltigen Projektpartnerschaften geht es ihm auch im die konkrete Vernetzung vor Ort, zum Beispiel der Verknüpfung von Forschungsthemen des Maschinenbaus und der Elektrotechnik. Dabei liegt im auch die Präzisionsmesstechnik am Herzen, die im Maschinenbau eingesetzt wird.


[1] Wer sich über diesen Aspekt informieren möchte: Chris Miller, Chip War. The Fight for the World’s Most Critical Technology, New York 2022.

* Das Beitragsbild zeigt ein Vorlesungs- und Praktikumsexperiment, in dem die charakteristischen Linien einer Natriumdampflampe bei 589 nm mit einem Reflexionsgitter spektral untersucht werden. Eine Xenon-basierte EUV-Lichtquelle soll an der Hochschule Schmalkalden entwickelt werden, die in ähnlicher Weise bezüglich des Spektrums bei 13,5 nm untersucht werden soll.

Künstliche Intelligenz – Potentiale und Hürden in der Anwendung

Künstliche Intelligenz – Potentiale und Hürden in der Anwendung

Der Begriff „Künstliche Intelligenz (KI)“ kann, je nach sozialer Prägung, bei jedem Leser oder Leserin eine andere Assoziation auslösen. Je nach Alter, Interessen oder auch technischer Begeisterung kann sich der ein oder andere an unterschiedliche Computerspiele, Filme oder auch Bücher mit verschiedenen Arten an KI aus seiner Kindheit erinnern. Somit tragen Science Fiction oder allgemeiner die Kulturindustrie jeder Dekade ganz eigene Bilder artifizieller Intelligenz: Ob wir an das sprechende Auto „KITT“ aus der Knight Rider, selbst steuernde Raumschiffe oder humanoide Roboter, wie „Data“, aus der Serie Star Trek oder an künstlichen Neuronalen Netzen (KNN), Deep Learning (DL) oder ChatGPT als Large Language Model (LLM) denken, kann man nur schwer, durch aufwendige Umfragen oder persönliche Gespräche herausfinden. In vielen Narrativen unserer Gegenwart kommt noch die Tendenz einer globalen Dominanz hinzu, die Seitens autonom agierender Roboter, Programme oder Netzwerke ergriffen oder zumindest angestrebt wird. Dies mag einen Grund in der steigenden Verbreitung smarter Geräte und der umfassenden Digitalisierung sowie der Abhängigkeit unserer Alltagsroutinen von diesen Technologien haben. All diesen Bildern der Künstlichen Intelligenz ist dabei gemein, dass sie zu der realen Version nur überschaubar viele Parallelen aufweisen.

In der banalen Wirklichkeit verliert die KI zwar viel von den popkulturellen Etiketten zwischen Idealisierung und Dämonisierung, sie gewinnt aber zugleich an praktischen Nutzen. Um zu verstehen, was Künstliche Intelligenz ist, worin ihre Potentiale und Schwächen im Allgemeinen wie im Besonderen liegen und was letztlich ihr Nutzen ist, muss also zunächst von den Zerrbildern Abstand genommen werden, auch wenn sie sich durchaus als Einstieg in Ausführungen wie diese eignen.

Künstliche Intelligenz (KI)

Künstliche Intelligenz lässt sich am ehesten als ein Werkzeug beschreiben, das bei der Verarbeitung von Daten den Menschen Hilfestellung leisten soll. Der Bereich der KI ist eine Untergruppe aus dem Forschungsgebiet des Maschinellen Lernens (ML). Beide Begrifflichkeiten lassen sich meist nicht scharf von einander trennen und gehen fließend in einander über. Für beide Themenkomplexe kann jedoch gesagt werden, dass in der Vergangenheit die Herausforderungen in den Fragestellungen „Wie komme ich an Daten?“, „Welche Sensoren kann ich einsetzen?“ oder „Wie kann ich diese Daten auswerten?“ zutreffend waren. Die aktuellen Fragestellungen gehen eher in die Richtung: Wie kann ich diese Mengen an Daten komprimieren, auswerten oder die Entscheidung nachvollziehen? Hier kommen dann Begrifflichkeiten wie z.B. Big Data, Dimensionsreduktions-Algorithmen oder erklärbare KI (englisch explainable artificial intelligence (XAI)) zum Einsatz.

Das Forschungsgebiet der großen Datenmengen (Big Data) ist ursächlich aus der großen Verbreitung an Sensorik oder Informationsquellen entstanden. Heutzutage besitzen fast alle Menschen auf der Welt eine Smart Phone oder PC. Infolge der Möglichkeit, kostengünstige Mikroelektronik oder Sensorik herzustellen, gibt es eine Unmenge an potentiellen Datenquellen, welche die Menschen bei einer Auswertung oder Bewertung überfordern können. Hierfür müssen effiziente und schnelle Algorithmen entwickelt werden, welche es dem Menschen in annehmbarer Zeit ermöglichen, komplexe Zusammenhänge in den Daten zu erkennen und auch verstehen zu können. Die somit entstehenden komplexen Programme sind durch die hohe Rechenleistung in der Lage, Daten maschinell zu erfassen, Muster und Strukturen sowie unter anderem Synchronitäten, Parallelen und Divergenzen von Prozessen zu erkennen und zu verknüpfen. So lassen sich mehr und mehr Informationen aus den großen Beständen an Daten ziehen und für nachlaufende Erklärungen, tiefere Verständnisse des Gegebenen und vorlaufende Abschätzungen der möglichen Zukunft nutzen. Gerade weil die Vermessung unserer Welt durch Sensoren in Geräten z.B. Smartphones oder auch modernen Automobilen immer weiter voranschreitet, wächst ein Fundus an Wissen, der produktiv genutzt werden kann.

Zugleich ist es angebracht, nicht von der einen Künstlichen Intelligenz zu sprechen, sondern dies eher als Sammelbegriff verschiedener, teils recht unterschiedlicher Formen von KI zu verstehen. Künstliche Intelligenz umfasst diverse Verfahren der Datenverarbeitung, die sich für unterschiedliche Kontexte, Fragenstellungen und Materialien eignen. Es verhält sich also so wie bei vielen anderen angewandten Wissenschaften: Es gibt nicht ein generelles Verfahren, sondern verschiedene Ansätze mit unterschiedlichen Charakteristika. Zum Beispiel können KI-Modelle, die sich für Bildererkennung eignen, nicht für Sprachprogramme wie Chat GPT verwendet werden.

Damit ist auch schon eine Schwäche in der Nutzung von KI angesprochen: Nicht alle Modelle eignen sich für jede Anwendung. In anderen Worten muss für die Aufgabe, gerade wenn sie einem speziellen Zweck dient, zunächst das passende Verfahren gefunden und mit passenden Daten angelernt, getestet oder nachtrainiert werden. Die Nutzung der KI-Modelle ist demzufolge keine one-fits-all-Lösung, sondern bedingt einen Anpassungsprozess. Für manche Aufgaben eigen sich z.B. Unscharfe Regelwerke (Fuzzy Modelle), Support Vektor Maschinen (SVM) oder künstliche neuronale Netze, welche sich an der Funktionsweise des Informationsaustausches zwischen menschlichen Nervenzellen anlehnen.

Bilder und Werkzeuge

Die Komplexität dieser Anpassung könnte an Komplikationen bei der Bilderkennung klarer werden, wobei hier noch ein epistemologisches Problem auftritt. Digitale Bilderkennungsverfahren arbeiten mit zweidimensionalen Objekten, denen also die räumliche Tiefe fehlt. Diese muss gewissermaßen als Vorder- und Hintergrund wieder in das Bild hineingelesen werden: Die Dreidimensionalität, die distinkten Objekte und selbst der Fokus müssen demnach erst erarbeitet werden. Was die Programme vor Herausforderungen stellt, ist dem Menschen schon in seinem Zugang zur Welt quasi natürlich gegeben. Gerade weil die eigentliche Objekterkennung und -unterscheidung fundamentale Aufgaben sind, können hier spannende Probleme entstehen: Ein gerne gebrachtes Beispiel ist die aus der Literatur bekannte Methode der One-Pixel-Attack[1]. Hier kann die maschinelle Bewertung durch ein Bilderkennungsalgorithmus, durch die Änderung eines einzigen Pixels in einem Pferdebild zu einer Fehlklassifikation zu ein Frosch führen. Die Funktionsweise der KI-Modelle ist also noch nicht perfekt, auch wenn sich ihre Güte – man denke nur an die Gesichtserkennung von Smartphone-Kameras – in den letzten Jahren kontinuierlich verbessert hat.

Was meint es nun, von der Künstlichen Intelligenz als Werkzeug in der Industrie zu sprechen? Stellen wir uns einen Produktionsprozess von Plastikteilen vor: Wir haben auf der einen Seite die vielen kleinen Plastikkügelchen am Anfang, die aufgeschmolzen und in eine bestimmte Form gebracht werden, um zum Ende als gefertigtes Teil aus der Maschine entnommen zu werden. Was zunächst wie ein idealer, unendlich wiederholbarer Vorgang erscheint, hängt im Alltag der Produktion von vielen Faktoren ab. Die Erfahrung von Mitarbeitern und Mitarbeiterinnen mit den Maschinen und Materialien ist hier für den Produktionsprozess zentral, und wird es absehbar bleiben. Eine hilfreiche Komponente kann aber zugleich eine Sensorik sein, die unter anderem Parameter wie Temperatur und Druck permanent misst und eine erste Auskunft über die erwartbare Güte der produzierten Teile zum Beispiel durch eine Ampel gibt, bzw. vor wahrscheinlichen Fehlern warnt und Anpassungsvorschläge liefert.  Für solche in den Produktionsprozess integrierten Beurteilungen ist nicht eine Messung entscheidend, sondern ein Zusammenspiel verschiedener Werte und Schwellen sowie unterschiedlicher, teils zusammenhängender Verläufe, wodurch sich dynamische Verarbeitungssysteme wie KI-Modelle anbieten. Moderne Sensoren sind nicht nur hochempfindlich, sie können auch an Punkten angebracht werden, die dem Menschen während der Produktion nicht zugänglich sind. Der Mensch wird hier also nicht ersetzt, sondern durch die Technik unterstützt. In verschiedenen Forschungsprojekten wie z.B.: „Powermoulds“, „Wasabi“ oder auch „SMoSys“ arbeiten Manuel Schneider und Norbert Greifzu aus dem Team der „Eingebetteten Diagnosesysteme (EDS)“ von Professor Andreas Wenzel an solchen Lösungen für eine smarte Industrie und dem Einsatz vom KI an anwendungsnahen Problemstellungen. Die Forschungsgruppe EDS ist Teil einer Hauptforschungsrichtung „Adaptiven Signalanalyse“ der Hochschule Schmalkalden. Interessante Veröffentlichungen der Forschungsgruppe sind:

Literaturverzeichnis

[1]N. Greifzu, M. Schneider, M. Werner, N. Fränzel, A. Wenzel und C. Walther, Bewertung von Produktionsprozessen mit Verfahren der Künstlichen Intelligenz, 2020.
[2]M. Schneider, N. Greifzu, L. Wang, A. Wenzel, L. Pu und C. Walther, „An end-to-end machine learning approach for time series with varying lengths,“ Neural Computing and Applications, Nr. 10.1007/s00521-024-09473-9, 2024.
[3]H. Siebald, F. Pforte, B. Kulig, M. Schneider, A. Wenzel, M. Schweigel, J. Lorenz, H.-H. Kaufmann, J. Huster, F. Beneke und O. Hensel, „Referencing acoustic monitoring of cutting knives sharpness in agricultural harvesting processes using image analysis,“ Biosystems Engineering, Bd. 226, Nr. 10.1016/j.biosystemseng.2022.12.007, p. 86–98, February 2023.
[4]D. Schneider, M. Schneider, M. Schweigel und A. Wenzel, „Application of various balancing methods to DCNN regarding acoustic data,“ Proceedings 30. Workshop Comupational Intelligence, Nr. ISBN: 978-3-7315-1051-2, November 2020.
[5]M. Schneider, N. Greifzu, C. Walther und A. Wenzel, „Übertragung von anwendungsnahen Problemstellungen des Maschinellen Lernens aus der Forschung in die Lehre,“ Berlin Journal of Data Science, Bd. 1, February 2020.

[1] https://arxiv.org/pdf/1710.08864.pdf

Über den Abschluss des Forschungsprojektes „RoboTraces“

Über den Abschluss des Forschungsprojektes „RoboTraces“

Das Projekt RoboTraces zog Ende Januar ein Resümee seiner einjährigen Forschungstätigkeit und lud aus diesem Anlass abseits der Vertreter:innen von Presse und Politik auch jene Personen ein, die ein elementarer Bestandteil des Vorhabens in dem Stadtquartier Geras waren: Die Bewohner:innen. Neben dem Umweltminister Thüringens, Bernhard Stengele, fanden auch der TAG-Regionalchef, Claudius Oleszak, und die Referentin beim Bundesministerium für Digitales und Verkehr, Sarah Schmelzer, positive Worte zum Projekt und seiner Bilanz.

„Robbie“ ist ein autonomer Lieferroboter, der Einkäufe vom Laden, hier ein lokaler REWE, zu den Kund:innen, hier zum Nachbarschaftstreff Eichenhof, bringen soll. Da der Roboter die Gehwege nutzt, galt es zunächst, die Reaktionen der Bevölkerung auf „Robbie“ zu sondieren, also zum Beispiel, ob die Passant:innen anhalten, die Straßenseite wechseln oder einfach weitergehen – bzw. in welchen Situationen welche Reaktion auftritt.

Anpassung und Lebensqualität

Aus diesen Beobachtungen und Gesprächen mit den Nutzer:innen und Anwohner:innen lässt sich unter anderem schließen, welche Abstände, welche Farbgebung und welche Geschwindigkeiten notwendig sind, damit der Roboter zwar wahrgenommen wird, er zugleich aber nicht stört oder gar als Gefahr erscheint. Um diese Einsichten über das Verhalten und mögliche Parameter der Anpassung zu gewinnen sowie erste Einschätzungen möglicher Stressoren, also Auslösern von Stress, treffen zu können, wurde Robbie über einen längeren Zeitraum in mehreren Phasen in dem Quartier in Gera getestet.

„Robbie“ soll in erster Linie Menschen helfen und von alltäglichen Mühen entlasten, wie es unter anderem Einkäufe darstellen. Somit ist es ein Gewinn an Lebensqualität und Autonomie, wenn ältere Menschen wieder die Möglichkeit erhalten, weitestgehend selbstbestimmt und unabhängig ihre alltäglichen Besorgungen zu erledigen. Im Ergebnis bleibt den Senior:innen mehr Zeit für andere Aktivitäten, zum Beispiel zum Tanz oder Kartenspiel im Nachbarschaftstreff Eichenhof. Die Entwicklung autonomer Lieferroboter steht zwar noch am Anfang, ihr positiver Nutzen gerade für eine immer älter werdende Bevölkerung hingegen ist schon bereits heute greifbar.

Pionierarbeit und Erkenntnisse

Professor Sebastian Zug von der Technischen Universität Bergakademie Freiberg, Professor Frank Schrödel von der Hochschule Schmalkalden und Professor Felix Wilhelm Siebert von der Technischen Universität Dänemark leisteten mit ihren Teams hier Pionierarbeit, sind die Akzeptanzbedingungen autonomer Lieferroboter im Outdoor-Bereich doch bislang unerforscht. Gerade die Situation eines inhomogenen Terrains, das unterschiedliche Beläge und zum Beispiel Breiten und Belagsqualitäten der Gehwege aufweist, wurde zu einer Herausforderung für den Lieferroboter. Zugleich ließ es die lange Testphase zu, Daten in verschiedenen Situationen zu sammeln, also bei Tag und Nacht sowie unter anderem bei hohem und niedrigem Passant:innenaufkommen.

Ein Ergebnis der Testphasen war, dass die Einschätzbarkeit des Verhaltens des Roboters ein wichtiger Aspekt im Umgang der Menschen mit ihm war: Kurzum wollen Menschen nicht überrascht werden, wie von spontanen Richtungs- oder Geschwindigkeitsänderungen. Die nächste Herausforderung wird es also sein, die Vorhersagbarkeit des Verhaltens technisch zu integrieren und sichtbar zu machen. Die einjährige Projektphase wurde also nicht nur genutzt, um die Technik der Roboter stetig zu verbessern, sondern auch dazu, den Kontakt von „Robbie“ und Menschen besser zu verstehen und für sich anschließende Projekte konstruktive Ansatzpunkte zu schaffen.

Datenschätze und Herausforderungen

Während der Testfahrten wurde ein großer Datensatz en erzeugt, der nun – natürlich anonymisiert – anderen Forschenden und Forschungsfragen als Grundlage zur Verfügung steht. Die Organisation der Testfahrten, die das Sammeln der Daten ermöglicht, ist eine arbeitsintensive Aufgabenstellung: Nicht nur musste Robbie jeweils nach Gera verbracht werden, auch mussten Teams zusammengestellt und Absprachen mit den Verantwortlichen vor Ort getätigt werden. Dieser Aufwand kann durch die Vorarbeit des RoboTraces-Teams nun anderen Forschenden abgenommen werden. Zum Beispiel arbeitet schon jetzt eine deutsche Hochschule in Jordanien mit den Datensätzen aus den Fahrten in Gera.

Neben den technischen und verkehrspsychologischen Aspekten ist die rechtliche Ausgestaltung eine weitere Herausforderung für zukünftige Projekte der Logistik über autonome Lieferroboter. Zwar sind viele Bereiche innovativer Technologien wie das autonome Fahren schon z.T. kodifiziert, für andere Bereiche hingegen liegen noch keine Vorgaben vor. Da sich Roboter auf Fußwegen und somit Kontaktbereichen mit Passant:innen bewegen, ist die Relevanz der rechtlichen Klärung offensichtlich. Damit diese Form der Logistik im Alltag Anwendung finden kann, bedarf es eines rechtlichen Rahmens, der Verantwortlichkeiten und Mindeststandards mikromobiler, autonomer Fahrzeuge klärt.

Nicht zuletzt ist es eine Herausforderung für solche Reallabore wie die Testphase von RoboTraces, die Bereitschaft der Bevölkerung sicherzustellen. Um innovative Technologien und die Kriterien der Akzeptanz unter solchen Realbedingungen testen zu können, benötigen solche Projekte eine grundlegende Bereitwilligkeit und Aufgeschlossenheit der Anwohner:innen. „Robbi“ konnte hier auf den Erfahrungen mit „Emma“ aufbauen, eines automatisierten E-Kleinbusses, der ebenfalls in Gera-Lusan unterwegs war. Auch wenn somit die Berührungsängste schon verringert wurden, war es doch an den Forschenden, die Anwohner:innen über das Projekt zu informieren und einzubinden. Eine Möglichkeit war es, den Namen gemeinsam mit den Bewohner:inneren zu finden. Kurzum fand „Robbie“ in Gera eine bereitwillige Aufnahme, wodurch es möglich wurde, den Lieferroboter auf vielen Fahrten zu beobachten, und aus positiven wie negativen Erfahrungen der Menschen vor Ort zu lernen.

Das Projekt RoboTraces wurde von der Innovationsinitiative mFUND gefördert, mit der das BMDV seit 2016 Forschungs- und Entwicklungsprojekte rund um digitale datenbasierte Anwendungen für die Mobilität der Zukunft unterstützt.


Mehr hier:

https://www.mdr.de/nachrichten/thueringen/ost-thueringen/gera/roboter-einkaufen-senioren-testergebnis-robbie-100.html