Daten, Archive und Analysen: Was ist Data Analytics?

Daten, Archive und Analysen: Was ist Data Analytics?

Mit der Sammlung von Daten, dem umgangssprachlichen Gold unseres Zeitalters, haben wir uns schon oft befasst. Die Unmenge an Datenmaterial, die infolge der Digitalisierung unter anderem der industriellen Produktion und Teilen der menschlichen Kommunikation zur Verfügung steht, eröffnet unserer Gegenwart völlig neue Wege und Tiefen der Analyse. Kurzum erlauben es die Expansivität moderner Sensorik und die Steigerung der Rechenleistung und Verarbeitungskapazitäten, große Mengen an Informationen aufzunehmen, zu ordnen und Erkenntnisse aus den gesammelten Daten zu gewinnen.

Mit dieser Entwicklung erlangt der spezifische Forschungsbereich der Data Analytics immer mehr an Bedeutung. Hierbei geht es um die Werkzeuge, die Technologien und Prozesse, mit deren Hilfe Muster, Verläufe und Problemlösungen gestützt auf ein Konvolut an Daten ermittelt werden können. Neben der eigentlichen analytischen Auswertung ist die Sicherung der Qualität der Datensätze und eine effiziente Archivverwaltung für die weiteren Schritte elementar.

Können elektrische Schafe halluzinieren?

Mit der Verbreitung KI-gestützter Technologien traten Phänomene in den Fokus der Öffentlichkeit, die der Data Analytics thematisch nahestehen: Infrage steht vereinfacht formuliert, ob zum Beispiel Chat GPT lügen kann. Bei manchen Anfragen kam es zu Ausgaben, die schlicht falsch waren, unter anderem ganz offensichtlicher Fehlurteile wie die Anzahl bestimmter Buchstaben in einem Wort. Dieses Phänomen wurde als Halluzination beschrieben und erhielt einige Aufmerksamkeit: Die Ermittlung der Ursache der Fehlausgabe hatte das Problem der Komplexität des Programms, aber nicht nur der Architektur der künstlichen Intelligenz mit seinen Legionen an Knotenpunkten und Schichten, sondern auch in Hinsicht der Datenmengen und deren komplexer Verwaltung. Letzterer Aspekt zielt auf die Archivstrukturen und den Umgang mit den riesigen Datenmengen und -banken, die großen Sprachmodellen wie Chat GPT für den Trainingsprozess zugrunde liegen.

Neben der Frage, warum diese Fehler überhaupt aufkamen, war auch offen, an welchen Zeitpunkt sie entstanden. Die Programme selbst waren selbstredend nicht zur Ausgabe falscher Antworten angehalten, gleichwohl verlangt der Umgang mit der natürlichen Sprache und manche Formen der Anwendung eine gewisse Qualität der Kreativität, also der Dehnung und Übertragung, die die Programme leisten müssen. Zum Beispiel bei dem Wunsch, den dritten Akt von Romeo und Julia in der Sprache modernen Ostküsten-HipHops zu reformulieren – ein solches Werk existiert bislang nicht, das Modell muss also selbst kreativ werden um diese Anfrage zu beantworten. Es werden große Anstrengungen unternommen, die Anzahl der Halluzinationen von Modellen zu minimieren, was auch die Relevanz zeigt, wie Daten verwertet und verarbeitet, Datensätze gereinigt oder auch korrumpierte Daten aussortiert oder gerettet werden. Und weiter, wie komplexe Technologien mit einem Gros an Datensätzen interagieren. Und hier setzt die Data Analytics an.

Was ist Data Analytics?

Die Data Analytics befasst sich mit der Analyse von Daten und deren Auswertung zu unterschiedlichen Zwecken. Sie ist ein multidisziplinäres Forschungsfeld zwischen der Informatik, der Mathematik und der Statistik sowie weiterer Bereiche, die produktiv verknüpft werden. Generell lässt sich die Data Analytics in vier Ansätze unterteilen: Die deskriptive Analyse versucht zu beschreiben, welche Veränderungen bereits geschehen sind. Dagegen zielt die diagnostische Analytik auf eine Erklärung, warum etwas wie passiert ist. Die letzten beiden Zugänge schlagen eine andere Richtung ein: Aus den Daten Prognosen über zukünftige Entwicklungen abzuleiten ist das Ziel der prädiktiven Analysen. Diese Prognose wird im Falle der präskriptiven Analytik noch durch die optimale Reaktion ergänzt. Die unterschiedlichen Ansätze verfolgen nicht nur verschiedene Ziele, sie gehen auch anders mit den Daten um und haben differenzierte Ansprüche an die Daten.

Seit gut zwei Jahren hat Constantin Pohl die Professur für „Data Analytics“ an der Fakultät für Informatik der Hochschule Schmalkalden inne und nutzt die Gelegenheit seiner Antrittsvorlesung, ein Licht auf verschiedene Facetten seiner Forschung und seiner Lehre zu werfen. Bereits in seiner Dissertation befasste er sich mit der Frage, wie sich moderne Hardware zur Beschleunigung von Datenbank-Anfragen optimal nutzen ließe. Anders formuliert war das Thema, wie Datenverwaltungen strukturiert und organisiert sein müssen, um Ressourcen und Kapazitäten bedarfsgerecht zu nutzen und Suchanfragen effizient zu verarbeiten. Die Datenmengen auf Servern nehmen einerseits beständig zu und macht Suchvorgänge aufwändiger und langsamer, zugleich erlauben die vielen Kerne moderner Prozessoren über das Multithreading parallele Verarbeitungen. So gilt es, Managementsystem für Datenbanken und Datenströme zu entwickeln, die den neuen Anforderungen gerecht werden und zudem die technischen Möglichkeiten optimal nutzen.

Öl-Druck und Reparaturzyklen

In einem zurückliegenden Forschungsprojekt widmete sich Constantin Pohl der Frage, wie KI-Modelle für die Wartung von industriellen Anlagen und Maschinen wie einem Druckluftkompressor genutzt werden können. Das Ziel ist, Wartungsarbeiten an Verschleißteilen nicht mehr an fixen Zeitpunkten oder nach Werkzeugausfällen anzusetzen, sondern vorausschauend anhand konkreter und in Echtzeit erhobener Daten der laufenden Maschinen. Um diese Optimierung zu realisieren ist eine Prognose wichtig: Anhand von Sensordaten sollen Aussagen über die Zukunft getroffen werden, zum Beispiel das ein Filter noch 22 Stunden halten wird, bevor er gewechselt werden sollte. Hieran ließen sich dann entsprechende Reparaturmaßnahmen orientieren.

Die Ausgangsbasis sind wieder verschiedene Sensoren, welche die Maschinen anhand unterschiedlicher Parameter vermessen. In dem konkreten Projekt wurden 26 Merkmale sensorisch erfasst, neben der Temperatur und der Ölqualität auch der Differenzdruck zwischen verschiedenen Filtern. Bevor mit diesen Daten aber Aussagen getroffen werden können, mussten die Algorithmen anhand der Ausfälle der Kompressoren trainiert werden. In Regressionsmodellen wurden unterschiedliche vorverarbeitete und ausgewählte Datenmengen genutzt, um Ausfälle vorherzusagen. Wichtig ist dabei zu verstehen, dass es hier nicht um eine Größe wie die Temperatur ging, um diese Prognose zu machen: Die Modelle berücksichtigen viele Daten und ihre Verläufe, auch über eine längere Zeit, und verknüpften diese zugleich. Diese komplexen Berechnungen sind die spezifischen Leistungen der KI-Modelle, die zur Erkennung von Mustern und Strukturen sowie Abweichungen geeignet sind.

Am Ende des Projektes ließ sich die Prognostizierbarkeit grundsätzlich umsetzen. Mit einem entwickelten Ölsensor und der Nutzung der regulären Sensorik konnten die fehlerhaften Vorhersagen auf 0,09% reduziert werden. Auch die maximalen Abweichungen waren bei einer Gesamtzahl 158.000 Vorhersagen nur in einem Fall bei sechs Tagen und ansonsten bei einem Tag. Der entscheidende Faktor für die erfolgreiche Ermittlung und Prognose ist der Ölsensor.

Datenströme

Neben dieser Thematik befasst sich Professor Pohl auch mit Fragen des Stream Processing: In der Datenverarbeitung lassen sich zwei Ansätze unterscheiden, die sich für verschiedene Anwendungen und Ziele eignen. Der klassische Weg ist die Paketlösung: In einem bestimmten Zeitraum werden Daten erfasst und dann als Block archiviert. Im Anschluss können diese Daten verarbeitet und ausgewertet werden. Offensichtlich ist hierbei die große Latenz, also die Zeitspanne, die zwischen der Messung und den Ergebnissen einer Auswertung steht. Das Stream Processing zielt dagegen auf die Auswertung der Datenströme in Echtzeit, wobei durch diesen Fokus andere Imperative der Verarbeitung wichtig werden.

Die Analyse von Datenströmen steht vor der Herausforderung, eine permanente Aufnahme und Verarbeitung zu gewährleisten. Die Auslastung muss so gestaltet werden, dass durch die Interaktion verschiedener Komponenten keine Flaschenhälse oder Stausituationen entstehen. Kurzum geht es darum, effiziente Strukturen zu etablieren, die eine möglichst permanente und effiziente Verteilung und Verarbeitung erlauben und die Kapazitäten entsprechend nutzen.

Constantin Pohl befasst sich mit der Entwicklung und Erprobung von Stream Processing Engines. Im konkreten Fall ging es um die Vorhersage des Zielhafens und der Ankunftszeit. Die pendelnden Schiffe geben während ihren Reisen permanent Informationen weiter, zum Beispiel über ihre Position, ihre Geschwindigkeit und den Schiffstyp, die in einem komplexen Modell für Vorsagen ihrer Zielhäfen genutzt werden können. Kurzum bietet sich so die Möglichkeit, über eine Einschätzung einer komplexen Sachlage mit vielen Akteuren und zu beachtenden Parametern Strategien der Optimierung der Zielhäfen zu entwickeln.

Fußstapfen

Constantin Pohl hat bislang noch eine Juniorprofessur an der Hochschule Schmalkalden, die im Rahmen des bundesweiten Projektes „FH-Personal“ geschaffen wurde. Mit seiner Berufung wurde die Professur von Martin Golz zu einer Schwerpunktprofessur, die es diesem erlaubt, das Lehrdeputat zu senken und sich vermehrt der Forschung zu widmen.

Professor Pohl kann seine Arbeit in einem laufenden Lehr- und Forschungsbetrieb aufnehmen und den Lehrstuhl intensiv kennenlernen. Ziel ist es, die Reibungsverluste zu minimieren und durch geteilte Wege strukturelle Kontinuitäten zu etablieren. Er unterrichtet neben Grundlagen der Daten- und Wissensverarbeitung auch Deep Learning Architekturen und Wissensentdeckung in Datenbanken. Als Mitglied im Prüfungsausschuss der Fakultät Informatik widmet er sich gemeinsam mit den anderen Mitgliedern den Problemen der Studierenden in Prüfungsangelegenheiten. Auch am Hochschulinformationstag und dem Absolvententreffen stellte er sich und seine Forschung dem interessierten Publikum vor.

risING – Der Tag der Ingenieurwissenschaften an der Hochschule Schmalkalden

risING – Der Tag der Ingenieurwissenschaften an der Hochschule Schmalkalden

Mitte Juni durfte die Hochschule Schmalkalden den Tag der Ingenieurwissenschaften unter dem Titel „risING. Regionale Innovationen, globale Transformationen“ ausrichten. In einem ganztägigen, abwechslungsreichen Programm präsentierten sich die Thüringer Ingenieurwissenschaften zugleich sich selbst und der interessierten Öffentlichkeit. In Vorträgen konnten sich verschiedene Projekte aus Forschung und Lehre vorstellen und Nachwuchswissenschaftler:innen in einem Pitchwettbewerb beweisen. Abgerundet wurde das Programm durch eine Präsentation aller eingereichten Poster und eine Ausstellung von Kooperationspartnern im Foyer. Prägend in allen Hinsichten blieb die thüringenweite, kooperative Ausrichtung der Ingenieurwissenschaften, die auch ein Markenkern der Allianz Thüringer Ingenieurwissenschaften darstellt.

Die Allianz THÜR ING ist ein Bündnis von sieben Thüringer Hochschulen mit ingenieurwissenschaftlichen Studiengängen, das es sich zu Aufgabe gemacht hat, die Bekanntheit der Ingenieurwissenschaften in der Öffentlichkeit zu steigern. Ziel dieser Kooperation ist es zudem, junge Menschen für das Studium der Ingenieurwissenschaften zu begeistern und zu diesem Zweck die Vielfalt der Studiengänge, die Anwendungsnähe und die innovative Relevanz hervorzukehren.  Ab von vielen weiteren wissenschaftskommunikativen Offerten sind es die Tage der Ingenieurwissenschaften, die eben solche Impulse setzen sollen. Neben der Allianz THÜR ING unterstützte die Thüringer Ingenieurskammer das Organisationsteam der Hochschule Schmalkalden bei der Umsetzung des Tages, zum Beispiel bei der Bewertung der Pitches und der Preisverleihung am Ende der Veranstaltung.

Um was es geht: Die Relevanz der Ingenieurwissenschaften

In seiner Begrüßungsrede wies Professor Gundolf Baier, Präsident der Hochschule Schmalkalden und Sprecher der Allianz THÜR ING, auf die verschiedenen gesellschaftlichen Herausforderungen unserer Gegenwart hin, auf welche die Ingenieurwissenschaften innovative Antworten finden müssten und auch würden: Neben der Demographie seien dies die Digitalisierung und die Dekarbonisierung – kurz die großen D‘s. Gerade im Falle der letzten beiden Herausforderungen werden die Potentiale der Ingenieurwissenschaften deutlich: Die techno- und ökologischen Transformationsprozesse prägen bereits unsere Gegenwart und unseren Alltag von der Kommunikation über Behördengänge bis hin zu Einkäufen, und werden dies in Zukunft wohl immer stärker tun. Darüber hinaus spielen die D’s aber auch eine immer größere Rolle für die Wirtschaft und den Standort Deutschland.

Hochschulen angewandter Wissenschaften nehmen die letzten beiden Impulse gesellschaftlicher Transformationen in ihrer Forschung auf und versuchen, neben ebenso relevanten Aspekten von Grundlagenarbeiten, anwendungsnahe Lösungsansätze für Gesellschaft und Wirtschaft zu entwickeln. Diese Implementierbarkeit ihrer Forschungsarbeiten und die Arbeit an konkreten Problemen ist ein gewichtiges Pfund, die mehr in die Wahrnehmung der Öffentlichkeit gerückt werden soll.

Anlässe wie die Tage der Ingenieurwissenschaften lassen sich nutzen, um mit der Öffentlichkeit in Kontakt zu treten und diese über die Tätigkeiten und die Sinnhaftigkeit der Ingenieurwissenschaften zu informieren: Was sind die Themen der Ingenieur:innen, vor welchen Herausforderungen stehen sie und wie gehen sie mit den Aufgaben um? Welche Bereiche umfasst das ingenieurwissenschaftliche Spektrum und wie gestalten sich die internen und externen Austauschbeziehungen, zum Beispiel zu den Forschungseinrichtungen von Unternehmen? Wie lassen sich Patente einrichten, Start-Ups gründen oder Forschungsdaten in der wissenschaftlichen Community teilen? Der Tag der Ingenieurwissenschaften nutzte die Gelegenheit, um ein Licht auf diese verschiedenen Aspekte zu werfen.

risING: Impulse der Politik

Der Tag der Ingenieurwissenschaften steckte sein thematisches Portfolio bereits in seinem Titel „risING. Regionale Innovationen, globale Transformationen“ ab. Einerseits wird hierbei ein Bezug zur RIS-Strategie der Landesregierung hergestellt, die wiederum auf eine regionale Innovationsstrategie abzielt: Im Hinblick auf verschiedene Felder und thematische Komplexe rund um Zukunftsfragen wurden Akteure der Thüringer Forschungslandschaft anhand ihrer Schwerpunkte und Kompetenzen markiert. Das Ziel ist, dass die beteiligten Institutionen und Personen zu verknüpfen und den Austausch an Wissen und Expertise anzuregen, um und so schließlich die Forschung gemeinsam voranzutreiben. In Kooperationen lassen sich die Potentiale ganz unterschiedlicher Akteure und Regionen Thüringens produktiv nutzen, so die dahinterstehende Idee. In einem kleinen Bundesland wie Thüringen kann Forschung keine One-Man-Show sein, vielmehr legen die kurzen Wege eine enge, produktive Zusammenarbeit und die intensive Vernetzung nahe.

Kooperative Projekte sind in der Forschungslandschaft zwar keine neue Erscheinung, doch nimmt die Zusammenarbeit von Hochschule, außeruniversitären Forschungseinrichtungen und Partnern aus Wirtschaft und Gesellschaft immer mehr zu. Da sich so die verschiedenen Schwerpunkte unterschiedlicher Akteure einbringen und die Beteiligten die Heterogenität der Forschungslandschaft gewinnbringend nutzen können, bieten sich diese Kooperationsprojekte zur Präsentation ingenieurwissenschaftlicher Aktivitäten und deren interdisziplinärer Potentiale an.

Forschungsprojekte: Intelligente Mobilität und 3D-Elektronik-Systeme

Am Tag der Ingenieurwissenschaften konnte Professor Frank Schrödel von der Hochschule Schmalkalden die hochschulübergreifende Forschungsgruppe vernetztes und kognitives Fahren, kurz CoCoMobility, vorstellen. Neben der HSM sind die Fachhochschule Erfurt, die Technische Universität Ilmenau und die Bauhaus-Universität Weimar an diesem Forschungsprojekt zum Thema intelligente Vernetzung moderner Mobilität beteiligt. Die Vielfältigkeit der Kooperationspartner spiegelt die Differenziertheit der hier einbegriffenen Themen: Neben der intelligenten Verkehrsinfrastruktur und der Vernetzung von Fahrzeugen, Infrastruktur und Testumgebungen arbeitet die Forschungsgruppe an Effekten auf den Verkehr, Aspekten der Sicherheit sowie an Einflüssen der Umwelt.

Die Umsetzung der neuen Mobilität angefangen beim autonomen Fahren bis hin zur smarten Verkehrslenkung bedarf der Kommunikation, zum Beispiel zwischen den Mobilen und der Infrastruktur. An dieser intelligenten Konnektivität forscht der Projektpartner TUI. Die BUW fokussiert sich auf den Ablauf des Verkehrs, also Fragen der Vorhersagbarkeit und u.a. individuell als angenehm empfundener Abstände. Die Steigerung der Verkehrssicherheit vulnerabler Gruppen steht im Blickfeld der FHE. Und die HSM widmet sich der menschenzentrieten autonomen Entscheidungsfindung im Kontext der autonomen Mobilität. In diesem kooperativen Forschungsprojekt können die unterschiedlichen Partner ihre Expertise einbringen.

Professor Roy Knechtel nutzte die Gelegenheit, um den neuen Forschungsschwerpunkt 3D-Elektronik-Systeme der Hochschule Schmalkalden vorzustellen. Die Welt der Mikroelektronik ist noch heute weitgehend eine Scheibe, sind doch jene dünnen Siliziumscheiben, die sogenannten Wafer, die Grundbausteine. Dennoch lässt sich ein Trend hin zur Dreidimensionalität feststellen: Um die Funktionen moderner smarter Geräte wie Handys oder Uhren erfüllen zu können, müssen Chips, Sensoren und andere technische Komponenten in die dritte Dimension wachsen: Kurzum geht es darum, hochkomplexe Bauteile zu stapeln und zu verbinden, um so immer kompaktere, effizientere Komponenten zu erzeugen und den Erfordernissen von Funktionalität, Formfaktor, Passgenauigkeit und Rentabilität gerecht zu werden.

Das Ziel des Projektes ist die Herstellung komplexer mikroelektronischer Bauteile direkt auf dem wafer, um so auch die Wertschöpfung einer bislang recht globalisierten Industrie vor Ort halten zu können. Um die für diese Bauteile notwendige Präzision erreichen zu können, muss ein Fokus auf den Materialien und der Strukturanalyse ihrer Charakteristika liegen. Neben Martin Seyring aus dem Team von Roy Knechtel ist mit Stephanie Lippmann von der FSU Jena und dem dortigen Otto-Schott-Institut für Materialforschung im Projekt für diese Aspekte eingebunden. Aber auch Unternehmen wie X-Fab beteiligen sich als Partner aus der Wirtschaft an diesem Forschungsschwerpunkt.

Nachwuchs: Die vielen Facetten der Ingenieurwissenschaften

Am Tag der Ingenieurwissenschaften gab auch dem akademischen Nachwuchs in unterschiedlichen Hinsichten Raum: Schon vor Längerem gab es einen Call for Poster, der um Einreichungen zu innovativen Themen der Thüringer Ingenieurwissenschaften aufrief. All diese eingereichten Poster wurden im Rahmen einer Präsentation per Slideshow gezeigt und gaben während der Pausen zu Gesprächen Anlass. Zudem wählte eine Jury aus den Einreichungen zwölf aus, die dann am Tag der Ingenieurwissenschaften ihr Poster in einem Pitch vorstellen konnten. Am Ende der Veranstaltung wurden wiederum durch eine Jury, unter anderem mit Vertreter:innen der Ingenieurskammer besetzt, die besten drei Pitches ausgewählt und die Gewinner mit einem Preisgeld bedacht.

Hier ist nicht genügend Platz, alle Beiträge eingehend zu würdigen, daher muss eine Synopsis genügen. Alle Pitches werden in Bälde auf dem Youtubekanal der Allianz THÜRING verfügbar sein, alle Poster sind auf der Seite der Hochschule Schmalkalden im Bereich Forschung zu finden. Zudem werden die Präsentationen, sofern möglich, ebenso auf diesen Seiten veröffentlicht.

Martin Patrick Pauli von der Hochschule Schmalkalden verdeutlichte die Folgen des Data-Leakage-Problems, welches bei dem Training von KI-Algorithmen mit Daten auftreten kann. Letztlich kann es dabei zu überoptimistischen Annahmen der Trefferquoten und damit zu einer Verzerrung der Ergebnisse kommen. Um diese nur scheinbare Lösung zu vermieden, gilt es ebenso aufmerksam gegenüber den Daten und ihrer Aufbereitung zu bleiben wie es nützlich ist, auf verschiedene Kontrollmethoden in der Datenverarbeitung zurückzugreifen.

Christian Diegel von der Technischen Universität Ilmenau stellte in seinem Pitch ein Verfahren vor, beim dem es um eine Optimierung des Laserstrahlschweißens geht. Infolge der hohen Prozessgeschwindigkeit lösen sich aus dem Schmelzkanal Spritzer ab, die dann wieder mehr oder weniger aufwändig entfernt werden müssen. Durch die Addition einer Nebenintensivität nahe dem zentralen Laser ließe sich das Schmelzbad vergrößern und so die Dynamik des Materials verringern, wodurch es wiederum weniger Ablösungen gäbe, so der Ansatz. Durch die Einbringung von Tracer-Teilchen ins Material konnte mithilfe von Hochgeschwindigkeits-Röntgenuntersuchungen die Fluidität des Materials beobachtet und Wege zur Optimierung des Laserschweißens gefunden werden.

Tobias Tefke stellte den Aufbau eines Ethical-Hacking-Labors inklusive einer Capture-the-flag-Umgebung vor, die den Studierenden der Informatik an der Hochschule Schmalkalden helfen soll: In virtuellen Arbeitsumgebungen geht es darum, mögliche Schwachstellen in der Infrastruktur von Softwaresystemen zu finden und die Lücken in der Sicherheit zu schließen. Hier verknüpfen sich also Ansätze der Informatik und der Didaktik.

Analoger nimmt sich das Projekt von Lucas Hauck, ebenfalls von der Hochschule Schmalkalden, aus: Er geht den technischen Herausforderungen, den Möglichkeiten und Grenzen der additiven Fertigung elektronischer Bauteile im dreidimensionalen Raum nach. Der 3D-Druck besticht dabei durch ein Angebot vieler Verfahren und die mögliche Verwendung unterschiedlicher Materialien sowie die Aufbringbarkeit auf multiple Untergründe. Hauck geht diesem Komplex anhand eines 3D-Druck-Systems nach, wobei dessen Flexibilität der möglichen Verfahren das Angebot denkbarer Lösungswege vervielfacht und übersichtlich macht. Um den Aufwand individueller Ansätze zu minimieren, soll ein grundlegender Verfahrenskatalog entwickelt werden, der den Umgang mit solchen Geräten über Designregeln standardisieren und vereinfachen soll.

Wie können Drohnen und künstliche Intelligenz die Bauindustrie unterstützen? In ihrem Pitch umriss Lisa Schneeweiß das Projekt BauKiRo, das sich neben der Aufzeichnung des Baufortschritts auch dem Vergleich der realisierten Bauausführung mit dem Bauplan widmet. Dieser Kooperation der HSM mit der FAU Erlangen-Nürnberg steht vor den Herausforderungen des Einsatzes von Drohnen in komplexen Umgebungen und KI-unterstützten Auswertung von Videoaufnahmen und dem Abgleich mit vorliegenden Plänen. Der Zweck dieses Projektes ist unter anderem, Baumängel frühzeitig zu erkennen.

Sreekar Babu Malli vom ThIWert, dem Thüringer Innovationszentrum für Wertstoffe, befasst sich im Projekt SeRo.inTech mit innovativen Technologien, wertvolle Rohstoffe aus Abfällen zu gewinnen. Er stellte das Kooperationsprojekt der HSN mit der BUW am Beispiel von Sperrmüll vor: In der üblichen Entsorgung von Abfällen bleiben Teile an verwertbaren Materialien und Rohstoffen ungenutzt. Das Projekt versucht unter anderem, die die großen Bestandteile an Holz im Sperrmüll aufzubereiten. Daran schließt sich eine Verteilung der Objekte nach Qualität und möglicher Weiterverwendung an. Ziel ist es, einen möglichst abgeschlossenen Kreislauf der verwendeten natürlichen Rohstoffe zu realisieren und selbst qualitativ minderwertige Materialien nachhaltig zu nutzen.

Michael Werner von der Hochschule Schmalkalden stellte das Innovationslabor KIOptiPak vor, das wiederum ein Teil des KI HUB Kunststoffverpackungen ist. Ziel dieser Kooperation verschiedener Partner aus Wissenschaft und Wirtschaft ist es, Kunststoffverpackungen so zu gestalten, dass die Wiederverwertbarkeit maximiert und die Kunststoffabfälle von Verpackungen minimiert werden. Das KIOptiPak zielt dabei auf die Frage, wie Verpackungen designt sein müssen, um dieses Ideal eines Kreislaufs zu erreichen, zum Beispiel im Hinblick auf das verwendete Material und die direkte Einbeziehung von Vorgaben des Recyclings. Werners Interesse lag dabei auf der Qualität des wiederaufbereiteten Kunststoffreziklats und dem Umgang mit Schwankungen des Materials in der Verarbeitung. Diese Erkenntnisse sollen dann in KI-Modelle einfließen, die anhand der Vermessung des verwandten Materials schon bei laufender Produktion Angaben über die Güte und Verwendbarkeit des Produkts geben können.

Ein Thema, das Aspekte von Forschung und Transfer mit einem didaktischen Ansatz verknüpft, stellte Carsten Gatermann von der TUI vor: Ausgangspunkt war die Frage eines Schülers, ob sich eine vertikale Windenergieanlage auch in Privathaushalten installieren ließe. Neben den elektrotechnischen Fragestellungen galt es, der kreativen Neugier des Schülers Raum zu lassen: Wie müssen Projektarbeiten gestaltet werden, um den individuellen Freiraum der Forschung mit der notwendigen Unterstützung und Orientierung zu verbinden? Der Ansatz „Knowledge on Demand“ trennt Themen in Teilaufgaben, zwischen denen sich die Beteiligten immer wieder abstimmen: Weil das selbstständige Arbeiten von den Schülern erst erlernt werden muss, wird die eigenständige Forschung mit einem engen Betreuungsverhältnis ergänzt. Je nach individuellem Vermögen können dann die Aufgaben dann frei oder gesteuert angegangen werden.

Wie lässt sich der natürliche Rohstoff Holz weiter nutzen? Daniela Pachatz von der HSM stellte drei Anwendungsbeispiele aus dem Projekt FiWood vor, in dem um die Integration von Funktionen in Schichtholzprodukten geht. Ein Projekt ist ein Sitzpult, in das verschiedenen Funktionen wie eine Heizung und Sensoren (Temperatur und u.a. Luftfeuchte) eingelassen sind. Die Wärmefunktion ist auch Teil von Bodenheizelementen, die über die Abgabe von Infrarotwärme den Effekt der thermischen Behaglichkeit erreichen sollen. Nicht zuletzt lassen sich auch LED-Arrays in den Furnieren integrieren, und so leuchtende Holzelemente herstellen.

Walpola Perera von der FHE ist Teil des Forschungsprojektes Kimono-EF, das die Mobilität beeinträchtigter Menschen im Stadtraum sicherer machen will. Weil die Grünphasen von Ampelanlagen oftmals zu kurz sind, um betroffenen Menschen eine vollständige Überquerung der Straßen oder Straßenbahnschienen zu erlauben, soll hier innovative Technologie Einzug halten. Zunächst werden mit KI-optimierten Erfassungssystemen wie Kameras Personen frühzeitig ausfindig gemacht, die einen längeren Zeitraum für die Querung benötigen könnten, zum Beispiel Personen in Rollstühlen oder mit Kinderwägen. Anschließend werden die spezifischen Grünphasen verlängert und die anderen Verkehrsteilnehmer informiert. Weiter gedacht könnte mit Hilfe dieser Benachrichtigungssysteme auch eine intelligente Verkehrssteuerung autonomer Fahrzeuge ergänzt werden.

Einen Ansatz, die Photolithographie mit extremem ultraviolettem Licht zu verbessern, stellte Niranjan Kannali Ramesha von der HSM vor. Moderne Computerchips werden durch ein spezifisches Verfahren hergestellt, das sich als Buchdruck mit Licht umschreiben ließe. Auf dem Wafer, also einer Siliziumscheibe, wird eine photosensitive Schicht aufgetragen und dann durch eine Maske hindurch dem Licht ausgesetzt, wodurch sich hochkomplexe und kleine elektronische Bauteile wie Transistoren aufbringen lassen. Der bestimmende Faktor der Größe der Bauteile ist momentan die Wellenlänge des Lichts, wodurch sich der Einsatz extremen ultravioletten Lichts erklärt. Um die Produktionskapazität zu steigern, müssen kraftvollere EUV-Quellen als die bislang genutzte Variante über Zinnkügelchen gefunden werden. Das Projekt ging dem Ansatz nach, das EUV von Freien-Elektronen-Lasern wie dem FLASH als Quelle zu nutzen. Zentral ist hierbei die Frage, ob und wie sich das EUV-Licht in einem Fokuspunkt konzentrieren lässt, wofür wiederum die Erfassung der Wellenfront eine entscheidende Rolle spielt. Im Weiteren brauche es optische Systeme, die Abweichungen der Wellenfont korrigierten.

Martin Sennewald (TUI) stellte abschließend einen Aspekt des Forschungsprojektes DimFSW vor, das darauf abzielt, die Beschädigungen von Werkzeugen bei Schmelzschweißverfahren wie dem Rührreibschweißen abzuschätzen und das Aufkommen von Ausfällen von Produktionsabläufen zu minimieren. Die Fügetechnik stehe grundsätzlich vor steigenden Herausforderungen, unter anderem aufgrund wachsender Ansprüche der Bauteilkomplexität, dem Leichtbau und der Qualität. Zum Beispiel verlangt die Elektromobilität weitaus komplexe Bauteile als die bisherigen Modelle. Für die Fertigung folgen hieraus nicht nur die Wirkung hoher Prozesskräfte, sondern auch ein erhöhter Verschleiß der Werkzeuge. Wie lässt sich dieser Verschleiß so bestimmen, dass Ausfälle in laufenden Produktionsprozessen vermieden werden können? Der Ansatz ist, auf die tatsächlichen Prozesskräfte und -momente wie der vorliegenden Spannungen am Schweißstift im Prozess zurückzugreifen, wobei diese aus den Kraft-/Drehmomentdaten gewonnen werden.

Nachhaltigkeit und Netzwerke, Daten und Patente

Neben diesen konkreten Forschungsvorhaben gab der Tag der Ingenieurwissenschaften auch Projekten Raum, die Forschung und Lehre strukturell verbessern wollen. Mit ThüLeNa präsentierten die Professoren Frank Pothen (EAH) und Matthias W. Schneider (HSM) ein jüngst gestartetes Projekt, das sich dem Aspekt der Nachhaltigkeit im Lehren und Lernen widmet und dies stärken will. Dieser Nachhaltigkeitsgedanke umfasst Aspekte der Entwicklung neuer Technologien ebenso wie eine soziale und ökologische Verantwortung sowie die Einholung sozialer und ökonomischer Akzeptanz. Das Ziel von ThüLeNa ist es, die Ingenieurwissenschaften auf diese Herausforderungen auf verschiedenen Ebenen vorzubereiten und die Transformation produktiv zu begleiten, und zum Beispiel die Nachhaltigkeit in Lehrformaten zu integrieren und bereits vorhandene Strukturen und Kompetenzen zu stärken.

Wie lässt sich die Forschung und Entwicklung in Thüringen kooperativ verknüpfen? Das Thüringer Zentrum für Maschinenbau nimmt sich dieser Aufgabe an, wie Dr. Andreas Patschger in seinem Vortrag deutlich machte. Das ThZM ist eine Kooperation aus fünf Forschungseinrichtungen, u.a. der TUI und der HSM, das sich neben wirtschaftspolitischen Impulsen vor allem dem Wissens-Transfer hin zu kleinen und mittleren Unternehmen verschrieben hat. Es geht also darum, gefundene Lösungen in die Anwendung zu bringen und hierzu Institutionen der F&T mit den zentralen Akteuren, also Unternehmen, in Kontakt zu bringen. Beide Seiten können hierbei voneinander lernen. Ein weiterer Ansatz des ThZM ist zudem die Netzwerkarbeit, um die Akteure in Austausch zu bringen, zum Beispiel in Formaten wie der Cross-Cluster-Initiative Thüringen. Hierin tauschen sich kleine und mittlere Unternehmen über ihre Erfahrungen, Bedarfe und gemeinsamen Interessen aus, was zukünftigen Kooperationsprojekten ebenso den Weg ebnet wie es den Partnern einen Überblick in geteilte Problemlagen erlaubt. Nicht nur können die Beteiligten so von best-practise-Beispielen profitieren, sondern auch mögliche Kooperationspartner in der Nachbarschaft kennengelernt werden.

Eine andere Frage ist die der Forschungsdaten, wobei hier nicht nur an die Statistiken empirischer Sozialwissenschaften zu denken ist, sondern auch an die massiven Datenmengen, die zum Beispiel im Maschinenbau per Sensoren an den Werkzeugen erhoben werden. Da diese Informationen mit viel Aufwand gewonnen werden, ist es sinnvoll und von einem allgemeinen wissenschaftlichen Interesse, die erhobenen Daten zu teilen, im Kreise der Wissenschaft oder auch in der Öffentlichkeit. Um Wissenschaftler:innen bei diesen Projekten zu unterstützen wurde mit dem FDM-HAWK eine Initiative des Forschungsdatenmanagement ins Leben gerufen, deren Mitarbeiter:innen auf verschiedenen Feldern helfen können. Wie Sarah Boelter (EAH Jena) hervorhob, fängt dies bereits bei grundsätzlichen Dingen wie dem Datenschutz- und der -sicherheit an, geht über den planvollen Umgang mit Daten und ihrer Erhebung schon im Vorfeld und reicht bis in Detailfragen wie den passenden Metadaten, verlässlichen Plattformen und den kompatiblen Formaten der entsprechenden Daten.

Ein anderer Punkt sind die Patente: Jan Axel Schleicher gab einen Einblick in seine Tätigkeit und die Aufgabe von PATON, dem Landespatentzentrum Thüringen. Letztlich ist es das Ziel, unter anderem Wissenschaftler:innen dabei zu unterstützen, Patente zu beantragen und die verschiedenen Fallstricke einer solchen Anmeldung zu vermeiden. Welche Kriterien müssen erfüllt werden, um ein Patent anmelden zu können? Hier ist unter anderem an den Stand der Technik zu denken, dessen Mängel und das Potential der Erfindung, wobei hier wiederum zwischen der Aufgabe und der Lösung der Erfindung geschieden werden kann. Nicht zuletzt stellte Schleicher den Ablauf einer Patentanmeldung vor, um eventuell Betroffenen eine Orientierung zu geben.

Sven Uwe Büttner vom StarterWerk gab einen Überblick über die Dos and Don’ts von Existenzgründungen: Was braucht es eigentlich, um erfolgreich von einer Idee zu einer Unternehmung zu gelangen? In das Zentrum stellte Büttner das kreative, engagierte Individuum, das eine Idee verwirklichen will. Neben der Definition einer Baseline, der Perzeption des Marktes und der Interessen potentieller Kund:innen ging es um die Nutzung wichtiger Kontaktnetzwerke und die Fokussierung gepaart mit einer Offenheit, die den Weg zum Ziel nicht weniger gerichtet, nur etwas breiter werden lässt.

Ein Fazit

Am Ende des Tages konnten die Gäste, die Referierenden und das Organisationsteam auf einen erfolgreichen, informativen Tag der Ingenieurwissenschaften zurückblicken, der verschiedene Aspekte der Thüringer Ingenieurwissenschaften beleuchtete und der zugleich ebenso für die Öffentlichkeit wie für Wissenschaftler:innen lohnenswerte Inhalte bereithielt.

Die Veranstalter wollen zum Abschluss allen Beteiligten danken, die im Vorfeld oder am Tag selbst mit ihrem Engagement für das Gelingen beitrugen.

Drucken mit Licht – Über die Potentiale der Fotolithografie

Drucken mit Licht – Über die Potentiale der Fotolithografie

Um immer kleinere und effizientere Mikrochips produzieren zu können, müssen permanent neue Wege beschritten und Technologien erforscht werden. Gegenwärtig sind es spezielle Verfahren der Fotolithographie, in welchem Halbleiter mit Hilfe von extremem ultraviolettem Licht hergestellt werden, die entscheidende Potentiale versprechen. Auch wenn der technische Aufwand dieser Methode immens ist und eine lange Zeit der Forschung und Entwicklung bedurfte, bietet sie enorme Chancen für die Fertigung von hochkomplexen Bauteilen. An der Hochschule Schmalkalden will sich Professor Christian Rödel, vor kurzem auf die Professur für Physik und angewandte Lasertechnik berufen, diesem Gebiet in Forschung und Lehre widmen.

Um den praktischen Nutzen der Mikroelektronik und die Fortschritte der letzten Dekaden erkennen zu können, genügt ein Blick in unsere Hosentaschen: Auch wenn die Smartphones mittlerweile aus dem Alltag nicht mehr wegzudenken sind, ist es doch erstaunlich, was die kleinen Geräte gerade im Hinblick auf ihren noch jungen Ursprung vermögen. Da der technische Fortschritt ein stetiger Prozess der Innovation ist, sucht die Mikroelektronik weiter nach Mitteln und Ansätzen, Bauteile zu verkleinern bzw. komplexer gestalten zu können. Ein Weg dahin sind fotolithographische Methoden, bei denen Chips mit Hilfe von Lasern fotolithografisch hergestellt werden. Einerseits bieten sich im Rückgriff auf das extreme ultraviolette Licht spezifische Vorteile gerade für die Miniaturisierung elektronischer Bauteile, andererseits haben diese Verfahren in ihrer Anwendung hohe technische und praktische Voraussetzungen.

Die Forschung in diesem Bereich wurde in letzten Dekaden vor allem durch ein Unternehmen aus den Niederlanden vorangetrieben: Vor nunmehr dreißig Jahren begann hier die Erforschung der technischen Grundlagen und führte zur Entwicklung einer Apparatur, die heute zu den komplexesten und teuersten Systemen gehört und die ASML zu einem der wertvollsten Unternehmen der Welt gemacht hat. Der Vorsprung im Bereich von Forschung und Entwicklung, den sich ASML erarbeitet hat, beruht auf einer langfristigen Spezialisierung, die selbst noch die Zulieferfirmen umfasst. Im Moment ist nur diese Firma in der Lage, Anlagen herzustellen, die Fotolithographie mit extremem ultraviolettem Licht verwenden. Die Produktion modernster Chips ist in der Folge von diesem einen Anbieter abhängig, was letztlich sogar geopolitische Komplikationen nach sich zieht.[1]

Schreiben mit Licht

Lithographie ist ursprünglich ein Flachdruckverfahren, was meint, dass der Druck nicht über eine vertieft oder erhaben gearbeitete Zeichnung auf der Druckplatte erfolgt, sondern die druckenden und nichtdruckenden Partien auf einer Ebene liegen. Die Maske wird hierbei durch eine Versiegelung der Steinplatte aufgetragen, wobei das Prinzip auf der Unmischbarkeit von Fett und Wasser basiert. Während die druckenden Partien die fettreiche Druckfarbe aufnehmen, werden die nichtdruckenden Stellen mit einem Wasserfilm befeuchtet und stoßen die Druckfarbe ab. Im Falle der Fotolithographie wird dieses Prinzip durch Licht und lichtreaktive Substanzen umgesetzt. Kurz gefasst wird eine hauchdünne Siliziumscheibe, Wafer genannt, mit einem Licht-empfindlichen Fotolack beschichtet und anschließend mittels einer kurzzeitigen Strahlung über eine Maske belichtet, wodurch sich die Chemie des Lacks verändert und die Muster übertragen werden. Durch Wiederholung dieses Prozesses entstehen komplexe 3-dimensionale Strukturen – die Mikrochips. Auch wenn dieses Verfahren schon eine längere Zeit eine übliche Methode in der Herstellung von Microchips war, verändern sich durch die EUV-Lithographie die Rahmenbedingungen und Möglichkeitsräume.

Der Grad an Präzision, den diese Maschine verlangen, lässt sich fast nur in der Prosa von Superlativen Ausdruck verleihen. Ein Beispiel: Die Laser sind so genau, dass sie es erlauben würden, von der Erde aus eine Münze auf der Mondoberfläche zu treffen. Es geht hier darum, komplexe elektronische Bauteile im Nanometerbereich zu bauen, wobei sich verschiedene physikalische und optische Herausforderungen kombinieren. Um sich die Größenordnung auch nur annähernd vorstellen zu können: Wir sprechen hier von dem Tausendstel eines menschlichen Haars. Hier wurde nun das Licht selbst zum Problem: Um auf dieser Ebene arbeiten zu können, reicht die Qualität des Lichts der üblichen Laser aufgrund der Wellenlänge nicht aus.

In diesem Vorlesungsexperiment soll Studierenden die vergrößernde Abbildung eines Maßstabs näher gebracht werden. In der Fotolithografie wird vom Prinzip her ähnlich eine Maske auf einen Siliziumwafer mit Fotolack abgebildet.

Das Unsichtbare nutzbar machen

Warum also der Rückgriff auf das extreme ultraviolette Licht? Licht ist bekanntlich eine elektromagnetische Welle und besitzt charakteristische Wellenlängen, die wiederum die Bedingungen ihrer Anwendung vorgeben. Kürzere Wellenlängen lassen das Schreiben kleinerer Strukturen zu, pointiert formuliert. Um ein lebenspraktisches Beispiel zu bemühen: Auch wenn sie von identischer Größe sind, unterscheidet sich der Wellenlängenbereich der schreibenden und lesenden Laser von CD´s und Blu-Ray´s, wodurch vielmehr Daten auf das BD-Medium geschrieben werden können. Das ultraviolette Licht, das außerhalb der menschlichen Wahrnehmbarkeit liegt – außer indirekt im Falle des Sonnenbrandes –, hat eine sehr niedrige Wellenlänge. Extremes ultraviolettes Licht hat eine Wellenlänge von 13,5 Nanometer und liegt damit weit außerhalb des Bereichs menschlicher Perzeption. Dieses extrem ultraviolette Licht wird benötigt, um die Miniaturisierung voranzutreiben und kleinere Strukturen und Integrationsdichten in einer Größenordnung von unter 15 Nanometer realisieren zu können.

Um mit diesem Licht arbeiten zu können bedarf es allerdings einiger Vorkehrungen: Da dies Licht sehr leicht absorbiert wird, muss die gesamte Belichtung mit EUV-Strahlung im Vakuum vollzogen werden. Zudem können keine Linsen verwandt werden, wie es üblicherweise mit Lasertechnologien in Verbindung gebracht wird, vielmehr funktioniert die Bündelung des Lichts über hochpräszise Spiegel, deren Herstellungsprozess für sich schon höchst anspruchsvoll ist.

Auch wenn die Forschung an der Nutzung des extremen ultravioletten Lichts schon länger weilte, gelang erst Mitte des letzten Jahrzehnts ein entscheidender Durchbruch: Indem man flüssiges Zinn als Lichtquelle nutzen konnte, wurde die Schwelle zur Massenproduktion überschritten, durch die sich die Anschaffung einer solchen Maschine überhaupt erst lohnt. Das Zinn wird dabei als Tropfen in der Maschine mit einem Laserpuls beschossen, wodurch die Kugel die Form eines Eierkuchens annimmt. Im Anschluss wird das Zinn von einem stärkeren Laserpuls nochmals beschossen, wodurch dann das EUV-Licht entsteht und über verschiedene Spiegel zur Maske und dann zum Wafer geführt wird. Erst durch dieses Verfahren wurde die Produktion von Computerchips in Masse möglich und die EUV-Lithographie rentabel. Im Angesicht der Preise der Apparaturen zwischen 185 und 360 Millionen Euro muss sich die Anschaffung lohnen. Daher bedarf es eines hohen Outputs und einer verlässlichen Produktion, was wiederum die beständige Weiterentwicklung nahezu aller Komponenten der Maschine umfasst.

Partnerschaften, Forschung und Lehre

In Anbetracht der Komplexität dieser Technologie lässt sich erahnen, wie viele Wissenschaftlter:innen an ihrer Erforschung beteiligt waren und nunmehr damit beschäftigt sind, sie weiter zu verbessern. Zugleich macht die Komplexität eine Konzentration notwendig. An der Hochschule Schmalkalden möchte sich Prof. Christian Rödel mit der spektralen Charakterisierung von EUV-Quellen und Komponenten beschäftigen, die in der EUV-Lithografie eingesetzt werden können. Das sind zum einen dünne Filterfolien, aber auch EUV-Spiegel, die aus vielen Nanometer-dünnen Schichten bestehen.

Um Komponenten testen und optimieren zu können, die in der EUV-Lithographie und der Inspektion eingesetzt werden, wurde an der an der Hochschule Schmalkalden, gefördert durch Mittel der Carl-Zeiss-Stiftung, das Projekt EUV-4-LITHO ins Leben gerufen. Mit Unterstützung von Kooperationspartnern aus der Region bis ins europäische Ausland wird Professor Rödel und sein Team ein hochauflösendes EUV-Spektrometer entwickeln, mit dem sich die Vielschichtsysteme der Spiegel und ihre Eigenschaften der Reflektivität mit bisher unerreichter Präzision vermessen lassen.

Das Reflexionsgitter aus dem Vorlesungsexperiment spaltet das weiße Umgebungslicht in die spektralen Bestandteile auf. Im Projekt EUV-4-LITHO soll ebenso ein Reflexionsgitter eingesetzt werden, um die EUV-Strahlung spektral zu charakterisieren.

Auch wenn die EUV-Lithografie eine innovative Technologie der Gegenwart ist, lassen sich hier Forschung und Lehre verbinden. So entstand zum Beispiel im Projekt EUV-4-LITHO bereits eine Masterarbeit und es wurde eine Exkursion zum DESY, dem Deutschen Elektronen-Synchrotron, unternommen, um hier Untersuchungen mit EUV-Strahlung von Freien-Elektronen-Lasern vorzunehmen. Neben der Lehre steht für Professor Rödel die Kooperation im Fokus seiner Arbeit an der Hochschule für angewandte Wissenschaften. Neben den mannigfaltigen Projektpartnerschaften geht es ihm auch im die konkrete Vernetzung vor Ort, zum Beispiel der Verknüpfung von Forschungsthemen des Maschinenbaus und der Elektrotechnik. Dabei liegt im auch die Präzisionsmesstechnik am Herzen, die im Maschinenbau eingesetzt wird.


[1] Wer sich über diesen Aspekt informieren möchte: Chris Miller, Chip War. The Fight for the World’s Most Critical Technology, New York 2022.

* Das Beitragsbild zeigt ein Vorlesungs- und Praktikumsexperiment, in dem die charakteristischen Linien einer Natriumdampflampe bei 589 nm mit einem Reflexionsgitter spektral untersucht werden. Eine Xenon-basierte EUV-Lichtquelle soll an der Hochschule Schmalkalden entwickelt werden, die in ähnlicher Weise bezüglich des Spektrums bei 13,5 nm untersucht werden soll.

Sensoren, Netzwerke und Daten. Über die Forschungsprojekte Martin Schreivogels

Sensoren, Netzwerke und Daten. Über die Forschungsprojekte Martin Schreivogels

Professor Martin Schreivogel hat seit letztem Jahr die Professur für die Grundlagen der Elektrotechnik an der Fakultät Elektrotechnik der Hochschule Schmalkalden inne. Demgemäß widmet er sich prinzipiellen Fragestellungen der Elektrotechnik, hier verstanden als ingenieurwissenschaftliche Disziplin, die sich ebenso mit der Forschung und Entwicklung wie der Produktion und Instandhaltung von elektrischen Anlagen und Geräten befasst. Um eines direkt klarzustellen: Wie an Hochschulen angewandter Wissenschaften üblich genügt sich auch die Forschung Martin Schreivogels nicht mit abstrakten, theoretischen Konstrukten, sondern sucht nach Wegen der Übersetzung von Forschung in Praxis – wie unter anderem der funktionalen Optimierung elektrochemischer Sensortechnik.

Um die Relevanz dieser Disziplin zu umreißen wird im Folgenden eine Rück- mit einer Vorschau kombiniert: Zunächst soll es um die Entwicklung kompakter Messboxen gehen, mit denen die Luftqualität, zum Beispiel im Straßenverkehr verdichteter Innenstädte, vermessen werden kann. Nach diesem Rückblick auf ein weitestgehend abgeschlossenes Projekt soll es um die Konturierung eben jener Vorhaben gehen, denen sich Professor Schreivogel an der Hochschule Schmalkalden widmen möchte.

Professor Martin Schreivogel bei seiner Antrittsvorlesung

Die Vermessung der Luft: Über die Entwicklung kompakter, vernetzter Messstationen der Luftqualität

Die öffentliche Diskussion um die gesteigerte Schadstoffbelastung an hochfrequentierten Straßen und Kreuzungen, aus der die Einrichtung von innerstädtischen Umweltschutzzonen und – in manchen Arealen – sogar Fahrverbote resultierten, liegt noch nicht allzu lange zurück. Auch wenn das Ansinnen einer gesunden, nicht von Schadstoffen belasteten Umwelt gewiss auf allgemeine Zustimmung treffen sollte, verlor die damalige Debatte aufgrund der wechselseitigen Polarisierung der diskutierenden Gruppen das Gros ihres konstruktiven Potentials. Weiterführend gerade in einem ingenieurwissenschaftlichen Horizont ist indes das öffentliche Interesse, die Schadstoffbelastung und die Effekte des Stadtverkehrs und des Verkehrsinfrastruktur auf eben diese zu eruieren und adäquate Lösungsvorschläge zu entwickeln: Wo und wie entstehen also hohe Konzentrationen an Schadstoffen und wie lässt sich ihre Ansammlung vermeiden?

Ein technisches Problem, das den Diskussionen der Konsequenzen eventuell gefährlicher Luftverschmutzung und mittel- und langfristigen verkehrsplanerischen und städtebaulichen Antworten vorausliegt, besteht in der Frage, wie wir überhaupt die Luftqualität messen. Hierbei geht es nicht nur um die Zweckmäßigkeit der verwandten Sensoren, die in Frage stehenden Variablen oder die Definition zumutbarer Grenzwerte, sondern auch um die Abwägung, wo und wann gemessen werden soll. Reicht es für eine konzise Beschreibungen der Luftverschmutzung der Verkehrswege der Innenstädte hin, an einigen wenigen, aber besonders befahrenen Straßen zu messen? Oder bedarf eine verallgemeinerbare Ermittlung ein anderes Vorgehen und die Berücksichtigung weiterer relevanter Faktoren?

Auch wenn die besondere Belastung der Anwohnenden nicht in Abrede gestellt werden soll, ist die Generalisierung der Hotspot-Messungen auf das ganze Gebiet einer Stadt mit Vorsicht zu genießen. Durch die Selektivität der Messungen werden allenfalls die Maximalwerte an einem bestimmten Punkt zu einer bestimmten Zeit ermittelt, wobei sich die Luftqualität schon an einer Nebenstraße deutlich von den Messungen am Hotspot unterscheiden kann. Die Ermittlung der allgemeinen Situation der Luftverschmutzung und Erarbeitung passender Lösungsvorschläge verlangt ein anderes Vorgehen: Um Verzerrungen zu vermeiden und ein detailliertes sowie zugleich dynamisches Bild der Verschmutzung zu zeichnen ist es eher zielführend, eine größere Menge von Messstationen weitflächig über die Stadt hinweg zu verteilen und in einem Netzwerk zu verknüpfen. So lässt sich das gezeichnete Bild differenzieren und zugleich die Bewegung der Luft, die Effekte der Architektur der Stadt auf ihre Strömung, mit in die Rechnung einbeziehen.

Smarte Boxen, vernetzte Systeme

Dem bisherigen Problem solcher Netzwerklösungen hat sich Professor Martin Schreivogel angenommen: Ihm ging es darum, eine präzise und kompakte Messstation zu entwerfen, die sich zugleich kosteneffizient ausnimmt. Gerade der hohe Preis der bislang üblichen Messstationen ließ eine Anschaffung in den hierfür notwendigen Mengen nicht zu. Um eine differenzierte Messung der Luftverschmutzung durchführen zu können, bedurfte es in einem ersten Schritt also erschwinglicher Messinstrumente, ohne dabei zu große Abstriche an der Präzision machen zu müssen. Als Referenz der Messqualität konnten dabei die Ergebnisse bisher gebräuchlichen Messstationen genommen werden.

Ein früher Entwurf einer Box für die Ermittlung der Luftgüte (Bild via Bosch)

Die ersten Versuche zeigten zum Teil signifikante Unterschiede zwischen beiden Typen an Messstationen, deren Differenz sich auch nicht über naheliegende Korrekturverfahren begradigen ließen. Das Problem bestand darin, dass sich die Sensorsignaländerung durch Feuchte- und Temperaturschwankungen oft um einiges größer ausnahmen, z.B. als das eigentliche, hierfür relevante NO2-Signal. Folglich war es die Frage, welche Ursachen die Abweichungen hatten. Auch wenn die Boxen schon aus Gründen der Kosteneffizienz möglichst einfach aufgebaut waren, sind sie dennoch hochkomplexe technische Instrumente aus verschiedenen Sensoren und Komponenten, bei denen vorab nicht ausgeschlossen werden konnte, dass sie die Verzerrung zu verantworten hatten. So könnte es z.B. durch eine Überkompensation bei der Korrektur/Verrechnung verschiedener Signale kommen. Zudem war es ebenso offen, ob ein einzelner Faktor zu den Abweichungen führte oder das Zusammenspiel mehrerer Elemente, wie die Frage, welche Rolle Einflüsse der Umgebung spielten.

Um sich dem Problem anzunähern, wurde auf Messungen in einem Klimaschrank zurückgegriffen, der gesteuerte Simulationen von Umweltbedingungen zulässt. Feststellen ließ sich dabei eine Auswirkung von Veränderungen der Temperatur und Luftfeuchte auf die Messeinheit, wobei sich der Effekt nicht direkt zeitigte, sondern etwas nachlief, wodurch sich auch die Schwierigkeiten beim Auffinden der Ursache der Verzerrung erklären ließen. Genauer formuliert waren die Ursache Feuchtigkeitsunterschiede in Luft und Sensorelektrolyt, die sich durch einen komplexen Diffusionsprozess auf das Sensorsignal auswirkten.

Um diese Verzerrung zu beseitigen, musste die Sensortemperatur in Abhängigkeit vom Wetter eingestellt werden, wodurch der Elektrolyt in Balance gehalten werden konnte und die Fehlausgaben vermieden wurden. Eine Folge war, dass die Messstationen eine Zertifizierung durch ein akkreditiertes Labor (Ineris) erhalten konnten, was wiederum ihre zukünftige Verwendung bei der statistischen Erhebung der Luftqualität erleichtern sollte. Der Gewinn an Signalstabilität hatte aber auch einen Preis: Nicht nur hatte das verbesserte Setting der Box ein höheres Gewicht, sie bedurfte auch einer eigenen Stromzufuhr, was ihren Einsatz wiederum deutlich einschränkte und damit die Möglichkeiten ihrer breiten Vermarktung limitierte. In einer neuen Generation von Modellen konnten dann Erkenntnisse komplexer mathematischer Korrekturansätze in die Konstruktion einfließen, wodurch die Geräte nicht nur deutlich leichter ausfielen, sondern ihr Betrieb auch über Solarenergie möglich wurde. Durch diese Maßnahmen ist nun die Marktförmigkeit des Produktes gewährleistet und zugleich die Möglichkeit geboten, die Luftqualität in Städten über ein Netzwerk von Messstationen ermitteln zu können.

Darstellung der gemessenen Verteilung inklusive der Qualitätsgrade (Bild via Bosch)

Die Boxen sind ein Ergebnis der Entwicklungs- und Projektleitungstätigkeit Martin Schreivogels bei Bosch, wobei er den abschließenden Prozess der Verwirklichung weiter begleiten wird, wie zuletzt an der nun beginnenden Kooperation von Bosch mit Palas deutlich wurde.[1] Zugleich diente ihm diese Arbeit als Material für seine Antrittsvorlesung, in der er auch die thematische Relevanz der Grundlagen der Elektrotechnik für Fragen der Anwendung und Umsetzung akzentuieren wollte. So biete sich im Rückgriff auf fundamentale Aspekte mitunter ein spezifischer Blick auf Probleme, aus dem dann wiederum genuine Lösungsansätze gewonnen werden können.

Die Mitgestaltung der Energiewende. Die Optimierung von Brennstoffzellen

Zielte das vormalige Projekt auf einen komplexen elektrochemischen Sensor und dessen Präzision und Funktionalität, geht es Schreivogel an der Hochschule Schmalkalden nun um die Vermessung eines elektrochemischen Systems mit Hilfe von Sensoren. Um die Funktion von Brennstoffzellen und Elektrolyseuren bei der Produktion von Wasserstoff verstehen und verbessern zu können, bedarf es eines breiten Sets an Sensoren, die die Anlagen und die Prozessabläufe überwachen. Diese offene Perspektive macht es erst möglich, eine Vielzahl von Variablen auf ihre Relevanz für die Transformation und ihre Optimierbarkeit hin zu befragen.

Die Energiewende hat durch äußere Anstöße aktuell einiges an Fahrt aufgenommen. Die Gewinnung von Wasserstoff als transportablen Energieträger und Speichermöglichkeit steht dabei noch immer vor zahllosen Herausforderungen, die durch die gerade erwünschte Geschwindigkeit im Aufbau einer Versorgungsinfrastruktur nicht geringer werden. Die zügige Umsetzung der Energiewende legt es nahe, schon in der Frühphase mit der Optimierung bereits bestehender Anlagen zu beginnen: Weil infolge des rasanten Aufbaus der Produktionsstätten die Optimalität als Ziel hinter die Realisierung rückt, entsteht hier ein Ansatzpunkt für die Forschung. Auch wenn davon auszugehen ist, dass die Technologie zur Erzeugung von Wasserstoff ein fortgeschrittenes Stadium erreicht hat ist, befinden sich Elektrolyseur- und Brennstoffzellensysteme noch immer in einer relativ frühen Entwicklungs- und Skalierungsphase. Somit bleibt die Optimierung der Effizienz und anderer Kriterien eine relevante Aufgabe, die zugleich die Energiewende vorantreibt. Im Fokus stehen somit die konkreten Anlagen, die mit Hilfe von Sensoren vermessen werden sollen, um auf diesen Messungen aufbauend konkrete Vorschläge für die Optimierung erarbeiten zu können. Ein zentraler Aspekt ist dabei die Datenverarbeitung: Die enormen Mengen an Informationen müssen strukturiert, gefiltert und evaluiert werden, um als belastbare Quelle genutzt werden zu können.

Ein Symbolbild: Die feine Verteilung von Wasserdampf

Die Region Südthüringen eignet sich schon deshalb für ein solches Vorhaben, weil es mehrere Kooperationspartner aus dem Bereich der Wissenschaft und der Wasserstoffwirtschaft gibt, mit denen ein Netzwerk von Institutionen und Anwendern der Wasserstofftechnologieforschung aufgebaut werden kann. „HySON – Institut für angewandte Wasserstoffforschung Sonneberg gemeinnützige GmbH“ und die Abteilung „Industrielle Wasserstofftechnologien Thüringen“ des Fraunhofer IKTS in Arnstadt sind zwei mögliche regionale Kooperationspartner. So ließe sich ein Zugang finden zu bestehenden Anlagen, die dann analysiert und optimiert werden können, um aus den Befunden der Einzelfälle im Anschluss generalisierende Aussagen generieren zu können. Nicht zuletzt können auch Expertisen an der Hochschule Schmalkalden und der Fakultät Elektrotechnik genutzt werden. Unter anderem befasst sich Professor Roy Knechtel intensiv mit Fragen der elektronischen Messtechnik und Sensorik.


[1] https://www.bosch-presse.de/pressportal/de/en/bosch-and-karlsruhe-based-measuring-technology-specialist-palas-team-up-for-better-air-quality-258432.html

Konsortialtreffen des KI-Hub Kunststoffverpackungen an der Hochschule Schmalkalden

Konsortialtreffen des KI-Hub Kunststoffverpackungen an der Hochschule Schmalkalden

Am 18. und 19. September fand an der Hochschule Schmalkalden das erste Konsortialtreffen des KI-Hub Kunststoffverpackungen statt. Das Ziel dieser interdisziplinären Forschungskooperation besteht darin, die Nachhaltigkeit von Kunststoffverpackungen effektiv zu erhöhen und deren Nutzung ressourcenschonend und im Rahmen einer Kreislaufwirtschaft zu gestalten. Neben der Angewandten Kunststofftechnik der Hochschule Schmalkalden arbeiten hier gefördert unter anderem vom Bundesministerium für Bildung und Forschung 51 namhafte Partner aus Wirtschaft, Wissenschaft und Gesellschaft zusammen. Als Projektbeteiligter organisierte zusammen Prof. Thomas Seul mit seinem Team der Angewandten Kunststofftechnik das Konsortialtreffen an der Hochschule.

Kunststoffe und Kreisläufe

Produkte und Verpackungen aus Kunststoff sind aus unseren Haushalten und aus unserem täglichen Gebrauch kaum mehr wegzudenken. Die Vorteile dieses Materials sind dabei vielfältig: Neben der Plastizität, die eine Vielfältigkeit der Form- und Farbgebung zulässt, sind hier die funktionalen und hygienischen Qualitäten einschlägig. Doch zugleich entstehen durch die Verbreitung des Kunststoffs und seine Langlebigkeit auch Probleme, wie wir an der zunehmenden Menge an Abfällen und gelben Säcken auch im Alltag merken. Dabei stellt sich die Herausforderung eines möglichst nachhaltigen Gebrauchs auf verschiedenen Ebenen, die zugleich unterschiedliche Problemlösungsansätze erfordern.

Eindrücke vom Empfang

Um die Ressource Kunststoff speziell in seiner Funktion als Verpackungsmaterial optimal und möglichst ökologieeffizient nutzen können, gilt es sowohl am Anfang wie dem Ende des Zyklus einer Kunststoffverpackung anzusetzen. Neben Aspekten des Materials und des Produktdesigns stehen die Bedingungen der Wiederaufbereitung im Fokus. Das übergeordnete Ziel besteht in der Etablierung einer Kreislaufwirtschaft, die den Kunststoff vollumfänglich nutzt und keine Ressourcen verschwendet, also die Wertschöpfungskette von Kunststoffverpackungen so weit wie möglich zu schließen und die Produktion von Treibhausgasen zu minimieren. Um die Quote der Wiederverwertung zu maximieren muss neben der Aufbereitung der Kunststoffe bereits bei der Produktion der Verpackungsmaterialien angesetzt werden.

Innovationslabore

Kurz gefasst geht es dem KI-Hub einerseits darum, wie wir Kunststoffe ausgerichtet auf ihre Wiederverwertbarkeit als Verpackungen fertigen und verwenden müssen: Welcher Kunststoff lässt sich zum Beispiel wie am besten recyclen, welches Material eignet sich in welcher Dosierung für welches Produkt, und welche Anforderungen haben die Partner der Industrie? Andererseits geht es um die Frage der Optimierung des eigentlichen Recyclings, das von Organisation und Logistik der Abfallwirtschaft bis hin zur Sortierung und Verarbeitung mit Hilfe künstlicher Intelligenz reicht. Das KI-Hub selbst gliedert sich in die beiden Innovationslabore KIOpti-Pack (Design und Produktion) und K3I-Cycling (Kreislaufschließung) in zwei eigenständige Konsortien mit je eigenen Profilen und Forschungsschwerpunkten, die im KI-Hub kooperieren.

Im Innovationslabor KIOptiPack stand unter anderem die Frage im Fokus, wie Kunststoffe gefertigt werden können, die sich maximal weiternutzen lassen. Welche Qualitäten müssen Rezyklate, also wiederaufbereitete Kunststoffe, aufweisen, um für sensible Bereiche der Verpackung – wie zum Beispiel von Lebensmitteln – verwandt werden zu können? Was sind die Eigenschaften der Polymere und wie lassen sich diese im Hinblick auf die Wiederverwertung optimieren? Ein Problem unter vielen ist hierbei die Bedruckung von Folien: Welche Folgen haben die Aufbringung von Farben auf die Materialien und speziell für die Weiterverarbeitung? Aber auch die negativen Effekte spezifischer Geruchsbilder von Kunststoffen und Rezyklaten auf Konsument:innen und deren Akzeptanz stehen im Fokus. Kurzum ist das Ziel, den Anteil der Rezyklat-Polymere in Produkten zu erhöhen, wofür Fragen der Qualität und Quantität, der nötigen Reinheit und Kontamination für verschiedene Verwendungs- und Produktionsweisen zu klären sind.

Gespräche im Foyer

Das zweite Innovationslabor, K3I-Cycling, richtete den Blick auf das Ende des Kreislaufs, und damit im Sinne des Zirkels auf den reibungslosen Beginn der neuen Phase. Wie das andere Innovationslabor gliedert sich dieses Konsortium in verschiedene Themenfelder und Probleme, die in unterschiedlichen Paketen zusammengefasst werden. Ein Schwerpunkt liegt in der Sortierung und dessen Optimierung mit Hilfe künstlicher neuronaler Netzwerke. Der Vorteile dieser Technologien ist die sich selbst steuernde Erfassung, die flexibel auf Daten- und Materialflüsse reagiert. Ein Ziel ist es, die Prozesse nicht nur retrospektiv zu begleiten, sondern prospektiv valide Prognosen vornehmen zu können und so die Organisation der nachhaltigen Verarbeitung zu optimieren. Ein Ansatz ist hier das Deep Learning, dessen Potentiale sich anhand von Tools wie ChatGPT bereits ahnen lassen. Die Frage ist hier nicht nur, wo die Reise der technischen Entwicklung hingeht, sondern auch, wie sich die Potentiale effektiv in Anwendungen einbinden und nutzen lassen.

Das Konsortialtreffen

So kamen etwa 150 Teilnehmer, bestehend aus dem Konsortium, Beirat sowie Projektträger im spätsommerlichen Schmalkalden zusammen. Neben den Vorstellungen der Projekte, der Projektstände und einzelnen Vorträgen lag das Hauptaugenmerk auf verschiedenen Workshops, die zu unterschiedlichen Themen stattfanden. Die Teilnehmenden diskutierten hier Fragen unter anderem des effizienten Einsatzes von KI über den Daten- und Materialfluss bis hin zu Fragen ethischer und datenschutzzentrierter Horizonte. Ein Workshop untergliederte den Kreislauf der Wertschöpfungskette des Kunststoffs in verschiedene Stationen auf und wollte von den Teilnehmenden in Erfahrung bringen, wie sich die Übergänge zwischen den verschiedenen Stationen optimal ausnehmen würden bzw. wo die kritischen Punkte liegen. Auch wenn die Forschung hier noch am Anfang steht, ließe sich so ein ideales Optimum des Kreislaufs eruieren, dass die Reibungsverluste zwischen verschiedenen Stadien minimiert.

Disksussion im Workshop

Ein ebensolcher übergeordneter, rahmender Bezugspunkt wurde auch von einem Vortrag über die Kriterien der Nachhaltigkeitsbewertung und des Life Cycle aufgegriffen: Nachhaltigkeit ist ein normatives und komplexes Ziel, gegenüber dessen multiplen, teils divergierenden Ansprüchen sich Forschende bewusst verhalten müssen. Anders gesagt ist Nachhaltigkeit kein analytisches Konzept, dessen Definition schon im Sinne eines standardisierten Wertes feststünde, sondern ein offener Begriff, der auf verschiedenen Ebenen arbeitet und zugleich eine Positionierung der Bewertung und reflexiven Abwägung von den Akteuren verlangt. Um mit dem Begriff und den Anforderungen zwischen Ökologie, Ökonomie und gesellschaftlichem Kontext produktiv umgehen zu können, ist diese Rückversicherung und Zieljustierung sinnfällig.

Die Tagung diente neben der Sacharbeit auch dem Kennenlernen sowie der internen Vernetzung der verschiedenen beteiligten Personen. Gelegenheiten zum Austausch bot sich nicht nur in den Pausen und Workshops, sondern auch im Rahmen eines gemeinsamen Austauschs im Netzwerk in der Viba-Nougatwelt. Am Ende der Tagung wurden die Ergebnisse der Workshops präsentiert und die beiden Tage produktiv mit einigen Antworten und vielen neuen Fragen abgeschlossen.

Die Vermessung des Klimas. Über Crowdsourcing als Instrument der Meteorologie

Die Vermessung des Klimas. Über Crowdsourcing als Instrument der Meteorologie

In den letzten Jahren konnten wir vermehrt ebenso trockene wie heiße Sommermonate erleben, in denen sich unsere Innenstädte zum Teil stark erwärmten. Gerade stark bebaute, versiegelte Stadtteile wiesen signifikant erhöhte Temperaturen auf und machten offenkundig, wie nützlich Grünflächen, Bäume und Wasserläufe für die Abkühlung urbaner Areale sind.

Nicht nur unterscheiden sich die klimatischen Bedingungen von Städten und ländlichen Gebieten, auch zwischen den Zentren und den Randzonen der Städte selbst treten Abweichungen auf. Zwar bestehen diese Temperaturunterschiede ganzjährig, im Sommer zeitigen sie jedoch spürbarere Effekte: So nahm die Zahl an Tropennächten, in denen die Temperatur nicht unter 20 Grad Celsius fällt, in stark verdichteten Innenstädten in der jüngsten Vergangenheit zu. Bis zu dreimal häufiger tritt dieses Phänomen mittlerweile auf. Die Hitze wird dabei von den versiegelten Flächen gespeichert und langsamer abgegeben als in begrünten und beschatteten Bereichen. Dieses Phänomen wird als urbaner Hitzeinseleffekt (UHI-Effekt) bezeichnet und wird uns als Folge des Klimawandels bereits in naher Zukunft noch häufiger betreffen.

Die Randlagen der Städte neigen demgemäß deutlich weniger zur Hitzebildung und -konservierung. Diese Abweichungen werden von den üblichen Instrumenten zur Ermittlung der Temperatur nur ungenügend erfasst, findet die Messung doch zumeist zentral an einem Ort statt und deckt so nicht den ganzen Stadtraum ab. Eine Bürgerinitiative in Bamberg nahm die Unterschiede zwischen der statistischen und der wahrgenommenen Temperatur zum Anlass für eine experimentelle Messung: An verschiedenen Stellen der Stadt wurden die Temperaturen über einen Tag stündlich abgetragen und verglichen, wobei sich Abweichungen von bis zu sieben Grad Celsius ergaben. Das Phänomen unterschiedlicher Wärmeentwicklung und die weitgehenden Effekte auf die Menschen vor Augen, lässt sich fragen, ob es nicht andere Möglichkeiten gibt, an meteorologische Daten zu kommen, die ein umfassenderes und detailliertes Bild zeichnen.

Klassisches Instrument zur Ermittelung der Umgebungstemperatur

Was ist Crowdsourcing?

Eine Möglichkeit besteht darin, die Quellen der Daten zu erhöhen und damit zugleich eine erweiterte räumliche Abdeckung zu erreichen. In den letzten Jahren hat sich die Anzahl an Sensoren, die uns in unserem Alltag begleiten, massiv erhöht. Dies reicht von den offensichtlichen Smartphones, in denen selbst verschiedene Sensoren Platz finden, bis hin zu sensorischen Anlagen in Autos und smarten Geräten wie Fitnessarmbändern und Ähnlichem. Nicht zuletzt haben sich durch die Verbreitung und Verfügbarkeit leistungsfähiger Sensoren die Preise für hochwertige, vernetzte Wetterstationen für die private Nutzung stark vergünstigt.

Durch diese Sensoren wird unsere Welt beständig vermessen und zugleich ein umfassender Pool an Informationen gesammelt. Neben den mittlerweile üblichen Kameras und Mikrofonen sind in diesen Geräten auch Sensoren verbaut, die meteorologische Daten erheben können. Über eine Verkopplung mit ebenfalls verfügbaren GPS Koordinaten ließe sich so eine Vielzahl an Wetterdaten und Metadaten erzeugen. Eine andere Möglichkeit, um die Datenlage zu erweitern, bietet sich im Rückgriff auf private Wetterstationen, die zugleich mit dem Internet verbunden sind. Auch über sie kann die Quellensituation immens erweitert werden.  Gerade weil im letzten Jahrzehnt die Verfügbarkeit und Bedienbarkeit von Instrumenten der Umweltbeobachtung leichter wurde, können sich nunmehr auch Laien an der Gewinnung und Auswertung von Daten beteiligen. Zugleich sind diese Daten durch die Netzwerkwerkfähigkeit der Geräte und die weiter reichende Abdeckung mit dem Internet universell und in Echtzeit abrufbar. Nicht zuletzt erlaubt die moderne Datenverarbeitung eine effiziente Datenselektion und die Übermittlung von Metadaten über den Standort, die Aufstellung und den Sensortyp, die für die Einschätzung der Messwerte relevant sind.

Just dieser Vorgang lässt sich als Crowdsourcing fassen, also der Vervielfältigung der Quellen von Datenmaterial außerhalb der Standardmessnetze. Zugleich besteht die Herausforderung in der Nutzung dieser Quellen darin, die Qualität der Daten und damit die Validität der Messungen gewährleisten zu können. Welche Instrumente eignen sich unter welchen Umständen für die Ermittlung von welchen Daten, wie lassen sich Messfehler vermeiden? Oder anders: Was sind die Bedingungen und Möglichkeiten der Nutzung von Crowdsourcing zur Gewinnung von atmosphärischen Messdaten? Und: Wie lassen sich Fehler in der Messung vermeiden und wie können Programme fehlerhafte oder unsichere Daten aussortieren? Genau diesen Fragen geht einer Gruppe von Forschenden in einem Beitrag für die Fachzeitschrift „Gefahrstoffe. Reinhaltung der Luft“ nach, an dessen Erstellung sich auch Prof. Roy Knechtel von der Fakultät für Elektrotechnik an der Hochschule Schmalkalden beteiligte, der an dieserHochsule für angewandte Wissenschaft die Professur fur autonome, intelligente Sensoren innehat. Dabei dient der Artikel auch der Vorbereitung einer entsprechenden VDI-Richtlinie, in die Fragen der Sensortechnik, der Sicherung der Datenqualität und die Möglichkeiten der Datenverarbeitung aufgegriffen werden sollen.

Was sind die Bedingungen für die Messung von Sensoren ?

Die Anhebung der Quantität heißt nicht automatisch, dass sich auch die Qualität der Daten erhöht. Für die verschiedenen Aufgaben der Ermittlung von Temperatur, Luftdruck und Luftfeuchte braucht es unterschiedliche, spezifische Sensoren und angepasste technische Lösungen. Die Herausforderungen der Umsetzung sind neben der erforderlichen Qualität der Detektion auch Variablen der Effizienz, also unter anderem der Energieverbrauch, und die Komplexität der Integration.

Die hohen Anforderungen an Messeinrichtungen und Sensoren stellen wiederum Ingenieure speziell der Elektrotechnik vor Herausforderungen: Welche Charakteristika müssen die Sensoren und die sie fassenden Bauteile aufweisen, damit die Funktionalität gewahrt bleibt und zugleich die meteorologischen Daten verlässlich erhoben werden können? Um nur ein Dilemma zu nennen, das abgewogen werden muss: Einerseits müssen die Instrumente von ihrer Umwelt getrennt werden, andererseits müssen sie einen möglichst direkten und unverstellten Zugang zum Messobjekt haben.

Nicht alle Geräte, in denen Sensoren verbaut sind, eignen sich in gleicher Weise: Smartphones, die eine hohe Verbreitung aufweisen, haben über ihre Sensoren keinen direkten Kontakt zur der sie umgebenden Luft und werden zudem eng am Körper getragen. Im momentanen Stand der Technik eignen sie sich folglich nicht zur Bestimmung der Temperatur. Dagegen sind die in privaten Smart Homes verbauten Instrumente zumindest teilweise für die Messung geeignet. Ab davon bietet sich im Rückgriff auf privat genutzte Wetterstationen die Möglichkeit, auf einen großen und weit verteilten Datenpool zurückgreifen zu können.

Die Aufgaben der Messinstrumente der Reihe nach: Niederschlagsmenge, Temperatur, Windrichtung und -stärke (per Ultraschall)

Smarte Sensoren und ihre Herausforderungen

Als Smart-Sensoren werden Sensoren bezeichnet, die über die Messgrößenerfassung hinaus auch die Signalaufbereitung und -verarbeitung in einem Objekt vereinigen, die anders gesagt „eine funktionelle und konstruktive Einheit eines oder mehrerer Sensorelemente und einer geeigneten Elektronik (VDI Gefahrstoffe 82 (2023), Nr. 07-08, S. 212) bilden. Die meteorologischen Messelemente zum Zwecke der Ermittlung von Temperatur, Feuchte, Luftdruck und Strahlung konnten erst in den letzten Jahrzehnten auf den Chips integriert werden. Nicht nur konnte die disponible Anzahl der Sensoren vergrößert und gleichzeitig ihre Kosten reduziert werden, auch ihre Qualität der Messtechnischen Eigenschaften konnte sichergestellt werden.

Als Beispiel soll hier nur die Sensortechnik Erwähnung finden, die zum Messen der Temperatur dient. Auch wenn es möglich ist, eigene Sensoren einzubauen, die die Lufttemperatur über Messwiderstände ermitteln und letztlich nahe an der klassischen Messung über Widerstandsthermometer bleiben, ist eine andere Lösung weitaus effizienter, greift diese doch auf schon vorhandene, thermosensible Elemente in integrierten Schaltkreisen zurück. Grob vereinfacht wird hierbei auf den Abstand zwischen Leitungs- und Valenzband des Siliziums zurückgegriffen, der sich mit der Temperatur verändert. So vermindert sich der Aufwand ohne dass die Qualität der Messung Einbußen erführe. Speziell die Ermittlung der Temperatur hat aber ihre Tücken: Weder darf die Messeinheit direkt dem Sonnenlicht ausgesetzt sein noch zu nahe an die Wärme reflektierenden oder absorbierenden Strukturen wie Wänden. Auch müssen die Messgeräte den Stau von Wärme vermeiden und für eine beständige Belüftung sorgen. Eine valide Messung der Temperatur muss all diese Faktoren beachten.

Neben der Luftfeuchte und dem Luftdruck lässt sich auch die Sonneneinstrahlung und die Konzentration verschiedener Gase ermitteln. Des Weiteren können auch die Richtung und die Stärke des Windes gemessen werden, die Menge des Niederschlags sowie die Bodenfeuchte und Bodentemperatur. Wiederum sind für jede die Aufgaben spezielle Instrumente der Messung zu entwickeln, die die Erhebung der Daten in der gebotenen Exaktheit erlauben. Die Windstärke wird beispielsweise weniger über minimalisierte Propeller gemessen, ist deren Verschleiß doch zu hoch, sondern mit Hilfe von Ultraschall.

Innenansicht des Instruments zur Niederschlagsmessung (Niederschlagswaage). Funktion: Flüssigkeit wird über den Trichter (s.o.) gesammelt und auf die Schaufel transportiert. Bei einem gewissen Füllstand klappt diese dann um und die zweite Schaufel wird gefüllt. Jeder Umschlag der Wippe wird dann als Gesamtvolumen zusammengenommen.

Was ist die Aufgabe der VDI-Richtlinien

Der Artikel, eine Kooperation von Thomas Foken, Benjamin Bechtel, Matthias Budde, Daniel Fenner, Roy Knechtel und Fred Meier dient der Vorbereitung einer entsprechenden VDI-Richtlinie. Diese technischen Normen werden vom Verein Deutscher Ingenieure (VDI) aufgestellt: Sie halten Empfehlungen, Standards und Regeln im Bereich der Ingenieurwissenschaften bereit und dienen kurz gefasst als grundlegende Orientierung und Vereinheitlichung ingenieurwissenschaftlicher und angewandter Arbeit. Es geht also um einen Grundstock an Empfehlungen für Ingenieur:innen im Umgang mit Geräten, Medien und u.a. Techniken. Gerade bei neuen technologischen Entwicklungen wie dem Crowdsourcing stellen die Richtlinien die Qualität und die instruktive Verwendung in einem sich schnell entwickelndem Forschungsfeld sicher.

Neben Kriterien der Beurteilung und Bewertung stellen die Richtlinien Hilfestellungen in Form spezifischer Arbeitsunterlagen und Entscheidungshilfen bereit. Zudem geben sie Einschätzungen der technischen Standards und Anleitungen der Anwendung. Kurz zielt dies auf technische Prozess- und Problemlösungen und deren gelingende Realisierung. Damit die meteorologischen Daten des Crowdsourcings also zu validen, verlässlichen Quellen der Information werden können, engagieren sich Forschende wie Roy Knechtel ehrenamtlich an der Erstellung von VDI-Richtlinien.

Simulationen als Instrumente der Optimierung: Über die Forschungen von Jun.-Prof. Andreas Wirtz

Simulationen als Instrumente der Optimierung: Über die Forschungen von Jun.-Prof. Andreas Wirtz

Um ihre Funktion optimal erfüllen zu können, müssen komplexe Werkzeugmaschinen wie Fräsmaschinen unter möglichst idealen Bedingungen eingesetzt werden, was beispielsweise die Prozessgestaltung und -auslegung anbetrifft. Hierbei besteht oft ein Dilemma, zwischen dessen Extremen abgewogen werden muss: Zwar sorgen gesteigerte Prozessparameter bei Zerspanprozessen für eine erhöhte Produktivität, jedoch kann dies bei ungünstigen Prozessauslegungen zu Einbußen in der Qualität der gefertigten Produkte führen. Zudem können die verwendeten Werkzeuge und Maschinen in Folge erhöhter Belastungen schneller verschleißen. Auch bezüglich der Kosten- und Energieeffizienz wirkt sich die Prozessgestaltung wesentlich aus. Aufgrund einer multifaktoriellen Kostenstruktur und vieler Einflussgrößen sind aber auch hierzu viele Daten und oft aufwändige Optimierungszyklen notwendig. Somit gilt es, verschiedene Variablen und Einflussfaktoren ebenso in Betracht zu ziehen wie divergierende Ziele der Produktion.

Um Fertigungsprozesse zu optimieren ist es eine Option, Maschinen mit einem Vielerlei an Sensoren auszustatten und die entsprechenden Zielgrößen schlicht während der Produktionsprozesse empirisch zu messen. In einer idealen Variante würden diese Messungen direkte Effekte beim Herstellungsprozess zeigen und so das produktive Optimum durch Anpassungen erreicht werden können. Wie üblich ist dies in der Wirklichkeit nicht ganz so einfach: Ein zentraler Einflussfaktor für die Werkstückqualität und den Verschleiß der Werkzeuge ist beispielsweise die Temperatur, die an den Werkzeugschneiden wirkt. Leider ist es mit den sensorischen Mitteln und Instrumenten der Gegenwart nicht oder nur mit extremem Aufwand möglich, die Temperatur ausreichend exakt zu ermitteln. Ähnlich verhält es sich bei der empirischen Bestimmung der mechanischen Belastungen. Um den Fertigungsprozess dennoch optimieren zu können, bietet sich unter solchen Konditionen die Simulation als Instrument der ex-ante-Modellierung und der multivariaten Evaluierung von Fertigungsprozessen und Werkdesigns an. Auch auf makroskopischer Ebene, d. h. bei Betrachtung ganzer Prozesse, bieten Simulationsexperimente verschiedene Möglichkeiten, Prozesse ohne Produktionsunterbrechungen und Materialeinsatz schneller und somit kostengünstiger gestalten und verbessern zu können.

grafische Darstellung Fräsprozess mit Temperaturmessung
“Einsatz Finite Elemente-basierter Spanformsimulationen zur Anpassung von Fräswerkzeugen”

Die Effizienz von Simulationen

Dr. Andreas Wirtz trat zum August 2022 die Professur für Fertigungstechnik und virtuelle Pro­zessgestaltung innerhalb der Fakultät für Maschinenbau an der Hochschule Schmalkalden an. 2019 promovierte er an der TU Dortmund im Bereich der simulationsgestützten Auslegung energieeffizienter NC-Fräsprozesse. Sein Forschungsschwerpunkt war hierbei die Mehrzieloptimierung von Fräsprozessen unter Berücksichtigung der Werkstückqualität, benötigten Prozesszeit und dem Energiebedarf. Hierzu gehörte die modellbasierte Abbildung und Vermeidung regenerativer Werkzeugschwingungen, welche zu einer unzureichenden Werkstückqualität und erhöhtem

Werkzeugverschleiß oder Werkzeugversagen führen können. Neben der Werkstückqualität stand auch der Energieverbrauch in seinem Fokus: Welche Vor- und Nachteile bieten verschiedene Bearbeitungszentren und Prozessauslegungen unter den Parametern der Werkstückqualität, der Produktivität und der Energieeffizienz? Oder anders: Unter welchen Zielvorgaben ist welche Maschine mit welchen Parametereinstellungen für welche Verfahren am besten geeignet? Die computergestützte Simulation von Fertigungsprozessen bietet hierbei den Vorteil, bereits vor der Durchführung kosten- und aufwandsintensiver Versuche und Anpassungsmaßnahmen optimierte Prozesse zur effizienten Herstellung von Produkten mit anforderungsgerechter Qualität gestalten zu können. So können Neuplanungen und Anpassungsmaßnahmen besonders auch für flexible Fertigungssysteme effizient geplant und virtuell erprobt werden.

Ablauf Fräsprozess - Collage
“Ablauf Fräsprozess”

Smarte Kreisläufe in der industriellen Produktion

Die Simulation sowohl von Produktionsprozessen als auch von komplexen Fabriken gewinnt im Zuge der Einführung von Maßnahmen zur Digitalisierung, Vernetzung und Autonomisierung der industriellen Produktion sowie deren Verschränkung mit modernen Informations- und Kommunikationstechnologien an immer mehr Einfluss. Auch wenn es dem Begriff selbst an konzeptioneller Schärfe mangelt werden diese Transformationen in der öffentlichen Debatte häufig unter dem Signum Industrie 4.0 rubriziert. Ziel ist es, ganze Wertschöpfungsketten in Echtzeit zu optimieren und bei laufender Produktion flexibel auf Veränderungen der Anforderungen, innerhalb der Prozesse selbst und beispielsweise der Umweltbedingungen reagieren zu können. Dies meint, dass in den langen und komplexen Produktionsketten der modernen Industrie die Verzögerung eines Teilabschnitts nicht den gesamten Prozess aufhält, sondern sich dieser umstellt und seine verschiedenen Abläufe anpasst.

Das Zielsystem, um das es hier geht, ist also kein statisches, sondern ein flexibles, das sich je nach Faktoren, Bedingungen, verändern kann. Ein Aspekt in dieser komplexen digitalisierten Organisation der Produktion sind die Fertigungsprozesse selbst, also zum Beispiel die Fräsprozesse. Die Digitalisierung bietet dabei zugleich die Möglichkeit, natürliche Ressourcen zu schonen und dem Aspekt der Nachhaltigkeit ein ihm gebührendes Gewicht zuzuerkennen. Über die digitale Vernetzung des Produktionsprozesses besteht auch die Chance, anforderungsgerechte, effiziente Verfahren zu etablieren.

Ein Teilaspekt dieser Digitalisierung ist wiederum die Simulation der Herstellungsprozesse zum Beispiel in Form digitaler Zwillinge. Diese virtuellen Abbilder mitunter ganzer Fabriken dienen der Analyse und Evaluation von Anpassungsmaßnahmen und deren Effektivität, um schließlich die Flexibilität der ganzheitlichen Produktion und ihr Leistungsniveau abschätzen zu können. Durch Integration von Simulationsmodellen können Anpassungsmaßnahmen in verschiedenen Varianten vor dem Ausrollen erprobt und validiert werden.

Schutzschichten in unwirtlichen Umgebungen

Ein bereits abgeschlossenes Forschungsprojekt unter Mitwirkung von Prof. Wirtz ist die mechanische Nachbehandlung von Korrosionsschutzschichten. Hierbei geht es um den Schutz der von ihrer Umwelt stark belasteten Strukturelemente beispielsweise von Offshore-Windenergieanlagen. Damit sich die Investitionen in die Windkraft nachhaltig lohnen, sollten die Anlagen so lange wie möglich ohne Beschädigungen und notwendige Reparatur- und Instandhaltungsarbeiten auskommen können. Die rauen klimatischen Bedingungen der Nordsee vor Augen wird klar, wie groß die Herausforderungen für die verwendeten Materialien sind, die langfristig Schutz vor Wasser, Wind und Salz bieten müssen.

Diese protektive Qualität können einerseits die verwendeten Materialen einholen, andererseits aber auch über spezielle Verfahren der mechanischen Bearbeitung der Schutzschichten erreicht werden. Über das nachträgliche maschinelle Oberflächenhämmern werden Schutzbeschichtungen nicht nur dichter und härter, die Oberfläche wird weniger rau und porös. Folglich bieten diese Schichten weniger Angriffsfläche für Umwelteinflüsse und Korrosion. Durch die Einbringung von Druckeigenspannungen mittels der mechanischen Nachbehandlung können auch die negativen Effekte der mechanischen Belastungen der Werkstücke durch Wind und Wellen, wie die Bildung und Ausbreitung von Mikrorissen gehemmt werden. Auch wenn also die Korrosions- und Ermüdungsvorgänge nicht vollständig aufgehalten werden können, so können ihre Auswirkungen doch miniminiert und die Haltbarkeit der Bauteile der Offshore-Windräder verlängert werden. Gleichzeitig können auf diese Weise die durch die verwendeten Beschichtungen erzeugte Umweltbelastung sowie notwendige zusätzliche Nachbehandlungsschritte, wie organische Beschichtungen, reduziert werden.

Prof. Wirtz und Studierende im Seminar; Maschinen im Hintergrund
“Prof. Wirtz und Studierende im Seminar”

Kooperative Kontakte

Prof. Wirtz wurde im Sommer 2022 als erster Juniorprofessor an die Hochschule Schmalkalden im Rahmen einer Tandem-Professur in Kooperation mit der GFE, der Gesellschaft für Fertigungstechnik und Entwicklung Schmalkalden e. V., berufen. Als Teil des bundesweiten Förderprogramms „FH-Personal“ sollen diese Professuren Nachwuchswissenschaftlern den Einstieg in eine wissenschaftliche Karriere erleichtern. Zu gleichen Teilen arbeitet, lehrt und forscht Prof. Wirtz nun an der Hochsuche und der GFE: Neben seiner Professur ist er gleichzeitig wissenschaftlicher Mitarbeiter bei der Gesellschaft für Fertigungstechnik und Entwicklung. Ihm bietet sich so die Gelegenheit, sich neben seiner wissenschaftlichen Tätigkeit in Forschung und Lehre auch für Fachhochschulprofessuren weiterzuqualifizieren. Letztere verlangen aufgrund ihrer Schwerpunktlegung auf Fragen der Anwendung eine mehrjährige Tätigkeit außerhalb des Hochschulbereichs und dementsprechende aberufspraktische Erfahrungen.

Kurzum werden somit also zwei Fliegen mit einer Klappe geschlagen, was aber letztlich der Vereinfachung des Berufseinstiegs von Wissenschaftler:innen wie Prof. Wirtz zu Gute kommt. Im Rahmen der Tandem-Professur kann er nicht nur Forschung und Lehre produktiv verbinden, sondern auch angewandte Wissenschaft und Forschungstransfer mit der Grundlagenforschung. Diese sich so bietenden Möglichkeiten der Kombination, verknüpft durch räumliche Nähe und den kooperativen Dialog der Hochschule Schmalkalden und der GFE, macht einen Reiz dieser Stelle aus.

Gruppe von Forschenden begleiten in Altstadt Lieferrobotor

RoboTraces – Moderne Logistik mit Hilfe von Mikromobilen

Die autonome Beförderung in selbststeuernden Fahrzeugen scheint uns mittlerweile eine vertraute Vision einer nicht mehr allzu fernen Zukunft. Unzählige Akteure aus verschiedenen Bereichen von akademischer Wissenschaft über kommerzielle Projekte von Unternehmen aus der Wirtschaft bis hin zu Programmen der öffentlichen Verwaltung sind damit beschäftigt, diese neuen Formen der individuellen Mobilität zu konzipieren und ihre technische sowie rechtliche Realisierung intensiv voranzutreiben. Weit weniger Aufmerksamkeit erhalten dagegen kleinere autonom operierende Systeme, sogenannte Mikromobile, die auf Fuß- und Radwegen fahren. Diese kleinen Transportfahrzeuge bringe Waren selbststeuernd von Punkt a zu Punkt b, säubern die Umgebung oder bringen E-Roller zu Mietstationen zurück. Sie sorgen für Entlastung, indem sie zum Beispiel Senior:innen bei ihren alltäglichen Erledigungen unterstützen. Zwar ähneln sich manche der Herausforderungen zu jenen des autonomen Fahrens, es bestehen in diesem Bereich aber auch gänzlich eigene ingenieurwissenschaftliche Fragestellungen.

Im Projekt „RoboTraces. Robots are in town“ erschließt eine Gruppe von Forschenden also ein bis dato wenig beachtetes Transportmittel, das sich als ein Element im Transformationsprozess der modernen Mobilität und des Warenverkehrs ausnimmt. Prof. Sebastian Zug von der Technischen Universität Bergakademie Freiberg und Prof. Frank Schrödel von der Hochschule Schmalkalden gehen dabei nicht nur Fragen der technischen Umsetzung nach, ihr Ansatz weist ferner eine Erweiterung der Perspektive um eine rechtliche und sozialwissenschaftliche Dimension gerade in Hinsicht des praktischen Gebrauchs der Roboter und deren alltäglichen Interaktionen mit Menschen auf.

Gruppe von Studierenden beim Austausch
Workshop in Freiberg

Die kooperative Interdisziplinarität, die sich auch an den Arbeitsfeldern der beteiligten Wissenschaftler:innen ablesen lässt, dient dazu, die autonome Mikromobilität aus differenzierten Blickwinkeln zu beleuchten. Hierzu müssen unter anderem zwei Perspektiven, die sich wesentlich unterscheiden, verschränkt werden: Die Sicht der Mikromobile und die Sicht der Umwelt. Dies meint, dass sowohl die technischen Herausforderungen und infrastrukturellen Bedingungen der autonomen Logistik im Fokus stehen wie die Akzeptanzkriterien der Gesellschaft im Umgang mit den Robotern. Aus dieser Anlage wird klar, wie breit gefächert der Katalog an Aufgaben und Themen ist, denen sich die Beteiligten in dem Projekt widmen.

Das Ziel ist der Weg

Anders als die autonomen Fahrzeuge des Individualverkehrs sollen sich die Mikromobile zumeist nicht auf Straßen bewegen, sondern auf den Fuß- und Radwegen unserer Innenstädte und Wohnviertel. Sie befahren mithin Bereiche der Öffentlichkeit, auf denen sich Passant:innen auf je eigene Weise fortbewegen, mal langsam und mal schnell, mal gerade und mal mäandernd usw. Zwei Aufgaben kommen zusammen: Einerseits müssen sich die Roboter selbst steuern können und die Fähigkeiten haben, sich auf unterschiedlichem Terrain zu orientieren und Hindernisse zu erkennen sowie diese zu überwinden. Andererseits bewegen sich die Fahrzeuge in einem geteilten Raum, in welchem sie auf andere Verkehrsteilnehmer reagieren müssen. Letzteres ist ein diffiziles Problem, da diese Einschätzung untern anderem eine Qualität der Prognose, also die Abschätzbarkeit menschlichen Handelns, verlangt.

Gruppe von Menschen, zwei Personen übeprüfen Konfiguration des Lieferroboters mithilfe eines Tablets
Konfiguration der Robotor

Wie die autonomen PKWs müssen die Roboter auf ihre Umwelt achten und etwaige Gefahrenquellen erkennen, um sich möglichst sicher in dem engen, geteilten Raum der Innenstädte fortbewegen zu können. Die Transportroboter sind so zu programmieren, dass sie stoppen, sofern absehbar ein Risiko auftritt; und eben dafür müssen sie Bewegungsabläufe in einem gewissen Maße voraussehen können, also was die eventuellen nächsten Schritte sein könnten oder was es für Folgen hätte, wenn die Person spontan anhalten würde. Für diese Einschätzung bedarf es einer großen Mengen an Daten des Verhaltens von Passant:innen im öffentlichen Raum, die bislang in der benötigten Form und Qualität nicht vorliegen.

Die grundlegende Intention des Forschungsprojektes ist es, die für die Akzeptanz zentralen Parameter des Einsatzes autonomer Lieferroboter im öffentlichen Raum wie Größe, Geschwindigkeit und Abstand zu bestimmen und zudem über eine systematische Datenerhebung Interaktionsmuster und objektive Rahmenbedingungen zu konkretisieren. In zwei prototypischen urbanen Testgebieten in Gera und Freiberg wird der Einsatz der Roboter bis zum Herbst 2023 erprobt und zugleich die Reaktion der Umgebung, also der Umgang der Passant:innen mit den Robotern, gesichtet und wissenschaftlich ausgewertet. Durch die langfristige Anlage der Testphasen können verschiedene Szenarien von Licht- und Wetterverhältnissen bis hin zum unterschiedlichem Aufkommen von Passant:innen einbezogen und somit das Bild der gewonnen Daten diversifiziert und vervollständigt werden. So entsteht eine belastbare Datenlage, die weiteren Forschungsvorhaben als sicherer Ausgangspunkt dienen kann.

Die Schwere des scheinbar Leichten

Die Konstruktion solcher Roboter und die Automatie ihrer Bewegung im Raum ist dabei alles andere als ein unterkomplexes Problem. Nur als ein Beispiel wird hier auf die Herausforderung der räumlichen Wahrnehmung kurz eingegangen. Zunächst erkennen Transportroboter ihre Umwelt – neben anderen Sensoren – wenig überraschend mit Hilfe von Kameras. Aber schon wird es schwierig und wir Menschen müssen uns von unserem Zugang zur Welt trennen: Die von den Kameras erzeugten Bilder sind zunächst zweidimensionale Flächen, denen die dritte Dimension, also der Raum, fehlt. Wir müssen uns dies als ein klassisches Foto denken, auf dem alles zunächst auf einer Ebene liegt. Um hierin weitere Dimension wie den Raum und die Zeit einzutragen, die beide für das Abschätzen von Bewegungen zentral sind, bedarf es wiederum technischer Lösungen.

Austausch zweier Personen beim Workshop
Austausch beim Workshop

Ein Weg, die dritte Dimension zu integrieren, ist die Verwendung zweier Kameras und eine daran anschließende computergestützte Verarbeitung. Durch die so gewonnene Räumlichkeit lassen sich Distanzen und Bewegungen einschätzen, auch wenn es hierfür wiederum komplexer Prozesse der Datenverarbeitung bedarf, was wiederum einen Zusatz an technischem Aufwand mit sich führt. Zugleich sind im Straßenverkehr das Tempo und die Genauigkeit der Berechnung relevante Faktoren um Unfälle vorab zu vermeiden. Was also zunächst einfach klingt – die Wahrnehmung der Umwelt – entpuppt sich als eine komplizierte technische Aufgabe.

Teile des Ganzen

Zum einen befassen sich die RoboTracers mit der technischen Realisierung der Transportroboter: Wie müssen diesen für den urbanen Raum aufgebaut und gestaltet sein, um ihre Aufgaben optimal erfüllen zu können? Neben Fragen der Größe, der möglichen Reichweite und Traglast geht es auch um die Rahmenbedingungen der Infrastruktur, die in Hindernissen wie Bordsteinen, Schrägen und Löchern sowie fehlender Beleuchtung bestehen können. Auf was, für welche Situationen muss ein Lieferroboter im Zweifel vorbereitet sein? Auch Fragen wie jene der benötigten Breite der Wege spielen hier eine Rolle.

Testfahrt Lieferrobotor, begleitet von zwei Personen
Testfahrt in Freiberg

Zum anderen geht es dem Projekt um die Erhebung von Daten, die den Einsatz der Roboter unter realistischen Bedingungen abbilden und als Grundlage für die weitere Entwicklung dienen können. Die Frage ist, welches Set an Sensoren hier die notwenigen Daten über die Umgebungserfassung und das Verhalten der Passanten liefern. Ferner bedarf es komplexer Bearbeitungsprozesse, um aus einer reinen, ungeordneten und im Zweifel recht umfänglichen Sammlung an Daten nutzvolle Informationen zu selektieren.

Der dritte Teil stellt dann die Mensch-Maschinen-Beziehung in ihr Zentrum: Wie lassen sich Kriterien und Parameter eines subjektiven Sicherheitsgefühls in ein tragfähiges Akzeptanzmodell überführen? Wie müssen die Roboter aussehen und wie sollten sie sich bewegen, um einerseits nicht als potentielles Risiko oder eine Gefahrenquelle wahrgenommen zu werden und andererseits im Fußgängerverkehr nicht unterzugehen? Um sich der Interaktion zwischen Passant:innen und den Mikromobilen anzunähern, werden die Testfahrten begleitet und die Reaktionen der Umgebung videographisch festgehalten, um in einem nächsten Schritt ausgewertet zu werden. Wie es grundlegende Ansätze der Forschung an sich haben, bedarf es auch hier zunächst der Entwicklung von Maßstäben und Kriterien der Bewertung, um über diese dann weitere, vertiefende Studien ausführen zu können.

Gruppe von Menschen begleitet Testfahrt
Testfahrt in Freiberg

Nicht zuletzt geht es dem Projekt auch um die Klärung, ob und wie rechtliche Rahmenbedingungen für diese Form der Logistik notwendig sind und wie diese ausgestaltet werden müssen. Um die Fragen gesetzlicher Anpassungen im Straßenverkehrs-, Haftungs- und Datenschutzrecht eruieren zu können werden auch die Erkenntnisse aus den anderen Bereichen herangezogen. Dies soll den Weg ebnen für den späterem Einsatz der Lieferroboter und administrative Genehmigungsverfahren als Grundlage dienen.

Über die Beteiligten

Prof. Frank Schrödel hat die Professor für Antriebs-, Automatisierungs- und Robotertechnik an der Hochschule Schmalkalden inne, die an der Fakultät für Maschinenbau angesiedelt ist. Die Leitthemen seiner Forschung sind das autonome Fahren, die Industrie 4.0 und Social Robots. Die Klärung der rechtlichen Aspekte übernimmt Prof. Ulf Müller aus dem Bereich Wirtschaftsrecht an der HSM. Er ist zudem Teil des Forschungsschwerpunktes „Rechtsordnung der digitalen, nachhaltigen und standardisierten Wirtschaft und Gesellschaft“, was die Nähe zum RoboTrace-Projekt nochmals verdeutlicht.

Prof. Frank Schrödel

An der Technischen Universität Bergakademie Freiberg hat Prof. Sebastian Zug die Professur für Softwaretechnologie und Robotik und ist zugleich an der Arbeitsgruppe Softwareentwicklung und Robotik beteiligt. Seine Forschungsschwerpunkte im Horizont mobiler Systeme liegen auf der robusten Umgebungserfassung und Erreichbarkeitsanalysen in realen Szenarien.

Prof. Sebastian Zug

Neben wissenschaftlichen Mitarbeitenden und Partnern aus Politik und Wirtschaft lässt sich die Einbindung von Assistant Professor Felix Wilhelm Siebert hervorheben, der an der Technischen Universität Dänemark im Bereich der Verkehrspsychologie forscht. Neben der Experimentalpsychologie widmet er sich Mensch-Maschinen-Verhältnissen und Fragen der Fahrzeug- sowie Verkehrssicherheit.

Assistant Professor Felix Wilhelm Siebert

Zum Abschluss kann noch auf ein Video der Allianz ThürIng verwiesen werden, das aus Anlass des Workshops entstanden ist:

Wir bedanken uns für die finanzielle Unterstützung des Projektes durch das Bundesministerium für Digitales und Verkehr unter dem Förderkennzeichen 19F1117A (Förderprogramm mFUND).

Mensch – Interaktion – Technologie: Über einen Forschungsschwerpunkt an der Hochschule Schmalkalden

Mensch – Interaktion – Technologie: Über einen Forschungsschwerpunkt an der Hochschule Schmalkalden

An der HSM gründete sich jüngst ein interdisziplinärer Forschungsschwerpunkt mit dem programmatischen Titel „Mensch – Interaktion – Technologie“, kurz MIT. Die drei das Projekt tragenden WissenschaftlerInnen stellen verschiedene gesellschaftlich relevante Herausforderungen unserer digitalen Moderne in den Fokus ihrer Forschung: Wie lassen sich menschenzentrierte, interaktive Technologien als physische und virtuelle Ressourcen nutzen? Wie kann eine schwellenarme Kommunikation zwischen Mensch und Maschine im Alltags- und Arbeitsleben organisiert werden und wie lässt sich diese Beziehung in Zukunft weiter optimieren?

Offene Horizonte der digitalen Moderne

Wie wird die Welt von morgen aussehen? Verglichen mit dem Gestern ist zu vermuten, dass die Momente der Digitalisierung und Automatisierung ebenso anhalten wie die Durchdringung unserer Alltags- und Arbeitswelten mit hochkomplexen Geräten und Applikationen. Technologische Innovationen nehmen sich demgemäß als hilfreiche Stützen und Erweiterungen unserer Handlungs- und Kommunikationsmöglichkeiten aus, deren zukünftige Potentiale gegenwärtig noch kaum abschätzbar sind.

Die Veränderungen gewinnen nur langsam Kontur, zeitigen aber bereits heute markante Einschnitte im Alltag, wie es an der Bedeutung von Smartphones deutlich wird. Aber auch in anderen Bereichen wie der Automatisierung der Logistik und der unterstützenden Robotik in der Pflege wird die Transformation zunehmend greifbar.

Interdisziplinarität als Schlüssel

Mensch – Interaktion – Technologie: Dieses Dreiecksverhältnis steht im Fokus eines Forschungsschwerpunktes an der Hochschule Schmalkalden. Innovative Technologien wie Roboter, Interfaces und auch Applikationen können Menschen in ihrem Alltag ebenso unterstützen wie in ihrem Arbeitsleben entlasten. So könnte ein Großteil monotoner, industrieller Routinearbeiten und viele Warentransporte zukünftig von autonomen Maschinen übernommen werden. Kurzum geht es darum, das Arbeiten der Menschen einfacher und ihr Leben leichter zu machen. Damit die technischen Angebote allerdings ihre Potentiale vollends ausschöpfen können, müssen sie von den Menschen angenommen und in ihr Leben, Arbeiten und Handeln integriert werden.

Um die Beziehung von Mensch und Technik zu verstehen, ist ein interdisziplinärer Zugang geboten, der verschiedene Fachbereiche wie Maschinenbau, Informatik und Psychologie kooperativ verbindet. Die Vielfältigkeit der je eigenen Perspektiven und Methoden erlaubt es, das Phänomen aus verschiedenen Blickwinkeln zu beleuchten und in seinen Facetten zu erhellen. Die Disziplinen verschränken sich also konstruktiv in ihrem leitenden Erkenntnisinteresse, dem Verhältnis von Mensch, Interaktion und Technologie.

Zwischen Mensch und Maschine

Die Möglichkeiten technischer Innovation treffen auf Erfahrungen und Wertmaßstäbe von Individuen: Wie entsteht Vertrauen? Oder schwächer: Wie lassen sich abwehrende Affekte vermeiden, Berührungsängste abbauen? Welche Optik, welche Geschwindigkeit müssen technische Geräte wie Lieferroboter aufweisen, um beispielsweise im Straßenverkehr nicht als Hindernis wahrgenommen zu werden? Welche Schwellen stören die Interaktion, welcher bedarf es? Aber auch anderes herum: Wie kann Technik menschliches Verhalten besser einschätzen lernen, wie angemessener reagieren? Genau um diese Beziehung kommunikativer Interaktion von Mensch und Maschine geht es dem Forschungsschwerpunkt an der Hochschule Schmalkalden.

Abseits der Frage der technischen Realisierbarkeit ist es also von ebensolcher Relevanz, wie Individuen und Gesellschaften auf die Veränderungen und Umbrüche, die mit neuen Technologien einhergehen, reagieren: Was technisch möglich und umsetzbar ist, muss ebenso im Fokus stehen wie ein Verständnis dessen, wie Menschen mit den Apparaten umgehen, was sie von den angebotenen Lösungen erwarten und was es ihnen erleichtert, auf die Unterstützung von Maschinen zurückzugreifen. Im Blick des MIT sollen demzufolge nicht nur innovative Geräte und Applikationen stehen, sondern auch der individuelle und soziale Umgang mit diesen Technologien.

Die beteiligten ForscherInnen

Prof. Hartmut Seichter lehrt seit 2014 an der Fakultät Informatik auf dem Gebiet der Computergrafik. Er forscht zu den Themen Augmented Reality, Virtual Reality, Emerging Interfaces, Digital Design, 3D Modellierung und 3D Rekonstruktionen.

Prof. Lenka Duranova lehrt seit 2021 als Professorin für Wirtschaftspsychologie an der Fakultät Wirtschaftswissenschaften. Aktuell forscht sie zu Erholung und Wohlbefinden von Beschäftigten in der digitalisierten Arbeitswelt. Darunter fallen Themen wie Technologie-Anforderungen, Informationsflut, ständige Erreichbarkeit, Technostress, Telepressure, Selbstregulation, Schlafqualität, Arbeitszufriedenheit, Mitarbeiterbindung und Produktivität.

Prof. Frank Schrödel lehrt seit 2020 als Professor für Automatisierungstechnik und Robotik an der Fakultät Maschinenbau. Er forscht zum Thema Autonomes Fahren, Industrie 4.0 und Social Robots. Hierbei nehmen zwei Themen eine zentrale Rolle ein: Feinfühlige Roboter und selbstoptimierende Automatisierungslösungen.

Organe, Pumpen und künstliche Körper. Über den Beitrag des TEAG-Preisträgers Lukas Hauck zum Transport von Organen

Organe, Pumpen und künstliche Körper. Über den Beitrag des TEAG-Preisträgers Lukas Hauck zum Transport von Organen

Denken wir an Organspenden, sehen wir Bilder von Operationssälen vor uns, Bilder von technischem Gerät und sterilem Instrumentarium, Bilder von ebenso konzentriertem wie angespanntem medizinischem Personal in grünen und blauen Kitteln. Es geht dabei um viel: Die entnommenen Transplantate helfen Menschen, deren Organe nicht mehr oder nur noch unzureichend arbeiten. Durch den medizinischen Eingriff und den Ersatz ihrer Herzen und Lungenflügel, ihrer Nieren und Lebern, kann häufig das Leben der Betroffenen nicht nur verbessert, sondern oftmals gar gerettet werden.

Die klassische Organspende – Kalt, aber funktional

Ab von den bekannten Bildern gibt es auch bei diesem Thema Bereiche, die zwar ein gewisses Schattendasein fristen, aber von höchster Relevanz für die Organisation und den Erfolg von Organspenden sind. Transplantationen müssen nicht nur möglichst zügig, also innerhalb weniger Stunden, vollzogen und von einem professionellen, stets abrufbereiten Team vorgenommen werden, sie müssen auch jene räumliche Distanz überwinden, die häufig zwischen den Personen des Spenders und jener des Empfängers liegt. Somit stellt sich die Aufgabe, Organe zu transportieren, möglichst schnell und sicher.

Der Goldstandard der Organverbringung ist bislang der Kalttransport, bei dem die Organe in einer speziellen Lösung gekühlt in besonderen Styroporboxen ihre mal nahe, mal ferne Reise antreten. Kurz gefasst werden die Organe bislang vom Blutkreislauf abgekoppelt, bei vier Grad Celsius in den Transportboxen gekühlt und innerhalb weniger Stunden zum Transplantationszentrum gebracht, um dann schnellstmöglich implantiert zu werden. Auch wenn diese Lagerungs- und Transportart ihre Aufgabe grundsätzlich erfüllt und sich bewährt hat, hat sie doch auch gewisse Nachteile. Die Kühlung dient dazu, die organischen Funktionen, also den Stoffwechsel, zu verlangsamen und somit die Schädigung des jeweiligen Organs, die mit der Sauerstoff- und Nährstoffunterversorgung einhergeht, zu minimieren, wobei sie diese nicht vollständig aufzuhalten vermag. Auch wenn die Vorteile der kalten Variante von Lagerung und Transport auf der Hand liegen, ist diese Methode doch einfach, praktisch und günstig und gewährleistet das sichere Präservieren von Standardorganen, hat sie gleichzeitig die Nachteile, die metabolische Depletion, also die Erschöpfungserscheinungen in Folge des anhaltenden Stoffwechsels, und die Schäden durch fehlende oder ungenügende Durchblutung (Ischämie) nicht komplett verhindern zu können. Hinzu kommt, dass im Zustand der Kaltlagerung eine exakte Untersuchung der Funktionsfähigkeit des Organs kaum möglich ist.

Lukas Hauck in der Celarius-Bibliothek

Die Maschinenperfusion – Erhaltende Ströme

Seit jüngerer Zeit gibt es auf dem Gebiet der Organspende eine Neuerung, die Maschinenperfusion. Kurz gefasst geht es darum, die Organe nicht in 4°C kalter Flüssigkeit zu lagern, sondern in einer Art künstlichen Körper: Dieser besteht schlicht in einer Maschine, die den Stoffwechsel des Organs durch entsprechende Ein- und Ausgänge weiter am Laufen hält, indem es den Aufbau und Ablauf des menschlichen Organismus imitiert. Der entscheidende Vorteil dieser maschinellen Pumpen ist zum einen, dass die organische Zersetzung gestoppt werden kann, arbeitet das Organ doch wie gewöhnlich. Zum anderen kann das Organ durch Spülungen nicht nur gereinigt, sondern selbst auf zellulärer Ebene mit Sauerstoff angereichert werden. So wird das Organ in einen idealen Zustand versetzt, was seine folgende Transplantation erleichtert. Auch die Kontrolle der Güte des Organs ist hier möglich, lässt es sich doch bei der Arbeit beobachten. Diese Methode findet mittlerweile auch in deutschen Krankenhäusern mehr und mehr Anwendung, wobei sie in europäischen Nachbarnationen schon weit verbreitet bishin zum klinischen Standard ist. Grundsätzlich sind zwei Varianten zu unterscheiden, die normo- und die hypotherme Maschinenperfusion: Der Unterschied liegt in der Temperierung, einerseits bei normaler Körpertemperatur und andererseits bei niedrigen Temperaturen im 4°C Bereich.

Die Größe der klassischen Perfusionsmaschinen im stationären Gebrauch vor Augen ist das Problem des Transportes offenkundig: Wie müssen Transportboxen gestaltet werden, um gleichzeitig mobil zu sein und die Rahmenbedingungen zu bieten, die die Perfusion benötigt? Lukas Hauck, mittlerweile Masterstudent an der Hochschule Schmalkalden, konnte dieser Aufgabe im Zuge der Erstellung seiner Bachelorarbeit bei der senetics healthcare group GmbH & Co. KG in Ansbach nachgehen. Das innovative und interdisziplinäre Dienstleistungsunternehmen widmet sich einem breiten Spektrum von Aufgaben im Bereich der Medizintechnik, das vom konzeptionellen Design über die Fertigung von Prototypen bis hin zu Fragen der Zulassung medizinischer Produkte reicht. Im Rahmen des DeLiver[i]– Projektes bestand die Aufgabe des Unternehmens in einer Machbarkeitsstudie: Wie lassen sich die funktionalen Aufgaben einer solchen Transportbox technisch realisieren und wie können die regulatorischen und normativen Vorgaben, die mit der Zulassung einhergehen, erfüllt werden[BT1] ?

Gerade bei Lebertransplantaten ist der Nutzen der Maschinenperfusion offensichtlich: Gespendete Lebern weisen oft Mängel auf, die durch den klassischen Transport zunehmen, wodurch letztlich eine Vielzahl an Lebern unbrauchbar werden würden. Zugleich ist der Bedarf an Lebertransplantaten gestiegen und kann kaum mehr gedeckt werden. Eine 2018 im Fachmagazin Natur veröffentliche Studie mit 220 Lebertransplantationen zeigte, dass die Raten von Transplantatschäden und verworfenen Organen bei der normothermen Maschinenperfusion von Spenderlebern im Vergleich zur kalten Lagerung um 50 % niedrigerer liegt. Zugleich, und dies ist ein für den Transport zentrales Kriterium, lässt sich die mittlere Lagerungszeit ohne negative Auswirkungen auf das Organ um 54 % verlängern.[ii]Die Maschinenperfusion kann also helfen, die Qualität, aber vor allem die Quantität der verfügbaren Organe wie Lebern in einem beachtlichen Maße zu steigern und so dem anhaltenden Organmangel entgegenzuwirken.[iii]

Vom Reißbrett auf dem Weg in die Wirklichkeit

Hauck wurde im Unternehmen direkt eingebunden und mit der Lösung der Aufgabe der Elektronik und Sensorik betraut: Hierbei ging es darum, Mittel und Wege zu finden, das Berechnungsmodell eines Temperierungskonzeptes der Transportbox technisch umzusetzen. Fragen waren: Wie und wo muss die Temperatur gemessen werden, wie lässt sich die Temperatur effizient kontrollieren, wie kann der Bedarf an Energie minimiert werden, was ist die notwendige Heizleistung, welche Energiequellen sind nötig? Im Unterschied zum passiven System des Kalttransports brauchen aktive Systeme wie die der Perfusionsmaschinen eine gesicherte, stabile Energieversorgung: Weil die Temperatur selbst nur um wenige Grade schwanken darf, muss die Sensorik nicht nur fein sein, sie muss auch an verschiedenen Stellen messen und die Temperatur schnell regeln können. Auf kleinerem Raum hieß es, die elektronischen Bauteile wie Sensoren in die Transportkiste zu integrieren und diese zugleich in ihren Maßen kompakt zu halten. Daneben stellten sich auch ganz lebensnahe praktische Probleme: Wie mit den verschiedenen Stromanschlüssen umgehen, die es in Krankenhäusern, Autos und Flugzeugen gibt?

Das Projekt DeLiver, gefördert vom Bundesministerium für Wirtschaft und Energie, an dem sich neben senetics auch weitere Firmen der Healthtech und auch die Technische Hochschule Köln beteiligten, will einen sicheren Transport des Organs von der Entnahme bis zur Transplantation in einen Empfänger ermöglichen, währenddessen das Organ perfundiert und oxygeniert wird.[iv] Neben der technischen Machbarkeit war auch die Wirtschaftlichkeit eine Herausforderung: Anders als die Styroporboxen des klassischen Transports sind die komplexen Bauteile, wie sie die mobilen Maschinen sind, zu teuer, um komplett als Einmalprodukt gestaltet zu werden. Das System soll also einen großen Anteil an wiederverwendbaren Teilen haben und nur diejenigen Teile, welche in direkten Kontakt mit organischem Material kommen, sollen durch den Anwender unkompliziert zu wechseln sein. Die Wiederverwendbarkeit macht also ebenso ökonomisch wie ökologisch Sinn, schafft aber neue Aufgaben, die die involvierten IngenieurInnen lösen mussten.

Lukas Hauck fand in Ansbach ein bereicherndes und hilfsbereites Arbeitsumfeld, das ihm die Freiheit gab, zu tüfteln, wie ein hilfsbereites Geländer, falls er mal nicht weiterkam. Die Möglichkeit, sich im Rahmen von Abschlussarbeiten in die (inter-)nationalen Förderprojekte eines Unternehmens einzubringen und von den praktischen Erfahrungen angewandter Wissenschaft zu profitieren, bietet senetics auch weiter Studierenden aus dem Bereich der Medizintechnik gerne an.[v] Aber auch die Betreuung an der Hochschule tat das ihrige, Haucks Forschung produktiv zu unterstützen. Am Ende des Praktikums entstand zu diesem Thema an der Hochschule Schmalkalden eine Bachelorarbeit, die jüngst mit dem TEAG-Förderpreis ausgezeichnet wurde. Die Laudatio zur Übergabe, die Teil der feierlichen Immatrikulation 2022 war, hielt Prof. Roy Knechtel, der auch der Betreuer des Preisträgers an der Hochschule Schmalkalden war.

__________________________


[i] Näheres zum Projekt des DeLiver Lebertransportsystems: https://senetics.de/one-stop-shop-dienstleistungen-medizintechnik/foerderprojekte/deliver/

[ii] https://www.transplant-campus.de/nierentransplantation-lebertransplantation-herztransplantation-highlights/lebertransplantation/lebertransplantation-journal-club/normotherme-maschinenperfusion-bei-lebertransplantation/

[iii] Ein sehenswerter Vortrag: Maschinenperfusion in der Lebertransplantation Deutschland, Georg Lurje, Leipzig, DCK 2022. [https://www.youtube.com/watch?v=DgKegrG3Lno]

[iv] https://www.th-koeln.de/hochschule/kick-off-veranstaltung-des-neuen-forschungsprojektes-deliver_68509.php

[v] Ansprechpartner bei Senetics sind:

Dr. Wolfgang Sening // CEO // Mail: wolfgang.sening@senetics.de // Tel: +49 981 9724 795 – 0

Philip Eschenbacher, M.Sc. // Head of R&D // Mail: philip.eschenbacher@senetics.de // Tel: +49 981 9724 795 – 0