Daten, Archive und Analysen: Was ist Data Analytics?

Daten, Archive und Analysen: Was ist Data Analytics?

Mit der Sammlung von Daten, dem umgangssprachlichen Gold unseres Zeitalters, haben wir uns schon oft befasst. Die Unmenge an Datenmaterial, die infolge der Digitalisierung unter anderem der industriellen Produktion und Teilen der menschlichen Kommunikation zur Verfügung steht, eröffnet unserer Gegenwart völlig neue Wege und Tiefen der Analyse. Kurzum erlauben es die Expansivität moderner Sensorik und die Steigerung der Rechenleistung und Verarbeitungskapazitäten, große Mengen an Informationen aufzunehmen, zu ordnen und Erkenntnisse aus den gesammelten Daten zu gewinnen.

Mit dieser Entwicklung erlangt der spezifische Forschungsbereich der Data Analytics immer mehr an Bedeutung. Hierbei geht es um die Werkzeuge, die Technologien und Prozesse, mit deren Hilfe Muster, Verläufe und Problemlösungen gestützt auf ein Konvolut an Daten ermittelt werden können. Neben der eigentlichen analytischen Auswertung ist die Sicherung der Qualität der Datensätze und eine effiziente Archivverwaltung für die weiteren Schritte elementar.

Können elektrische Schafe halluzinieren?

Mit der Verbreitung KI-gestützter Technologien traten Phänomene in den Fokus der Öffentlichkeit, die der Data Analytics thematisch nahestehen: Infrage steht vereinfacht formuliert, ob zum Beispiel Chat GPT lügen kann. Bei manchen Anfragen kam es zu Ausgaben, die schlicht falsch waren, unter anderem ganz offensichtlicher Fehlurteile wie die Anzahl bestimmter Buchstaben in einem Wort. Dieses Phänomen wurde als Halluzination beschrieben und erhielt einige Aufmerksamkeit: Die Ermittlung der Ursache der Fehlausgabe hatte das Problem der Komplexität des Programms, aber nicht nur der Architektur der künstlichen Intelligenz mit seinen Legionen an Knotenpunkten und Schichten, sondern auch in Hinsicht der Datenmengen und deren komplexer Verwaltung. Letzterer Aspekt zielt auf die Archivstrukturen und den Umgang mit den riesigen Datenmengen und -banken, die großen Sprachmodellen wie Chat GPT für den Trainingsprozess zugrunde liegen.

Neben der Frage, warum diese Fehler überhaupt aufkamen, war auch offen, an welchen Zeitpunkt sie entstanden. Die Programme selbst waren selbstredend nicht zur Ausgabe falscher Antworten angehalten, gleichwohl verlangt der Umgang mit der natürlichen Sprache und manche Formen der Anwendung eine gewisse Qualität der Kreativität, also der Dehnung und Übertragung, die die Programme leisten müssen. Zum Beispiel bei dem Wunsch, den dritten Akt von Romeo und Julia in der Sprache modernen Ostküsten-HipHops zu reformulieren – ein solches Werk existiert bislang nicht, das Modell muss also selbst kreativ werden um diese Anfrage zu beantworten. Es werden große Anstrengungen unternommen, die Anzahl der Halluzinationen von Modellen zu minimieren, was auch die Relevanz zeigt, wie Daten verwertet und verarbeitet, Datensätze gereinigt oder auch korrumpierte Daten aussortiert oder gerettet werden. Und weiter, wie komplexe Technologien mit einem Gros an Datensätzen interagieren. Und hier setzt die Data Analytics an.

Was ist Data Analytics?

Die Data Analytics befasst sich mit der Analyse von Daten und deren Auswertung zu unterschiedlichen Zwecken. Sie ist ein multidisziplinäres Forschungsfeld zwischen der Informatik, der Mathematik und der Statistik sowie weiterer Bereiche, die produktiv verknüpft werden. Generell lässt sich die Data Analytics in vier Ansätze unterteilen: Die deskriptive Analyse versucht zu beschreiben, welche Veränderungen bereits geschehen sind. Dagegen zielt die diagnostische Analytik auf eine Erklärung, warum etwas wie passiert ist. Die letzten beiden Zugänge schlagen eine andere Richtung ein: Aus den Daten Prognosen über zukünftige Entwicklungen abzuleiten ist das Ziel der prädiktiven Analysen. Diese Prognose wird im Falle der präskriptiven Analytik noch durch die optimale Reaktion ergänzt. Die unterschiedlichen Ansätze verfolgen nicht nur verschiedene Ziele, sie gehen auch anders mit den Daten um und haben differenzierte Ansprüche an die Daten.

Seit gut zwei Jahren hat Constantin Pohl die Professur für „Data Analytics“ an der Fakultät für Informatik der Hochschule Schmalkalden inne und nutzt die Gelegenheit seiner Antrittsvorlesung, ein Licht auf verschiedene Facetten seiner Forschung und seiner Lehre zu werfen. Bereits in seiner Dissertation befasste er sich mit der Frage, wie sich moderne Hardware zur Beschleunigung von Datenbank-Anfragen optimal nutzen ließe. Anders formuliert war das Thema, wie Datenverwaltungen strukturiert und organisiert sein müssen, um Ressourcen und Kapazitäten bedarfsgerecht zu nutzen und Suchanfragen effizient zu verarbeiten. Die Datenmengen auf Servern nehmen einerseits beständig zu und macht Suchvorgänge aufwändiger und langsamer, zugleich erlauben die vielen Kerne moderner Prozessoren über das Multithreading parallele Verarbeitungen. So gilt es, Managementsystem für Datenbanken und Datenströme zu entwickeln, die den neuen Anforderungen gerecht werden und zudem die technischen Möglichkeiten optimal nutzen.

Öl-Druck und Reparaturzyklen

In einem zurückliegenden Forschungsprojekt widmete sich Constantin Pohl der Frage, wie KI-Modelle für die Wartung von industriellen Anlagen und Maschinen wie einem Druckluftkompressor genutzt werden können. Das Ziel ist, Wartungsarbeiten an Verschleißteilen nicht mehr an fixen Zeitpunkten oder nach Werkzeugausfällen anzusetzen, sondern vorausschauend anhand konkreter und in Echtzeit erhobener Daten der laufenden Maschinen. Um diese Optimierung zu realisieren ist eine Prognose wichtig: Anhand von Sensordaten sollen Aussagen über die Zukunft getroffen werden, zum Beispiel das ein Filter noch 22 Stunden halten wird, bevor er gewechselt werden sollte. Hieran ließen sich dann entsprechende Reparaturmaßnahmen orientieren.

Die Ausgangsbasis sind wieder verschiedene Sensoren, welche die Maschinen anhand unterschiedlicher Parameter vermessen. In dem konkreten Projekt wurden 26 Merkmale sensorisch erfasst, neben der Temperatur und der Ölqualität auch der Differenzdruck zwischen verschiedenen Filtern. Bevor mit diesen Daten aber Aussagen getroffen werden können, mussten die Algorithmen anhand der Ausfälle der Kompressoren trainiert werden. In Regressionsmodellen wurden unterschiedliche vorverarbeitete und ausgewählte Datenmengen genutzt, um Ausfälle vorherzusagen. Wichtig ist dabei zu verstehen, dass es hier nicht um eine Größe wie die Temperatur ging, um diese Prognose zu machen: Die Modelle berücksichtigen viele Daten und ihre Verläufe, auch über eine längere Zeit, und verknüpften diese zugleich. Diese komplexen Berechnungen sind die spezifischen Leistungen der KI-Modelle, die zur Erkennung von Mustern und Strukturen sowie Abweichungen geeignet sind.

Am Ende des Projektes ließ sich die Prognostizierbarkeit grundsätzlich umsetzen. Mit einem entwickelten Ölsensor und der Nutzung der regulären Sensorik konnten die fehlerhaften Vorhersagen auf 0,09% reduziert werden. Auch die maximalen Abweichungen waren bei einer Gesamtzahl 158.000 Vorhersagen nur in einem Fall bei sechs Tagen und ansonsten bei einem Tag. Der entscheidende Faktor für die erfolgreiche Ermittlung und Prognose ist der Ölsensor.

Datenströme

Neben dieser Thematik befasst sich Professor Pohl auch mit Fragen des Stream Processing: In der Datenverarbeitung lassen sich zwei Ansätze unterscheiden, die sich für verschiedene Anwendungen und Ziele eignen. Der klassische Weg ist die Paketlösung: In einem bestimmten Zeitraum werden Daten erfasst und dann als Block archiviert. Im Anschluss können diese Daten verarbeitet und ausgewertet werden. Offensichtlich ist hierbei die große Latenz, also die Zeitspanne, die zwischen der Messung und den Ergebnissen einer Auswertung steht. Das Stream Processing zielt dagegen auf die Auswertung der Datenströme in Echtzeit, wobei durch diesen Fokus andere Imperative der Verarbeitung wichtig werden.

Die Analyse von Datenströmen steht vor der Herausforderung, eine permanente Aufnahme und Verarbeitung zu gewährleisten. Die Auslastung muss so gestaltet werden, dass durch die Interaktion verschiedener Komponenten keine Flaschenhälse oder Stausituationen entstehen. Kurzum geht es darum, effiziente Strukturen zu etablieren, die eine möglichst permanente und effiziente Verteilung und Verarbeitung erlauben und die Kapazitäten entsprechend nutzen.

Constantin Pohl befasst sich mit der Entwicklung und Erprobung von Stream Processing Engines. Im konkreten Fall ging es um die Vorhersage des Zielhafens und der Ankunftszeit. Die pendelnden Schiffe geben während ihren Reisen permanent Informationen weiter, zum Beispiel über ihre Position, ihre Geschwindigkeit und den Schiffstyp, die in einem komplexen Modell für Vorsagen ihrer Zielhäfen genutzt werden können. Kurzum bietet sich so die Möglichkeit, über eine Einschätzung einer komplexen Sachlage mit vielen Akteuren und zu beachtenden Parametern Strategien der Optimierung der Zielhäfen zu entwickeln.

Fußstapfen

Constantin Pohl hat bislang noch eine Juniorprofessur an der Hochschule Schmalkalden, die im Rahmen des bundesweiten Projektes „FH-Personal“ geschaffen wurde. Mit seiner Berufung wurde die Professur von Martin Golz zu einer Schwerpunktprofessur, die es diesem erlaubt, das Lehrdeputat zu senken und sich vermehrt der Forschung zu widmen.

Professor Pohl kann seine Arbeit in einem laufenden Lehr- und Forschungsbetrieb aufnehmen und den Lehrstuhl intensiv kennenlernen. Ziel ist es, die Reibungsverluste zu minimieren und durch geteilte Wege strukturelle Kontinuitäten zu etablieren. Er unterrichtet neben Grundlagen der Daten- und Wissensverarbeitung auch Deep Learning Architekturen und Wissensentdeckung in Datenbanken. Als Mitglied im Prüfungsausschuss der Fakultät Informatik widmet er sich gemeinsam mit den anderen Mitgliedern den Problemen der Studierenden in Prüfungsangelegenheiten. Auch am Hochschulinformationstag und dem Absolvententreffen stellte er sich und seine Forschung dem interessierten Publikum vor.

Der 3.E-Science Day an der Hochschule Schmalkalden

Der 3.E-Science Day an der Hochschule Schmalkalden

Zum nunmehr dritten Mal wurde von der Fakultät der Elektrotechnik zum E-Science Day geladen. Ziel dieser Veranstaltung ist es zunächst, einen Überblick über die Forschungsaktivitäten an der Fakultät, also über unterschiedliche aktuelle Themen und Projekte, zu geben. Zudem werden Kooperationspartner aus der Wirtschaft und von wissenschaftlichen Institutionen eingeladen und können sich vorstellen. Ferner besteht der Zweck des E-Science Days darin, die Öffentlichkeit von der Schmalkalder Stadtgesellschaft bis hin zu jungen Menschen, die gerade auf der Suche nach einem passenden Studiengang sind, aufmerksam und neugierig auf die Forschungsthemen und -vorhaben zu machen.

Messstationen, Künstliche Intelligenz und Computerchips

Nach der Begrüßung durch die Professoren Roy Knechtel und Silvio Bachmann im Namen der Fakultät Elektrotechnik wurde der erste Vortrag von Professor  Martin Schreivogel gehalten, der an der HSM die Professur für die Grundlagen der Elektrotechnik innehat. Dieser nutzte die Gelegenheit nicht nur dazu, kurz in das Thema der Gassensorik einzuführen, sondern auch, ein Projekt zur Luftgütevermessung via kompakter Messboxen vorzustellen. Das zu lösende Problem war die Ermittlung der Luftgüte in Innenstädten: Anstelle von punktuellen Messungen ist es für eine Beurteilung zweckmäßiger, über viele, im Stadtraum verteilte Messstationen ein detailliertes und dynamisches Bild der Verteilung zu erhalten, also die Luftströme und die Effekte der städtischen Architektur mit in Betracht zu ziehen. Hierfür waren ebenso viele technische Herausforderungen der Sensorik insbesondere hinsichtlich der Kompaktheit der Geräte sowie die Kosteneffizienz zu meistern, die eine Vielzahl solcher Stationen erst möglich macht. Zudem umriss Martin Schreivogel ein aktuelles Vorhaben, das in der Optimierung bereits laufender Wasserstoffanlagen besteht. Eine der zentralen Aufgabe der Energiewende ist die Speicherung und der Transport von Energie, und eine Lösung dafür ist die Transformation in Wasserstoff. Die Forschungsfrage ist nun, wie sich die Prozesse der Elektrolyse unter Realbedingungen optimieren lassen.

Im Anschluss gaben Professorin Maria Schweigel, Inhaberin der Professur für autonome Systeme, und Lisa Schneeweiß einen Einblick in den aktuellen Forschungsstand des Projektes BauKIRo. Dieses Forschungsvorhaben findet in Zusammenarbeit mit dem Lehrstuhl FAPS der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) über eine industrielle Gemeinschaftsforschung mit dem Deutschen Beton- und Bautechnik-Verein E.V. (DBV) statt und wird vom BMWK gefördert. Die Idee hinter dem Projekt ist digitale Herstellung von Bauplänen, für deren Vermessung nicht nur Drohnen, sondern auch Applikationen genutzt werden, die auf künstliche Intelligenz zurückgreifen. Ein Zwischenergebnis besteht in der Notwendigkeit, die Drohnen, die den Baufortschritt prüfen und dokumentieren sollen, auf die spezifische Umgebung sich im Bau befindlicher Gebäude anzupassen. Hierbei geht es zum Beispiel um die Gefahr, die von herumhängenden Kabeln verursacht werden. Ein anderes Problem ist die Datenverarbeitung der Bilder, wodurch fehlerhafte Punktwolken entstehen können. Somit hat die Forschung neue Aufgaben, ihren Ansatz anzupassen und zu optimieren.

Über das von der Carl-Zeiß-Stiftung geförderte Projekt „Material innovations for wafer-level packaging technologies“ informierte Professor Roy Knechtel, Inhaber der Professur für Autonome Intelligente Sensoren. Dieses Verfahren bietet die Möglichkeit, im Vergleich zur klassischen Herstellung kleinere und kosteneffizientere integrierte Halbleiterbauelemente herstellen zu können. Üblicherweise werden die dünnen Siliziumscheiben, die Wafer, zunächst getrennt und im Anschluss in einem komplexen Prozess mit einem Umgehäuse und elektrischen sowie Montageanschlüssen versehen. Im „wafer-level packaging“-Verfahren indes werden die Komponenten schon auf dem Wafer selbst aufgebracht und eingehaust. Durch diese 3D-Integration lassen sich noch kleinere, leistungsstarke Chips herstellen, wie sie zum Beispiel für Smartphones der neueren Generationen Verwendung finden. Ein anderes Beispiel eines solchen Chips sind die Infrarot-Sensoren der Smartwatch eines namhaften Herstellers. In dem Forschungsprojekt ergeben sich zugleich enge Kooperationsmöglichen mit der Materialwissenschaft und den technischen Möglichkeiten von 3D-Druck-Systemen.

Den Abschluss des ersten Blocks machte dann der Vortrag Norbert Greifzus vom Team der „Eingebetteten Diagnosesysteme (EDS)“. Er stellte eine Kooperation zwischen der Elektrotechnik und dem Maschinenbau vor, bei dem es um den Einsatz künstlicher Intelligenz bei Verfahren des Spritzgusses geht. Kurzum können verschiedene Sensordaten und speziell trainierte Programme dabei helfen, fehlerhafte Teile zu prognostizieren und so rechtzeitige Eingriffe in die Fertigung vorzunehmen, um diesen Ausschuss zu vermeiden. Hier werden unter anderem Messungen von Temperatur und Druck verwandt und auf Basis der Verläufe vieler vorheriger Messungen bewertet. Wichtig ist hierbei zugleich, dass die Modelle der künstlichen Intelligenz das Zustandekommen ihrer Beurteilung transparent machen, um so letzter die Akzeptanz bei den Nutzenden zu erhöhen. Dies wäre zum Beispiel über eine graphische Ausgabe von Markierungen an Verlaufskurven der Temperatur oder des Drucks möglich.

Infrarotsensoren, Mikrostrukturen und 3D-Drucker

Der zweite Teil des E-Science-Days wurde mit einem online-Vortrag von Rachel Gleeson vom belgischen Unternehmen Melexis eingeläutet. Sie kooperiert in ihrer Forschung mit dem in Erfurt ansässigen Unternehmen X-FAB sowie mit Roy Knechtel. In ihrem Beitrag konturierte sie zunächst die Breite der Anwendungsmöglichkeiten von miniaturisierten Infrarotsensoren, denen über die Messung der thermischen Strahlung die präzise berührungslose und somit schnelle Ermittlung von Temperaturen möglich ist. Dieser Auffächerung zuvor ging ein Blick auf die Komplexität der Integration der Komponenten in eines Mikro-Elektro-Mechanischen Systems (MEMS) bei einer gleichzeitigen Minimierung des Platz- und Stromverbrauchs. Wichtig ist hierbei zu beachten, dass es unterschiedliche Infrarotsensoren für verschiedene Anwendungen gibt, zum Beispiel unterscheiden man Sensoren für punktuelle Messungen und bildgebende Sensorarrays. Je nach Anwendungsfeld unterscheiden sich auch die Ansprüche an Präzision: So nimmt sich die erforderte Exaktheit auf dem Gebiet medizinischer Anwendungen um einiges höher aus, als bei Produkten für Konsumenten wie zum Beispiel Fitnesstrackern oder Heimelektronik.

Die Infrarotsensoren finden in unserer Gegenwart bereits breite Verwendung: Zum einen in Geräten wie Smartphones und -watches, die so die Körpertemperatur ermitteln können. Damit ist die Health-Tech ein relevantes Anwendungsfeld, das noch an Bedeutung gewinnen wird. Ein zentraler Pluspunkt in diesem Bereich medizinischer Anwendungen ist, dass die Temperaturmessung ohne direkten Kontakt funktioniert. Andere Gebiete sind zum Beispiel die wärmesensorische Vermessung von Gebäuden, was unter anderem dem Auffinden von Stellen dient, an denen Wärme verloren geht. Ein Nebeneffekt der Vermessung über Infrarotsensoren ist, dass sie ihre Daten anonymisiert erheben, sind doch Personen detektier aber nicht identifizierbar. Dies macht die Sensoren auch für die Überwachung und Automation von Gebäuden nützlich, wie zum Beispiel bei der smarten Steuerung von Licht- oder Heizungsanlagen, die z.B. in Bürogebäuden Anwendung findet.

Stephanie Lippmann forscht an der Friedrich-Schiller-Universität Jena zu Themen der Materialwissenschaften und hat hier zurzeit eine Vertretungsprofessur für metallische Werkstoffe am Otto-Schott-Institut für Materialforschung inne. Grundsätzlich widmet sie sich Aspekten der Metallphysik, genauer thermodynamischen und kinetischen Prozessen bei mikroskopischen Strukturveränderungen der Werkstoffe während Zustandsänderungen, sogenannten Phasen­umwandlungen. Die Thermodynamik befasst sich zunächst als Teilgebiet der Physik mit Fragen der Umwandlung und Änderung von Energie innerhalb eines oder mehrerer Systeme.

Die Kinetik betrachtet die Zeitabhängigkeit, also die Geschwindigkeit, dieser Umwandlungsprozesse. Im Fokus von Stephanie Lippmanns Forschung wiederum stehen die mikrostrukturellen Prozesse in metallischen Legierungen bei besonders schnellen Phasenumwandlungen, also wenn z.B. eine Schmelze erstarrt, aber auch bei Festkörperphasenübergängen während rascher Wärmebehandlungen. Den Prozessen dieser „rapid phase tranformations“ im Material versucht sie mittels einer spezifischen Testanlage und unter besonderen Konditionen nachzugehen, die eine sehr schnelle Erhitzung und Abkühlung der Testobjekte bietet. Um diese Umwandlungsprozesse genauer zu verstehen, verwendet Stephanie Lippmann die thermo-kinetische Modellierung, mit dem Ziel, die Materialstruktur, das sogenannte Gefüge, gezielt anhand der Zusammensetzung und der Wärmebehandlung einstellen zu können. Über die Steuerung des Gefüges ist es schließlich möglich, die Eigenschaften einer Legierung für die gewünschte Anwendung zu optimieren. 

Für die Elektrotechnik ist diese Forschung der benachbarten Disziplin gerade deswegen so relevant, weil solche strukturellen Umwandlungsprozesse auch bei der Herstellung und Qualifizierung von mikroelektronischen Schaltkreisen auftreten. Ein grundlegenderes Verständnis hilft unter anderem auch die Ursachen von Mängeln im elektronischen Bauteil zu verstehen. Da in den zunehmend komplexeren, und weiter miniaturisierten Objekten die Anforderungen an die Reinheit und Zuverlässigkeit der verwendeten metallischen Komponenten immer weiter steigen, ist es hier zentral, voneinander zu lernen. Zu diesem Zweck wurde im Rahmen des bereits vorgestellten Projekts „Material innovations for wafer-level packaging technologies“ eine Kooperation zwischen Friedrich-Schiller-Universität Jena und der Hochschule Schmalkalden auf den Weg gebracht.

Den offiziellen Teil des E-Science-Day abrunden durfte Martin Hedges von der Neotech AMT GmbH aus Nürnberg, wobei die Abkürzung für Advanced Manufacturing Technologies for 3D Printed Electronics steht und sich das Unternehmen entsprechend vor allem im Bereich des 3D-Drucks von komplexen elektronischen Bauteilen einen Namen gemacht hat. Durch diese Expertise ergab sich auch die Kooperation mit der elektrotechnischen Fakultät und mit Roy Knechtel. Wie dieser schon in seiner einführenden Vorstellung klarmachte, ist eine Vision in der Elektrotechnik, ein Gerät zu haben, dass vollständige elektronische Bauteile wie Schaltungen herstellen kann. Die 3D-Drucker, die Neotech entwickelte, kommen diesem Ziel schon recht nahe.

Der 3D-Druck von elektronischen Bauteilen hat allen voran den Vorteil, ein schnelles und günstiges Prototypingverfahren  zu sein und zugleich eine Vielfalt an möglichen Formen zu gestatten. Hierbei kommt hinzu, dass die 3D-Drucker von Neotech verschiedene Verfahren des 3D-Drucks als Funktionen bieten und sich so die Anwendungsbreite durch die Kombination noch deutlich steigern lässt. Ein Beispiel der neuen Möglichkeiten war die Herstellung einer Glühbirne: Bei üblichen Glühbirnen sind neben den Materialien, die das Produkt bei der Herstellung bedarf, auch die Ressourcen einzupreisen, die das Recycling verlangt. Der 3D-Druck lässt es hier zu, beide Enden bereits im Design zu bedenken und so nachhaltige Lösungen zu ermöglichen.

Im kleineren Rahmen wurde im Anschluss in den Räumen der Fakultät Elektrotechnik die Einweihung eines solchen 3D-Druck-Systems feierlich begangen, an dem Forschenden nun den Möglichkeiten und Grenzen dieser Herstellungsverfahren nachgehen werden. Ziel ist es gemäß der Vision, eine rein additive Herstellungsweise zu entwickeln, die es erlaubt, ganze elektronische Bauteile wie Sensoren zu produzieren. Möglich machte dies eine Förderung von der Europäischen Union.

Künstliche Intelligenz – Potentiale und Hürden in der Anwendung

Künstliche Intelligenz – Potentiale und Hürden in der Anwendung

Der Begriff „Künstliche Intelligenz (KI)“ kann, je nach sozialer Prägung, bei jedem Leser oder Leserin eine andere Assoziation auslösen. Je nach Alter, Interessen oder auch technischer Begeisterung kann sich der ein oder andere an unterschiedliche Computerspiele, Filme oder auch Bücher mit verschiedenen Arten an KI aus seiner Kindheit erinnern. Somit tragen Science Fiction oder allgemeiner die Kulturindustrie jeder Dekade ganz eigene Bilder artifizieller Intelligenz: Ob wir an das sprechende Auto „KITT“ aus der Knight Rider, selbst steuernde Raumschiffe oder humanoide Roboter, wie „Data“, aus der Serie Star Trek oder an künstlichen Neuronalen Netzen (KNN), Deep Learning (DL) oder ChatGPT als Large Language Model (LLM) denken, kann man nur schwer, durch aufwendige Umfragen oder persönliche Gespräche herausfinden. In vielen Narrativen unserer Gegenwart kommt noch die Tendenz einer globalen Dominanz hinzu, die Seitens autonom agierender Roboter, Programme oder Netzwerke ergriffen oder zumindest angestrebt wird. Dies mag einen Grund in der steigenden Verbreitung smarter Geräte und der umfassenden Digitalisierung sowie der Abhängigkeit unserer Alltagsroutinen von diesen Technologien haben. All diesen Bildern der Künstlichen Intelligenz ist dabei gemein, dass sie zu der realen Version nur überschaubar viele Parallelen aufweisen.

In der banalen Wirklichkeit verliert die KI zwar viel von den popkulturellen Etiketten zwischen Idealisierung und Dämonisierung, sie gewinnt aber zugleich an praktischen Nutzen. Um zu verstehen, was Künstliche Intelligenz ist, worin ihre Potentiale und Schwächen im Allgemeinen wie im Besonderen liegen und was letztlich ihr Nutzen ist, muss also zunächst von den Zerrbildern Abstand genommen werden, auch wenn sie sich durchaus als Einstieg in Ausführungen wie diese eignen.

Künstliche Intelligenz (KI)

Künstliche Intelligenz lässt sich am ehesten als ein Werkzeug beschreiben, das bei der Verarbeitung von Daten den Menschen Hilfestellung leisten soll. Der Bereich der KI ist eine Untergruppe aus dem Forschungsgebiet des Maschinellen Lernens (ML). Beide Begrifflichkeiten lassen sich meist nicht scharf von einander trennen und gehen fließend in einander über. Für beide Themenkomplexe kann jedoch gesagt werden, dass in der Vergangenheit die Herausforderungen in den Fragestellungen „Wie komme ich an Daten?“, „Welche Sensoren kann ich einsetzen?“ oder „Wie kann ich diese Daten auswerten?“ zutreffend waren. Die aktuellen Fragestellungen gehen eher in die Richtung: Wie kann ich diese Mengen an Daten komprimieren, auswerten oder die Entscheidung nachvollziehen? Hier kommen dann Begrifflichkeiten wie z.B. Big Data, Dimensionsreduktions-Algorithmen oder erklärbare KI (englisch explainable artificial intelligence (XAI)) zum Einsatz.

Das Forschungsgebiet der großen Datenmengen (Big Data) ist ursächlich aus der großen Verbreitung an Sensorik oder Informationsquellen entstanden. Heutzutage besitzen fast alle Menschen auf der Welt eine Smart Phone oder PC. Infolge der Möglichkeit, kostengünstige Mikroelektronik oder Sensorik herzustellen, gibt es eine Unmenge an potentiellen Datenquellen, welche die Menschen bei einer Auswertung oder Bewertung überfordern können. Hierfür müssen effiziente und schnelle Algorithmen entwickelt werden, welche es dem Menschen in annehmbarer Zeit ermöglichen, komplexe Zusammenhänge in den Daten zu erkennen und auch verstehen zu können. Die somit entstehenden komplexen Programme sind durch die hohe Rechenleistung in der Lage, Daten maschinell zu erfassen, Muster und Strukturen sowie unter anderem Synchronitäten, Parallelen und Divergenzen von Prozessen zu erkennen und zu verknüpfen. So lassen sich mehr und mehr Informationen aus den großen Beständen an Daten ziehen und für nachlaufende Erklärungen, tiefere Verständnisse des Gegebenen und vorlaufende Abschätzungen der möglichen Zukunft nutzen. Gerade weil die Vermessung unserer Welt durch Sensoren in Geräten z.B. Smartphones oder auch modernen Automobilen immer weiter voranschreitet, wächst ein Fundus an Wissen, der produktiv genutzt werden kann.

Zugleich ist es angebracht, nicht von der einen Künstlichen Intelligenz zu sprechen, sondern dies eher als Sammelbegriff verschiedener, teils recht unterschiedlicher Formen von KI zu verstehen. Künstliche Intelligenz umfasst diverse Verfahren der Datenverarbeitung, die sich für unterschiedliche Kontexte, Fragenstellungen und Materialien eignen. Es verhält sich also so wie bei vielen anderen angewandten Wissenschaften: Es gibt nicht ein generelles Verfahren, sondern verschiedene Ansätze mit unterschiedlichen Charakteristika. Zum Beispiel können KI-Modelle, die sich für Bildererkennung eignen, nicht für Sprachprogramme wie Chat GPT verwendet werden.

Damit ist auch schon eine Schwäche in der Nutzung von KI angesprochen: Nicht alle Modelle eignen sich für jede Anwendung. In anderen Worten muss für die Aufgabe, gerade wenn sie einem speziellen Zweck dient, zunächst das passende Verfahren gefunden und mit passenden Daten angelernt, getestet oder nachtrainiert werden. Die Nutzung der KI-Modelle ist demzufolge keine one-fits-all-Lösung, sondern bedingt einen Anpassungsprozess. Für manche Aufgaben eigen sich z.B. Unscharfe Regelwerke (Fuzzy Modelle), Support Vektor Maschinen (SVM) oder künstliche neuronale Netze, welche sich an der Funktionsweise des Informationsaustausches zwischen menschlichen Nervenzellen anlehnen.

Bilder und Werkzeuge

Die Komplexität dieser Anpassung könnte an Komplikationen bei der Bilderkennung klarer werden, wobei hier noch ein epistemologisches Problem auftritt. Digitale Bilderkennungsverfahren arbeiten mit zweidimensionalen Objekten, denen also die räumliche Tiefe fehlt. Diese muss gewissermaßen als Vorder- und Hintergrund wieder in das Bild hineingelesen werden: Die Dreidimensionalität, die distinkten Objekte und selbst der Fokus müssen demnach erst erarbeitet werden. Was die Programme vor Herausforderungen stellt, ist dem Menschen schon in seinem Zugang zur Welt quasi natürlich gegeben. Gerade weil die eigentliche Objekterkennung und -unterscheidung fundamentale Aufgaben sind, können hier spannende Probleme entstehen: Ein gerne gebrachtes Beispiel ist die aus der Literatur bekannte Methode der One-Pixel-Attack[1]. Hier kann die maschinelle Bewertung durch ein Bilderkennungsalgorithmus, durch die Änderung eines einzigen Pixels in einem Pferdebild zu einer Fehlklassifikation zu ein Frosch führen. Die Funktionsweise der KI-Modelle ist also noch nicht perfekt, auch wenn sich ihre Güte – man denke nur an die Gesichtserkennung von Smartphone-Kameras – in den letzten Jahren kontinuierlich verbessert hat.

Was meint es nun, von der Künstlichen Intelligenz als Werkzeug in der Industrie zu sprechen? Stellen wir uns einen Produktionsprozess von Plastikteilen vor: Wir haben auf der einen Seite die vielen kleinen Plastikkügelchen am Anfang, die aufgeschmolzen und in eine bestimmte Form gebracht werden, um zum Ende als gefertigtes Teil aus der Maschine entnommen zu werden. Was zunächst wie ein idealer, unendlich wiederholbarer Vorgang erscheint, hängt im Alltag der Produktion von vielen Faktoren ab. Die Erfahrung von Mitarbeitern und Mitarbeiterinnen mit den Maschinen und Materialien ist hier für den Produktionsprozess zentral, und wird es absehbar bleiben. Eine hilfreiche Komponente kann aber zugleich eine Sensorik sein, die unter anderem Parameter wie Temperatur und Druck permanent misst und eine erste Auskunft über die erwartbare Güte der produzierten Teile zum Beispiel durch eine Ampel gibt, bzw. vor wahrscheinlichen Fehlern warnt und Anpassungsvorschläge liefert.  Für solche in den Produktionsprozess integrierten Beurteilungen ist nicht eine Messung entscheidend, sondern ein Zusammenspiel verschiedener Werte und Schwellen sowie unterschiedlicher, teils zusammenhängender Verläufe, wodurch sich dynamische Verarbeitungssysteme wie KI-Modelle anbieten. Moderne Sensoren sind nicht nur hochempfindlich, sie können auch an Punkten angebracht werden, die dem Menschen während der Produktion nicht zugänglich sind. Der Mensch wird hier also nicht ersetzt, sondern durch die Technik unterstützt. In verschiedenen Forschungsprojekten wie z.B.: „Powermoulds“, „Wasabi“ oder auch „SMoSys“ arbeiten Manuel Schneider und Norbert Greifzu aus dem Team der „Eingebetteten Diagnosesysteme (EDS)“ von Professor Andreas Wenzel an solchen Lösungen für eine smarte Industrie und dem Einsatz vom KI an anwendungsnahen Problemstellungen. Die Forschungsgruppe EDS ist Teil einer Hauptforschungsrichtung „Adaptiven Signalanalyse“ der Hochschule Schmalkalden. Interessante Veröffentlichungen der Forschungsgruppe sind:

Literaturverzeichnis

[1]N. Greifzu, M. Schneider, M. Werner, N. Fränzel, A. Wenzel und C. Walther, Bewertung von Produktionsprozessen mit Verfahren der Künstlichen Intelligenz, 2020.
[2]M. Schneider, N. Greifzu, L. Wang, A. Wenzel, L. Pu und C. Walther, „An end-to-end machine learning approach for time series with varying lengths,“ Neural Computing and Applications, Nr. 10.1007/s00521-024-09473-9, 2024.
[3]H. Siebald, F. Pforte, B. Kulig, M. Schneider, A. Wenzel, M. Schweigel, J. Lorenz, H.-H. Kaufmann, J. Huster, F. Beneke und O. Hensel, „Referencing acoustic monitoring of cutting knives sharpness in agricultural harvesting processes using image analysis,“ Biosystems Engineering, Bd. 226, Nr. 10.1016/j.biosystemseng.2022.12.007, p. 86–98, February 2023.
[4]D. Schneider, M. Schneider, M. Schweigel und A. Wenzel, „Application of various balancing methods to DCNN regarding acoustic data,“ Proceedings 30. Workshop Comupational Intelligence, Nr. ISBN: 978-3-7315-1051-2, November 2020.
[5]M. Schneider, N. Greifzu, C. Walther und A. Wenzel, „Übertragung von anwendungsnahen Problemstellungen des Maschinellen Lernens aus der Forschung in die Lehre,“ Berlin Journal of Data Science, Bd. 1, February 2020.

[1] https://arxiv.org/pdf/1710.08864.pdf

Sensoren, Netzwerke und Daten. Über die Forschungsprojekte Martin Schreivogels

Sensoren, Netzwerke und Daten. Über die Forschungsprojekte Martin Schreivogels

Professor Martin Schreivogel hat seit letztem Jahr die Professur für die Grundlagen der Elektrotechnik an der Fakultät Elektrotechnik der Hochschule Schmalkalden inne. Demgemäß widmet er sich prinzipiellen Fragestellungen der Elektrotechnik, hier verstanden als ingenieurwissenschaftliche Disziplin, die sich ebenso mit der Forschung und Entwicklung wie der Produktion und Instandhaltung von elektrischen Anlagen und Geräten befasst. Um eines direkt klarzustellen: Wie an Hochschulen angewandter Wissenschaften üblich genügt sich auch die Forschung Martin Schreivogels nicht mit abstrakten, theoretischen Konstrukten, sondern sucht nach Wegen der Übersetzung von Forschung in Praxis – wie unter anderem der funktionalen Optimierung elektrochemischer Sensortechnik.

Um die Relevanz dieser Disziplin zu umreißen wird im Folgenden eine Rück- mit einer Vorschau kombiniert: Zunächst soll es um die Entwicklung kompakter Messboxen gehen, mit denen die Luftqualität, zum Beispiel im Straßenverkehr verdichteter Innenstädte, vermessen werden kann. Nach diesem Rückblick auf ein weitestgehend abgeschlossenes Projekt soll es um die Konturierung eben jener Vorhaben gehen, denen sich Professor Schreivogel an der Hochschule Schmalkalden widmen möchte.

Professor Martin Schreivogel bei seiner Antrittsvorlesung

Die Vermessung der Luft: Über die Entwicklung kompakter, vernetzter Messstationen der Luftqualität

Die öffentliche Diskussion um die gesteigerte Schadstoffbelastung an hochfrequentierten Straßen und Kreuzungen, aus der die Einrichtung von innerstädtischen Umweltschutzzonen und – in manchen Arealen – sogar Fahrverbote resultierten, liegt noch nicht allzu lange zurück. Auch wenn das Ansinnen einer gesunden, nicht von Schadstoffen belasteten Umwelt gewiss auf allgemeine Zustimmung treffen sollte, verlor die damalige Debatte aufgrund der wechselseitigen Polarisierung der diskutierenden Gruppen das Gros ihres konstruktiven Potentials. Weiterführend gerade in einem ingenieurwissenschaftlichen Horizont ist indes das öffentliche Interesse, die Schadstoffbelastung und die Effekte des Stadtverkehrs und des Verkehrsinfrastruktur auf eben diese zu eruieren und adäquate Lösungsvorschläge zu entwickeln: Wo und wie entstehen also hohe Konzentrationen an Schadstoffen und wie lässt sich ihre Ansammlung vermeiden?

Ein technisches Problem, das den Diskussionen der Konsequenzen eventuell gefährlicher Luftverschmutzung und mittel- und langfristigen verkehrsplanerischen und städtebaulichen Antworten vorausliegt, besteht in der Frage, wie wir überhaupt die Luftqualität messen. Hierbei geht es nicht nur um die Zweckmäßigkeit der verwandten Sensoren, die in Frage stehenden Variablen oder die Definition zumutbarer Grenzwerte, sondern auch um die Abwägung, wo und wann gemessen werden soll. Reicht es für eine konzise Beschreibungen der Luftverschmutzung der Verkehrswege der Innenstädte hin, an einigen wenigen, aber besonders befahrenen Straßen zu messen? Oder bedarf eine verallgemeinerbare Ermittlung ein anderes Vorgehen und die Berücksichtigung weiterer relevanter Faktoren?

Auch wenn die besondere Belastung der Anwohnenden nicht in Abrede gestellt werden soll, ist die Generalisierung der Hotspot-Messungen auf das ganze Gebiet einer Stadt mit Vorsicht zu genießen. Durch die Selektivität der Messungen werden allenfalls die Maximalwerte an einem bestimmten Punkt zu einer bestimmten Zeit ermittelt, wobei sich die Luftqualität schon an einer Nebenstraße deutlich von den Messungen am Hotspot unterscheiden kann. Die Ermittlung der allgemeinen Situation der Luftverschmutzung und Erarbeitung passender Lösungsvorschläge verlangt ein anderes Vorgehen: Um Verzerrungen zu vermeiden und ein detailliertes sowie zugleich dynamisches Bild der Verschmutzung zu zeichnen ist es eher zielführend, eine größere Menge von Messstationen weitflächig über die Stadt hinweg zu verteilen und in einem Netzwerk zu verknüpfen. So lässt sich das gezeichnete Bild differenzieren und zugleich die Bewegung der Luft, die Effekte der Architektur der Stadt auf ihre Strömung, mit in die Rechnung einbeziehen.

Smarte Boxen, vernetzte Systeme

Dem bisherigen Problem solcher Netzwerklösungen hat sich Professor Martin Schreivogel angenommen: Ihm ging es darum, eine präzise und kompakte Messstation zu entwerfen, die sich zugleich kosteneffizient ausnimmt. Gerade der hohe Preis der bislang üblichen Messstationen ließ eine Anschaffung in den hierfür notwendigen Mengen nicht zu. Um eine differenzierte Messung der Luftverschmutzung durchführen zu können, bedurfte es in einem ersten Schritt also erschwinglicher Messinstrumente, ohne dabei zu große Abstriche an der Präzision machen zu müssen. Als Referenz der Messqualität konnten dabei die Ergebnisse bisher gebräuchlichen Messstationen genommen werden.

Ein früher Entwurf einer Box für die Ermittlung der Luftgüte (Bild via Bosch)

Die ersten Versuche zeigten zum Teil signifikante Unterschiede zwischen beiden Typen an Messstationen, deren Differenz sich auch nicht über naheliegende Korrekturverfahren begradigen ließen. Das Problem bestand darin, dass sich die Sensorsignaländerung durch Feuchte- und Temperaturschwankungen oft um einiges größer ausnahmen, z.B. als das eigentliche, hierfür relevante NO2-Signal. Folglich war es die Frage, welche Ursachen die Abweichungen hatten. Auch wenn die Boxen schon aus Gründen der Kosteneffizienz möglichst einfach aufgebaut waren, sind sie dennoch hochkomplexe technische Instrumente aus verschiedenen Sensoren und Komponenten, bei denen vorab nicht ausgeschlossen werden konnte, dass sie die Verzerrung zu verantworten hatten. So könnte es z.B. durch eine Überkompensation bei der Korrektur/Verrechnung verschiedener Signale kommen. Zudem war es ebenso offen, ob ein einzelner Faktor zu den Abweichungen führte oder das Zusammenspiel mehrerer Elemente, wie die Frage, welche Rolle Einflüsse der Umgebung spielten.

Um sich dem Problem anzunähern, wurde auf Messungen in einem Klimaschrank zurückgegriffen, der gesteuerte Simulationen von Umweltbedingungen zulässt. Feststellen ließ sich dabei eine Auswirkung von Veränderungen der Temperatur und Luftfeuchte auf die Messeinheit, wobei sich der Effekt nicht direkt zeitigte, sondern etwas nachlief, wodurch sich auch die Schwierigkeiten beim Auffinden der Ursache der Verzerrung erklären ließen. Genauer formuliert waren die Ursache Feuchtigkeitsunterschiede in Luft und Sensorelektrolyt, die sich durch einen komplexen Diffusionsprozess auf das Sensorsignal auswirkten.

Um diese Verzerrung zu beseitigen, musste die Sensortemperatur in Abhängigkeit vom Wetter eingestellt werden, wodurch der Elektrolyt in Balance gehalten werden konnte und die Fehlausgaben vermieden wurden. Eine Folge war, dass die Messstationen eine Zertifizierung durch ein akkreditiertes Labor (Ineris) erhalten konnten, was wiederum ihre zukünftige Verwendung bei der statistischen Erhebung der Luftqualität erleichtern sollte. Der Gewinn an Signalstabilität hatte aber auch einen Preis: Nicht nur hatte das verbesserte Setting der Box ein höheres Gewicht, sie bedurfte auch einer eigenen Stromzufuhr, was ihren Einsatz wiederum deutlich einschränkte und damit die Möglichkeiten ihrer breiten Vermarktung limitierte. In einer neuen Generation von Modellen konnten dann Erkenntnisse komplexer mathematischer Korrekturansätze in die Konstruktion einfließen, wodurch die Geräte nicht nur deutlich leichter ausfielen, sondern ihr Betrieb auch über Solarenergie möglich wurde. Durch diese Maßnahmen ist nun die Marktförmigkeit des Produktes gewährleistet und zugleich die Möglichkeit geboten, die Luftqualität in Städten über ein Netzwerk von Messstationen ermitteln zu können.

Darstellung der gemessenen Verteilung inklusive der Qualitätsgrade (Bild via Bosch)

Die Boxen sind ein Ergebnis der Entwicklungs- und Projektleitungstätigkeit Martin Schreivogels bei Bosch, wobei er den abschließenden Prozess der Verwirklichung weiter begleiten wird, wie zuletzt an der nun beginnenden Kooperation von Bosch mit Palas deutlich wurde.[1] Zugleich diente ihm diese Arbeit als Material für seine Antrittsvorlesung, in der er auch die thematische Relevanz der Grundlagen der Elektrotechnik für Fragen der Anwendung und Umsetzung akzentuieren wollte. So biete sich im Rückgriff auf fundamentale Aspekte mitunter ein spezifischer Blick auf Probleme, aus dem dann wiederum genuine Lösungsansätze gewonnen werden können.

Die Mitgestaltung der Energiewende. Die Optimierung von Brennstoffzellen

Zielte das vormalige Projekt auf einen komplexen elektrochemischen Sensor und dessen Präzision und Funktionalität, geht es Schreivogel an der Hochschule Schmalkalden nun um die Vermessung eines elektrochemischen Systems mit Hilfe von Sensoren. Um die Funktion von Brennstoffzellen und Elektrolyseuren bei der Produktion von Wasserstoff verstehen und verbessern zu können, bedarf es eines breiten Sets an Sensoren, die die Anlagen und die Prozessabläufe überwachen. Diese offene Perspektive macht es erst möglich, eine Vielzahl von Variablen auf ihre Relevanz für die Transformation und ihre Optimierbarkeit hin zu befragen.

Die Energiewende hat durch äußere Anstöße aktuell einiges an Fahrt aufgenommen. Die Gewinnung von Wasserstoff als transportablen Energieträger und Speichermöglichkeit steht dabei noch immer vor zahllosen Herausforderungen, die durch die gerade erwünschte Geschwindigkeit im Aufbau einer Versorgungsinfrastruktur nicht geringer werden. Die zügige Umsetzung der Energiewende legt es nahe, schon in der Frühphase mit der Optimierung bereits bestehender Anlagen zu beginnen: Weil infolge des rasanten Aufbaus der Produktionsstätten die Optimalität als Ziel hinter die Realisierung rückt, entsteht hier ein Ansatzpunkt für die Forschung. Auch wenn davon auszugehen ist, dass die Technologie zur Erzeugung von Wasserstoff ein fortgeschrittenes Stadium erreicht hat ist, befinden sich Elektrolyseur- und Brennstoffzellensysteme noch immer in einer relativ frühen Entwicklungs- und Skalierungsphase. Somit bleibt die Optimierung der Effizienz und anderer Kriterien eine relevante Aufgabe, die zugleich die Energiewende vorantreibt. Im Fokus stehen somit die konkreten Anlagen, die mit Hilfe von Sensoren vermessen werden sollen, um auf diesen Messungen aufbauend konkrete Vorschläge für die Optimierung erarbeiten zu können. Ein zentraler Aspekt ist dabei die Datenverarbeitung: Die enormen Mengen an Informationen müssen strukturiert, gefiltert und evaluiert werden, um als belastbare Quelle genutzt werden zu können.

Ein Symbolbild: Die feine Verteilung von Wasserdampf

Die Region Südthüringen eignet sich schon deshalb für ein solches Vorhaben, weil es mehrere Kooperationspartner aus dem Bereich der Wissenschaft und der Wasserstoffwirtschaft gibt, mit denen ein Netzwerk von Institutionen und Anwendern der Wasserstofftechnologieforschung aufgebaut werden kann. „HySON – Institut für angewandte Wasserstoffforschung Sonneberg gemeinnützige GmbH“ und die Abteilung „Industrielle Wasserstofftechnologien Thüringen“ des Fraunhofer IKTS in Arnstadt sind zwei mögliche regionale Kooperationspartner. So ließe sich ein Zugang finden zu bestehenden Anlagen, die dann analysiert und optimiert werden können, um aus den Befunden der Einzelfälle im Anschluss generalisierende Aussagen generieren zu können. Nicht zuletzt können auch Expertisen an der Hochschule Schmalkalden und der Fakultät Elektrotechnik genutzt werden. Unter anderem befasst sich Professor Roy Knechtel intensiv mit Fragen der elektronischen Messtechnik und Sensorik.


[1] https://www.bosch-presse.de/pressportal/de/en/bosch-and-karlsruhe-based-measuring-technology-specialist-palas-team-up-for-better-air-quality-258432.html

Die Vermessung des Klimas. Über Crowdsourcing als Instrument der Meteorologie

Die Vermessung des Klimas. Über Crowdsourcing als Instrument der Meteorologie

In den letzten Jahren konnten wir vermehrt ebenso trockene wie heiße Sommermonate erleben, in denen sich unsere Innenstädte zum Teil stark erwärmten. Gerade stark bebaute, versiegelte Stadtteile wiesen signifikant erhöhte Temperaturen auf und machten offenkundig, wie nützlich Grünflächen, Bäume und Wasserläufe für die Abkühlung urbaner Areale sind.

Nicht nur unterscheiden sich die klimatischen Bedingungen von Städten und ländlichen Gebieten, auch zwischen den Zentren und den Randzonen der Städte selbst treten Abweichungen auf. Zwar bestehen diese Temperaturunterschiede ganzjährig, im Sommer zeitigen sie jedoch spürbarere Effekte: So nahm die Zahl an Tropennächten, in denen die Temperatur nicht unter 20 Grad Celsius fällt, in stark verdichteten Innenstädten in der jüngsten Vergangenheit zu. Bis zu dreimal häufiger tritt dieses Phänomen mittlerweile auf. Die Hitze wird dabei von den versiegelten Flächen gespeichert und langsamer abgegeben als in begrünten und beschatteten Bereichen. Dieses Phänomen wird als urbaner Hitzeinseleffekt (UHI-Effekt) bezeichnet und wird uns als Folge des Klimawandels bereits in naher Zukunft noch häufiger betreffen.

Die Randlagen der Städte neigen demgemäß deutlich weniger zur Hitzebildung und -konservierung. Diese Abweichungen werden von den üblichen Instrumenten zur Ermittlung der Temperatur nur ungenügend erfasst, findet die Messung doch zumeist zentral an einem Ort statt und deckt so nicht den ganzen Stadtraum ab. Eine Bürgerinitiative in Bamberg nahm die Unterschiede zwischen der statistischen und der wahrgenommenen Temperatur zum Anlass für eine experimentelle Messung: An verschiedenen Stellen der Stadt wurden die Temperaturen über einen Tag stündlich abgetragen und verglichen, wobei sich Abweichungen von bis zu sieben Grad Celsius ergaben. Das Phänomen unterschiedlicher Wärmeentwicklung und die weitgehenden Effekte auf die Menschen vor Augen, lässt sich fragen, ob es nicht andere Möglichkeiten gibt, an meteorologische Daten zu kommen, die ein umfassenderes und detailliertes Bild zeichnen.

Klassisches Instrument zur Ermittelung der Umgebungstemperatur

Was ist Crowdsourcing?

Eine Möglichkeit besteht darin, die Quellen der Daten zu erhöhen und damit zugleich eine erweiterte räumliche Abdeckung zu erreichen. In den letzten Jahren hat sich die Anzahl an Sensoren, die uns in unserem Alltag begleiten, massiv erhöht. Dies reicht von den offensichtlichen Smartphones, in denen selbst verschiedene Sensoren Platz finden, bis hin zu sensorischen Anlagen in Autos und smarten Geräten wie Fitnessarmbändern und Ähnlichem. Nicht zuletzt haben sich durch die Verbreitung und Verfügbarkeit leistungsfähiger Sensoren die Preise für hochwertige, vernetzte Wetterstationen für die private Nutzung stark vergünstigt.

Durch diese Sensoren wird unsere Welt beständig vermessen und zugleich ein umfassender Pool an Informationen gesammelt. Neben den mittlerweile üblichen Kameras und Mikrofonen sind in diesen Geräten auch Sensoren verbaut, die meteorologische Daten erheben können. Über eine Verkopplung mit ebenfalls verfügbaren GPS Koordinaten ließe sich so eine Vielzahl an Wetterdaten und Metadaten erzeugen. Eine andere Möglichkeit, um die Datenlage zu erweitern, bietet sich im Rückgriff auf private Wetterstationen, die zugleich mit dem Internet verbunden sind. Auch über sie kann die Quellensituation immens erweitert werden.  Gerade weil im letzten Jahrzehnt die Verfügbarkeit und Bedienbarkeit von Instrumenten der Umweltbeobachtung leichter wurde, können sich nunmehr auch Laien an der Gewinnung und Auswertung von Daten beteiligen. Zugleich sind diese Daten durch die Netzwerkwerkfähigkeit der Geräte und die weiter reichende Abdeckung mit dem Internet universell und in Echtzeit abrufbar. Nicht zuletzt erlaubt die moderne Datenverarbeitung eine effiziente Datenselektion und die Übermittlung von Metadaten über den Standort, die Aufstellung und den Sensortyp, die für die Einschätzung der Messwerte relevant sind.

Just dieser Vorgang lässt sich als Crowdsourcing fassen, also der Vervielfältigung der Quellen von Datenmaterial außerhalb der Standardmessnetze. Zugleich besteht die Herausforderung in der Nutzung dieser Quellen darin, die Qualität der Daten und damit die Validität der Messungen gewährleisten zu können. Welche Instrumente eignen sich unter welchen Umständen für die Ermittlung von welchen Daten, wie lassen sich Messfehler vermeiden? Oder anders: Was sind die Bedingungen und Möglichkeiten der Nutzung von Crowdsourcing zur Gewinnung von atmosphärischen Messdaten? Und: Wie lassen sich Fehler in der Messung vermeiden und wie können Programme fehlerhafte oder unsichere Daten aussortieren? Genau diesen Fragen geht einer Gruppe von Forschenden in einem Beitrag für die Fachzeitschrift „Gefahrstoffe. Reinhaltung der Luft“ nach, an dessen Erstellung sich auch Prof. Roy Knechtel von der Fakultät für Elektrotechnik an der Hochschule Schmalkalden beteiligte, der an dieserHochsule für angewandte Wissenschaft die Professur fur autonome, intelligente Sensoren innehat. Dabei dient der Artikel auch der Vorbereitung einer entsprechenden VDI-Richtlinie, in die Fragen der Sensortechnik, der Sicherung der Datenqualität und die Möglichkeiten der Datenverarbeitung aufgegriffen werden sollen.

Was sind die Bedingungen für die Messung von Sensoren ?

Die Anhebung der Quantität heißt nicht automatisch, dass sich auch die Qualität der Daten erhöht. Für die verschiedenen Aufgaben der Ermittlung von Temperatur, Luftdruck und Luftfeuchte braucht es unterschiedliche, spezifische Sensoren und angepasste technische Lösungen. Die Herausforderungen der Umsetzung sind neben der erforderlichen Qualität der Detektion auch Variablen der Effizienz, also unter anderem der Energieverbrauch, und die Komplexität der Integration.

Die hohen Anforderungen an Messeinrichtungen und Sensoren stellen wiederum Ingenieure speziell der Elektrotechnik vor Herausforderungen: Welche Charakteristika müssen die Sensoren und die sie fassenden Bauteile aufweisen, damit die Funktionalität gewahrt bleibt und zugleich die meteorologischen Daten verlässlich erhoben werden können? Um nur ein Dilemma zu nennen, das abgewogen werden muss: Einerseits müssen die Instrumente von ihrer Umwelt getrennt werden, andererseits müssen sie einen möglichst direkten und unverstellten Zugang zum Messobjekt haben.

Nicht alle Geräte, in denen Sensoren verbaut sind, eignen sich in gleicher Weise: Smartphones, die eine hohe Verbreitung aufweisen, haben über ihre Sensoren keinen direkten Kontakt zur der sie umgebenden Luft und werden zudem eng am Körper getragen. Im momentanen Stand der Technik eignen sie sich folglich nicht zur Bestimmung der Temperatur. Dagegen sind die in privaten Smart Homes verbauten Instrumente zumindest teilweise für die Messung geeignet. Ab davon bietet sich im Rückgriff auf privat genutzte Wetterstationen die Möglichkeit, auf einen großen und weit verteilten Datenpool zurückgreifen zu können.

Die Aufgaben der Messinstrumente der Reihe nach: Niederschlagsmenge, Temperatur, Windrichtung und -stärke (per Ultraschall)

Smarte Sensoren und ihre Herausforderungen

Als Smart-Sensoren werden Sensoren bezeichnet, die über die Messgrößenerfassung hinaus auch die Signalaufbereitung und -verarbeitung in einem Objekt vereinigen, die anders gesagt „eine funktionelle und konstruktive Einheit eines oder mehrerer Sensorelemente und einer geeigneten Elektronik (VDI Gefahrstoffe 82 (2023), Nr. 07-08, S. 212) bilden. Die meteorologischen Messelemente zum Zwecke der Ermittlung von Temperatur, Feuchte, Luftdruck und Strahlung konnten erst in den letzten Jahrzehnten auf den Chips integriert werden. Nicht nur konnte die disponible Anzahl der Sensoren vergrößert und gleichzeitig ihre Kosten reduziert werden, auch ihre Qualität der Messtechnischen Eigenschaften konnte sichergestellt werden.

Als Beispiel soll hier nur die Sensortechnik Erwähnung finden, die zum Messen der Temperatur dient. Auch wenn es möglich ist, eigene Sensoren einzubauen, die die Lufttemperatur über Messwiderstände ermitteln und letztlich nahe an der klassischen Messung über Widerstandsthermometer bleiben, ist eine andere Lösung weitaus effizienter, greift diese doch auf schon vorhandene, thermosensible Elemente in integrierten Schaltkreisen zurück. Grob vereinfacht wird hierbei auf den Abstand zwischen Leitungs- und Valenzband des Siliziums zurückgegriffen, der sich mit der Temperatur verändert. So vermindert sich der Aufwand ohne dass die Qualität der Messung Einbußen erführe. Speziell die Ermittlung der Temperatur hat aber ihre Tücken: Weder darf die Messeinheit direkt dem Sonnenlicht ausgesetzt sein noch zu nahe an die Wärme reflektierenden oder absorbierenden Strukturen wie Wänden. Auch müssen die Messgeräte den Stau von Wärme vermeiden und für eine beständige Belüftung sorgen. Eine valide Messung der Temperatur muss all diese Faktoren beachten.

Neben der Luftfeuchte und dem Luftdruck lässt sich auch die Sonneneinstrahlung und die Konzentration verschiedener Gase ermitteln. Des Weiteren können auch die Richtung und die Stärke des Windes gemessen werden, die Menge des Niederschlags sowie die Bodenfeuchte und Bodentemperatur. Wiederum sind für jede die Aufgaben spezielle Instrumente der Messung zu entwickeln, die die Erhebung der Daten in der gebotenen Exaktheit erlauben. Die Windstärke wird beispielsweise weniger über minimalisierte Propeller gemessen, ist deren Verschleiß doch zu hoch, sondern mit Hilfe von Ultraschall.

Innenansicht des Instruments zur Niederschlagsmessung (Niederschlagswaage). Funktion: Flüssigkeit wird über den Trichter (s.o.) gesammelt und auf die Schaufel transportiert. Bei einem gewissen Füllstand klappt diese dann um und die zweite Schaufel wird gefüllt. Jeder Umschlag der Wippe wird dann als Gesamtvolumen zusammengenommen.

Was ist die Aufgabe der VDI-Richtlinien

Der Artikel, eine Kooperation von Thomas Foken, Benjamin Bechtel, Matthias Budde, Daniel Fenner, Roy Knechtel und Fred Meier dient der Vorbereitung einer entsprechenden VDI-Richtlinie. Diese technischen Normen werden vom Verein Deutscher Ingenieure (VDI) aufgestellt: Sie halten Empfehlungen, Standards und Regeln im Bereich der Ingenieurwissenschaften bereit und dienen kurz gefasst als grundlegende Orientierung und Vereinheitlichung ingenieurwissenschaftlicher und angewandter Arbeit. Es geht also um einen Grundstock an Empfehlungen für Ingenieur:innen im Umgang mit Geräten, Medien und u.a. Techniken. Gerade bei neuen technologischen Entwicklungen wie dem Crowdsourcing stellen die Richtlinien die Qualität und die instruktive Verwendung in einem sich schnell entwickelndem Forschungsfeld sicher.

Neben Kriterien der Beurteilung und Bewertung stellen die Richtlinien Hilfestellungen in Form spezifischer Arbeitsunterlagen und Entscheidungshilfen bereit. Zudem geben sie Einschätzungen der technischen Standards und Anleitungen der Anwendung. Kurz zielt dies auf technische Prozess- und Problemlösungen und deren gelingende Realisierung. Damit die meteorologischen Daten des Crowdsourcings also zu validen, verlässlichen Quellen der Information werden können, engagieren sich Forschende wie Roy Knechtel ehrenamtlich an der Erstellung von VDI-Richtlinien.

Der E-Science-Day 2022. Ein kleiner Einblick in ein facettenreiches Forschungsspektrum

Der E-Science-Day 2022. Ein kleiner Einblick in ein facettenreiches Forschungsspektrum

Mitte Dezember fand der E-Science Day 22 an der Hochschule Schmalkalden statt. Ziel der halbtägigen Veranstaltung war es, die vielen Projekte und Forschungsaktivitäten an der Fakultät Elektrotechnik in die Öffentlichkeit zu tragen. Zugleich ergab sich die Möglichkeit, die Attraktivität der Studiengänge und die sich mit dem Abschluss bietenden Chancen auf dem Arbeitsmarkt den gastierenden Schulklassen aus der Region vor Augen zu führen.


Am Anfang standen die Begrüßungsworte von Prof. Maria Schweigel, die die verschiedenen Facetten der Fakultät auffächerte. Diese Übersicht über die vielfältigen Bachelor- und Masterstudiengänge diente als leitende Orientierung für die Schulklassen: Was macht die verschiedenen Studiengänge aus, worin liegen ihre Schwerpunkte des Studiums und wohin führen die möglichen Pfade nach dem Abschluss? Das gegenwärtig allzu vernehmbare Raunen des Wortes Fachkräftemangel klingt in den Ohren dieser Studierenden eher wie ein Versprechen guter und sicherer Arbeitsplätze.


Ionenkanäle als Medien des Transports


Im ersten Vortrag, gehalten von Prof. Eckhard Schulz, stand ein Thema der Grundlagenforschung im Zentrum: Ionenkanäle – das sind porenbildende Transmembranproteine, die elektrisch geladenen Teilchen, also den Ionen, das selektive Durchqueren von Biomembranen ermöglichen. Mit ihrer Steuerbarkeit durch Botenstoffe, das Membranpotenzial oder auch äußere Einflüsse, sind sie auf Zellebene nahezu an allen Lebensprozessen beteiligt, wie z.B. im Nervensystem oder bei Stoffwechselvorgängen. In diesem Forschungsgegenstand verbinden sich dementsprechend Teilgebiete aus Medizin/Biologie mit Spezialgebieten von Physik/Mathematik, wobei diese Verknüpfung auch an der langjährigen Kooperation der Hochschule Schmalkalden mit dem Physiologischen Institut des Universitätsklinikums Jena deutlich wird.

Prof. Eckhard Schulz


Prof. Schulz erläuterte, wie sich das stochastische Schaltverhalten der Ionenkanäle durch mathematische Modelle beschreiben lässt und wie man die Modellparameter aus experimentellen Daten von Patch-Clamp-Messungen ermitteln kann. Diese so besser zu verstehenden Transportprozesse sind u.a. für pharmakologische Anwendungen von Interesse, da viele Medikamente ihre Wirkung gerade durch die gezielte Beeinflussung bestimmter Ionenkanäle entfalten.


Über organisatorischen Herausforderungen der Nutzung von Windenergie


Den zweiten Vortrag übernahm Assoc. Prof. Faruk Ugranlı von der Bartin University (Türkei), der sich gerade als Gastwissenschaftler an der Hochschule Schmalkalden aufhält. Im Blickpunkt seiner Forschung steht die Infrastruktur der Energieversorgung und die Möglichkeiten und Grenzen der Nutzung von Windenergie. Der Energiebedarf moderner Gesellschaften wächst nicht nur beständig, die Energieversorgung ist auch das Fundament ihres Wohlstandes. Zu diesen Aufgaben kommt noch die Herausforderung hinzu, dass die Energie langfristig weder aus fossilen noch atomaren Quellen stammen soll. Um diesen gesellschaftlichen Auftrag der Energiewende zu einem Erfolg zu machen, ist es mithin geboten, die Potentiale regenerativer Energien für eine stabile Versorgung zu analysieren.

Assoc. Prof. Faruk Ugranlı


Die Vorteile der Windenergie liegen auf der Hand: Sie ist günstig und sauber, die Effizienz moderner Windräder immer höher. Auf der negativen Seite stehen indes ihre fehlende Konstanz und Planbarkeit, wodurch sie sich nicht als alleiniger Energieträger eignet. Zugleich sind die potentiellen Ressourcen an Windenergie ungleich verteilt: Den windreichen Küsten Norddeutschlands steht kein süddeutsches Pendant gegenüber. Folglich muss Energie verteilt werden, und dies bedarf wiederum gut ausgebauter sehr großflächige Netzwerke der Energieinfrastruktur, um für erneuerbare Energien ungünstige Wetterlagen ausgleichen zu können. Genau hierfür gilt es, Konzepte der Optimierung zu entwickeln.


Das Verhältnis von Material und Struktur


Dr. Martin Seyring, noch recht frisch an der Hochschule Schmalkalden, verband einen Rückblick auf seiner bislang verfolgten Forschungsinteressen mit einem Ausblick darauf, womit er sich an der Hochschule Schmalkalden beschäftigen will. Grundsätzlich widmet er sich der Beziehung von Material und Struktur: Welche Auswirkungen haben Herstellungsprozesse und Einflüsse wie Wärme und Druck auf die nanoskaligen Strukturen der verwandten Materialien? Welche positiven, welche negativen Effekte zeitigt dieses oder jenes Material, dieses oder jenes Verfahren; wie lassen sich nutzvolle Eigenschaften bewahren, negative Effekte vermeiden? Um diesen Phänomenen nachzuspüren, verwendet Seyring ein Elektronenmikroskop, dessen Darstellung bis zu einer Auflösung im Nanometerbereich reicht. So lassen sich kleinste und feinste Veränderungen der Struktur des Materials entdecken.

Dr. Martin Seyring


Da wir uns hier nicht in den Details verlieren können, müssen ein paar wenige Sätze zu den Forschungsprojekten ausreichen: Wie lässt sich das Material von sogenannten Supermagneten optimieren? Welche Folgen haben unterschiedliche Temperaturen für die Werkstoffe, bzw. wann verändern sich die Kristalle und welche Effekte hat dies auf den Magnetismus? Siliziumbatterien sind in unserem Alltag kaum mehr wegzudenken, dennoch sind die genauen Vorgänge in den Ladungs- und Entladungsprozessen noch recht unerforscht. Seyring ging es neben der Charakterisierung des Strukturwandels in den Graphit-Anoden um die Frage der symmetrischen oder asymmetrischen Verteilung der Ladungen und welche Folgen eventuelle Ungleichgewichte für die Stabilität der Akkus haben. Die elektronischen Kontakte von spezifischen KZF-Steckverbindungen lassen sich als drittes Beispiel anführen: Hierbei war es die Frage, wie sich der Kontakt in Anhängigkeit vom Material optimieren lässt. Wegmarken beim Verständnis auftretender Probleme bei den Steckverbindungen waren die Temperatur, die Kristallographie und mögliche Oxidrückstände auf den Stiften. An der Hochschule Schmalkalden will sich Seyring im Bereich der Halbleiter-Sensoren einbringen: Neben der grundsätzlichen Charakterisierung von Materialien soll es ihm um die Beurteilung von Füge- und Bondprozessen gehen, unter anderem in Hinsicht der Auswahl der geeignetsten der Materialien, ihrer Dicke und Kombinationen.


Die Alltäglichkeit von Sensoren


Krankheitsbedingt konnte ein Teil der Vortragenden nicht vor Ort sein. Prof. Roy Knechtel übernahm es, die angedachten Themen vorzustellen. Jonas Distel untersuchte die Funkübertragungsstandards für die Umsetzung neuer Geschäftsprozesse und die Optimierung der Energielieferung bei Energieversorgungsunternehmen. Fragen waren neben der Verbreitung und Belastbarkeit der Datenverbindungen auch die Abwägung zwischen kommerziellen und nicht kommerziellen Modellen. Frau Dr. Manuela Göbelt ist Program-Managerin bei der X-FAB MEMS Foundry GmbH und befasste sich mit dem Thema: “Wafer Level Packaging for Advanced MEMS based on Wafer Bonding and TSVs” und arbeitet dabei eng mit Prof. Knechtel zusammen. Wie Roy Knechtel beispielhaft an modernen In-Ear-Kopfhörern vorführte, ist zeitgemäße, mittlerweile allgegenwärtige Technik voll mit hochkomplexen, kleinen Sensoren. Die technische Finesse ist auch anhand aktueller Smartphones und ihren Möglichkeiten offenkundig: Neben Lautsprechern und Mikrophonen beinhalten diese Navigations- und Ortungselemente, Fotosensoren und Temperaturmesser usw. Und dies alles auf kleinstem Raum. Die Forschung geht hier in Richtung der Optimierung und weiteren Minimierung der verschiedenartigen Komponenten wie Sensoren, sollen die Endgeräte doch immer kleiner und flacher dabei aber auch immer leistungsfähiger und komfortabler werden.

Prof. Roy Knechtel


Kurzum lässt sich festhalten: Das Tableau der Projekte und Forschungsvorhaben an der Fakultät der Elektrotechnik ist mannigfaltig und bietet Forschenden verschiedene Möglichkeiten, ihre kreative Neugier auszuleben und Vorhaben umzusetzen. Hierzu passend stand am Abschluss des Tages das Schülerforschungszentrum im Fokus, welches demnächst in Räume der Fakultät der Elektrotechnik umzieht und sich die Räumlichkeiten mit einem neuen Elektrotechniklabor für Studierende teilen wird. Damit Schülerinnnen und Studierende sich auch künftig ihrem Forschungsdrang nachgehen können, bemüht sich unter anderen Prof. Knechtel gerade darum, einen Grundstock an technischer Ausrüstung am neuen Ort zusammenzutragen und zur Verfügung zu stellen. Wissenschaft beginnt mit einem neugierigen Blick auf die Welt: Genau hier will das Schülerforschungszentrum, auch mit Unterstützung der Fakultät Elektrotechnik, ansetzen und die Reise der Entdeckung unterstützend begleiten.

Organe, Pumpen und künstliche Körper. Über den Beitrag des TEAG-Preisträgers Lukas Hauck zum Transport von Organen

Organe, Pumpen und künstliche Körper. Über den Beitrag des TEAG-Preisträgers Lukas Hauck zum Transport von Organen

Denken wir an Organspenden, sehen wir Bilder von Operationssälen vor uns, Bilder von technischem Gerät und sterilem Instrumentarium, Bilder von ebenso konzentriertem wie angespanntem medizinischem Personal in grünen und blauen Kitteln. Es geht dabei um viel: Die entnommenen Transplantate helfen Menschen, deren Organe nicht mehr oder nur noch unzureichend arbeiten. Durch den medizinischen Eingriff und den Ersatz ihrer Herzen und Lungenflügel, ihrer Nieren und Lebern, kann häufig das Leben der Betroffenen nicht nur verbessert, sondern oftmals gar gerettet werden.

Die klassische Organspende – Kalt, aber funktional

Ab von den bekannten Bildern gibt es auch bei diesem Thema Bereiche, die zwar ein gewisses Schattendasein fristen, aber von höchster Relevanz für die Organisation und den Erfolg von Organspenden sind. Transplantationen müssen nicht nur möglichst zügig, also innerhalb weniger Stunden, vollzogen und von einem professionellen, stets abrufbereiten Team vorgenommen werden, sie müssen auch jene räumliche Distanz überwinden, die häufig zwischen den Personen des Spenders und jener des Empfängers liegt. Somit stellt sich die Aufgabe, Organe zu transportieren, möglichst schnell und sicher.

Der Goldstandard der Organverbringung ist bislang der Kalttransport, bei dem die Organe in einer speziellen Lösung gekühlt in besonderen Styroporboxen ihre mal nahe, mal ferne Reise antreten. Kurz gefasst werden die Organe bislang vom Blutkreislauf abgekoppelt, bei vier Grad Celsius in den Transportboxen gekühlt und innerhalb weniger Stunden zum Transplantationszentrum gebracht, um dann schnellstmöglich implantiert zu werden. Auch wenn diese Lagerungs- und Transportart ihre Aufgabe grundsätzlich erfüllt und sich bewährt hat, hat sie doch auch gewisse Nachteile. Die Kühlung dient dazu, die organischen Funktionen, also den Stoffwechsel, zu verlangsamen und somit die Schädigung des jeweiligen Organs, die mit der Sauerstoff- und Nährstoffunterversorgung einhergeht, zu minimieren, wobei sie diese nicht vollständig aufzuhalten vermag. Auch wenn die Vorteile der kalten Variante von Lagerung und Transport auf der Hand liegen, ist diese Methode doch einfach, praktisch und günstig und gewährleistet das sichere Präservieren von Standardorganen, hat sie gleichzeitig die Nachteile, die metabolische Depletion, also die Erschöpfungserscheinungen in Folge des anhaltenden Stoffwechsels, und die Schäden durch fehlende oder ungenügende Durchblutung (Ischämie) nicht komplett verhindern zu können. Hinzu kommt, dass im Zustand der Kaltlagerung eine exakte Untersuchung der Funktionsfähigkeit des Organs kaum möglich ist.

Lukas Hauck in der Celarius-Bibliothek

Die Maschinenperfusion – Erhaltende Ströme

Seit jüngerer Zeit gibt es auf dem Gebiet der Organspende eine Neuerung, die Maschinenperfusion. Kurz gefasst geht es darum, die Organe nicht in 4°C kalter Flüssigkeit zu lagern, sondern in einer Art künstlichen Körper: Dieser besteht schlicht in einer Maschine, die den Stoffwechsel des Organs durch entsprechende Ein- und Ausgänge weiter am Laufen hält, indem es den Aufbau und Ablauf des menschlichen Organismus imitiert. Der entscheidende Vorteil dieser maschinellen Pumpen ist zum einen, dass die organische Zersetzung gestoppt werden kann, arbeitet das Organ doch wie gewöhnlich. Zum anderen kann das Organ durch Spülungen nicht nur gereinigt, sondern selbst auf zellulärer Ebene mit Sauerstoff angereichert werden. So wird das Organ in einen idealen Zustand versetzt, was seine folgende Transplantation erleichtert. Auch die Kontrolle der Güte des Organs ist hier möglich, lässt es sich doch bei der Arbeit beobachten. Diese Methode findet mittlerweile auch in deutschen Krankenhäusern mehr und mehr Anwendung, wobei sie in europäischen Nachbarnationen schon weit verbreitet bishin zum klinischen Standard ist. Grundsätzlich sind zwei Varianten zu unterscheiden, die normo- und die hypotherme Maschinenperfusion: Der Unterschied liegt in der Temperierung, einerseits bei normaler Körpertemperatur und andererseits bei niedrigen Temperaturen im 4°C Bereich.

Die Größe der klassischen Perfusionsmaschinen im stationären Gebrauch vor Augen ist das Problem des Transportes offenkundig: Wie müssen Transportboxen gestaltet werden, um gleichzeitig mobil zu sein und die Rahmenbedingungen zu bieten, die die Perfusion benötigt? Lukas Hauck, mittlerweile Masterstudent an der Hochschule Schmalkalden, konnte dieser Aufgabe im Zuge der Erstellung seiner Bachelorarbeit bei der senetics healthcare group GmbH & Co. KG in Ansbach nachgehen. Das innovative und interdisziplinäre Dienstleistungsunternehmen widmet sich einem breiten Spektrum von Aufgaben im Bereich der Medizintechnik, das vom konzeptionellen Design über die Fertigung von Prototypen bis hin zu Fragen der Zulassung medizinischer Produkte reicht. Im Rahmen des DeLiver[i]– Projektes bestand die Aufgabe des Unternehmens in einer Machbarkeitsstudie: Wie lassen sich die funktionalen Aufgaben einer solchen Transportbox technisch realisieren und wie können die regulatorischen und normativen Vorgaben, die mit der Zulassung einhergehen, erfüllt werden[BT1] ?

Gerade bei Lebertransplantaten ist der Nutzen der Maschinenperfusion offensichtlich: Gespendete Lebern weisen oft Mängel auf, die durch den klassischen Transport zunehmen, wodurch letztlich eine Vielzahl an Lebern unbrauchbar werden würden. Zugleich ist der Bedarf an Lebertransplantaten gestiegen und kann kaum mehr gedeckt werden. Eine 2018 im Fachmagazin Natur veröffentliche Studie mit 220 Lebertransplantationen zeigte, dass die Raten von Transplantatschäden und verworfenen Organen bei der normothermen Maschinenperfusion von Spenderlebern im Vergleich zur kalten Lagerung um 50 % niedrigerer liegt. Zugleich, und dies ist ein für den Transport zentrales Kriterium, lässt sich die mittlere Lagerungszeit ohne negative Auswirkungen auf das Organ um 54 % verlängern.[ii]Die Maschinenperfusion kann also helfen, die Qualität, aber vor allem die Quantität der verfügbaren Organe wie Lebern in einem beachtlichen Maße zu steigern und so dem anhaltenden Organmangel entgegenzuwirken.[iii]

Vom Reißbrett auf dem Weg in die Wirklichkeit

Hauck wurde im Unternehmen direkt eingebunden und mit der Lösung der Aufgabe der Elektronik und Sensorik betraut: Hierbei ging es darum, Mittel und Wege zu finden, das Berechnungsmodell eines Temperierungskonzeptes der Transportbox technisch umzusetzen. Fragen waren: Wie und wo muss die Temperatur gemessen werden, wie lässt sich die Temperatur effizient kontrollieren, wie kann der Bedarf an Energie minimiert werden, was ist die notwendige Heizleistung, welche Energiequellen sind nötig? Im Unterschied zum passiven System des Kalttransports brauchen aktive Systeme wie die der Perfusionsmaschinen eine gesicherte, stabile Energieversorgung: Weil die Temperatur selbst nur um wenige Grade schwanken darf, muss die Sensorik nicht nur fein sein, sie muss auch an verschiedenen Stellen messen und die Temperatur schnell regeln können. Auf kleinerem Raum hieß es, die elektronischen Bauteile wie Sensoren in die Transportkiste zu integrieren und diese zugleich in ihren Maßen kompakt zu halten. Daneben stellten sich auch ganz lebensnahe praktische Probleme: Wie mit den verschiedenen Stromanschlüssen umgehen, die es in Krankenhäusern, Autos und Flugzeugen gibt?

Das Projekt DeLiver, gefördert vom Bundesministerium für Wirtschaft und Energie, an dem sich neben senetics auch weitere Firmen der Healthtech und auch die Technische Hochschule Köln beteiligten, will einen sicheren Transport des Organs von der Entnahme bis zur Transplantation in einen Empfänger ermöglichen, währenddessen das Organ perfundiert und oxygeniert wird.[iv] Neben der technischen Machbarkeit war auch die Wirtschaftlichkeit eine Herausforderung: Anders als die Styroporboxen des klassischen Transports sind die komplexen Bauteile, wie sie die mobilen Maschinen sind, zu teuer, um komplett als Einmalprodukt gestaltet zu werden. Das System soll also einen großen Anteil an wiederverwendbaren Teilen haben und nur diejenigen Teile, welche in direkten Kontakt mit organischem Material kommen, sollen durch den Anwender unkompliziert zu wechseln sein. Die Wiederverwendbarkeit macht also ebenso ökonomisch wie ökologisch Sinn, schafft aber neue Aufgaben, die die involvierten IngenieurInnen lösen mussten.

Lukas Hauck fand in Ansbach ein bereicherndes und hilfsbereites Arbeitsumfeld, das ihm die Freiheit gab, zu tüfteln, wie ein hilfsbereites Geländer, falls er mal nicht weiterkam. Die Möglichkeit, sich im Rahmen von Abschlussarbeiten in die (inter-)nationalen Förderprojekte eines Unternehmens einzubringen und von den praktischen Erfahrungen angewandter Wissenschaft zu profitieren, bietet senetics auch weiter Studierenden aus dem Bereich der Medizintechnik gerne an.[v] Aber auch die Betreuung an der Hochschule tat das ihrige, Haucks Forschung produktiv zu unterstützen. Am Ende des Praktikums entstand zu diesem Thema an der Hochschule Schmalkalden eine Bachelorarbeit, die jüngst mit dem TEAG-Förderpreis ausgezeichnet wurde. Die Laudatio zur Übergabe, die Teil der feierlichen Immatrikulation 2022 war, hielt Prof. Roy Knechtel, der auch der Betreuer des Preisträgers an der Hochschule Schmalkalden war.

__________________________


[i] Näheres zum Projekt des DeLiver Lebertransportsystems: https://senetics.de/one-stop-shop-dienstleistungen-medizintechnik/foerderprojekte/deliver/

[ii] https://www.transplant-campus.de/nierentransplantation-lebertransplantation-herztransplantation-highlights/lebertransplantation/lebertransplantation-journal-club/normotherme-maschinenperfusion-bei-lebertransplantation/

[iii] Ein sehenswerter Vortrag: Maschinenperfusion in der Lebertransplantation Deutschland, Georg Lurje, Leipzig, DCK 2022. [https://www.youtube.com/watch?v=DgKegrG3Lno]

[iv] https://www.th-koeln.de/hochschule/kick-off-veranstaltung-des-neuen-forschungsprojektes-deliver_68509.php

[v] Ansprechpartner bei Senetics sind:

Dr. Wolfgang Sening // CEO // Mail: wolfgang.sening@senetics.de // Tel: +49 981 9724 795 – 0

Philip Eschenbacher, M.Sc. // Head of R&D // Mail: philip.eschenbacher@senetics.de // Tel: +49 981 9724 795 – 0