Die Vermessung des Klimas. Über Crowdsourcing als Instrument der Meteorologie

Die Vermessung des Klimas. Über Crowdsourcing als Instrument der Meteorologie

In den letzten Jahren konnten wir vermehrt ebenso trockene wie heiße Sommermonate erleben, in denen sich unsere Innenstädte zum Teil stark erwärmten. Gerade stark bebaute, versiegelte Stadtteile wiesen signifikant erhöhte Temperaturen auf und machten offenkundig, wie nützlich Grünflächen, Bäume und Wasserläufe für die Abkühlung urbaner Areale sind.

Nicht nur unterscheiden sich die klimatischen Bedingungen von Städten und ländlichen Gebieten, auch zwischen den Zentren und den Randzonen der Städte selbst treten Abweichungen auf. Zwar bestehen diese Temperaturunterschiede ganzjährig, im Sommer zeitigen sie jedoch spürbarere Effekte: So nahm die Zahl an Tropennächten, in denen die Temperatur nicht unter 20 Grad Celsius fällt, in stark verdichteten Innenstädten in der jüngsten Vergangenheit zu. Bis zu dreimal häufiger tritt dieses Phänomen mittlerweile auf. Die Hitze wird dabei von den versiegelten Flächen gespeichert und langsamer abgegeben als in begrünten und beschatteten Bereichen. Dieses Phänomen wird als urbaner Hitzeinseleffekt (UHI-Effekt) bezeichnet und wird uns als Folge des Klimawandels bereits in naher Zukunft noch häufiger betreffen.

Die Randlagen der Städte neigen demgemäß deutlich weniger zur Hitzebildung und -konservierung. Diese Abweichungen werden von den üblichen Instrumenten zur Ermittlung der Temperatur nur ungenügend erfasst, findet die Messung doch zumeist zentral an einem Ort statt und deckt so nicht den ganzen Stadtraum ab. Eine Bürgerinitiative in Bamberg nahm die Unterschiede zwischen der statistischen und der wahrgenommenen Temperatur zum Anlass für eine experimentelle Messung: An verschiedenen Stellen der Stadt wurden die Temperaturen über einen Tag stündlich abgetragen und verglichen, wobei sich Abweichungen von bis zu sieben Grad Celsius ergaben. Das Phänomen unterschiedlicher Wärmeentwicklung und die weitgehenden Effekte auf die Menschen vor Augen, lässt sich fragen, ob es nicht andere Möglichkeiten gibt, an meteorologische Daten zu kommen, die ein umfassenderes und detailliertes Bild zeichnen.

Klassisches Instrument zur Ermittelung der Umgebungstemperatur

Was ist Crowdsourcing?

Eine Möglichkeit besteht darin, die Quellen der Daten zu erhöhen und damit zugleich eine erweiterte räumliche Abdeckung zu erreichen. In den letzten Jahren hat sich die Anzahl an Sensoren, die uns in unserem Alltag begleiten, massiv erhöht. Dies reicht von den offensichtlichen Smartphones, in denen selbst verschiedene Sensoren Platz finden, bis hin zu sensorischen Anlagen in Autos und smarten Geräten wie Fitnessarmbändern und Ähnlichem. Nicht zuletzt haben sich durch die Verbreitung und Verfügbarkeit leistungsfähiger Sensoren die Preise für hochwertige, vernetzte Wetterstationen für die private Nutzung stark vergünstigt.

Durch diese Sensoren wird unsere Welt beständig vermessen und zugleich ein umfassender Pool an Informationen gesammelt. Neben den mittlerweile üblichen Kameras und Mikrofonen sind in diesen Geräten auch Sensoren verbaut, die meteorologische Daten erheben können. Über eine Verkopplung mit ebenfalls verfügbaren GPS Koordinaten ließe sich so eine Vielzahl an Wetterdaten und Metadaten erzeugen. Eine andere Möglichkeit, um die Datenlage zu erweitern, bietet sich im Rückgriff auf private Wetterstationen, die zugleich mit dem Internet verbunden sind. Auch über sie kann die Quellensituation immens erweitert werden.  Gerade weil im letzten Jahrzehnt die Verfügbarkeit und Bedienbarkeit von Instrumenten der Umweltbeobachtung leichter wurde, können sich nunmehr auch Laien an der Gewinnung und Auswertung von Daten beteiligen. Zugleich sind diese Daten durch die Netzwerkwerkfähigkeit der Geräte und die weiter reichende Abdeckung mit dem Internet universell und in Echtzeit abrufbar. Nicht zuletzt erlaubt die moderne Datenverarbeitung eine effiziente Datenselektion und die Übermittlung von Metadaten über den Standort, die Aufstellung und den Sensortyp, die für die Einschätzung der Messwerte relevant sind.

Just dieser Vorgang lässt sich als Crowdsourcing fassen, also der Vervielfältigung der Quellen von Datenmaterial außerhalb der Standardmessnetze. Zugleich besteht die Herausforderung in der Nutzung dieser Quellen darin, die Qualität der Daten und damit die Validität der Messungen gewährleisten zu können. Welche Instrumente eignen sich unter welchen Umständen für die Ermittlung von welchen Daten, wie lassen sich Messfehler vermeiden? Oder anders: Was sind die Bedingungen und Möglichkeiten der Nutzung von Crowdsourcing zur Gewinnung von atmosphärischen Messdaten? Und: Wie lassen sich Fehler in der Messung vermeiden und wie können Programme fehlerhafte oder unsichere Daten aussortieren? Genau diesen Fragen geht einer Gruppe von Forschenden in einem Beitrag für die Fachzeitschrift „Gefahrstoffe. Reinhaltung der Luft“ nach, an dessen Erstellung sich auch Prof. Roy Knechtel von der Fakultät für Elektrotechnik an der Hochschule Schmalkalden beteiligte, der an dieserHochsule für angewandte Wissenschaft die Professur fur autonome, intelligente Sensoren innehat. Dabei dient der Artikel auch der Vorbereitung einer entsprechenden VDI-Richtlinie, in die Fragen der Sensortechnik, der Sicherung der Datenqualität und die Möglichkeiten der Datenverarbeitung aufgegriffen werden sollen.

Was sind die Bedingungen für die Messung von Sensoren ?

Die Anhebung der Quantität heißt nicht automatisch, dass sich auch die Qualität der Daten erhöht. Für die verschiedenen Aufgaben der Ermittlung von Temperatur, Luftdruck und Luftfeuchte braucht es unterschiedliche, spezifische Sensoren und angepasste technische Lösungen. Die Herausforderungen der Umsetzung sind neben der erforderlichen Qualität der Detektion auch Variablen der Effizienz, also unter anderem der Energieverbrauch, und die Komplexität der Integration.

Die hohen Anforderungen an Messeinrichtungen und Sensoren stellen wiederum Ingenieure speziell der Elektrotechnik vor Herausforderungen: Welche Charakteristika müssen die Sensoren und die sie fassenden Bauteile aufweisen, damit die Funktionalität gewahrt bleibt und zugleich die meteorologischen Daten verlässlich erhoben werden können? Um nur ein Dilemma zu nennen, das abgewogen werden muss: Einerseits müssen die Instrumente von ihrer Umwelt getrennt werden, andererseits müssen sie einen möglichst direkten und unverstellten Zugang zum Messobjekt haben.

Nicht alle Geräte, in denen Sensoren verbaut sind, eignen sich in gleicher Weise: Smartphones, die eine hohe Verbreitung aufweisen, haben über ihre Sensoren keinen direkten Kontakt zur der sie umgebenden Luft und werden zudem eng am Körper getragen. Im momentanen Stand der Technik eignen sie sich folglich nicht zur Bestimmung der Temperatur. Dagegen sind die in privaten Smart Homes verbauten Instrumente zumindest teilweise für die Messung geeignet. Ab davon bietet sich im Rückgriff auf privat genutzte Wetterstationen die Möglichkeit, auf einen großen und weit verteilten Datenpool zurückgreifen zu können.

Die Aufgaben der Messinstrumente der Reihe nach: Niederschlagsmenge, Temperatur, Windrichtung und -stärke (per Ultraschall)

Smarte Sensoren und ihre Herausforderungen

Als Smart-Sensoren werden Sensoren bezeichnet, die über die Messgrößenerfassung hinaus auch die Signalaufbereitung und -verarbeitung in einem Objekt vereinigen, die anders gesagt „eine funktionelle und konstruktive Einheit eines oder mehrerer Sensorelemente und einer geeigneten Elektronik (VDI Gefahrstoffe 82 (2023), Nr. 07-08, S. 212) bilden. Die meteorologischen Messelemente zum Zwecke der Ermittlung von Temperatur, Feuchte, Luftdruck und Strahlung konnten erst in den letzten Jahrzehnten auf den Chips integriert werden. Nicht nur konnte die disponible Anzahl der Sensoren vergrößert und gleichzeitig ihre Kosten reduziert werden, auch ihre Qualität der Messtechnischen Eigenschaften konnte sichergestellt werden.

Als Beispiel soll hier nur die Sensortechnik Erwähnung finden, die zum Messen der Temperatur dient. Auch wenn es möglich ist, eigene Sensoren einzubauen, die die Lufttemperatur über Messwiderstände ermitteln und letztlich nahe an der klassischen Messung über Widerstandsthermometer bleiben, ist eine andere Lösung weitaus effizienter, greift diese doch auf schon vorhandene, thermosensible Elemente in integrierten Schaltkreisen zurück. Grob vereinfacht wird hierbei auf den Abstand zwischen Leitungs- und Valenzband des Siliziums zurückgegriffen, der sich mit der Temperatur verändert. So vermindert sich der Aufwand ohne dass die Qualität der Messung Einbußen erführe. Speziell die Ermittlung der Temperatur hat aber ihre Tücken: Weder darf die Messeinheit direkt dem Sonnenlicht ausgesetzt sein noch zu nahe an die Wärme reflektierenden oder absorbierenden Strukturen wie Wänden. Auch müssen die Messgeräte den Stau von Wärme vermeiden und für eine beständige Belüftung sorgen. Eine valide Messung der Temperatur muss all diese Faktoren beachten.

Neben der Luftfeuchte und dem Luftdruck lässt sich auch die Sonneneinstrahlung und die Konzentration verschiedener Gase ermitteln. Des Weiteren können auch die Richtung und die Stärke des Windes gemessen werden, die Menge des Niederschlags sowie die Bodenfeuchte und Bodentemperatur. Wiederum sind für jede die Aufgaben spezielle Instrumente der Messung zu entwickeln, die die Erhebung der Daten in der gebotenen Exaktheit erlauben. Die Windstärke wird beispielsweise weniger über minimalisierte Propeller gemessen, ist deren Verschleiß doch zu hoch, sondern mit Hilfe von Ultraschall.

Innenansicht des Instruments zur Niederschlagsmessung (Niederschlagswaage). Funktion: Flüssigkeit wird über den Trichter (s.o.) gesammelt und auf die Schaufel transportiert. Bei einem gewissen Füllstand klappt diese dann um und die zweite Schaufel wird gefüllt. Jeder Umschlag der Wippe wird dann als Gesamtvolumen zusammengenommen.

Was ist die Aufgabe der VDI-Richtlinien

Der Artikel, eine Kooperation von Thomas Foken, Benjamin Bechtel, Matthias Budde, Daniel Fenner, Roy Knechtel und Fred Meier dient der Vorbereitung einer entsprechenden VDI-Richtlinie. Diese technischen Normen werden vom Verein Deutscher Ingenieure (VDI) aufgestellt: Sie halten Empfehlungen, Standards und Regeln im Bereich der Ingenieurwissenschaften bereit und dienen kurz gefasst als grundlegende Orientierung und Vereinheitlichung ingenieurwissenschaftlicher und angewandter Arbeit. Es geht also um einen Grundstock an Empfehlungen für Ingenieur:innen im Umgang mit Geräten, Medien und u.a. Techniken. Gerade bei neuen technologischen Entwicklungen wie dem Crowdsourcing stellen die Richtlinien die Qualität und die instruktive Verwendung in einem sich schnell entwickelndem Forschungsfeld sicher.

Neben Kriterien der Beurteilung und Bewertung stellen die Richtlinien Hilfestellungen in Form spezifischer Arbeitsunterlagen und Entscheidungshilfen bereit. Zudem geben sie Einschätzungen der technischen Standards und Anleitungen der Anwendung. Kurz zielt dies auf technische Prozess- und Problemlösungen und deren gelingende Realisierung. Damit die meteorologischen Daten des Crowdsourcings also zu validen, verlässlichen Quellen der Information werden können, engagieren sich Forschende wie Roy Knechtel ehrenamtlich an der Erstellung von VDI-Richtlinien.

Simulationen als Instrumente der Optimierung: Über die Forschungen von Jun.-Prof. Andreas Wirtz

Simulationen als Instrumente der Optimierung: Über die Forschungen von Jun.-Prof. Andreas Wirtz

Um ihre Funktion optimal erfüllen zu können, müssen komplexe Werkzeugmaschinen wie Fräsmaschinen unter möglichst idealen Bedingungen eingesetzt werden, was beispielsweise die Prozessgestaltung und -auslegung anbetrifft. Hierbei besteht oft ein Dilemma, zwischen dessen Extremen abgewogen werden muss: Zwar sorgen gesteigerte Prozessparameter bei Zerspanprozessen für eine erhöhte Produktivität, jedoch kann dies bei ungünstigen Prozessauslegungen zu Einbußen in der Qualität der gefertigten Produkte führen. Zudem können die verwendeten Werkzeuge und Maschinen in Folge erhöhter Belastungen schneller verschleißen. Auch bezüglich der Kosten- und Energieeffizienz wirkt sich die Prozessgestaltung wesentlich aus. Aufgrund einer multifaktoriellen Kostenstruktur und vieler Einflussgrößen sind aber auch hierzu viele Daten und oft aufwändige Optimierungszyklen notwendig. Somit gilt es, verschiedene Variablen und Einflussfaktoren ebenso in Betracht zu ziehen wie divergierende Ziele der Produktion.

Um Fertigungsprozesse zu optimieren ist es eine Option, Maschinen mit einem Vielerlei an Sensoren auszustatten und die entsprechenden Zielgrößen schlicht während der Produktionsprozesse empirisch zu messen. In einer idealen Variante würden diese Messungen direkte Effekte beim Herstellungsprozess zeigen und so das produktive Optimum durch Anpassungen erreicht werden können. Wie üblich ist dies in der Wirklichkeit nicht ganz so einfach: Ein zentraler Einflussfaktor für die Werkstückqualität und den Verschleiß der Werkzeuge ist beispielsweise die Temperatur, die an den Werkzeugschneiden wirkt. Leider ist es mit den sensorischen Mitteln und Instrumenten der Gegenwart nicht oder nur mit extremem Aufwand möglich, die Temperatur ausreichend exakt zu ermitteln. Ähnlich verhält es sich bei der empirischen Bestimmung der mechanischen Belastungen. Um den Fertigungsprozess dennoch optimieren zu können, bietet sich unter solchen Konditionen die Simulation als Instrument der ex-ante-Modellierung und der multivariaten Evaluierung von Fertigungsprozessen und Werkdesigns an. Auch auf makroskopischer Ebene, d. h. bei Betrachtung ganzer Prozesse, bieten Simulationsexperimente verschiedene Möglichkeiten, Prozesse ohne Produktionsunterbrechungen und Materialeinsatz schneller und somit kostengünstiger gestalten und verbessern zu können.

grafische Darstellung Fräsprozess mit Temperaturmessung
“Einsatz Finite Elemente-basierter Spanformsimulationen zur Anpassung von Fräswerkzeugen”

Die Effizienz von Simulationen

Dr. Andreas Wirtz trat zum August 2022 die Professur für Fertigungstechnik und virtuelle Pro­zessgestaltung innerhalb der Fakultät für Maschinenbau an der Hochschule Schmalkalden an. 2019 promovierte er an der TU Dortmund im Bereich der simulationsgestützten Auslegung energieeffizienter NC-Fräsprozesse. Sein Forschungsschwerpunkt war hierbei die Mehrzieloptimierung von Fräsprozessen unter Berücksichtigung der Werkstückqualität, benötigten Prozesszeit und dem Energiebedarf. Hierzu gehörte die modellbasierte Abbildung und Vermeidung regenerativer Werkzeugschwingungen, welche zu einer unzureichenden Werkstückqualität und erhöhtem

Werkzeugverschleiß oder Werkzeugversagen führen können. Neben der Werkstückqualität stand auch der Energieverbrauch in seinem Fokus: Welche Vor- und Nachteile bieten verschiedene Bearbeitungszentren und Prozessauslegungen unter den Parametern der Werkstückqualität, der Produktivität und der Energieeffizienz? Oder anders: Unter welchen Zielvorgaben ist welche Maschine mit welchen Parametereinstellungen für welche Verfahren am besten geeignet? Die computergestützte Simulation von Fertigungsprozessen bietet hierbei den Vorteil, bereits vor der Durchführung kosten- und aufwandsintensiver Versuche und Anpassungsmaßnahmen optimierte Prozesse zur effizienten Herstellung von Produkten mit anforderungsgerechter Qualität gestalten zu können. So können Neuplanungen und Anpassungsmaßnahmen besonders auch für flexible Fertigungssysteme effizient geplant und virtuell erprobt werden.

Ablauf Fräsprozess - Collage
“Ablauf Fräsprozess”

Smarte Kreisläufe in der industriellen Produktion

Die Simulation sowohl von Produktionsprozessen als auch von komplexen Fabriken gewinnt im Zuge der Einführung von Maßnahmen zur Digitalisierung, Vernetzung und Autonomisierung der industriellen Produktion sowie deren Verschränkung mit modernen Informations- und Kommunikationstechnologien an immer mehr Einfluss. Auch wenn es dem Begriff selbst an konzeptioneller Schärfe mangelt werden diese Transformationen in der öffentlichen Debatte häufig unter dem Signum Industrie 4.0 rubriziert. Ziel ist es, ganze Wertschöpfungsketten in Echtzeit zu optimieren und bei laufender Produktion flexibel auf Veränderungen der Anforderungen, innerhalb der Prozesse selbst und beispielsweise der Umweltbedingungen reagieren zu können. Dies meint, dass in den langen und komplexen Produktionsketten der modernen Industrie die Verzögerung eines Teilabschnitts nicht den gesamten Prozess aufhält, sondern sich dieser umstellt und seine verschiedenen Abläufe anpasst.

Das Zielsystem, um das es hier geht, ist also kein statisches, sondern ein flexibles, das sich je nach Faktoren, Bedingungen, verändern kann. Ein Aspekt in dieser komplexen digitalisierten Organisation der Produktion sind die Fertigungsprozesse selbst, also zum Beispiel die Fräsprozesse. Die Digitalisierung bietet dabei zugleich die Möglichkeit, natürliche Ressourcen zu schonen und dem Aspekt der Nachhaltigkeit ein ihm gebührendes Gewicht zuzuerkennen. Über die digitale Vernetzung des Produktionsprozesses besteht auch die Chance, anforderungsgerechte, effiziente Verfahren zu etablieren.

Ein Teilaspekt dieser Digitalisierung ist wiederum die Simulation der Herstellungsprozesse zum Beispiel in Form digitaler Zwillinge. Diese virtuellen Abbilder mitunter ganzer Fabriken dienen der Analyse und Evaluation von Anpassungsmaßnahmen und deren Effektivität, um schließlich die Flexibilität der ganzheitlichen Produktion und ihr Leistungsniveau abschätzen zu können. Durch Integration von Simulationsmodellen können Anpassungsmaßnahmen in verschiedenen Varianten vor dem Ausrollen erprobt und validiert werden.

Schutzschichten in unwirtlichen Umgebungen

Ein bereits abgeschlossenes Forschungsprojekt unter Mitwirkung von Prof. Wirtz ist die mechanische Nachbehandlung von Korrosionsschutzschichten. Hierbei geht es um den Schutz der von ihrer Umwelt stark belasteten Strukturelemente beispielsweise von Offshore-Windenergieanlagen. Damit sich die Investitionen in die Windkraft nachhaltig lohnen, sollten die Anlagen so lange wie möglich ohne Beschädigungen und notwendige Reparatur- und Instandhaltungsarbeiten auskommen können. Die rauen klimatischen Bedingungen der Nordsee vor Augen wird klar, wie groß die Herausforderungen für die verwendeten Materialien sind, die langfristig Schutz vor Wasser, Wind und Salz bieten müssen.

Diese protektive Qualität können einerseits die verwendeten Materialen einholen, andererseits aber auch über spezielle Verfahren der mechanischen Bearbeitung der Schutzschichten erreicht werden. Über das nachträgliche maschinelle Oberflächenhämmern werden Schutzbeschichtungen nicht nur dichter und härter, die Oberfläche wird weniger rau und porös. Folglich bieten diese Schichten weniger Angriffsfläche für Umwelteinflüsse und Korrosion. Durch die Einbringung von Druckeigenspannungen mittels der mechanischen Nachbehandlung können auch die negativen Effekte der mechanischen Belastungen der Werkstücke durch Wind und Wellen, wie die Bildung und Ausbreitung von Mikrorissen gehemmt werden. Auch wenn also die Korrosions- und Ermüdungsvorgänge nicht vollständig aufgehalten werden können, so können ihre Auswirkungen doch miniminiert und die Haltbarkeit der Bauteile der Offshore-Windräder verlängert werden. Gleichzeitig können auf diese Weise die durch die verwendeten Beschichtungen erzeugte Umweltbelastung sowie notwendige zusätzliche Nachbehandlungsschritte, wie organische Beschichtungen, reduziert werden.

Prof. Wirtz und Studierende im Seminar; Maschinen im Hintergrund
“Prof. Wirtz und Studierende im Seminar”

Kooperative Kontakte

Prof. Wirtz wurde im Sommer 2022 als erster Juniorprofessor an die Hochschule Schmalkalden im Rahmen einer Tandem-Professur in Kooperation mit der GFE, der Gesellschaft für Fertigungstechnik und Entwicklung Schmalkalden e. V., berufen. Als Teil des bundesweiten Förderprogramms „FH-Personal“ sollen diese Professuren Nachwuchswissenschaftlern den Einstieg in eine wissenschaftliche Karriere erleichtern. Zu gleichen Teilen arbeitet, lehrt und forscht Prof. Wirtz nun an der Hochsuche und der GFE: Neben seiner Professur ist er gleichzeitig wissenschaftlicher Mitarbeiter bei der Gesellschaft für Fertigungstechnik und Entwicklung. Ihm bietet sich so die Gelegenheit, sich neben seiner wissenschaftlichen Tätigkeit in Forschung und Lehre auch für Fachhochschulprofessuren weiterzuqualifizieren. Letztere verlangen aufgrund ihrer Schwerpunktlegung auf Fragen der Anwendung eine mehrjährige Tätigkeit außerhalb des Hochschulbereichs und dementsprechende aberufspraktische Erfahrungen.

Kurzum werden somit also zwei Fliegen mit einer Klappe geschlagen, was aber letztlich der Vereinfachung des Berufseinstiegs von Wissenschaftler:innen wie Prof. Wirtz zu Gute kommt. Im Rahmen der Tandem-Professur kann er nicht nur Forschung und Lehre produktiv verbinden, sondern auch angewandte Wissenschaft und Forschungstransfer mit der Grundlagenforschung. Diese sich so bietenden Möglichkeiten der Kombination, verknüpft durch räumliche Nähe und den kooperativen Dialog der Hochschule Schmalkalden und der GFE, macht einen Reiz dieser Stelle aus.

Gruppe von Forschenden begleiten in Altstadt Lieferrobotor

RoboTraces – Moderne Logistik mit Hilfe von Mikromobilen

Die autonome Beförderung in selbststeuernden Fahrzeugen scheint uns mittlerweile eine vertraute Vision einer nicht mehr allzu fernen Zukunft. Unzählige Akteure aus verschiedenen Bereichen von akademischer Wissenschaft über kommerzielle Projekte von Unternehmen aus der Wirtschaft bis hin zu Programmen der öffentlichen Verwaltung sind damit beschäftigt, diese neuen Formen der individuellen Mobilität zu konzipieren und ihre technische sowie rechtliche Realisierung intensiv voranzutreiben. Weit weniger Aufmerksamkeit erhalten dagegen kleinere autonom operierende Systeme, sogenannte Mikromobile, die auf Fuß- und Radwegen fahren. Diese kleinen Transportfahrzeuge bringe Waren selbststeuernd von Punkt a zu Punkt b, säubern die Umgebung oder bringen E-Roller zu Mietstationen zurück. Sie sorgen für Entlastung, indem sie zum Beispiel Senior:innen bei ihren alltäglichen Erledigungen unterstützen. Zwar ähneln sich manche der Herausforderungen zu jenen des autonomen Fahrens, es bestehen in diesem Bereich aber auch gänzlich eigene ingenieurwissenschaftliche Fragestellungen.

Im Projekt „RoboTraces. Robots are in town“ erschließt eine Gruppe von Forschenden also ein bis dato wenig beachtetes Transportmittel, das sich als ein Element im Transformationsprozess der modernen Mobilität und des Warenverkehrs ausnimmt. Prof. Sebastian Zug von der Technischen Universität Bergakademie Freiberg und Prof. Frank Schrödel von der Hochschule Schmalkalden gehen dabei nicht nur Fragen der technischen Umsetzung nach, ihr Ansatz weist ferner eine Erweiterung der Perspektive um eine rechtliche und sozialwissenschaftliche Dimension gerade in Hinsicht des praktischen Gebrauchs der Roboter und deren alltäglichen Interaktionen mit Menschen auf.

Gruppe von Studierenden beim Austausch
Workshop in Freiberg

Die kooperative Interdisziplinarität, die sich auch an den Arbeitsfeldern der beteiligten Wissenschaftler:innen ablesen lässt, dient dazu, die autonome Mikromobilität aus differenzierten Blickwinkeln zu beleuchten. Hierzu müssen unter anderem zwei Perspektiven, die sich wesentlich unterscheiden, verschränkt werden: Die Sicht der Mikromobile und die Sicht der Umwelt. Dies meint, dass sowohl die technischen Herausforderungen und infrastrukturellen Bedingungen der autonomen Logistik im Fokus stehen wie die Akzeptanzkriterien der Gesellschaft im Umgang mit den Robotern. Aus dieser Anlage wird klar, wie breit gefächert der Katalog an Aufgaben und Themen ist, denen sich die Beteiligten in dem Projekt widmen.

Das Ziel ist der Weg

Anders als die autonomen Fahrzeuge des Individualverkehrs sollen sich die Mikromobile zumeist nicht auf Straßen bewegen, sondern auf den Fuß- und Radwegen unserer Innenstädte und Wohnviertel. Sie befahren mithin Bereiche der Öffentlichkeit, auf denen sich Passant:innen auf je eigene Weise fortbewegen, mal langsam und mal schnell, mal gerade und mal mäandernd usw. Zwei Aufgaben kommen zusammen: Einerseits müssen sich die Roboter selbst steuern können und die Fähigkeiten haben, sich auf unterschiedlichem Terrain zu orientieren und Hindernisse zu erkennen sowie diese zu überwinden. Andererseits bewegen sich die Fahrzeuge in einem geteilten Raum, in welchem sie auf andere Verkehrsteilnehmer reagieren müssen. Letzteres ist ein diffiziles Problem, da diese Einschätzung untern anderem eine Qualität der Prognose, also die Abschätzbarkeit menschlichen Handelns, verlangt.

Gruppe von Menschen, zwei Personen übeprüfen Konfiguration des Lieferroboters mithilfe eines Tablets
Konfiguration der Robotor

Wie die autonomen PKWs müssen die Roboter auf ihre Umwelt achten und etwaige Gefahrenquellen erkennen, um sich möglichst sicher in dem engen, geteilten Raum der Innenstädte fortbewegen zu können. Die Transportroboter sind so zu programmieren, dass sie stoppen, sofern absehbar ein Risiko auftritt; und eben dafür müssen sie Bewegungsabläufe in einem gewissen Maße voraussehen können, also was die eventuellen nächsten Schritte sein könnten oder was es für Folgen hätte, wenn die Person spontan anhalten würde. Für diese Einschätzung bedarf es einer großen Mengen an Daten des Verhaltens von Passant:innen im öffentlichen Raum, die bislang in der benötigten Form und Qualität nicht vorliegen.

Die grundlegende Intention des Forschungsprojektes ist es, die für die Akzeptanz zentralen Parameter des Einsatzes autonomer Lieferroboter im öffentlichen Raum wie Größe, Geschwindigkeit und Abstand zu bestimmen und zudem über eine systematische Datenerhebung Interaktionsmuster und objektive Rahmenbedingungen zu konkretisieren. In zwei prototypischen urbanen Testgebieten in Gera und Freiberg wird der Einsatz der Roboter bis zum Herbst 2023 erprobt und zugleich die Reaktion der Umgebung, also der Umgang der Passant:innen mit den Robotern, gesichtet und wissenschaftlich ausgewertet. Durch die langfristige Anlage der Testphasen können verschiedene Szenarien von Licht- und Wetterverhältnissen bis hin zum unterschiedlichem Aufkommen von Passant:innen einbezogen und somit das Bild der gewonnen Daten diversifiziert und vervollständigt werden. So entsteht eine belastbare Datenlage, die weiteren Forschungsvorhaben als sicherer Ausgangspunkt dienen kann.

Die Schwere des scheinbar Leichten

Die Konstruktion solcher Roboter und die Automatie ihrer Bewegung im Raum ist dabei alles andere als ein unterkomplexes Problem. Nur als ein Beispiel wird hier auf die Herausforderung der räumlichen Wahrnehmung kurz eingegangen. Zunächst erkennen Transportroboter ihre Umwelt – neben anderen Sensoren – wenig überraschend mit Hilfe von Kameras. Aber schon wird es schwierig und wir Menschen müssen uns von unserem Zugang zur Welt trennen: Die von den Kameras erzeugten Bilder sind zunächst zweidimensionale Flächen, denen die dritte Dimension, also der Raum, fehlt. Wir müssen uns dies als ein klassisches Foto denken, auf dem alles zunächst auf einer Ebene liegt. Um hierin weitere Dimension wie den Raum und die Zeit einzutragen, die beide für das Abschätzen von Bewegungen zentral sind, bedarf es wiederum technischer Lösungen.

Austausch zweier Personen beim Workshop
Austausch beim Workshop

Ein Weg, die dritte Dimension zu integrieren, ist die Verwendung zweier Kameras und eine daran anschließende computergestützte Verarbeitung. Durch die so gewonnene Räumlichkeit lassen sich Distanzen und Bewegungen einschätzen, auch wenn es hierfür wiederum komplexer Prozesse der Datenverarbeitung bedarf, was wiederum einen Zusatz an technischem Aufwand mit sich führt. Zugleich sind im Straßenverkehr das Tempo und die Genauigkeit der Berechnung relevante Faktoren um Unfälle vorab zu vermeiden. Was also zunächst einfach klingt – die Wahrnehmung der Umwelt – entpuppt sich als eine komplizierte technische Aufgabe.

Teile des Ganzen

Zum einen befassen sich die RoboTracers mit der technischen Realisierung der Transportroboter: Wie müssen diesen für den urbanen Raum aufgebaut und gestaltet sein, um ihre Aufgaben optimal erfüllen zu können? Neben Fragen der Größe, der möglichen Reichweite und Traglast geht es auch um die Rahmenbedingungen der Infrastruktur, die in Hindernissen wie Bordsteinen, Schrägen und Löchern sowie fehlender Beleuchtung bestehen können. Auf was, für welche Situationen muss ein Lieferroboter im Zweifel vorbereitet sein? Auch Fragen wie jene der benötigten Breite der Wege spielen hier eine Rolle.

Testfahrt Lieferrobotor, begleitet von zwei Personen
Testfahrt in Freiberg

Zum anderen geht es dem Projekt um die Erhebung von Daten, die den Einsatz der Roboter unter realistischen Bedingungen abbilden und als Grundlage für die weitere Entwicklung dienen können. Die Frage ist, welches Set an Sensoren hier die notwenigen Daten über die Umgebungserfassung und das Verhalten der Passanten liefern. Ferner bedarf es komplexer Bearbeitungsprozesse, um aus einer reinen, ungeordneten und im Zweifel recht umfänglichen Sammlung an Daten nutzvolle Informationen zu selektieren.

Der dritte Teil stellt dann die Mensch-Maschinen-Beziehung in ihr Zentrum: Wie lassen sich Kriterien und Parameter eines subjektiven Sicherheitsgefühls in ein tragfähiges Akzeptanzmodell überführen? Wie müssen die Roboter aussehen und wie sollten sie sich bewegen, um einerseits nicht als potentielles Risiko oder eine Gefahrenquelle wahrgenommen zu werden und andererseits im Fußgängerverkehr nicht unterzugehen? Um sich der Interaktion zwischen Passant:innen und den Mikromobilen anzunähern, werden die Testfahrten begleitet und die Reaktionen der Umgebung videographisch festgehalten, um in einem nächsten Schritt ausgewertet zu werden. Wie es grundlegende Ansätze der Forschung an sich haben, bedarf es auch hier zunächst der Entwicklung von Maßstäben und Kriterien der Bewertung, um über diese dann weitere, vertiefende Studien ausführen zu können.

Gruppe von Menschen begleitet Testfahrt
Testfahrt in Freiberg

Nicht zuletzt geht es dem Projekt auch um die Klärung, ob und wie rechtliche Rahmenbedingungen für diese Form der Logistik notwendig sind und wie diese ausgestaltet werden müssen. Um die Fragen gesetzlicher Anpassungen im Straßenverkehrs-, Haftungs- und Datenschutzrecht eruieren zu können werden auch die Erkenntnisse aus den anderen Bereichen herangezogen. Dies soll den Weg ebnen für den späterem Einsatz der Lieferroboter und administrative Genehmigungsverfahren als Grundlage dienen.

Über die Beteiligten

Prof. Frank Schrödel hat die Professor für Antriebs-, Automatisierungs- und Robotertechnik an der Hochschule Schmalkalden inne, die an der Fakultät für Maschinenbau angesiedelt ist. Die Leitthemen seiner Forschung sind das autonome Fahren, die Industrie 4.0 und Social Robots. Die Klärung der rechtlichen Aspekte übernimmt Prof. Ulf Müller aus dem Bereich Wirtschaftsrecht an der HSM. Er ist zudem Teil des Forschungsschwerpunktes „Rechtsordnung der digitalen, nachhaltigen und standardisierten Wirtschaft und Gesellschaft“, was die Nähe zum RoboTrace-Projekt nochmals verdeutlicht.

Prof. Frank Schrödel

An der Technischen Universität Bergakademie Freiberg hat Prof. Sebastian Zug die Professur für Softwaretechnologie und Robotik und ist zugleich an der Arbeitsgruppe Softwareentwicklung und Robotik beteiligt. Seine Forschungsschwerpunkte im Horizont mobiler Systeme liegen auf der robusten Umgebungserfassung und Erreichbarkeitsanalysen in realen Szenarien.

Prof. Sebastian Zug

Neben wissenschaftlichen Mitarbeitenden und Partnern aus Politik und Wirtschaft lässt sich die Einbindung von Assistant Professor Felix Wilhelm Siebert hervorheben, der an der Technischen Universität Dänemark im Bereich der Verkehrspsychologie forscht. Neben der Experimentalpsychologie widmet er sich Mensch-Maschinen-Verhältnissen und Fragen der Fahrzeug- sowie Verkehrssicherheit.

Assistant Professor Felix Wilhelm Siebert

Zum Abschluss kann noch auf ein Video der Allianz ThürIng verwiesen werden, das aus Anlass des Workshops entstanden ist:

Wir bedanken uns für die finanzielle Unterstützung des Projektes durch das Bundesministerium für Digitales und Verkehr unter dem Förderkennzeichen 19F1117A (Förderprogramm mFUND).

Zeitinkonsistenz: Über die Hemmnisse wirtschaftspolitischer Reformen

Zeitinkonsistenz: Über die Hemmnisse wirtschaftspolitischer Reformen

Bericht aus dem Forschungssemester

Der Begriff der Zeitinkonsistenz ist ebenso komplex wie er in verschiedenen disziplinären Kontexten unterschiedliche Charakteristika aufweist. Zeitinkonsistenzen bestehen zunächst allgemeinhin dann, wenn sich ein Faktor, zum Beispiel eine Einstellung gegenüber einem Thema, im Laufe der Zeit verändert, obwohl die relevanten Einflussgrößen stabil bleiben und folglich nicht die Ursache für den Wandel sind.

Lebensweltlich lässt sich unser Verhältnis zu Diätplänen mit diesem Begriff ganz gut beschreiben: Fassen wir das Vorhaben, in zwei Wochen mit einer Diät zu beginnen, überzeugt uns dieses Ansinnen vollständig und wir sind von dessen Realisierbarkeit und unserem Willen, das Projekt nun endlich anzupacken, vollends überzeugt. Rückt aber der Zeitpunkt einer aktiven Umsetzung näher, umso mehr verliert der Plan an Attraktivität und letztlich auch an unserer Unterstützung. Begänne die Diät bereits morgen, schöben wir sie bedeutend schneller auf. In der Zeit ändert sich also die Bewertung, auch wenn die äußeren Parameter gleichbleiben.

Prof. Robert Richert aus der Fakultät der Wirtschaftswissenschaften versucht, dem Begriff eine weitere Facette hinzuzufügen und mit seiner Hilfe sowohl Phänomene der Wirtschaftspolitik zu erschließen als auch ein Konzept für die Einschätzung der sozioökonomischen Lage bereitzustellen. Nach seiner Definition liegen Zeitinkonsistenzen dann vor, wenn der relevante Zeithorizont der Entscheider kürzer ist als der relevante Zeithorizont, dessen die nachhaltige Lösung eines Problems bedarf.[1]

Gegenstände wie die demografische Zeitbombe und das Ausbleiben einer adäquaten politischen Reaktion ließen sich mit Hilfe des Begriffs beschreiben: Die Statistik der Bevölkerungsentwicklung weist seit 1972 ununterbrochen Sterbeüberschüsse für Deutschland auf. Wie es an der Geburtenrate von 1,53 Kindern pro Frau offenkundig wird, schrumpft die Bevölkerung, obgleich Zuzüge diese Entwicklung partiell abmildern. Da viele Sozialstrukturen der Bundesrepublik auf generationenübergreifenden Umlagesystemen beruhen, also beispielsweise die Renten zum großen Teil über die Beschäftigung der Arbeitnehmenden finanziert werden, resultieren aus der Diskrepanz der Bevölkerungsentwicklung auch in anderen Bereichen massive Konsequenzen.  Da folglich einer abnehmenden Zahl an Einzahlenden eine zunehmende Zahl von Empfangenden gegenübersteht, wäre es die Aufgabe der politisch verantwortlichen Personen, den negativen Effekten dieser Entwicklung vorausschauend und langfristig korrigierend zu begegnen. Zugleich spitzt sich diese Situation gegenwärtig noch mehr zu, weil in der Bundesrepublik in den nächsten Jahren die geburtenstarken Jahrgänge in Rente gehen werden und sich in der Folge das Missverhältnis weiter vergrößert.

Mit der Zeitinkonsistenz versucht sich Prof. Richert der spezifischen Frage anzunähern, warum trotz der offenkundigen Evidenz und der Relevanz des Problems sich die Politik inkompetent zu dauerhaften, strukturellen Lösungen zeigt. Die zeitliche Einengung politischen Handels wird durch den Zeithorizont von Legislaturperioden nur noch vergrößert, der das Handeln politischer Amtsträger prägt und einschneidende politische Entscheidungen in dem Maße unwahrscheinlicher macht, wie die nächsten Wahltermine näher rücken. Die Zeitinkonsistenz würde in dieser Lesart ein strukturelles Defizit periodischer Legitimierung politischer Funktionsträger bezeichnen, durch das langfristige und tiefgreifende Reformen gehemmt werden. Solche und andere Verengungen des Zeithorizontes verhindern also nachhaltige Lösungsansätze der Politik.


[1] Richert. Robert: Grundlagen der Volkswirtschaftslehre aus globaler Sicht, Wiesbaden 2021, S. 52

Forschungsdatenmanagement an Fachhochschulen. Die Hochschule Schmalkalden als Teil des neuen Kompetenzclusters FDM-HAWK

Forschungsdatenmanagement an Fachhochschulen. Die Hochschule Schmalkalden als Teil des neuen Kompetenzclusters FDM-HAWK

Forschungsdaten können in unterschiedlichen Formaten vorliegen, die untereinander inkompatibel sind oder spezifischer Programme für ihre Verarbeitung bedürfen. Die Heterogenität von Forschungsdaten, also ihre Unterschiedlichkeit, führt dazu, dass sich ihre Les- und Nutzbarkeit ebenso einschränkt wie die Möglichkeiten ihrer Verwaltung und Archivierung.

Damit die großen Datenmengen aus der praxisbezogenen Forschung an Hochschulen für angewandte Wissenschaften von Akteuren unterschiedlicher Disziplinen effizient und barrierearm aber abgestimmt und zugangsberechtigt genutzt werden können, bedarf es eines gewissen Maßes an Standardisierung des Materials und seiner Archivierung. Zu diesem Zwecke gründete sich das Kompetenzcluster FDM-HAWK, welches das Forschungsdatenmanagement (FDM) an den Thüringer Hochschulen für angewandte Wissenschaften (HAW) strukturell unterstützen will. Diese Kooperation zwischen der Fachhochschule Erfurt, der Ernst-Abbe-Hochschule Jena, der Hochschule Nordhausen und der Hochschule Schmalkalden wird dabei vom Bundesministerium für Bildung und Forschung gefördert sowie von der Europäischen Union finanziert.

Zunächst geht es in dem Projekt darum, den Status quo zu eruieren und zu analysieren, welche Bedarfe es zum Thema FDM an den beteiligten Hochschulen gibt. Hierzu werden in einem ersten Schritt Modellprojekte aus den Bereichen der Ingenieur-, Natur- und Sozialwissenschaften ausgewählt und exemplarisch über die Projektlaufzeit durch Handreichungen zum Forschungsdatenmanagement begleitet. An der Hochschule Schmalkalden trägt das entsprechende Modellprojekt der Fakultät Maschinenbau den Titel: „Kunststoffverpackungen. Nachhaltige Kreislaufwirtschaft durch Künstliche Intelligenz“ und ist selbst Teil des Themenclusters „Ganzheitliche KI-basierte Optimierung von Kunststoffverpackungen mit Rezyklatanteil“ (KIOptiPack).

Ziel des FDM-HAWK-Projektes ist es, eine Supportstruktur im Bereich FDM zu entwickeln und an den Thüringer HAWs aufzubauen. Es gilt hierbei ebenso auf die lokalen Situationen und Bedürfnisse angepasste Konzepte des Forschungsdatenmanagements zu erarbeiten wie Beispiele gelungener Umsetzung zu sammeln und als „Best Practice“-Muster in die Forschungsorganisation zu implementieren. Nicht zu vergessen ist die Schaffung der technischen Infrastruktur für das FDM und die Integration in regionale und überregionale Netzwerke. Die Untersuchungen zu den Fragen Datensicherheit und -zugänglichkeit werden ebenfalls in dem Projekt betrachtet. Wenn Forschungsdaten in Folgeprojekten weitergenutzt werden sollen, braucht es hierfür Formate und Strukturen, die Weiternutzung und auch den Austausch ermöglichen und unterstützen.

Der Ansprechpartner für das Projekt an der Hochschule Schmalkalden ist Dr. Peer Fehling.

Herr Fehling ist studierter Chemiker und hat in den letzten Jahren an unterschiedlichen Forschungseinrichtungen auf dem Gebiet der Materialwissenschaften gearbeitet. Im Zentrum seines Interesses stehen Verbundwerkstoffe mit anorganischen und organischen Matrizes, Klebstoffe und lebensmitteltechnologische Prozesse.

„Wir möchten mit dem Projekt FDM-HAWK zusammen mit unseren Projektpartnern Voraussetzungen für ein effizientes Forschungsdatenmanagement an den Hochschulen für angewandte Wissenschaften etablieren. Es geht dabei in erster Linie um eine organisierte Langzeitspeicherung der mit öffentlichen Forschungsmitteln gewonnenen Forschungsdaten. Wir reden hier über einen Zeitraum von mindestens 10 Jahren. Ob diese Forschungsdaten ausschließlich zur eigenen Verfügung des Forschenden archiviert oder teilweise anderen Forschenden im Rahmen von „Open Access“ zugänglich gemacht werden, entscheidet der Forschende letztlich selbst. Dafür steht ihm ein umfangreicher Pool sogenannter „Creative Common“-Lizenzen zur Verfügung. Wir möchten durch Informationsveranstaltungen und persönliche Gespräche die Forschenden an unserer Hochschule über diese Thematik informieren und für eine Zusammenarbeit gewinnen.“ 

Der E-Science-Day 2022. Ein kleiner Einblick in ein facettenreiches Forschungsspektrum

Der E-Science-Day 2022. Ein kleiner Einblick in ein facettenreiches Forschungsspektrum

Mitte Dezember fand der E-Science Day 22 an der Hochschule Schmalkalden statt. Ziel der halbtägigen Veranstaltung war es, die vielen Projekte und Forschungsaktivitäten an der Fakultät Elektrotechnik in die Öffentlichkeit zu tragen. Zugleich ergab sich die Möglichkeit, die Attraktivität der Studiengänge und die sich mit dem Abschluss bietenden Chancen auf dem Arbeitsmarkt den gastierenden Schulklassen aus der Region vor Augen zu führen.


Am Anfang standen die Begrüßungsworte von Prof. Maria Schweigel, die die verschiedenen Facetten der Fakultät auffächerte. Diese Übersicht über die vielfältigen Bachelor- und Masterstudiengänge diente als leitende Orientierung für die Schulklassen: Was macht die verschiedenen Studiengänge aus, worin liegen ihre Schwerpunkte des Studiums und wohin führen die möglichen Pfade nach dem Abschluss? Das gegenwärtig allzu vernehmbare Raunen des Wortes Fachkräftemangel klingt in den Ohren dieser Studierenden eher wie ein Versprechen guter und sicherer Arbeitsplätze.


Ionenkanäle als Medien des Transports


Im ersten Vortrag, gehalten von Prof. Eckhard Schulz, stand ein Thema der Grundlagenforschung im Zentrum: Ionenkanäle – das sind porenbildende Transmembranproteine, die elektrisch geladenen Teilchen, also den Ionen, das selektive Durchqueren von Biomembranen ermöglichen. Mit ihrer Steuerbarkeit durch Botenstoffe, das Membranpotenzial oder auch äußere Einflüsse, sind sie auf Zellebene nahezu an allen Lebensprozessen beteiligt, wie z.B. im Nervensystem oder bei Stoffwechselvorgängen. In diesem Forschungsgegenstand verbinden sich dementsprechend Teilgebiete aus Medizin/Biologie mit Spezialgebieten von Physik/Mathematik, wobei diese Verknüpfung auch an der langjährigen Kooperation der Hochschule Schmalkalden mit dem Physiologischen Institut des Universitätsklinikums Jena deutlich wird.

Prof. Eckhard Schulz


Prof. Schulz erläuterte, wie sich das stochastische Schaltverhalten der Ionenkanäle durch mathematische Modelle beschreiben lässt und wie man die Modellparameter aus experimentellen Daten von Patch-Clamp-Messungen ermitteln kann. Diese so besser zu verstehenden Transportprozesse sind u.a. für pharmakologische Anwendungen von Interesse, da viele Medikamente ihre Wirkung gerade durch die gezielte Beeinflussung bestimmter Ionenkanäle entfalten.


Über organisatorischen Herausforderungen der Nutzung von Windenergie


Den zweiten Vortrag übernahm Assoc. Prof. Faruk Ugranlı von der Bartin University (Türkei), der sich gerade als Gastwissenschaftler an der Hochschule Schmalkalden aufhält. Im Blickpunkt seiner Forschung steht die Infrastruktur der Energieversorgung und die Möglichkeiten und Grenzen der Nutzung von Windenergie. Der Energiebedarf moderner Gesellschaften wächst nicht nur beständig, die Energieversorgung ist auch das Fundament ihres Wohlstandes. Zu diesen Aufgaben kommt noch die Herausforderung hinzu, dass die Energie langfristig weder aus fossilen noch atomaren Quellen stammen soll. Um diesen gesellschaftlichen Auftrag der Energiewende zu einem Erfolg zu machen, ist es mithin geboten, die Potentiale regenerativer Energien für eine stabile Versorgung zu analysieren.

Assoc. Prof. Faruk Ugranlı


Die Vorteile der Windenergie liegen auf der Hand: Sie ist günstig und sauber, die Effizienz moderner Windräder immer höher. Auf der negativen Seite stehen indes ihre fehlende Konstanz und Planbarkeit, wodurch sie sich nicht als alleiniger Energieträger eignet. Zugleich sind die potentiellen Ressourcen an Windenergie ungleich verteilt: Den windreichen Küsten Norddeutschlands steht kein süddeutsches Pendant gegenüber. Folglich muss Energie verteilt werden, und dies bedarf wiederum gut ausgebauter sehr großflächige Netzwerke der Energieinfrastruktur, um für erneuerbare Energien ungünstige Wetterlagen ausgleichen zu können. Genau hierfür gilt es, Konzepte der Optimierung zu entwickeln.


Das Verhältnis von Material und Struktur


Dr. Martin Seyring, noch recht frisch an der Hochschule Schmalkalden, verband einen Rückblick auf seiner bislang verfolgten Forschungsinteressen mit einem Ausblick darauf, womit er sich an der Hochschule Schmalkalden beschäftigen will. Grundsätzlich widmet er sich der Beziehung von Material und Struktur: Welche Auswirkungen haben Herstellungsprozesse und Einflüsse wie Wärme und Druck auf die nanoskaligen Strukturen der verwandten Materialien? Welche positiven, welche negativen Effekte zeitigt dieses oder jenes Material, dieses oder jenes Verfahren; wie lassen sich nutzvolle Eigenschaften bewahren, negative Effekte vermeiden? Um diesen Phänomenen nachzuspüren, verwendet Seyring ein Elektronenmikroskop, dessen Darstellung bis zu einer Auflösung im Nanometerbereich reicht. So lassen sich kleinste und feinste Veränderungen der Struktur des Materials entdecken.

Dr. Martin Seyring


Da wir uns hier nicht in den Details verlieren können, müssen ein paar wenige Sätze zu den Forschungsprojekten ausreichen: Wie lässt sich das Material von sogenannten Supermagneten optimieren? Welche Folgen haben unterschiedliche Temperaturen für die Werkstoffe, bzw. wann verändern sich die Kristalle und welche Effekte hat dies auf den Magnetismus? Siliziumbatterien sind in unserem Alltag kaum mehr wegzudenken, dennoch sind die genauen Vorgänge in den Ladungs- und Entladungsprozessen noch recht unerforscht. Seyring ging es neben der Charakterisierung des Strukturwandels in den Graphit-Anoden um die Frage der symmetrischen oder asymmetrischen Verteilung der Ladungen und welche Folgen eventuelle Ungleichgewichte für die Stabilität der Akkus haben. Die elektronischen Kontakte von spezifischen KZF-Steckverbindungen lassen sich als drittes Beispiel anführen: Hierbei war es die Frage, wie sich der Kontakt in Anhängigkeit vom Material optimieren lässt. Wegmarken beim Verständnis auftretender Probleme bei den Steckverbindungen waren die Temperatur, die Kristallographie und mögliche Oxidrückstände auf den Stiften. An der Hochschule Schmalkalden will sich Seyring im Bereich der Halbleiter-Sensoren einbringen: Neben der grundsätzlichen Charakterisierung von Materialien soll es ihm um die Beurteilung von Füge- und Bondprozessen gehen, unter anderem in Hinsicht der Auswahl der geeignetsten der Materialien, ihrer Dicke und Kombinationen.


Die Alltäglichkeit von Sensoren


Krankheitsbedingt konnte ein Teil der Vortragenden nicht vor Ort sein. Prof. Roy Knechtel übernahm es, die angedachten Themen vorzustellen. Jonas Distel untersuchte die Funkübertragungsstandards für die Umsetzung neuer Geschäftsprozesse und die Optimierung der Energielieferung bei Energieversorgungsunternehmen. Fragen waren neben der Verbreitung und Belastbarkeit der Datenverbindungen auch die Abwägung zwischen kommerziellen und nicht kommerziellen Modellen. Frau Dr. Manuela Göbelt ist Program-Managerin bei der X-FAB MEMS Foundry GmbH und befasste sich mit dem Thema: “Wafer Level Packaging for Advanced MEMS based on Wafer Bonding and TSVs” und arbeitet dabei eng mit Prof. Knechtel zusammen. Wie Roy Knechtel beispielhaft an modernen In-Ear-Kopfhörern vorführte, ist zeitgemäße, mittlerweile allgegenwärtige Technik voll mit hochkomplexen, kleinen Sensoren. Die technische Finesse ist auch anhand aktueller Smartphones und ihren Möglichkeiten offenkundig: Neben Lautsprechern und Mikrophonen beinhalten diese Navigations- und Ortungselemente, Fotosensoren und Temperaturmesser usw. Und dies alles auf kleinstem Raum. Die Forschung geht hier in Richtung der Optimierung und weiteren Minimierung der verschiedenartigen Komponenten wie Sensoren, sollen die Endgeräte doch immer kleiner und flacher dabei aber auch immer leistungsfähiger und komfortabler werden.

Prof. Roy Knechtel


Kurzum lässt sich festhalten: Das Tableau der Projekte und Forschungsvorhaben an der Fakultät der Elektrotechnik ist mannigfaltig und bietet Forschenden verschiedene Möglichkeiten, ihre kreative Neugier auszuleben und Vorhaben umzusetzen. Hierzu passend stand am Abschluss des Tages das Schülerforschungszentrum im Fokus, welches demnächst in Räume der Fakultät der Elektrotechnik umzieht und sich die Räumlichkeiten mit einem neuen Elektrotechniklabor für Studierende teilen wird. Damit Schülerinnnen und Studierende sich auch künftig ihrem Forschungsdrang nachgehen können, bemüht sich unter anderen Prof. Knechtel gerade darum, einen Grundstock an technischer Ausrüstung am neuen Ort zusammenzutragen und zur Verfügung zu stellen. Wissenschaft beginnt mit einem neugierigen Blick auf die Welt: Genau hier will das Schülerforschungszentrum, auch mit Unterstützung der Fakultät Elektrotechnik, ansetzen und die Reise der Entdeckung unterstützend begleiten.

Mensch – Interaktion – Technologie: Über einen Forschungsschwerpunkt an der Hochschule Schmalkalden

Mensch – Interaktion – Technologie: Über einen Forschungsschwerpunkt an der Hochschule Schmalkalden

An der HSM gründete sich jüngst ein interdisziplinärer Forschungsschwerpunkt mit dem programmatischen Titel „Mensch – Interaktion – Technologie“, kurz MIT. Die drei das Projekt tragenden WissenschaftlerInnen stellen verschiedene gesellschaftlich relevante Herausforderungen unserer digitalen Moderne in den Fokus ihrer Forschung: Wie lassen sich menschenzentrierte, interaktive Technologien als physische und virtuelle Ressourcen nutzen? Wie kann eine schwellenarme Kommunikation zwischen Mensch und Maschine im Alltags- und Arbeitsleben organisiert werden und wie lässt sich diese Beziehung in Zukunft weiter optimieren?

Offene Horizonte der digitalen Moderne

Wie wird die Welt von morgen aussehen? Verglichen mit dem Gestern ist zu vermuten, dass die Momente der Digitalisierung und Automatisierung ebenso anhalten wie die Durchdringung unserer Alltags- und Arbeitswelten mit hochkomplexen Geräten und Applikationen. Technologische Innovationen nehmen sich demgemäß als hilfreiche Stützen und Erweiterungen unserer Handlungs- und Kommunikationsmöglichkeiten aus, deren zukünftige Potentiale gegenwärtig noch kaum abschätzbar sind.

Die Veränderungen gewinnen nur langsam Kontur, zeitigen aber bereits heute markante Einschnitte im Alltag, wie es an der Bedeutung von Smartphones deutlich wird. Aber auch in anderen Bereichen wie der Automatisierung der Logistik und der unterstützenden Robotik in der Pflege wird die Transformation zunehmend greifbar.

Interdisziplinarität als Schlüssel

Mensch – Interaktion – Technologie: Dieses Dreiecksverhältnis steht im Fokus eines Forschungsschwerpunktes an der Hochschule Schmalkalden. Innovative Technologien wie Roboter, Interfaces und auch Applikationen können Menschen in ihrem Alltag ebenso unterstützen wie in ihrem Arbeitsleben entlasten. So könnte ein Großteil monotoner, industrieller Routinearbeiten und viele Warentransporte zukünftig von autonomen Maschinen übernommen werden. Kurzum geht es darum, das Arbeiten der Menschen einfacher und ihr Leben leichter zu machen. Damit die technischen Angebote allerdings ihre Potentiale vollends ausschöpfen können, müssen sie von den Menschen angenommen und in ihr Leben, Arbeiten und Handeln integriert werden.

Um die Beziehung von Mensch und Technik zu verstehen, ist ein interdisziplinärer Zugang geboten, der verschiedene Fachbereiche wie Maschinenbau, Informatik und Psychologie kooperativ verbindet. Die Vielfältigkeit der je eigenen Perspektiven und Methoden erlaubt es, das Phänomen aus verschiedenen Blickwinkeln zu beleuchten und in seinen Facetten zu erhellen. Die Disziplinen verschränken sich also konstruktiv in ihrem leitenden Erkenntnisinteresse, dem Verhältnis von Mensch, Interaktion und Technologie.

Zwischen Mensch und Maschine

Die Möglichkeiten technischer Innovation treffen auf Erfahrungen und Wertmaßstäbe von Individuen: Wie entsteht Vertrauen? Oder schwächer: Wie lassen sich abwehrende Affekte vermeiden, Berührungsängste abbauen? Welche Optik, welche Geschwindigkeit müssen technische Geräte wie Lieferroboter aufweisen, um beispielsweise im Straßenverkehr nicht als Hindernis wahrgenommen zu werden? Welche Schwellen stören die Interaktion, welcher bedarf es? Aber auch anderes herum: Wie kann Technik menschliches Verhalten besser einschätzen lernen, wie angemessener reagieren? Genau um diese Beziehung kommunikativer Interaktion von Mensch und Maschine geht es dem Forschungsschwerpunkt an der Hochschule Schmalkalden.

Abseits der Frage der technischen Realisierbarkeit ist es also von ebensolcher Relevanz, wie Individuen und Gesellschaften auf die Veränderungen und Umbrüche, die mit neuen Technologien einhergehen, reagieren: Was technisch möglich und umsetzbar ist, muss ebenso im Fokus stehen wie ein Verständnis dessen, wie Menschen mit den Apparaten umgehen, was sie von den angebotenen Lösungen erwarten und was es ihnen erleichtert, auf die Unterstützung von Maschinen zurückzugreifen. Im Blick des MIT sollen demzufolge nicht nur innovative Geräte und Applikationen stehen, sondern auch der individuelle und soziale Umgang mit diesen Technologien.

Die beteiligten ForscherInnen

Prof. Hartmut Seichter lehrt seit 2014 an der Fakultät Informatik auf dem Gebiet der Computergrafik. Er forscht zu den Themen Augmented Reality, Virtual Reality, Emerging Interfaces, Digital Design, 3D Modellierung und 3D Rekonstruktionen.

Prof. Lenka Duranova lehrt seit 2021 als Professorin für Wirtschaftspsychologie an der Fakultät Wirtschaftswissenschaften. Aktuell forscht sie zu Erholung und Wohlbefinden von Beschäftigten in der digitalisierten Arbeitswelt. Darunter fallen Themen wie Technologie-Anforderungen, Informationsflut, ständige Erreichbarkeit, Technostress, Telepressure, Selbstregulation, Schlafqualität, Arbeitszufriedenheit, Mitarbeiterbindung und Produktivität.

Prof. Frank Schrödel lehrt seit 2020 als Professor für Automatisierungstechnik und Robotik an der Fakultät Maschinenbau. Er forscht zum Thema Autonomes Fahren, Industrie 4.0 und Social Robots. Hierbei nehmen zwei Themen eine zentrale Rolle ein: Feinfühlige Roboter und selbstoptimierende Automatisierungslösungen.

Organe, Pumpen und künstliche Körper. Über den Beitrag des TEAG-Preisträgers Lukas Hauck zum Transport von Organen

Organe, Pumpen und künstliche Körper. Über den Beitrag des TEAG-Preisträgers Lukas Hauck zum Transport von Organen

Denken wir an Organspenden, sehen wir Bilder von Operationssälen vor uns, Bilder von technischem Gerät und sterilem Instrumentarium, Bilder von ebenso konzentriertem wie angespanntem medizinischem Personal in grünen und blauen Kitteln. Es geht dabei um viel: Die entnommenen Transplantate helfen Menschen, deren Organe nicht mehr oder nur noch unzureichend arbeiten. Durch den medizinischen Eingriff und den Ersatz ihrer Herzen und Lungenflügel, ihrer Nieren und Lebern, kann häufig das Leben der Betroffenen nicht nur verbessert, sondern oftmals gar gerettet werden.

Die klassische Organspende – Kalt, aber funktional

Ab von den bekannten Bildern gibt es auch bei diesem Thema Bereiche, die zwar ein gewisses Schattendasein fristen, aber von höchster Relevanz für die Organisation und den Erfolg von Organspenden sind. Transplantationen müssen nicht nur möglichst zügig, also innerhalb weniger Stunden, vollzogen und von einem professionellen, stets abrufbereiten Team vorgenommen werden, sie müssen auch jene räumliche Distanz überwinden, die häufig zwischen den Personen des Spenders und jener des Empfängers liegt. Somit stellt sich die Aufgabe, Organe zu transportieren, möglichst schnell und sicher.

Der Goldstandard der Organverbringung ist bislang der Kalttransport, bei dem die Organe in einer speziellen Lösung gekühlt in besonderen Styroporboxen ihre mal nahe, mal ferne Reise antreten. Kurz gefasst werden die Organe bislang vom Blutkreislauf abgekoppelt, bei vier Grad Celsius in den Transportboxen gekühlt und innerhalb weniger Stunden zum Transplantationszentrum gebracht, um dann schnellstmöglich implantiert zu werden. Auch wenn diese Lagerungs- und Transportart ihre Aufgabe grundsätzlich erfüllt und sich bewährt hat, hat sie doch auch gewisse Nachteile. Die Kühlung dient dazu, die organischen Funktionen, also den Stoffwechsel, zu verlangsamen und somit die Schädigung des jeweiligen Organs, die mit der Sauerstoff- und Nährstoffunterversorgung einhergeht, zu minimieren, wobei sie diese nicht vollständig aufzuhalten vermag. Auch wenn die Vorteile der kalten Variante von Lagerung und Transport auf der Hand liegen, ist diese Methode doch einfach, praktisch und günstig und gewährleistet das sichere Präservieren von Standardorganen, hat sie gleichzeitig die Nachteile, die metabolische Depletion, also die Erschöpfungserscheinungen in Folge des anhaltenden Stoffwechsels, und die Schäden durch fehlende oder ungenügende Durchblutung (Ischämie) nicht komplett verhindern zu können. Hinzu kommt, dass im Zustand der Kaltlagerung eine exakte Untersuchung der Funktionsfähigkeit des Organs kaum möglich ist.

Lukas Hauck in der Celarius-Bibliothek

Die Maschinenperfusion – Erhaltende Ströme

Seit jüngerer Zeit gibt es auf dem Gebiet der Organspende eine Neuerung, die Maschinenperfusion. Kurz gefasst geht es darum, die Organe nicht in 4°C kalter Flüssigkeit zu lagern, sondern in einer Art künstlichen Körper: Dieser besteht schlicht in einer Maschine, die den Stoffwechsel des Organs durch entsprechende Ein- und Ausgänge weiter am Laufen hält, indem es den Aufbau und Ablauf des menschlichen Organismus imitiert. Der entscheidende Vorteil dieser maschinellen Pumpen ist zum einen, dass die organische Zersetzung gestoppt werden kann, arbeitet das Organ doch wie gewöhnlich. Zum anderen kann das Organ durch Spülungen nicht nur gereinigt, sondern selbst auf zellulärer Ebene mit Sauerstoff angereichert werden. So wird das Organ in einen idealen Zustand versetzt, was seine folgende Transplantation erleichtert. Auch die Kontrolle der Güte des Organs ist hier möglich, lässt es sich doch bei der Arbeit beobachten. Diese Methode findet mittlerweile auch in deutschen Krankenhäusern mehr und mehr Anwendung, wobei sie in europäischen Nachbarnationen schon weit verbreitet bishin zum klinischen Standard ist. Grundsätzlich sind zwei Varianten zu unterscheiden, die normo- und die hypotherme Maschinenperfusion: Der Unterschied liegt in der Temperierung, einerseits bei normaler Körpertemperatur und andererseits bei niedrigen Temperaturen im 4°C Bereich.

Die Größe der klassischen Perfusionsmaschinen im stationären Gebrauch vor Augen ist das Problem des Transportes offenkundig: Wie müssen Transportboxen gestaltet werden, um gleichzeitig mobil zu sein und die Rahmenbedingungen zu bieten, die die Perfusion benötigt? Lukas Hauck, mittlerweile Masterstudent an der Hochschule Schmalkalden, konnte dieser Aufgabe im Zuge der Erstellung seiner Bachelorarbeit bei der senetics healthcare group GmbH & Co. KG in Ansbach nachgehen. Das innovative und interdisziplinäre Dienstleistungsunternehmen widmet sich einem breiten Spektrum von Aufgaben im Bereich der Medizintechnik, das vom konzeptionellen Design über die Fertigung von Prototypen bis hin zu Fragen der Zulassung medizinischer Produkte reicht. Im Rahmen des DeLiver[i]– Projektes bestand die Aufgabe des Unternehmens in einer Machbarkeitsstudie: Wie lassen sich die funktionalen Aufgaben einer solchen Transportbox technisch realisieren und wie können die regulatorischen und normativen Vorgaben, die mit der Zulassung einhergehen, erfüllt werden[BT1] ?

Gerade bei Lebertransplantaten ist der Nutzen der Maschinenperfusion offensichtlich: Gespendete Lebern weisen oft Mängel auf, die durch den klassischen Transport zunehmen, wodurch letztlich eine Vielzahl an Lebern unbrauchbar werden würden. Zugleich ist der Bedarf an Lebertransplantaten gestiegen und kann kaum mehr gedeckt werden. Eine 2018 im Fachmagazin Natur veröffentliche Studie mit 220 Lebertransplantationen zeigte, dass die Raten von Transplantatschäden und verworfenen Organen bei der normothermen Maschinenperfusion von Spenderlebern im Vergleich zur kalten Lagerung um 50 % niedrigerer liegt. Zugleich, und dies ist ein für den Transport zentrales Kriterium, lässt sich die mittlere Lagerungszeit ohne negative Auswirkungen auf das Organ um 54 % verlängern.[ii]Die Maschinenperfusion kann also helfen, die Qualität, aber vor allem die Quantität der verfügbaren Organe wie Lebern in einem beachtlichen Maße zu steigern und so dem anhaltenden Organmangel entgegenzuwirken.[iii]

Vom Reißbrett auf dem Weg in die Wirklichkeit

Hauck wurde im Unternehmen direkt eingebunden und mit der Lösung der Aufgabe der Elektronik und Sensorik betraut: Hierbei ging es darum, Mittel und Wege zu finden, das Berechnungsmodell eines Temperierungskonzeptes der Transportbox technisch umzusetzen. Fragen waren: Wie und wo muss die Temperatur gemessen werden, wie lässt sich die Temperatur effizient kontrollieren, wie kann der Bedarf an Energie minimiert werden, was ist die notwendige Heizleistung, welche Energiequellen sind nötig? Im Unterschied zum passiven System des Kalttransports brauchen aktive Systeme wie die der Perfusionsmaschinen eine gesicherte, stabile Energieversorgung: Weil die Temperatur selbst nur um wenige Grade schwanken darf, muss die Sensorik nicht nur fein sein, sie muss auch an verschiedenen Stellen messen und die Temperatur schnell regeln können. Auf kleinerem Raum hieß es, die elektronischen Bauteile wie Sensoren in die Transportkiste zu integrieren und diese zugleich in ihren Maßen kompakt zu halten. Daneben stellten sich auch ganz lebensnahe praktische Probleme: Wie mit den verschiedenen Stromanschlüssen umgehen, die es in Krankenhäusern, Autos und Flugzeugen gibt?

Das Projekt DeLiver, gefördert vom Bundesministerium für Wirtschaft und Energie, an dem sich neben senetics auch weitere Firmen der Healthtech und auch die Technische Hochschule Köln beteiligten, will einen sicheren Transport des Organs von der Entnahme bis zur Transplantation in einen Empfänger ermöglichen, währenddessen das Organ perfundiert und oxygeniert wird.[iv] Neben der technischen Machbarkeit war auch die Wirtschaftlichkeit eine Herausforderung: Anders als die Styroporboxen des klassischen Transports sind die komplexen Bauteile, wie sie die mobilen Maschinen sind, zu teuer, um komplett als Einmalprodukt gestaltet zu werden. Das System soll also einen großen Anteil an wiederverwendbaren Teilen haben und nur diejenigen Teile, welche in direkten Kontakt mit organischem Material kommen, sollen durch den Anwender unkompliziert zu wechseln sein. Die Wiederverwendbarkeit macht also ebenso ökonomisch wie ökologisch Sinn, schafft aber neue Aufgaben, die die involvierten IngenieurInnen lösen mussten.

Lukas Hauck fand in Ansbach ein bereicherndes und hilfsbereites Arbeitsumfeld, das ihm die Freiheit gab, zu tüfteln, wie ein hilfsbereites Geländer, falls er mal nicht weiterkam. Die Möglichkeit, sich im Rahmen von Abschlussarbeiten in die (inter-)nationalen Förderprojekte eines Unternehmens einzubringen und von den praktischen Erfahrungen angewandter Wissenschaft zu profitieren, bietet senetics auch weiter Studierenden aus dem Bereich der Medizintechnik gerne an.[v] Aber auch die Betreuung an der Hochschule tat das ihrige, Haucks Forschung produktiv zu unterstützen. Am Ende des Praktikums entstand zu diesem Thema an der Hochschule Schmalkalden eine Bachelorarbeit, die jüngst mit dem TEAG-Förderpreis ausgezeichnet wurde. Die Laudatio zur Übergabe, die Teil der feierlichen Immatrikulation 2022 war, hielt Prof. Roy Knechtel, der auch der Betreuer des Preisträgers an der Hochschule Schmalkalden war.

__________________________


[i] Näheres zum Projekt des DeLiver Lebertransportsystems: https://senetics.de/one-stop-shop-dienstleistungen-medizintechnik/foerderprojekte/deliver/

[ii] https://www.transplant-campus.de/nierentransplantation-lebertransplantation-herztransplantation-highlights/lebertransplantation/lebertransplantation-journal-club/normotherme-maschinenperfusion-bei-lebertransplantation/

[iii] Ein sehenswerter Vortrag: Maschinenperfusion in der Lebertransplantation Deutschland, Georg Lurje, Leipzig, DCK 2022. [https://www.youtube.com/watch?v=DgKegrG3Lno]

[iv] https://www.th-koeln.de/hochschule/kick-off-veranstaltung-des-neuen-forschungsprojektes-deliver_68509.php

[v] Ansprechpartner bei Senetics sind:

Dr. Wolfgang Sening // CEO // Mail: wolfgang.sening@senetics.de // Tel: +49 981 9724 795 – 0

Philip Eschenbacher, M.Sc. // Head of R&D // Mail: philip.eschenbacher@senetics.de // Tel: +49 981 9724 795 – 0