Künstliche Intelligenz – Potentiale und Hürden in der Anwendung

Künstliche Intelligenz – Potentiale und Hürden in der Anwendung

Der Begriff „Künstliche Intelligenz (KI)“ kann, je nach sozialer Prägung, bei jedem Leser oder Leserin eine andere Assoziation auslösen. Je nach Alter, Interessen oder auch technischer Begeisterung kann sich der ein oder andere an unterschiedliche Computerspiele, Filme oder auch Bücher mit verschiedenen Arten an KI aus seiner Kindheit erinnern. Somit tragen Science Fiction oder allgemeiner die Kulturindustrie jeder Dekade ganz eigene Bilder artifizieller Intelligenz: Ob wir an das sprechende Auto „KITT“ aus der Knight Rider, selbst steuernde Raumschiffe oder humanoide Roboter, wie „Data“, aus der Serie Star Trek oder an künstlichen Neuronalen Netzen (KNN), Deep Learning (DL) oder ChatGPT als Large Language Model (LLM) denken, kann man nur schwer, durch aufwendige Umfragen oder persönliche Gespräche herausfinden. In vielen Narrativen unserer Gegenwart kommt noch die Tendenz einer globalen Dominanz hinzu, die Seitens autonom agierender Roboter, Programme oder Netzwerke ergriffen oder zumindest angestrebt wird. Dies mag einen Grund in der steigenden Verbreitung smarter Geräte und der umfassenden Digitalisierung sowie der Abhängigkeit unserer Alltagsroutinen von diesen Technologien haben. All diesen Bildern der Künstlichen Intelligenz ist dabei gemein, dass sie zu der realen Version nur überschaubar viele Parallelen aufweisen.

In der banalen Wirklichkeit verliert die KI zwar viel von den popkulturellen Etiketten zwischen Idealisierung und Dämonisierung, sie gewinnt aber zugleich an praktischen Nutzen. Um zu verstehen, was Künstliche Intelligenz ist, worin ihre Potentiale und Schwächen im Allgemeinen wie im Besonderen liegen und was letztlich ihr Nutzen ist, muss also zunächst von den Zerrbildern Abstand genommen werden, auch wenn sie sich durchaus als Einstieg in Ausführungen wie diese eignen.

Künstliche Intelligenz (KI)

Künstliche Intelligenz lässt sich am ehesten als ein Werkzeug beschreiben, das bei der Verarbeitung von Daten den Menschen Hilfestellung leisten soll. Der Bereich der KI ist eine Untergruppe aus dem Forschungsgebiet des Maschinellen Lernens (ML). Beide Begrifflichkeiten lassen sich meist nicht scharf von einander trennen und gehen fließend in einander über. Für beide Themenkomplexe kann jedoch gesagt werden, dass in der Vergangenheit die Herausforderungen in den Fragestellungen „Wie komme ich an Daten?“, „Welche Sensoren kann ich einsetzen?“ oder „Wie kann ich diese Daten auswerten?“ zutreffend waren. Die aktuellen Fragestellungen gehen eher in die Richtung: Wie kann ich diese Mengen an Daten komprimieren, auswerten oder die Entscheidung nachvollziehen? Hier kommen dann Begrifflichkeiten wie z.B. Big Data, Dimensionsreduktions-Algorithmen oder erklärbare KI (englisch explainable artificial intelligence (XAI)) zum Einsatz.

Das Forschungsgebiet der großen Datenmengen (Big Data) ist ursächlich aus der großen Verbreitung an Sensorik oder Informationsquellen entstanden. Heutzutage besitzen fast alle Menschen auf der Welt eine Smart Phone oder PC. Infolge der Möglichkeit, kostengünstige Mikroelektronik oder Sensorik herzustellen, gibt es eine Unmenge an potentiellen Datenquellen, welche die Menschen bei einer Auswertung oder Bewertung überfordern können. Hierfür müssen effiziente und schnelle Algorithmen entwickelt werden, welche es dem Menschen in annehmbarer Zeit ermöglichen, komplexe Zusammenhänge in den Daten zu erkennen und auch verstehen zu können. Die somit entstehenden komplexen Programme sind durch die hohe Rechenleistung in der Lage, Daten maschinell zu erfassen, Muster und Strukturen sowie unter anderem Synchronitäten, Parallelen und Divergenzen von Prozessen zu erkennen und zu verknüpfen. So lassen sich mehr und mehr Informationen aus den großen Beständen an Daten ziehen und für nachlaufende Erklärungen, tiefere Verständnisse des Gegebenen und vorlaufende Abschätzungen der möglichen Zukunft nutzen. Gerade weil die Vermessung unserer Welt durch Sensoren in Geräten z.B. Smartphones oder auch modernen Automobilen immer weiter voranschreitet, wächst ein Fundus an Wissen, der produktiv genutzt werden kann.

Zugleich ist es angebracht, nicht von der einen Künstlichen Intelligenz zu sprechen, sondern dies eher als Sammelbegriff verschiedener, teils recht unterschiedlicher Formen von KI zu verstehen. Künstliche Intelligenz umfasst diverse Verfahren der Datenverarbeitung, die sich für unterschiedliche Kontexte, Fragenstellungen und Materialien eignen. Es verhält sich also so wie bei vielen anderen angewandten Wissenschaften: Es gibt nicht ein generelles Verfahren, sondern verschiedene Ansätze mit unterschiedlichen Charakteristika. Zum Beispiel können KI-Modelle, die sich für Bildererkennung eignen, nicht für Sprachprogramme wie Chat GPT verwendet werden.

Damit ist auch schon eine Schwäche in der Nutzung von KI angesprochen: Nicht alle Modelle eignen sich für jede Anwendung. In anderen Worten muss für die Aufgabe, gerade wenn sie einem speziellen Zweck dient, zunächst das passende Verfahren gefunden und mit passenden Daten angelernt, getestet oder nachtrainiert werden. Die Nutzung der KI-Modelle ist demzufolge keine one-fits-all-Lösung, sondern bedingt einen Anpassungsprozess. Für manche Aufgaben eigen sich z.B. Unscharfe Regelwerke (Fuzzy Modelle), Support Vektor Maschinen (SVM) oder künstliche neuronale Netze, welche sich an der Funktionsweise des Informationsaustausches zwischen menschlichen Nervenzellen anlehnen.

Bilder und Werkzeuge

Die Komplexität dieser Anpassung könnte an Komplikationen bei der Bilderkennung klarer werden, wobei hier noch ein epistemologisches Problem auftritt. Digitale Bilderkennungsverfahren arbeiten mit zweidimensionalen Objekten, denen also die räumliche Tiefe fehlt. Diese muss gewissermaßen als Vorder- und Hintergrund wieder in das Bild hineingelesen werden: Die Dreidimensionalität, die distinkten Objekte und selbst der Fokus müssen demnach erst erarbeitet werden. Was die Programme vor Herausforderungen stellt, ist dem Menschen schon in seinem Zugang zur Welt quasi natürlich gegeben. Gerade weil die eigentliche Objekterkennung und -unterscheidung fundamentale Aufgaben sind, können hier spannende Probleme entstehen: Ein gerne gebrachtes Beispiel ist die aus der Literatur bekannte Methode der One-Pixel-Attack[1]. Hier kann die maschinelle Bewertung durch ein Bilderkennungsalgorithmus, durch die Änderung eines einzigen Pixels in einem Pferdebild zu einer Fehlklassifikation zu ein Frosch führen. Die Funktionsweise der KI-Modelle ist also noch nicht perfekt, auch wenn sich ihre Güte – man denke nur an die Gesichtserkennung von Smartphone-Kameras – in den letzten Jahren kontinuierlich verbessert hat.

Was meint es nun, von der Künstlichen Intelligenz als Werkzeug in der Industrie zu sprechen? Stellen wir uns einen Produktionsprozess von Plastikteilen vor: Wir haben auf der einen Seite die vielen kleinen Plastikkügelchen am Anfang, die aufgeschmolzen und in eine bestimmte Form gebracht werden, um zum Ende als gefertigtes Teil aus der Maschine entnommen zu werden. Was zunächst wie ein idealer, unendlich wiederholbarer Vorgang erscheint, hängt im Alltag der Produktion von vielen Faktoren ab. Die Erfahrung von Mitarbeitern und Mitarbeiterinnen mit den Maschinen und Materialien ist hier für den Produktionsprozess zentral, und wird es absehbar bleiben. Eine hilfreiche Komponente kann aber zugleich eine Sensorik sein, die unter anderem Parameter wie Temperatur und Druck permanent misst und eine erste Auskunft über die erwartbare Güte der produzierten Teile zum Beispiel durch eine Ampel gibt, bzw. vor wahrscheinlichen Fehlern warnt und Anpassungsvorschläge liefert.  Für solche in den Produktionsprozess integrierten Beurteilungen ist nicht eine Messung entscheidend, sondern ein Zusammenspiel verschiedener Werte und Schwellen sowie unterschiedlicher, teils zusammenhängender Verläufe, wodurch sich dynamische Verarbeitungssysteme wie KI-Modelle anbieten. Moderne Sensoren sind nicht nur hochempfindlich, sie können auch an Punkten angebracht werden, die dem Menschen während der Produktion nicht zugänglich sind. Der Mensch wird hier also nicht ersetzt, sondern durch die Technik unterstützt. In verschiedenen Forschungsprojekten wie z.B.: „Powermoulds“, „Wasabi“ oder auch „SMoSys“ arbeiten Manuel Schneider und Norbert Greifzu aus dem Team der „Eingebetteten Diagnosesysteme (EDS)“ von Professor Andreas Wenzel an solchen Lösungen für eine smarte Industrie und dem Einsatz vom KI an anwendungsnahen Problemstellungen. Die Forschungsgruppe EDS ist Teil einer Hauptforschungsrichtung „Adaptiven Signalanalyse“ der Hochschule Schmalkalden. Interessante Veröffentlichungen der Forschungsgruppe sind:

Literaturverzeichnis

[1]N. Greifzu, M. Schneider, M. Werner, N. Fränzel, A. Wenzel und C. Walther, Bewertung von Produktionsprozessen mit Verfahren der Künstlichen Intelligenz, 2020.
[2]M. Schneider, N. Greifzu, L. Wang, A. Wenzel, L. Pu und C. Walther, „An end-to-end machine learning approach for time series with varying lengths,“ Neural Computing and Applications, Nr. 10.1007/s00521-024-09473-9, 2024.
[3]H. Siebald, F. Pforte, B. Kulig, M. Schneider, A. Wenzel, M. Schweigel, J. Lorenz, H.-H. Kaufmann, J. Huster, F. Beneke und O. Hensel, „Referencing acoustic monitoring of cutting knives sharpness in agricultural harvesting processes using image analysis,“ Biosystems Engineering, Bd. 226, Nr. 10.1016/j.biosystemseng.2022.12.007, p. 86–98, February 2023.
[4]D. Schneider, M. Schneider, M. Schweigel und A. Wenzel, „Application of various balancing methods to DCNN regarding acoustic data,“ Proceedings 30. Workshop Comupational Intelligence, Nr. ISBN: 978-3-7315-1051-2, November 2020.
[5]M. Schneider, N. Greifzu, C. Walther und A. Wenzel, „Übertragung von anwendungsnahen Problemstellungen des Maschinellen Lernens aus der Forschung in die Lehre,“ Berlin Journal of Data Science, Bd. 1, February 2020.

[1] https://arxiv.org/pdf/1710.08864.pdf

Über den Abschluss des Forschungsprojektes „RoboTraces“

Über den Abschluss des Forschungsprojektes „RoboTraces“

Das Projekt RoboTraces zog Ende Januar ein Resümee seiner einjährigen Forschungstätigkeit und lud aus diesem Anlass abseits der Vertreter:innen von Presse und Politik auch jene Personen ein, die ein elementarer Bestandteil des Vorhabens in dem Stadtquartier Geras waren: Die Bewohner:innen. Neben dem Umweltminister Thüringens, Bernhard Stengele, fanden auch der TAG-Regionalchef, Claudius Oleszak, und die Referentin beim Bundesministerium für Digitales und Verkehr, Sarah Schmelzer, positive Worte zum Projekt und seiner Bilanz.

„Robbie“ ist ein autonomer Lieferroboter, der Einkäufe vom Laden, hier ein lokaler REWE, zu den Kund:innen, hier zum Nachbarschaftstreff Eichenhof, bringen soll. Da der Roboter die Gehwege nutzt, galt es zunächst, die Reaktionen der Bevölkerung auf „Robbie“ zu sondieren, also zum Beispiel, ob die Passant:innen anhalten, die Straßenseite wechseln oder einfach weitergehen – bzw. in welchen Situationen welche Reaktion auftritt.

Anpassung und Lebensqualität

Aus diesen Beobachtungen und Gesprächen mit den Nutzer:innen und Anwohner:innen lässt sich unter anderem schließen, welche Abstände, welche Farbgebung und welche Geschwindigkeiten notwendig sind, damit der Roboter zwar wahrgenommen wird, er zugleich aber nicht stört oder gar als Gefahr erscheint. Um diese Einsichten über das Verhalten und mögliche Parameter der Anpassung zu gewinnen sowie erste Einschätzungen möglicher Stressoren, also Auslösern von Stress, treffen zu können, wurde Robbie über einen längeren Zeitraum in mehreren Phasen in dem Quartier in Gera getestet.

„Robbie“ soll in erster Linie Menschen helfen und von alltäglichen Mühen entlasten, wie es unter anderem Einkäufe darstellen. Somit ist es ein Gewinn an Lebensqualität und Autonomie, wenn ältere Menschen wieder die Möglichkeit erhalten, weitestgehend selbstbestimmt und unabhängig ihre alltäglichen Besorgungen zu erledigen. Im Ergebnis bleibt den Senior:innen mehr Zeit für andere Aktivitäten, zum Beispiel zum Tanz oder Kartenspiel im Nachbarschaftstreff Eichenhof. Die Entwicklung autonomer Lieferroboter steht zwar noch am Anfang, ihr positiver Nutzen gerade für eine immer älter werdende Bevölkerung hingegen ist schon bereits heute greifbar.

Pionierarbeit und Erkenntnisse

Professor Sebastian Zug von der Technischen Universität Bergakademie Freiberg, Professor Frank Schrödel von der Hochschule Schmalkalden und Professor Felix Wilhelm Siebert von der Technischen Universität Dänemark leisteten mit ihren Teams hier Pionierarbeit, sind die Akzeptanzbedingungen autonomer Lieferroboter im Outdoor-Bereich doch bislang unerforscht. Gerade die Situation eines inhomogenen Terrains, das unterschiedliche Beläge und zum Beispiel Breiten und Belagsqualitäten der Gehwege aufweist, wurde zu einer Herausforderung für den Lieferroboter. Zugleich ließ es die lange Testphase zu, Daten in verschiedenen Situationen zu sammeln, also bei Tag und Nacht sowie unter anderem bei hohem und niedrigem Passant:innenaufkommen.

Ein Ergebnis der Testphasen war, dass die Einschätzbarkeit des Verhaltens des Roboters ein wichtiger Aspekt im Umgang der Menschen mit ihm war: Kurzum wollen Menschen nicht überrascht werden, wie von spontanen Richtungs- oder Geschwindigkeitsänderungen. Die nächste Herausforderung wird es also sein, die Vorhersagbarkeit des Verhaltens technisch zu integrieren und sichtbar zu machen. Die einjährige Projektphase wurde also nicht nur genutzt, um die Technik der Roboter stetig zu verbessern, sondern auch dazu, den Kontakt von „Robbie“ und Menschen besser zu verstehen und für sich anschließende Projekte konstruktive Ansatzpunkte zu schaffen.

Datenschätze und Herausforderungen

Während der Testfahrten wurde ein großer Datensatz en erzeugt, der nun – natürlich anonymisiert – anderen Forschenden und Forschungsfragen als Grundlage zur Verfügung steht. Die Organisation der Testfahrten, die das Sammeln der Daten ermöglicht, ist eine arbeitsintensive Aufgabenstellung: Nicht nur musste Robbie jeweils nach Gera verbracht werden, auch mussten Teams zusammengestellt und Absprachen mit den Verantwortlichen vor Ort getätigt werden. Dieser Aufwand kann durch die Vorarbeit des RoboTraces-Teams nun anderen Forschenden abgenommen werden. Zum Beispiel arbeitet schon jetzt eine deutsche Hochschule in Jordanien mit den Datensätzen aus den Fahrten in Gera.

Neben den technischen und verkehrspsychologischen Aspekten ist die rechtliche Ausgestaltung eine weitere Herausforderung für zukünftige Projekte der Logistik über autonome Lieferroboter. Zwar sind viele Bereiche innovativer Technologien wie das autonome Fahren schon z.T. kodifiziert, für andere Bereiche hingegen liegen noch keine Vorgaben vor. Da sich Roboter auf Fußwegen und somit Kontaktbereichen mit Passant:innen bewegen, ist die Relevanz der rechtlichen Klärung offensichtlich. Damit diese Form der Logistik im Alltag Anwendung finden kann, bedarf es eines rechtlichen Rahmens, der Verantwortlichkeiten und Mindeststandards mikromobiler, autonomer Fahrzeuge klärt.

Nicht zuletzt ist es eine Herausforderung für solche Reallabore wie die Testphase von RoboTraces, die Bereitschaft der Bevölkerung sicherzustellen. Um innovative Technologien und die Kriterien der Akzeptanz unter solchen Realbedingungen testen zu können, benötigen solche Projekte eine grundlegende Bereitwilligkeit und Aufgeschlossenheit der Anwohner:innen. „Robbi“ konnte hier auf den Erfahrungen mit „Emma“ aufbauen, eines automatisierten E-Kleinbusses, der ebenfalls in Gera-Lusan unterwegs war. Auch wenn somit die Berührungsängste schon verringert wurden, war es doch an den Forschenden, die Anwohner:innen über das Projekt zu informieren und einzubinden. Eine Möglichkeit war es, den Namen gemeinsam mit den Bewohner:inneren zu finden. Kurzum fand „Robbie“ in Gera eine bereitwillige Aufnahme, wodurch es möglich wurde, den Lieferroboter auf vielen Fahrten zu beobachten, und aus positiven wie negativen Erfahrungen der Menschen vor Ort zu lernen.

Das Projekt RoboTraces wurde von der Innovationsinitiative mFUND gefördert, mit der das BMDV seit 2016 Forschungs- und Entwicklungsprojekte rund um digitale datenbasierte Anwendungen für die Mobilität der Zukunft unterstützt.


Mehr hier:

https://www.mdr.de/nachrichten/thueringen/ost-thueringen/gera/roboter-einkaufen-senioren-testergebnis-robbie-100.html


Die Verbindung von Technologie, Ökonomie und Ökologie – Die 15. Schmalkalder Werkzeugtagung

Die Verbindung von Technologie, Ökonomie und Ökologie – Die 15. Schmalkalder Werkzeugtagung

Wie viele andere Bereiche auch ist der Werkzeugbau eine eigene Welt. Zuerst muss natürlich geklärt werden, um was es überhaupt geht: Der Werkzeugbau ist ein Teilbereich des Maschinenbaus, der sich mit der Herstellung von Werkzeugen, zum Beispiel Fräswerkzeugen für die industrielle Produktion, befasst. Dieser Arbeitsbereich erstreckt von verschiedenen Verfahren über unterschiedliche Schneidstoffe, also Materialien der Werkzeuge, bis hin zu Fragen unterschiedlicher Beschichtungen. Einen Eindruck in diesen für sich facettenreichen Bereich konnte man vor Kurzem im Rahmen der „15. Schmalkalder Werkzeugtagung“ am 8. und 9. November 2023 erhalten, die als Kooperation der GFE – Gesellschaft für Fertigungstechnik und Entwicklung Schmalkalden e.V., des Fachverbands Präzisionswerkzeuge im VDMA und der Hochschule Schmalkalden an eben dieser Hochschule stattfand und zu einer der größten Veranstaltungen dieses Bereichs zählt.

Prof. em. Dr. Konrad Wegener | ETH Zürich

Im Fokus stehen also hochpräzise und zugleich robuste Werkzeuge der industriellen Zerspanungstechnik. Unter das Zerspanen fallen verschiedene Verfahren wie das Drehen, Fräsen und Schleifen, die Werkstücke in eine bestimmte Form bringen. Als beispielhafte Vereinfachung für das Verständnis des Fräsens bietet sich das Bild von Bohrwerkzeugen an, wie wir sie alle aus unseren Bohrmaschinen kennen. Auch wenn wir dabei die Erfahrung unterschiedlicher Qualitäten dieser Werkzeuge sammeln können und sich die Schärfe und der Verschleiß verschiedener Typen nicht unwesentlich unterscheidet, ist der Grad an Belastung in der Produktion der seriellen Industrie um einiges höher.

In Bereichen der Automobil- oder auch Flugzeugproduktion geht es um enorme Stückzahlen und hocheffiziente, optimierte Fertigungsprozesse, in denen der Ausfall oder der Austausch von Werkzeugen hohen Aufwand und hohe Kosten verursachen. Die hier verwandten Werkzeuge müssen also präzise wie verlässlich arbeiten und zugleich robust sein. Hier kann nun die Forschung ansetzen und die Industrie unterstützen: In der Erforschung neuer Methoden und Materialien kann die Funktionsweise optimiert und der Verschleiß minimiert werden, wodurch nicht nur die Produkte besser, sondern auch die Fertigungsprozesse effizienter werden.

Verschiedene Wege, ein Ziel

Moderne Produktionsverfahren sind hochkomplex, was Ansätze der Forschung zugleich kompliziert und diversifiziert: Kurz gesagt kann es den Forschenden nunmehr nur um kleine Bereiche gehen, auf die sie sich spezialisieren. Tagungen haben die Aufgabe, neben einer Leistungsschau der Fähigkeiten und der Vorstellung innovativer Projekte und Ansätze die verschiedenen Bereiche in Kontakt und Austausch über die aktuellen Themen und Herausforderungen ihrer Gebiete zu bringen.

Die Werkzeugtagung wurde nach den Grußworten von einem Vortrag über die Vorzüge des Einsatzes von Lasertechnik anstatt von Zerspanwerkzeugen zur Herstellung von Umformwerkzeugen. Diese Technik ist im Bereich des Werkzeugbaus noch wenig verbreitet, so dass es nun zunächst darum geht, die möglichen Potentiale und Konditionen der Verwendung zu klären. Wie alle Fertigungsverfahren hat auch dieses einen speziellen Einsatzbereich, in dem es sinnvoll ist, auf diese Technik zurückzugreifen. Gerade wenn es um die Herstellung enorm kleiner, filigraner Formelemente geht, bei denen selbst spezielle Mikrofräsmaschinen kaum mehr arbeiten kann, bietet sich der Laser als Alternative zur Zerspanung an. Diese Richtung, der Sinnhaftigkeit und Nutzbarkeit verschiedener Ansätze für unterschiedliche Zwecke prägte die Tagung.

In diesem Sinne wurde auch der Dissens zwischen additiven und subtraktiven Verfahren als letztlich wenig produktiv bei Seite geschoben: Es kann nicht darum gehen, jenes eine, universell anwendbare Herangehen zu finden, den klassischen Stein der Weisen, sondern die Vorzüge und Nachteile unterschiedlicher Methoden für verschiedene Zwecke zu verstehen. Gerade bei hochkomplexen Werkzeugen, die in eher überschaubaren Mengen produziert werden, ist der Rückgriff auf Verfahren wie den 3D-Druck sinnvoll. Dagegen lassen sich hohe Stückzahlen zu geringen Kosten durchaus mit den etablierten Zerspanverfahren realisieren. Letztlich nimmt also kein Teilbereich einem anderen etwas weg, vielmehr ergänzen sie sich in den verschiedenen Herausforderungen der Anwendungsfelder.

Impulse

Auch wenn die Welt des Werkzeugbaus eine eigene ist, so steht sie doch in Kontakt mit der Außenwelt und ihren Entwicklungen. Im Fokus der Tagung standen auch die Möglichkeiten und Grenzen der Nutzung von Künstlicher Intelligenz: Aus Sicht der Praxis ist es weder möglich, auf die Verbesserungen digitaler Lösungen in toto zu verzichten, noch in einen naiven Lobgesang einzufallen, der in der Künstlichen Intelligenz ein Allheilmittel sieht. Die Digitalisierung und die Künstliche Intelligenz bieten im Werkzeugbau und der Optimierung der Produktion nützliche Verbesserungen, die es den verantwortlichen Personen einfacher machen. Genau hier gilt es Mittel und Wege zu finden, die neuen Techniken adäquat zu nutzen und sie in die lernenden Prozesse der Produktion einzubinden.

Eine weitere durchschlagende Veränderung ist der Anspruch der Nachhaltigkeit, der sich in unserer Gegenwart auch dem Maschinenbau als Herausforderung stellt. Diese Aufgabe ist für die Ingenieure aber keinesfalls das sprichwörtliche Neuland, ging es doch schon immer darum, mit Ressourcen wie Rohstoffen und Energie schonend umzugehen und den Verbrauch und damit die Kosten zu minimieren. In die Zukunft gedacht sind es Maschinen- und Werkzeugbauer, die technische Lösungen finden müssen, wie wir unsere Standards der Produktion halten und zugleich die Gebote der Nachhaltigkeit konsequenter umsetzen können. Wieder ist es kein Gegen-, sondern ein Miteinander, was sinnvoll und erstrebenswert ist.

Zusammen // Arbeiten

Der Austausch verschiedener Perspektiven wurde im Rahmen der Tagung in den Vordergrund gerückt. Wie wir schon verdeutlichten, gibt es zu verschiedenen Ansprüchen des Werkzeugbaus ganz unterschiedliche Lösungsansätze, ebenso in Hinsicht von den Werkstoffen wie den Verfahren der Fertigung und vieles mehr. Auch die Anforderungen der forschenden Ingenieur:innen und die Perspektiven der produzierenden Gewerbe sind nicht unbedingt deckungsgleich,  sie können sich aber über ihre jeweiligen Herausforderungen und Konditionen austauschen. Die verschiedenen Affiliationen der über 150 Referenten und Tagungsteilnehmer wurden während den Veranstaltungen also zur jeweiligen Erweiterung der Perspektive produktiv genutzt.

Auch die Organisation der Tagung nahm sich als eine Kooperation verschiedener Institutionen aus. Professor Andreas Wirtz versieht dabei als Inhaber einer Tandemprofessur schon selbst eine Scharnierposition zwischen der GFE und der Hochschule Schmalkalden, ist er doch bei beiden Institutionen zur gleichen Hälfte beschäftigt. An der Hochschule hat er die Professur für Fertigungstechnik und virtuelle Prozessgestaltung inne. Neben ihm waren auch Sandy Korb von der Hochschule Schmalkalden und Sabrina König sowie Petra Preiß von der GFE Teil des Organisationsteams, das zudem durch viele helfende Hände tatkräftig unterstützt wurde.

Die Kontakte zwischen der Hochschule und der GFE bestehen also wechselseitig. So übernimmt Dr. Florian Welzel, Geschäftsführer der GFE, regelmäßig einen Lehrauftrag an der Fakultät Maschinenbau im Sommersemester, wodurch sich die räumliche Nähe der beiden Institutionen in einen kooperativen Austausch übersetzt.

Eine Tagung lebt aber nicht nur von den Inhalten und dem wissenschaftlichen Austausch, sondern auch von dem rahmenden Programm und dem Kennenlernen der Umgebung: So wurde der erste Tagungsabend von einem Besuch der Viba-Nougatwelt und einem festlichen Essen am selben Ort abgerundet. Der zweite Tag fand seinen Ausklang in einem Besuch der GFE, wobei neben einer kulinarischen Empfehlung aus der Region eine Auswahl von Ergebnissen aus dem Bereich der Forschung und Entwicklung bei einer Besichtigung vorgestellt wurden.

Die Schmalkalder Werkzeugtagung bietet neben zahlreichen Fachvorträgen viele Möglichkeiten für einen offenen Austausch zwischen Industrie, Forschung und Hochschule. Dies eröffnet allen Teilnehmenden Potenziale sowohl für eine zielgerechte, anwendungsnahe Gestaltung gemeinsamer Forschungsprojekte als auch Chancen zum Forschungstransfer.

Neue Aufgaben, neue Wege – Der VDWF-Treffpunkt Werkzeugbau an der HSM in der Angewandten Kunststofftechnik

Neue Aufgaben, neue Wege – Der VDWF-Treffpunkt Werkzeugbau an der HSM in der Angewandten Kunststofftechnik

Anfang letzter Woche wurde die Hochschule Schmalkalden zum Gastgeber des „VDWF-Treffpunkt Werkzeugbau“, der über 90 Gäste aus Wissenschaft, Wirtschaft und Politik trotz winterlicher Witterungsbedingungen nach Südthüringen lockte. Der Verband Deutscher Werkzeug- und Formenbauer e. V., dem mehr als 490 Mitgliederunternehmen aus ganz Deutschland angeschlossen sind, ist seit vielen Jahren Kooperationspartner der Hochschule Schmalkalden im Bereich Weiterbildung und Forschung. Neben einem wissenschaftlichen Rahmenprogramm rund um die aktuellen Entwicklungen im Werkzeugbau bot das Treffen breiten Raum für den Austausch der Anwesenden und wurde von einem Besuch der Angewandten Kunststofftechnik abgerundet.

Nach der Begrüßung durch Ralf Dürrwächter, VDWF-Geschäftsführer, und Prof. Thomas Seul, in Personalunion VDWF-Präsident und Inhaber der Professur für Fertigungstechnik und Werkzeugkonstruktion an der Hochschule Schmalkalden, ließ es sich Gerald Ullrich, Mitglied des Deutschen Bundestages, nicht nehmen, alle Teilnehmer:innen willkommen zu heißen, um mit kurzen aber verständlichen Worten aus seiner Sicht als „Spritzgießer“ und Politiker Sichtweisen und Erklärungen rund um die Branche zu vermitteln. Nach weiteren einführenden Hinweisen von Claudia Michel, welche die Geschäftsstelle des VDWF in Schmalkalden verantwortet, richtete sich der Fokus des ersten Vortrags auf die Lage der Konjunktur.

Die Branche des Werkzeug-, Modell- und Formenbaus befindet sich nach Jens Lüdtke im Wandel, wobei er negativen Momentaufnahmen langfristige positive Trends entgegenstellte. Dies sollte die Anwesenden aber nicht überraschen, befinde sich der Bereich doch beständig in Veränderung aufgrund neuer Aufgaben und Rahmenbedingungen. Veranschaulicht würde der Wandel der letzten Dekaden in dem Bild von Werkshallen, die sich von klassischen Orten der Produktion hin zu hochtechnischen, klinisch-reinen Betriebsstätten entwickeltet hätten. Die aktuelle Problemstellung ist demnach nicht die Veränderung der Situation oder der äußeren Konditionen, sondern die eigene Qualität des Anpassungsdrucks, der die Branche gerade in Hinsicht der Wirtschaftlichkeit und Kosteneffizienz vor Herausforderungen stellt. Trotz der Problematik gebe es aber verschiedene Ansätze, wie der Maschinenbau reagieren könne, neben der weiteren Effizienz sei hier auf die Menschen und die wachsende Kooperation verwiesen. Auch wenn das Bild also nicht ungetrübt sei, gebe es Antworten und mögliche Wege.

Ein anderer Vortrag widmete sich mit der Dokumentationspflicht einem eher unbeliebten Zeitvertreib der Maschinenbauer:innen. Eine gut gemachte Dokumentationspraxis erschwere aber nicht die Arbeit, sondern mache sie leichter, so das Plädoyer Dr. Mario Schuberts am Ende des Vortags. Auf die kürzeste Formel gebracht, meine Doku: „Schreibe auf, was du machst / Mache, was du aufgeschrieben hast!“ Das Ziel ist letztlich, sich selbst eine sinnvolle Selbstorganisation zu erarbeiten, einen verlässlichen Schatz an Erfahrung über die Zeit zu bewahren und zugleich anderen Mitarbeitenden zugänglich zu machen. Wenn eine Doku aktuell, klar, passend und unter anderem abgestimmt sei, könne sie helfen, das Wissen um positive und negative Faktoren der Produktion zu verallgemeinern.

Die Branche des Werkzeug-, Modell- und Formenbaus befindet sich nach Jens Lüdtke im Wandel, wobei er negativen Momentaufnahmen langfristige positive Trends entgegenstellte. Dies sollte die Anwesenden aber nicht überraschen, befinde sich der Bereich doch beständig in Veränderung aufgrund neuer Aufgaben und Rahmenbedingungen. Veranschaulicht würde der Wandel der letzten Dekaden in dem Bild von Werkshallen, die sich von klassischen Orten der Produktion hin zu hochtechnischen, klinisch-reinen Betriebsstätten entwickeltet hätten. Die aktuelle Problemstellung ist demnach nicht die Veränderung der Situation oder der äußeren Konditionen, sondern die eigene Qualität des Anpassungsdrucks, der die Branche gerade in Hinsicht der Wirtschaftlichkeit und Kosteneffizienz vor Herausforderungen stellt. Trotz der Problematik gebe es aber verschiedene Ansätze, wie der Maschinenbau reagieren könne, neben der weiteren Effizienz sei hier auf die Menschen und die wachsende Kooperation verwiesen. Auch wenn das Bild also nicht ungetrübt sei, gebe es Antworten und mögliche Wege.

Ein anderer Vortrag widmete sich mit der Dokumentationspflicht einem eher unbeliebten Zeitvertreib der Maschinenbauer:innen. Eine gut gemachte Dokumentationspraxis erschwere aber nicht die Arbeit, sondern mache sie leichter, so das Plädoyer Dr. Mario Schuberts am Ende des Vortags. Auf die kürzeste Formel gebracht, meine Doku: „Schreibe auf, was du machst / Mache, was du aufgeschrieben hast!“ Das Ziel ist letztlich, sich selbst eine sinnvolle Selbstorganisation zu erarbeiten, einen verlässlichen Schatz an Erfahrung über die Zeit zu bewahren und zugleich anderen Mitarbeitenden zugänglich zu machen. Wenn eine Doku aktuell, klar, passend und unter anderem abgestimmt sei, könne sie helfen, das Wissen um positive und negative Faktoren der Produktion zu verallgemeinern.

Im Anschluss an den Vortagsteil wurde kurzweilig und informativ durch die modernen Technika Werkzeugtechnologie/Spritzgießen, Compoundieren, Extrusion und Additive Fertigung sowie Werkstoffanalytik geführt. Hier gab es Forschung und Wissenschaft zum Beispiel zur KI und Maschinellem Lernen zum Anfassen und Begreifen. Die vielen Eindrücke und Inhalte wurden zum Ausklang der Veranstaltung beim Netzwerken im ansprechenden Ambiente der dekorierten und atmosphärisch ausgeleuchteten Hallen des AKT abgeschlossen.

Sensoren, Netzwerke und Daten. Über die Forschungsprojekte Martin Schreivogels

Sensoren, Netzwerke und Daten. Über die Forschungsprojekte Martin Schreivogels

Professor Martin Schreivogel hat seit letztem Jahr die Professur für die Grundlagen der Elektrotechnik an der Fakultät Elektrotechnik der Hochschule Schmalkalden inne. Demgemäß widmet er sich prinzipiellen Fragestellungen der Elektrotechnik, hier verstanden als ingenieurwissenschaftliche Disziplin, die sich ebenso mit der Forschung und Entwicklung wie der Produktion und Instandhaltung von elektrischen Anlagen und Geräten befasst. Um eines direkt klarzustellen: Wie an Hochschulen angewandter Wissenschaften üblich genügt sich auch die Forschung Martin Schreivogels nicht mit abstrakten, theoretischen Konstrukten, sondern sucht nach Wegen der Übersetzung von Forschung in Praxis – wie unter anderem der funktionalen Optimierung elektrochemischer Sensortechnik.

Um die Relevanz dieser Disziplin zu umreißen wird im Folgenden eine Rück- mit einer Vorschau kombiniert: Zunächst soll es um die Entwicklung kompakter Messboxen gehen, mit denen die Luftqualität, zum Beispiel im Straßenverkehr verdichteter Innenstädte, vermessen werden kann. Nach diesem Rückblick auf ein weitestgehend abgeschlossenes Projekt soll es um die Konturierung eben jener Vorhaben gehen, denen sich Professor Schreivogel an der Hochschule Schmalkalden widmen möchte.

Professor Martin Schreivogel bei seiner Antrittsvorlesung

Die Vermessung der Luft: Über die Entwicklung kompakter, vernetzter Messstationen der Luftqualität

Die öffentliche Diskussion um die gesteigerte Schadstoffbelastung an hochfrequentierten Straßen und Kreuzungen, aus der die Einrichtung von innerstädtischen Umweltschutzzonen und – in manchen Arealen – sogar Fahrverbote resultierten, liegt noch nicht allzu lange zurück. Auch wenn das Ansinnen einer gesunden, nicht von Schadstoffen belasteten Umwelt gewiss auf allgemeine Zustimmung treffen sollte, verlor die damalige Debatte aufgrund der wechselseitigen Polarisierung der diskutierenden Gruppen das Gros ihres konstruktiven Potentials. Weiterführend gerade in einem ingenieurwissenschaftlichen Horizont ist indes das öffentliche Interesse, die Schadstoffbelastung und die Effekte des Stadtverkehrs und des Verkehrsinfrastruktur auf eben diese zu eruieren und adäquate Lösungsvorschläge zu entwickeln: Wo und wie entstehen also hohe Konzentrationen an Schadstoffen und wie lässt sich ihre Ansammlung vermeiden?

Ein technisches Problem, das den Diskussionen der Konsequenzen eventuell gefährlicher Luftverschmutzung und mittel- und langfristigen verkehrsplanerischen und städtebaulichen Antworten vorausliegt, besteht in der Frage, wie wir überhaupt die Luftqualität messen. Hierbei geht es nicht nur um die Zweckmäßigkeit der verwandten Sensoren, die in Frage stehenden Variablen oder die Definition zumutbarer Grenzwerte, sondern auch um die Abwägung, wo und wann gemessen werden soll. Reicht es für eine konzise Beschreibungen der Luftverschmutzung der Verkehrswege der Innenstädte hin, an einigen wenigen, aber besonders befahrenen Straßen zu messen? Oder bedarf eine verallgemeinerbare Ermittlung ein anderes Vorgehen und die Berücksichtigung weiterer relevanter Faktoren?

Auch wenn die besondere Belastung der Anwohnenden nicht in Abrede gestellt werden soll, ist die Generalisierung der Hotspot-Messungen auf das ganze Gebiet einer Stadt mit Vorsicht zu genießen. Durch die Selektivität der Messungen werden allenfalls die Maximalwerte an einem bestimmten Punkt zu einer bestimmten Zeit ermittelt, wobei sich die Luftqualität schon an einer Nebenstraße deutlich von den Messungen am Hotspot unterscheiden kann. Die Ermittlung der allgemeinen Situation der Luftverschmutzung und Erarbeitung passender Lösungsvorschläge verlangt ein anderes Vorgehen: Um Verzerrungen zu vermeiden und ein detailliertes sowie zugleich dynamisches Bild der Verschmutzung zu zeichnen ist es eher zielführend, eine größere Menge von Messstationen weitflächig über die Stadt hinweg zu verteilen und in einem Netzwerk zu verknüpfen. So lässt sich das gezeichnete Bild differenzieren und zugleich die Bewegung der Luft, die Effekte der Architektur der Stadt auf ihre Strömung, mit in die Rechnung einbeziehen.

Smarte Boxen, vernetzte Systeme

Dem bisherigen Problem solcher Netzwerklösungen hat sich Professor Martin Schreivogel angenommen: Ihm ging es darum, eine präzise und kompakte Messstation zu entwerfen, die sich zugleich kosteneffizient ausnimmt. Gerade der hohe Preis der bislang üblichen Messstationen ließ eine Anschaffung in den hierfür notwendigen Mengen nicht zu. Um eine differenzierte Messung der Luftverschmutzung durchführen zu können, bedurfte es in einem ersten Schritt also erschwinglicher Messinstrumente, ohne dabei zu große Abstriche an der Präzision machen zu müssen. Als Referenz der Messqualität konnten dabei die Ergebnisse bisher gebräuchlichen Messstationen genommen werden.

Ein früher Entwurf einer Box für die Ermittlung der Luftgüte (Bild via Bosch)

Die ersten Versuche zeigten zum Teil signifikante Unterschiede zwischen beiden Typen an Messstationen, deren Differenz sich auch nicht über naheliegende Korrekturverfahren begradigen ließen. Das Problem bestand darin, dass sich die Sensorsignaländerung durch Feuchte- und Temperaturschwankungen oft um einiges größer ausnahmen, z.B. als das eigentliche, hierfür relevante NO2-Signal. Folglich war es die Frage, welche Ursachen die Abweichungen hatten. Auch wenn die Boxen schon aus Gründen der Kosteneffizienz möglichst einfach aufgebaut waren, sind sie dennoch hochkomplexe technische Instrumente aus verschiedenen Sensoren und Komponenten, bei denen vorab nicht ausgeschlossen werden konnte, dass sie die Verzerrung zu verantworten hatten. So könnte es z.B. durch eine Überkompensation bei der Korrektur/Verrechnung verschiedener Signale kommen. Zudem war es ebenso offen, ob ein einzelner Faktor zu den Abweichungen führte oder das Zusammenspiel mehrerer Elemente, wie die Frage, welche Rolle Einflüsse der Umgebung spielten.

Um sich dem Problem anzunähern, wurde auf Messungen in einem Klimaschrank zurückgegriffen, der gesteuerte Simulationen von Umweltbedingungen zulässt. Feststellen ließ sich dabei eine Auswirkung von Veränderungen der Temperatur und Luftfeuchte auf die Messeinheit, wobei sich der Effekt nicht direkt zeitigte, sondern etwas nachlief, wodurch sich auch die Schwierigkeiten beim Auffinden der Ursache der Verzerrung erklären ließen. Genauer formuliert waren die Ursache Feuchtigkeitsunterschiede in Luft und Sensorelektrolyt, die sich durch einen komplexen Diffusionsprozess auf das Sensorsignal auswirkten.

Um diese Verzerrung zu beseitigen, musste die Sensortemperatur in Abhängigkeit vom Wetter eingestellt werden, wodurch der Elektrolyt in Balance gehalten werden konnte und die Fehlausgaben vermieden wurden. Eine Folge war, dass die Messstationen eine Zertifizierung durch ein akkreditiertes Labor (Ineris) erhalten konnten, was wiederum ihre zukünftige Verwendung bei der statistischen Erhebung der Luftqualität erleichtern sollte. Der Gewinn an Signalstabilität hatte aber auch einen Preis: Nicht nur hatte das verbesserte Setting der Box ein höheres Gewicht, sie bedurfte auch einer eigenen Stromzufuhr, was ihren Einsatz wiederum deutlich einschränkte und damit die Möglichkeiten ihrer breiten Vermarktung limitierte. In einer neuen Generation von Modellen konnten dann Erkenntnisse komplexer mathematischer Korrekturansätze in die Konstruktion einfließen, wodurch die Geräte nicht nur deutlich leichter ausfielen, sondern ihr Betrieb auch über Solarenergie möglich wurde. Durch diese Maßnahmen ist nun die Marktförmigkeit des Produktes gewährleistet und zugleich die Möglichkeit geboten, die Luftqualität in Städten über ein Netzwerk von Messstationen ermitteln zu können.

Darstellung der gemessenen Verteilung inklusive der Qualitätsgrade (Bild via Bosch)

Die Boxen sind ein Ergebnis der Entwicklungs- und Projektleitungstätigkeit Martin Schreivogels bei Bosch, wobei er den abschließenden Prozess der Verwirklichung weiter begleiten wird, wie zuletzt an der nun beginnenden Kooperation von Bosch mit Palas deutlich wurde.[1] Zugleich diente ihm diese Arbeit als Material für seine Antrittsvorlesung, in der er auch die thematische Relevanz der Grundlagen der Elektrotechnik für Fragen der Anwendung und Umsetzung akzentuieren wollte. So biete sich im Rückgriff auf fundamentale Aspekte mitunter ein spezifischer Blick auf Probleme, aus dem dann wiederum genuine Lösungsansätze gewonnen werden können.

Die Mitgestaltung der Energiewende. Die Optimierung von Brennstoffzellen

Zielte das vormalige Projekt auf einen komplexen elektrochemischen Sensor und dessen Präzision und Funktionalität, geht es Schreivogel an der Hochschule Schmalkalden nun um die Vermessung eines elektrochemischen Systems mit Hilfe von Sensoren. Um die Funktion von Brennstoffzellen und Elektrolyseuren bei der Produktion von Wasserstoff verstehen und verbessern zu können, bedarf es eines breiten Sets an Sensoren, die die Anlagen und die Prozessabläufe überwachen. Diese offene Perspektive macht es erst möglich, eine Vielzahl von Variablen auf ihre Relevanz für die Transformation und ihre Optimierbarkeit hin zu befragen.

Die Energiewende hat durch äußere Anstöße aktuell einiges an Fahrt aufgenommen. Die Gewinnung von Wasserstoff als transportablen Energieträger und Speichermöglichkeit steht dabei noch immer vor zahllosen Herausforderungen, die durch die gerade erwünschte Geschwindigkeit im Aufbau einer Versorgungsinfrastruktur nicht geringer werden. Die zügige Umsetzung der Energiewende legt es nahe, schon in der Frühphase mit der Optimierung bereits bestehender Anlagen zu beginnen: Weil infolge des rasanten Aufbaus der Produktionsstätten die Optimalität als Ziel hinter die Realisierung rückt, entsteht hier ein Ansatzpunkt für die Forschung. Auch wenn davon auszugehen ist, dass die Technologie zur Erzeugung von Wasserstoff ein fortgeschrittenes Stadium erreicht hat ist, befinden sich Elektrolyseur- und Brennstoffzellensysteme noch immer in einer relativ frühen Entwicklungs- und Skalierungsphase. Somit bleibt die Optimierung der Effizienz und anderer Kriterien eine relevante Aufgabe, die zugleich die Energiewende vorantreibt. Im Fokus stehen somit die konkreten Anlagen, die mit Hilfe von Sensoren vermessen werden sollen, um auf diesen Messungen aufbauend konkrete Vorschläge für die Optimierung erarbeiten zu können. Ein zentraler Aspekt ist dabei die Datenverarbeitung: Die enormen Mengen an Informationen müssen strukturiert, gefiltert und evaluiert werden, um als belastbare Quelle genutzt werden zu können.

Ein Symbolbild: Die feine Verteilung von Wasserdampf

Die Region Südthüringen eignet sich schon deshalb für ein solches Vorhaben, weil es mehrere Kooperationspartner aus dem Bereich der Wissenschaft und der Wasserstoffwirtschaft gibt, mit denen ein Netzwerk von Institutionen und Anwendern der Wasserstofftechnologieforschung aufgebaut werden kann. „HySON – Institut für angewandte Wasserstoffforschung Sonneberg gemeinnützige GmbH“ und die Abteilung „Industrielle Wasserstofftechnologien Thüringen“ des Fraunhofer IKTS in Arnstadt sind zwei mögliche regionale Kooperationspartner. So ließe sich ein Zugang finden zu bestehenden Anlagen, die dann analysiert und optimiert werden können, um aus den Befunden der Einzelfälle im Anschluss generalisierende Aussagen generieren zu können. Nicht zuletzt können auch Expertisen an der Hochschule Schmalkalden und der Fakultät Elektrotechnik genutzt werden. Unter anderem befasst sich Professor Roy Knechtel intensiv mit Fragen der elektronischen Messtechnik und Sensorik.


[1] https://www.bosch-presse.de/pressportal/de/en/bosch-and-karlsruhe-based-measuring-technology-specialist-palas-team-up-for-better-air-quality-258432.html

Das Science Camp 2023 an der Hochschule Schmalkalden

Das Science Camp 2023 an der Hochschule Schmalkalden

In der zweiten Septemberhälfte fand das Science Camp zum Thema RoboBau an der Hochschule Schmalkalden statt. Über sieben Tage hinweg wurde Wissenschaft mit Experimentierfreude und Ingenieurwissenschaft mit interdisziplinärer Kooperation kombiniert. Insgesamt 25 Masterstudierende aus verschiedenen Fächern und mit unterschiedlichen Schwerpunkten wie Robotik, Elektrotechnik und dem 3D-Druck mussten ihre jeweiligen Fähigkeiten zusammenbringen und zugleich kreativ verknüpfen, um das Ziel des Wettbewerbs zu erreichen. Diese Kooperation zwischen Studierenden über die Grenzen verschiedener Disziplinen und Hochschulen hinweg ist die grundlegende Intention der Science Camps.

Die Idee der Science Camps geht auf eine Initiative der Allianz Thüringer Ingenieurwissenschaften zurück, also der übergreifenden Kooperation von Ingenieurstudiengängen verschiedener Thüringer Hochschulen. So setzt sich auch das Teilnehmerfeld nicht nur aus Studierenden unterschiedlicher Fachrichtungen der Ingenieurwissenschaft zusammen, die Teilnehmenden kommen auch aus verschiedenen Thüringer Hochschulen. Es ist dieser integrative, kooperative Ansatz gemeinsamer Problemlösungen, der im Zentrum der Allianz ThürIng steht. An der Hochschule Schmalkalden koordinierten Miriam Naujoks und Frederike Mohr die Konzeptionierung und Umsetzung des Science Camps. Unterstützt wurden sie und die Teilnehmenden insbesondere durch Prof. Schrödel als fachlichen Leitern sowie durch studentische Hilfskräfte.

Leitthemen und Ablauf

Das leitende Motiv dieses Camps war der RoboBau. Die Aufgabe der vier Teams war es, zunächst eine Brücke bestehend aus verschiedenen Bauelementen digital zu konstruieren und anhand eines 3D-Druckers zu fertigen. Anschließend musste die Brücke von einem Robotergreifarm zusammengesetzt werden. Auch wenn die entscheidenden Kriterien Stabilität und der effiziente Einsatz von Materialien waren, wurde die Kreativität der Aufbauten gewürdigt.

Der Donnerstag stand ganz unter dem Eindruck des Ankommens. Nach der Begrüßung durch den Vizepräsidenten für Studium und internationale Beziehungen, Prof. Dr. Uwe Hettler, stellte Frederike Mohr den Tagesablauf vor. Anschließend gab es eine Campusführung inklusive mehrerer Laborbesuche und ein gemeinsames Mittagessen. Am Nachmittag wurden die ersten thematischen Pflöcke eingeschlagen. Dr. László Dunaivon dem Department of structural engineering der Budapest university of technology and economics führte in die Thematik des Brückenbaus aus architektonischer Perspektive ein und stellte Grundprinzipien möglicher Aufbauweisen vor, an denen sich die Teilnehmenden am Science Camp orientieren konnten. Danach gab Prof. Abrahamczyk von der Bauhaus-Universität Weimar einen Überblick über die genaue Aufgabe und stellte die Teams vor. Den Tag rundete ein gemeinsames Grillen der knapp dreißig Teilnehmer aus fünf Hochschulen ab.

In den nächsten Tagen wurden verschiedene Crash-Kurse abgehalten. Neben Prof. Frank Schrödel, der die Studierenden u.a. in die Themen der Intelligent Robotics und Roboterprogrammierung einführte, gab Prof. Hartmut Seichter eine Übersicht in die Programmiersprache Python sowie in das Thema der Bildverarbeitung. Prof. Andreas Dietzel vermittelte einen ersten Eindruck in das Konstruieren mithilfe von Computern (CAD). Auch wenn der selbstständigen Arbeit der Master-Studierenden möglichst viel Raum gelassen werden sollte, wurde zwecks praktischer Veranschaulichung und kurzweiliger Ablenkung am Mittwoch eine Exkursion zu dem Unternehmen Mehnert – Experts for Special Machines 4.0 mit Sitz in Erfurt unternommen.

Auszeichnungen und Resümee

Auch wenn es bei derartigen kooperativen Projekten nicht im Mittelpunkt steht, gab es natürlich auch ein Gewinnerteam, dem die Brückenkonstruktion am überzeugendsten gelang. Herr Muralidhar Appana (Schmalkalden), Frau Arti Rana (Schmalkalden), Frau Rohini Kulkarni (Nordhausen), Frau Quratulain Siddiqi (Weimar), Herr Jakob Pflugbeil (Ilmenau) und Herr Jash Roopesh Shah (Jena) gewannen zudem den zweiten Wettbewerb, der die kreativste Lösung prämierte.

Dem Resümee Prof. Schrödels von der Fakultät Maschinenbau der Hochschule Schmalkalden ist nichts hinzuzufügen: „Es war inspirierend zu sehen, mit welchen hohen Maß an Begeisterung die Studierenden am Science Camp 2023 teilgenommen haben. So löcherten die Studierenden die beteiligten Dozenten mit vielen Fragen und tüftelten nicht nur bis spät abends, sondern auch am Wochenende in den Robotik Laboren der Hochschule Schmalkalden. Am Ende des Science Camp waren alle Studierenden in der Lage ein wirklich vorzeigbares Ergebnis stolz zu präsentieren – was mich wirklich begeisterte! Ich freue mich aufs nächste Science Camp!!“

Natürlich lässt sich doch noch etwas hinzufügen: Das nächste Science Camp wird im Frühjahr 2024 an der FH Erfurt stattfinden.

Konsortialtreffen des KI-Hub Kunststoffverpackungen an der Hochschule Schmalkalden

Konsortialtreffen des KI-Hub Kunststoffverpackungen an der Hochschule Schmalkalden

Am 18. und 19. September fand an der Hochschule Schmalkalden das erste Konsortialtreffen des KI-Hub Kunststoffverpackungen statt. Das Ziel dieser interdisziplinären Forschungskooperation besteht darin, die Nachhaltigkeit von Kunststoffverpackungen effektiv zu erhöhen und deren Nutzung ressourcenschonend und im Rahmen einer Kreislaufwirtschaft zu gestalten. Neben der Angewandten Kunststofftechnik der Hochschule Schmalkalden arbeiten hier gefördert unter anderem vom Bundesministerium für Bildung und Forschung 51 namhafte Partner aus Wirtschaft, Wissenschaft und Gesellschaft zusammen. Als Projektbeteiligter organisierte zusammen Prof. Thomas Seul mit seinem Team der Angewandten Kunststofftechnik das Konsortialtreffen an der Hochschule.

Kunststoffe und Kreisläufe

Produkte und Verpackungen aus Kunststoff sind aus unseren Haushalten und aus unserem täglichen Gebrauch kaum mehr wegzudenken. Die Vorteile dieses Materials sind dabei vielfältig: Neben der Plastizität, die eine Vielfältigkeit der Form- und Farbgebung zulässt, sind hier die funktionalen und hygienischen Qualitäten einschlägig. Doch zugleich entstehen durch die Verbreitung des Kunststoffs und seine Langlebigkeit auch Probleme, wie wir an der zunehmenden Menge an Abfällen und gelben Säcken auch im Alltag merken. Dabei stellt sich die Herausforderung eines möglichst nachhaltigen Gebrauchs auf verschiedenen Ebenen, die zugleich unterschiedliche Problemlösungsansätze erfordern.

Eindrücke vom Empfang

Um die Ressource Kunststoff speziell in seiner Funktion als Verpackungsmaterial optimal und möglichst ökologieeffizient nutzen können, gilt es sowohl am Anfang wie dem Ende des Zyklus einer Kunststoffverpackung anzusetzen. Neben Aspekten des Materials und des Produktdesigns stehen die Bedingungen der Wiederaufbereitung im Fokus. Das übergeordnete Ziel besteht in der Etablierung einer Kreislaufwirtschaft, die den Kunststoff vollumfänglich nutzt und keine Ressourcen verschwendet, also die Wertschöpfungskette von Kunststoffverpackungen so weit wie möglich zu schließen und die Produktion von Treibhausgasen zu minimieren. Um die Quote der Wiederverwertung zu maximieren muss neben der Aufbereitung der Kunststoffe bereits bei der Produktion der Verpackungsmaterialien angesetzt werden.

Innovationslabore

Kurz gefasst geht es dem KI-Hub einerseits darum, wie wir Kunststoffe ausgerichtet auf ihre Wiederverwertbarkeit als Verpackungen fertigen und verwenden müssen: Welcher Kunststoff lässt sich zum Beispiel wie am besten recyclen, welches Material eignet sich in welcher Dosierung für welches Produkt, und welche Anforderungen haben die Partner der Industrie? Andererseits geht es um die Frage der Optimierung des eigentlichen Recyclings, das von Organisation und Logistik der Abfallwirtschaft bis hin zur Sortierung und Verarbeitung mit Hilfe künstlicher Intelligenz reicht. Das KI-Hub selbst gliedert sich in die beiden Innovationslabore KIOpti-Pack (Design und Produktion) und K3I-Cycling (Kreislaufschließung) in zwei eigenständige Konsortien mit je eigenen Profilen und Forschungsschwerpunkten, die im KI-Hub kooperieren.

Im Innovationslabor KIOptiPack stand unter anderem die Frage im Fokus, wie Kunststoffe gefertigt werden können, die sich maximal weiternutzen lassen. Welche Qualitäten müssen Rezyklate, also wiederaufbereitete Kunststoffe, aufweisen, um für sensible Bereiche der Verpackung – wie zum Beispiel von Lebensmitteln – verwandt werden zu können? Was sind die Eigenschaften der Polymere und wie lassen sich diese im Hinblick auf die Wiederverwertung optimieren? Ein Problem unter vielen ist hierbei die Bedruckung von Folien: Welche Folgen haben die Aufbringung von Farben auf die Materialien und speziell für die Weiterverarbeitung? Aber auch die negativen Effekte spezifischer Geruchsbilder von Kunststoffen und Rezyklaten auf Konsument:innen und deren Akzeptanz stehen im Fokus. Kurzum ist das Ziel, den Anteil der Rezyklat-Polymere in Produkten zu erhöhen, wofür Fragen der Qualität und Quantität, der nötigen Reinheit und Kontamination für verschiedene Verwendungs- und Produktionsweisen zu klären sind.

Gespräche im Foyer

Das zweite Innovationslabor, K3I-Cycling, richtete den Blick auf das Ende des Kreislaufs, und damit im Sinne des Zirkels auf den reibungslosen Beginn der neuen Phase. Wie das andere Innovationslabor gliedert sich dieses Konsortium in verschiedene Themenfelder und Probleme, die in unterschiedlichen Paketen zusammengefasst werden. Ein Schwerpunkt liegt in der Sortierung und dessen Optimierung mit Hilfe künstlicher neuronaler Netzwerke. Der Vorteile dieser Technologien ist die sich selbst steuernde Erfassung, die flexibel auf Daten- und Materialflüsse reagiert. Ein Ziel ist es, die Prozesse nicht nur retrospektiv zu begleiten, sondern prospektiv valide Prognosen vornehmen zu können und so die Organisation der nachhaltigen Verarbeitung zu optimieren. Ein Ansatz ist hier das Deep Learning, dessen Potentiale sich anhand von Tools wie ChatGPT bereits ahnen lassen. Die Frage ist hier nicht nur, wo die Reise der technischen Entwicklung hingeht, sondern auch, wie sich die Potentiale effektiv in Anwendungen einbinden und nutzen lassen.

Das Konsortialtreffen

So kamen etwa 150 Teilnehmer, bestehend aus dem Konsortium, Beirat sowie Projektträger im spätsommerlichen Schmalkalden zusammen. Neben den Vorstellungen der Projekte, der Projektstände und einzelnen Vorträgen lag das Hauptaugenmerk auf verschiedenen Workshops, die zu unterschiedlichen Themen stattfanden. Die Teilnehmenden diskutierten hier Fragen unter anderem des effizienten Einsatzes von KI über den Daten- und Materialfluss bis hin zu Fragen ethischer und datenschutzzentrierter Horizonte. Ein Workshop untergliederte den Kreislauf der Wertschöpfungskette des Kunststoffs in verschiedene Stationen auf und wollte von den Teilnehmenden in Erfahrung bringen, wie sich die Übergänge zwischen den verschiedenen Stationen optimal ausnehmen würden bzw. wo die kritischen Punkte liegen. Auch wenn die Forschung hier noch am Anfang steht, ließe sich so ein ideales Optimum des Kreislaufs eruieren, dass die Reibungsverluste zwischen verschiedenen Stadien minimiert.

Disksussion im Workshop

Ein ebensolcher übergeordneter, rahmender Bezugspunkt wurde auch von einem Vortrag über die Kriterien der Nachhaltigkeitsbewertung und des Life Cycle aufgegriffen: Nachhaltigkeit ist ein normatives und komplexes Ziel, gegenüber dessen multiplen, teils divergierenden Ansprüchen sich Forschende bewusst verhalten müssen. Anders gesagt ist Nachhaltigkeit kein analytisches Konzept, dessen Definition schon im Sinne eines standardisierten Wertes feststünde, sondern ein offener Begriff, der auf verschiedenen Ebenen arbeitet und zugleich eine Positionierung der Bewertung und reflexiven Abwägung von den Akteuren verlangt. Um mit dem Begriff und den Anforderungen zwischen Ökologie, Ökonomie und gesellschaftlichem Kontext produktiv umgehen zu können, ist diese Rückversicherung und Zieljustierung sinnfällig.

Die Tagung diente neben der Sacharbeit auch dem Kennenlernen sowie der internen Vernetzung der verschiedenen beteiligten Personen. Gelegenheiten zum Austausch bot sich nicht nur in den Pausen und Workshops, sondern auch im Rahmen eines gemeinsamen Austauschs im Netzwerk in der Viba-Nougatwelt. Am Ende der Tagung wurden die Ergebnisse der Workshops präsentiert und die beiden Tage produktiv mit einigen Antworten und vielen neuen Fragen abgeschlossen.

Die Anwendung im Blick. Über Forschungsprojekte von Andreas Wenzel

Die Anwendung im Blick. Über Forschungsprojekte von Andreas Wenzel

Professor Andreas Wenzel hat die Professur für Technische Informatik/Eingebettete Systeme an der Fakultät Elektrotechnik der HSM inne. Zusammen mit seinem Team der Forschungsgruppe Eingebettete Diagnosesysteme sucht er nach praktischen Lösungen für unterschiedliche Anwendungsfelder und Fragestellungen, zum Beispiel: Welche Genauigkeit benötigt ein drahtloses Indoor-Lokalisierungssystem für den Einsatz für mobile Robotik-Anwendung? Wie lässt sich eine digitales Werkzeugbegleitbuch mit Bedienungsanleitung und Montagevideos an Werkzeugformen integrieren und im Gebrauch am besten nutzen? Welche KI-Methoden und Algorithmen sind für maschinelle Bewertung der Produktionsqualität aus Prozessdaten besonders geeignet? 

Eine weitere Aufgabe, der sich das Team um Professor Wenzel in den Forschungsprojekten „Powermoduls“ und „WASABI“ in Kooperation mit der Fakultät für den Maschinenbau widmete, war die Optimierung von Spritzgussverfahren mit Hilfe eines integrierten Diagnosesystems: Lassen sich beim Herstellungsprozess bereits Daten erheben, welche die Güte des gefertigten Produkts prognostizieren können? Dies wäre ein Weg, bereits zu Beginn Fehlproduktionen zu vermeiden. Gerade weil in nahezu vollautomatisierten Produktionsprozessen weniger menschliche Handarbeit als vielmehr die Überwachung und Qualitätskontrolle der Produktion zur Optimierung gefragt ist, macht dieser Ansatz auch für die Industrie Sinn.

Zunächst galt es hierfür die messbaren Faktoren und Parameter im Prozess der Produktion auszumachen, welche für die Qualität des hergestellten Produkts entscheidend sind bzw. diese mittelbar beeinflussen. Neben dem Aspekt der sensiblen Detektion relevanter Sensordaten bestand die Herausforderung darin, die großen Mengen an Daten zu verarbeiten. Ein Mittel hierzu sind KI-unterstützte Verarbeitungsverfahren, also spezifischer Algorithmen, mit deren Hilfe die Daten geordnet, Muster erkannt und belastbare, relevante Informationen von anderen getrennt werden können. Zuletzt war die Ausgabe an die für die Produktion verantwortliche Person zu bedenken: Welche Informationen über die Entscheidung der KI mussten mitgeliefert werden, und in welchem Format? Welche Maßnahme kann der Prozessbediener im laufenden Prozess anpassen, um Fehlproduktionen zu vermeiden?

Die Tonalität von Klingen

Ein weiterer Forschungsschwerpunkt der vergangenen Jahre waren die  Projekte „EMIL“ und „SMoSys“, wobei ersteres zusammen mit Prof. Beneke von der Fakultät Maschinenbau, Class und der Universität Kassel durchgeführt wurde. In SMoSys wurde dies dann im Verbund mit der Uni Kassel, der Uni Göttingen und Class weiterentwickelt. Hier waren für die technischen Lösungen eine Kombination aus Zugängen der klassischen Ingenieurswissenschaft und der Datenverarbeitung mit künstlichen neuronalen Netzwerken notwendig. Eines der größeren Verschleißteile von Landmaschinen wie Feldhäckslern sind die Klingen, mit denen die Agrargüter wie Mais geschnitten werden. Bedingt durch den Zeitdruck der Ernte  müssen verschiedenen Wartungsprozesse auch kostenoptimiert gestaltet werden. Ein solcher Aspekt ist auch das Schleifen der Messer. Beide Forschungsvorhaben haben sowohl mit den Verschleiß, sowie mit der Prognose des Messerzustandes in realen Messumgebungen beschäftigt.

Fragen wie: „Wie lässt sich die Schärfe der Messer bestimmen?“ haben die beteiligten Forschungsgruppen natürlich auch beschäftigt. Hierfür wären allerlei technische Instrumente denkbar, die zwar eine Messung erlauben, aber zugleich mit einem hohen Aufwand verbunden wären. Im Rahmen des Projekts konnte zusätzlich ein praktikabler Ansatz, welcher auf bereits bestehende Gegebenheiten zurückgreift und in ihrem Aufwand minimal bleibt, erarbeitet werden. Professor Wenzel und sein Team griffen hierfür auf bereits integrierte Sensoren im Feldhäcksler zurück, welche die Schwingungen in der Nähe der Schneiden erfassen können. Wenn diese Schwingungen Auskunft über den Zustand der Klingen geben, könnte diese auch für die Entwicklung eines automatisiertes Monitoringsystems genutzt werden. Zuletzt war es wiederum die Aufgabe, aus den Daten eben jene belastbaren Signale und Muster zu extrahieren, an denen der Verschleiß der Klingen ablesbar war.

Professor Wenzel und sein Team befassen sich im Bereich der Landwirtschaft neben der Klingenschärfe der Feldhäcksler auch mit der Kartierung von Räumen für das autonome Fahren von landwirtschaftlichen Maschinen. Diese Aufgabe, die vor der Herausforderung einer eher rauen Umgebung steht, dient nicht zuletzt der optimalen Nutzung der natürlichen Ressourcen, zusätzlich werden auch Themenaspekte der Nachhaltigkeit behandelt. Für das Erkennen von Innovationspotenzialen und den Einsatz von KI-Algorithmen und eingebetteten Systemen sind intelligente Methoden sowie unterstützendes Know-how aus Sensorik, Prozessverständnis und praxisnahen Anwendungen für die Entwicklung von Lösungsansätzen für Industrie sowie Wissenschaft und Forschung von essentieller Bedeutung.

Assistentenexkursion “AssEx” nach Nürnberg

Assistentenexkursion “AssEx” nach Nürnberg

Ende August startete die letzte Assistentenexkursion nach Nürnberg. Ziel der sogenannten AssEx ist es, dass die Doktoranden der Hochschule Schmalkalden in Kontakt treten und sich über die Grenzen ihrer jeweiligen Disziplinen hinweg austauschen und vernetzen. Umrandet wurde der Besuch Nürnbergs von einem Rahmenprogramm, das mit dem Besuch des Unternehmens Hoefer & Sohn begann.

Norbert Greifzu im Austausch mit Martina Badock

Hoefer & Sohn, ansässig in Fürth, ist ein Spezialist für Kunststofffertigung und Präzisionsformenbau, der neben der Herstellung spezieller Werkzeuge auch die eigene Produktion komplexer Komponenten anbietet. Nach einer Unternehmensvorstellung wurden die Schmalkaldener Doktoranden von den beiden Inhabern Martina und Christoph Badock persönlich durch die neuste Produktionsstätte des 1876 gegründeten Familienunternehmens in Fürth geführt. Neben komplexen Bauteilen für moderne Dieselmotoren wurde unter anderem die vollständig automatisierte Herstellung von Augenspeeren vorgestellt, die bei Operationen des grauen Stars verwandt werden.

Im Anschluss bekamen die Promovenden die Möglichkeit, ihre Projekte vorzustellen und konstruktiver Kritik zu begegnen. Die Themen und Ansätze waren dabei so breit gefächert wie das Spektrum der Fächer an der Hochschule selbst. Ein Vorhaben befasst sich mit der Herstellung eines hochleitfähigen Kunststoffs, wobei nicht nur die verschiedenen, optimalen Materialien und ihrer Kombinationen zu erforschen sind, sondern auch die Herstellungsweise des Kunststoffs, zum Beispiel über das additive Verfahren des 3D-Drucks. Andere Projekte widmen sich der integrierten Kennzeichnung von Spritzgussprodukten, einem Drucksystem für die 3D-Elektronikintegration und verschiedenen Modellen der Nachvollziehbarkeit von Entscheidungen KI-basierter Datenverarbeitungsprozesse. Den Abschluss machte dann Steffi Ludwig vom Projekt FH Personal, die über die Angebote der Hochschule an Promovenden informierte.

Rundgang durch die Produktionshallen

Der zweite Tag der AssEx wurde von einem Besuch des Reichsparteitagsgeländes abgerundet. Der Größenwahn der Nationalsozialisten wurde an der Architektur und der dahinterstehenden Ideologie des Führerkults greifbar wie die Intention der Massenmobilisierung und der Durchmilitarisierung der Gesellschaft. Angefangen an der geplant siebzig Meter hohen Kongresshalle führte der Besuch über die 1,5 km lange und 60 m breite Große Straße bishin zur Zeppelintribüne. Vom Deutschen Stadion mit einem angedachten Fassungsvermögen von 400000 Menschen wurde dagegen nur der Grundstein realisiert. Der Besuch einer historischen Gedenkstätte, die  konkrete Erfahrung der Gigantonomie vor Ort und die Kontextualisierung durch einen Vertreter des Nürnberger Vereins „Geschichte für alle“ schlossen das Rahmenprogramm ab.

Prof. Dornieden während des Vortrags

Die Herausforderungen der Nachhaltigkeit von Lieferketten. Ein Praxisbericht zu den Auswirkungen des Lieferkettensorgfaltspflichtengesetzes auf Unternehmen

Die wahrlich nicht allzu eingängige Wortschöpfung des Lieferkettensorgfaltspflichtengesetzes stellt Unternehmen vor weitaus größere Probleme als jene der vollständigen Wiedergabe des Ausdrucks. Die Novelle des Gesetzes und vor allem die Verschiebung von einer freiwilligen Selbstverpflichtung der Unternehmen hin zu einer verbindlichen Norm nehmen sich gerade für mittlere und größere Unternehmen als eine immense Herausforderung aus.  Kurz gefasst verlangt das Gesetz nunmehr von den Unternehmen, die Einhaltung bestimmter ökologischer und menschenrechtlicher Standards ihrer unmittelbaren Zulieferbetriebe sicherzustellen. Somit müssen Unternehmen, die aus dem Ausland Materialien oder Waren beziehen, für die Produktionsverfahren und Arbeitsbedingungen ihrer Zulieferer Verantwortung übernehmen. Komplexe Beschaffungsstrukturen mit einem Vielerlei zerstreuter Lieferanten machen die Einhaltung dieser rechtlichen Vorgaben nicht eben leicht.

Professor Michael Dornieden, der an der Fakultät Wirtschaftswissenschaften die Professur für allgemeine Betriebswirtschaftslehre mit den Schwerpunkten Beschaffung und Produktion innehat, ging den Auswirkungen der Gesetzesnovelle im Rahmen seines Praxissemesters nach. Weil sich die Gesetzesnovelle für die Unternehmen lange Zeit als eine Art black box unbekannten Inhalts ausnahm, war an dieser Stelle eine wissenschaftliche Begleitung ebenso sinnvoll wie konstruktiv. Welche Effekte die Anforderungen auf ein mittelständisches, gleichwohl international tätiges Unternehmen und seine Beschaffungsstrukturen zeitigt, konnte Professor Dornieden im Rahmen seiner Mitarbeit im Unternehmen Ottobock SE & Co. KGaA nachgehen. Als ein sogenannter hidden champion im Bereich des health tech ist dieses Unternehmen mit seinen fast 9000 Beschäftigten ein Weltmarktführer dezidiert im Bereich Prothetik. Aber auch auf anderen Feldern der Orthopädietechnik wird dem Unternehmen Expertise zuerkannt, so bei individuell-zugeschnittenen Rollstühlen oder auch Exoskeletten.

Überleitung zur Fragerunde

Neben der Spezialisierung der Produkte weist das Unternehmen im Bereich der Beschaffung einen hohen Grad der Diversifizierung und ein heterogenes Portfolio auf, was die Übersicht und Kontrolle der Lieferketten zumindest nicht erleichtert. Um also die Folgen der Gesetzesnovelle abzusehen galt es für Professor Dornrieden zunächst, den Status quo zu analysieren. Welche Lieferketten bestehen, wie viele Lieferanten gibt es, welche Art von Verträgen mit welchen Konditionen (zum Beispiel in Hinsicht der Einhaltung von Standards) liegen mit den Partnern vor usw.? Anhand dieser Prüfung konnte dann im nächsten eine Konsolidierung der Lieferstrukturen konzipiert werden, die zugleich den Ansprüchen der Sorgfaltspflicht entgegenkam. Eine Möglichkeit der Optimierung besteht darin, die Zerstreuung der Lieferanten zu reduzieren und die Beschaffungswege wo möglich zu bündeln. Weil durch die Harmonisierung weniger Elemente innerhalb der Beschaffung zu berücksichtigen sind, sollte die Kontrolle der Einhaltung der Nachhaltigkeitskriterien leichter fallen. Daneben wäre ein anderer Ansatz, Verträge mit den Lieferanten anhand der rechtlichen Vorgaben auszurichten und die Kriterien somit verbindlich zu setzen. Diese Integration ist allerdings nur mittel- bzw. langfristig möglich.

Die Möglichkeit, die Folgen von Veränderungen rechtlicher Rahmenbedingungen direkt in betroffenen Unternehmen zu studieren und diesen im Umgang mit den entstehenden Herausforderungen zu unterstützen, bot Professor Dornieden eine gewinnbringende Erfahrung direkter Mitwirkung.

Ein Blick in das Publikum