Der Begriff „Künstliche Intelligenz (KI)“ kann, je nach sozialer Prägung, bei jedem Leser oder Leserin eine andere Assoziation auslösen. Je nach Alter, Interessen oder auch technischer Begeisterung kann sich der ein oder andere an unterschiedliche Computerspiele, Filme oder auch Bücher mit verschiedenen Arten an KI aus seiner Kindheit erinnern. Somit tragen Science Fiction oder allgemeiner die Kulturindustrie jeder Dekade ganz eigene Bilder artifizieller Intelligenz: Ob wir an das sprechende Auto „KITT“ aus der Knight Rider, selbst steuernde Raumschiffe oder humanoide Roboter, wie „Data“, aus der Serie Star Trek oder an künstlichen Neuronalen Netzen (KNN), Deep Learning (DL) oder ChatGPT als Large Language Model (LLM) denken, kann man nur schwer, durch aufwendige Umfragen oder persönliche Gespräche herausfinden. In vielen Narrativen unserer Gegenwart kommt noch die Tendenz einer globalen Dominanz hinzu, die Seitens autonom agierender Roboter, Programme oder Netzwerke ergriffen oder zumindest angestrebt wird. Dies mag einen Grund in der steigenden Verbreitung smarter Geräte und der umfassenden Digitalisierung sowie der Abhängigkeit unserer Alltagsroutinen von diesen Technologien haben. All diesen Bildern der Künstlichen Intelligenz ist dabei gemein, dass sie zu der realen Version nur überschaubar viele Parallelen aufweisen.
In der banalen Wirklichkeit verliert die KI zwar viel von den popkulturellen Etiketten zwischen Idealisierung und Dämonisierung, sie gewinnt aber zugleich an praktischen Nutzen. Um zu verstehen, was Künstliche Intelligenz ist, worin ihre Potentiale und Schwächen im Allgemeinen wie im Besonderen liegen und was letztlich ihr Nutzen ist, muss also zunächst von den Zerrbildern Abstand genommen werden, auch wenn sie sich durchaus als Einstieg in Ausführungen wie diese eignen.
Künstliche Intelligenz (KI)
Künstliche Intelligenz lässt sich am ehesten als ein Werkzeug beschreiben, das bei der Verarbeitung von Daten den Menschen Hilfestellung leisten soll. Der Bereich der KI ist eine Untergruppe aus dem Forschungsgebiet des Maschinellen Lernens (ML). Beide Begrifflichkeiten lassen sich meist nicht scharf von einander trennen und gehen fließend in einander über. Für beide Themenkomplexe kann jedoch gesagt werden, dass in der Vergangenheit die Herausforderungen in den Fragestellungen „Wie komme ich an Daten?“, „Welche Sensoren kann ich einsetzen?“ oder „Wie kann ich diese Daten auswerten?“ zutreffend waren. Die aktuellen Fragestellungen gehen eher in die Richtung: Wie kann ich diese Mengen an Daten komprimieren, auswerten oder die Entscheidung nachvollziehen? Hier kommen dann Begrifflichkeiten wie z.B. Big Data, Dimensionsreduktions-Algorithmen oder erklärbare KI (englisch explainable artificial intelligence (XAI)) zum Einsatz.
Das Forschungsgebiet der großen Datenmengen (Big Data) ist ursächlich aus der großen Verbreitung an Sensorik oder Informationsquellen entstanden. Heutzutage besitzen fast alle Menschen auf der Welt eine Smart Phone oder PC. Infolge der Möglichkeit, kostengünstige Mikroelektronik oder Sensorik herzustellen, gibt es eine Unmenge an potentiellen Datenquellen, welche die Menschen bei einer Auswertung oder Bewertung überfordern können. Hierfür müssen effiziente und schnelle Algorithmen entwickelt werden, welche es dem Menschen in annehmbarer Zeit ermöglichen, komplexe Zusammenhänge in den Daten zu erkennen und auch verstehen zu können. Die somit entstehenden komplexen Programme sind durch die hohe Rechenleistung in der Lage, Daten maschinell zu erfassen, Muster und Strukturen sowie unter anderem Synchronitäten, Parallelen und Divergenzen von Prozessen zu erkennen und zu verknüpfen. So lassen sich mehr und mehr Informationen aus den großen Beständen an Daten ziehen und für nachlaufende Erklärungen, tiefere Verständnisse des Gegebenen und vorlaufende Abschätzungen der möglichen Zukunft nutzen. Gerade weil die Vermessung unserer Welt durch Sensoren in Geräten z.B. Smartphones oder auch modernen Automobilen immer weiter voranschreitet, wächst ein Fundus an Wissen, der produktiv genutzt werden kann.
Zugleich ist es angebracht, nicht von der einen Künstlichen Intelligenz zu sprechen, sondern dies eher als Sammelbegriff verschiedener, teils recht unterschiedlicher Formen von KI zu verstehen. Künstliche Intelligenz umfasst diverse Verfahren der Datenverarbeitung, die sich für unterschiedliche Kontexte, Fragenstellungen und Materialien eignen. Es verhält sich also so wie bei vielen anderen angewandten Wissenschaften: Es gibt nicht ein generelles Verfahren, sondern verschiedene Ansätze mit unterschiedlichen Charakteristika. Zum Beispiel können KI-Modelle, die sich für Bildererkennung eignen, nicht für Sprachprogramme wie Chat GPT verwendet werden.
Damit ist auch schon eine Schwäche in der Nutzung von KI angesprochen: Nicht alle Modelle eignen sich für jede Anwendung. In anderen Worten muss für die Aufgabe, gerade wenn sie einem speziellen Zweck dient, zunächst das passende Verfahren gefunden und mit passenden Daten angelernt, getestet oder nachtrainiert werden. Die Nutzung der KI-Modelle ist demzufolge keine one-fits-all-Lösung, sondern bedingt einen Anpassungsprozess. Für manche Aufgaben eigen sich z.B. Unscharfe Regelwerke (Fuzzy Modelle), Support Vektor Maschinen (SVM) oder künstliche neuronale Netze, welche sich an der Funktionsweise des Informationsaustausches zwischen menschlichen Nervenzellen anlehnen.
Bilder und Werkzeuge
Die Komplexität dieser Anpassung könnte an Komplikationen bei der Bilderkennung klarer werden, wobei hier noch ein epistemologisches Problem auftritt. Digitale Bilderkennungsverfahren arbeiten mit zweidimensionalen Objekten, denen also die räumliche Tiefe fehlt. Diese muss gewissermaßen als Vorder- und Hintergrund wieder in das Bild hineingelesen werden: Die Dreidimensionalität, die distinkten Objekte und selbst der Fokus müssen demnach erst erarbeitet werden. Was die Programme vor Herausforderungen stellt, ist dem Menschen schon in seinem Zugang zur Welt quasi natürlich gegeben. Gerade weil die eigentliche Objekterkennung und -unterscheidung fundamentale Aufgaben sind, können hier spannende Probleme entstehen: Ein gerne gebrachtes Beispiel ist die aus der Literatur bekannte Methode der One-Pixel-Attack[1]. Hier kann die maschinelle Bewertung durch ein Bilderkennungsalgorithmus, durch die Änderung eines einzigen Pixels in einem Pferdebild zu einer Fehlklassifikation zu ein Frosch führen. Die Funktionsweise der KI-Modelle ist also noch nicht perfekt, auch wenn sich ihre Güte – man denke nur an die Gesichtserkennung von Smartphone-Kameras – in den letzten Jahren kontinuierlich verbessert hat.
Was meint es nun, von der Künstlichen Intelligenz als Werkzeug in der Industrie zu sprechen? Stellen wir uns einen Produktionsprozess von Plastikteilen vor: Wir haben auf der einen Seite die vielen kleinen Plastikkügelchen am Anfang, die aufgeschmolzen und in eine bestimmte Form gebracht werden, um zum Ende als gefertigtes Teil aus der Maschine entnommen zu werden. Was zunächst wie ein idealer, unendlich wiederholbarer Vorgang erscheint, hängt im Alltag der Produktion von vielen Faktoren ab. Die Erfahrung von Mitarbeitern und Mitarbeiterinnen mit den Maschinen und Materialien ist hier für den Produktionsprozess zentral, und wird es absehbar bleiben. Eine hilfreiche Komponente kann aber zugleich eine Sensorik sein, die unter anderem Parameter wie Temperatur und Druck permanent misst und eine erste Auskunft über die erwartbare Güte der produzierten Teile zum Beispiel durch eine Ampel gibt, bzw. vor wahrscheinlichen Fehlern warnt und Anpassungsvorschläge liefert. Für solche in den Produktionsprozess integrierten Beurteilungen ist nicht eine Messung entscheidend, sondern ein Zusammenspiel verschiedener Werte und Schwellen sowie unterschiedlicher, teils zusammenhängender Verläufe, wodurch sich dynamische Verarbeitungssysteme wie KI-Modelle anbieten. Moderne Sensoren sind nicht nur hochempfindlich, sie können auch an Punkten angebracht werden, die dem Menschen während der Produktion nicht zugänglich sind. Der Mensch wird hier also nicht ersetzt, sondern durch die Technik unterstützt. In verschiedenen Forschungsprojekten wie z.B.: „Powermoulds“, „Wasabi“ oder auch „SMoSys“ arbeiten Manuel Schneider und Norbert Greifzu aus dem Team der „Eingebetteten Diagnosesysteme (EDS)“ von Professor Andreas Wenzel an solchen Lösungen für eine smarte Industrie und dem Einsatz vom KI an anwendungsnahen Problemstellungen. Die Forschungsgruppe EDS ist Teil einer Hauptforschungsrichtung „Adaptiven Signalanalyse“ der Hochschule Schmalkalden. Interessante Veröffentlichungen der Forschungsgruppe sind:
Literaturverzeichnis
[1] | N. Greifzu, M. Schneider, M. Werner, N. Fränzel, A. Wenzel und C. Walther, Bewertung von Produktionsprozessen mit Verfahren der Künstlichen Intelligenz, 2020. |
[2] | M. Schneider, N. Greifzu, L. Wang, A. Wenzel, L. Pu und C. Walther, „An end-to-end machine learning approach for time series with varying lengths,“ Neural Computing and Applications, Nr. 10.1007/s00521-024-09473-9, 2024. |
[3] | H. Siebald, F. Pforte, B. Kulig, M. Schneider, A. Wenzel, M. Schweigel, J. Lorenz, H.-H. Kaufmann, J. Huster, F. Beneke und O. Hensel, „Referencing acoustic monitoring of cutting knives sharpness in agricultural harvesting processes using image analysis,“ Biosystems Engineering, Bd. 226, Nr. 10.1016/j.biosystemseng.2022.12.007, p. 86–98, February 2023. |
[4] | D. Schneider, M. Schneider, M. Schweigel und A. Wenzel, „Application of various balancing methods to DCNN regarding acoustic data,“ Proceedings 30. Workshop Comupational Intelligence, Nr. ISBN: 978-3-7315-1051-2, November 2020. |
[5] | M. Schneider, N. Greifzu, C. Walther und A. Wenzel, „Übertragung von anwendungsnahen Problemstellungen des Maschinellen Lernens aus der Forschung in die Lehre,“ Berlin Journal of Data Science, Bd. 1, February 2020. |
[1] https://arxiv.org/pdf/1710.08864.pdf