Vom Feind zum Freund: Wie die Nachrichtentechnik Rauschen nutzen kann.

Vom Feind zum Freund: Wie die Nachrichtentechnik Rauschen nutzen kann.

Die Digitalisierung der Gesellschaft beschränkt sich nicht auf Smartphones, sondern zeitigt mit Impulsen wie der Automatisierung der Mobilität, der smarten Steuerung unserer Energieversorgung und der Industrie 4.0 umfassende Transformationseffekte in ganz verschiedenen Bereichen. Auch wenn wir es im Horizont des Digitalen gewohnt sind, eher im Sinne des „Höher, Weiter und Schneller“ zu denken, was sich exemplarisch an den Anforderungen an Datenmengen und den Raten ihrer Übertragung zeigt, so gibt es auch Anwendungsbereiche, die sich an gegenläufigen Imperativen orientieren. 

Die Idee der Nachhaltigkeit findet einerseits zunehmend Verbreitung, was sich u.a. in dem Verständnis von Energie als wertvoller, nicht unendlich verfügbarer Ressource bekundet, andererseits ist die unreflektierte Verschwendung von Energie gewiss noch immer ein Thema, das sich in verschiedenen Bereichen wie der Nutzung von generativer künstlicher Intelligenz manifestiert. Neben dem gesamtgesellschaftlichen Horizont gibt es allerdings auch viele andere Motive, mit Ressourcen wie Energie oder Daten bewusst und effizient umzugehen

Technologien, die sich zum Beispiel eher an Prinzipien der Energieeffizienz ausrichten, sind dabei schon heute von Nutzen: Neben den Zahlungen per Bargeld sind EC Karten, Smartphones und Smartwatches mittlerweile als Zahlungsoption im Alltag weit verbreitet. Auch wenn diese Zahlweise rein äußerlich recht simpel wirkt, beruht sie auf komplexen Technologien, die zugleich die notwendige Sicherheit verbürgen. Die Energieeffizienz ist hierbei ein wichtiger Aspekt, der die sichere Kommunikation im Nahbereich ermöglicht. 

Was ist die Nachrichtentechnik?

Mit der Frage, wie Informationen übertragen werden, befasst sich die Elektrotechnik, genauer das Gebiet der Nachrichtentechnik. Kurz gefasst geht es hierbei um die Gewinnung, Umwandlung, Übertragung, Vermittlung, Speicherung und Ausgabe von informationstragenden Signalen. Im Fokus steht das Ziel, möglichst unverfälschte Informationen zu übermitteln, wobei die Herausforderungen hierbei ebenso beim Aus- wie beim Eingang der Signale wie bei dem Übertragungsweg und dem Umgang mit Störungen liegen. Anders formuliert lässt sich dies als Bereich der Informations- und Kommunikationstechnik im Sinne der technischen Infrastruktur einer digitalen Gesellschaft begreifen.

Das Betätigungsfeld dieser ingenieurwissenschaftlichen Disziplin hat sich im Zuge des Wandels von der Analog- hin zur Digitaltechnik erheblich aufgefächert. Zugleich ergeben sich mit dem Entstehen der modernen Informationsgesellschaften genuine Herausforderungen, die verschiedene technologische Lösungsansätze bedürfen. Einerseits meint dies den Aufbau einer leistungsfähigen Netzinfrastruktur, wie sie viele Bereiche benötigen, zum Beispiel die autonom agierende Logistik. Die Unmengen an Daten und ihre notwendige Verfügbarkeit (sowie Verarbeitung) in Echtzeit verlangt eine optimale Nutzung der Übertragungstechnologien, Kanalkapazitäten und Bandbreiten, um die Kommunikation zu ermöglichen. Andererseits gibt es Anwendungsfelder wie die erwähnte Zahlung über EC-Karten, Schlüsselkarten (u.a. beim Car-Sharing), in deren Fokus die Authentifizierung und die Sicherheit stehen und dies mit einem geringen Energieverbrauch verbinden.

Signal-Rausch-Abstand 

Das allgemeine Ziel in der Nachrichtentechnik ist die Übermittlung von Informationen, indem ein Signal möglichst störungsfrei von Sender zum Empfänger gesandt wird. Ein relevanter Faktor ist hierbei der Signal-Rausch-Abstand: Je größer der Abstand, um so distinkter nimmt sich der Unterschied zwischen dem Signal und störenden Einflüssen, zum Beispiel von überlagernden Umgebungsgeräuschen, aus, wodurch die Informationen klarer empfangen werden können. Um diese Beeinträchtigungen des Signals zu minimieren, gibt es zwei Wege: Ein Ansatz besteht in der Reduktion bzw. Filtern der Störgrößen. Der andere klassische Weg besteht in der Verstärkung des informationstragenden Signals. In beiden Fällen wir der Signal-Rausch-Abstand vergrößert und das erwünschte Signal deutlicher.

Zu bedenken ist, dass je nach Verstärkung der Leistungsaufwand und damit der Energiebedarf steigt. Gerade in Anwendungsfällen, in denen Energie nur sehr begrenzt zur Verfügung steht, muss dieser Faktor folglich miteinkalkuliert werden. Je nach Anwendungsgebiet ist es mithin eine Abwägung, welches Instrument geeigneter erscheint. Der adaptive Umgang mit Gegebenheiten und Problemstellungen ist eine ingenieurwissenschaftliche Grundkompetenz, die auch im Bereich der Nachrichtentechnik zum Tragen kommt.

Zwischen Effizienz und Signalstörungen

Für spezifische Anwendungsfälle ist die Minimierung des Energieaufwandes zur Datenübertragung notwendig, wofür angepasste technische Lösungen gefunden werden müssen. Einer dieser Fälle ist die Steuerung von Rovern in extraterrestrischen Umgebungen, aber es gibt auch weit irdischere Anwendungen. Professor Ralf Martin Kramer stellte im Rahmen seiner Antrittsvorlesung einen neuen Ansatz der Datenübertragung vor, der den speziellen Anforderungen einer Datenübermittlung mit minimalen Energieaufwand genügt, wobei dieses Thema auch im Zentrum seiner Dissertation stand.

Bleiben wir zunächst bei der Informationsübertragung: Um eine sichere Informationsvermittlung bei nicht allzu hohem Energieaufwand zu gewährleisten, ist es möglich, dass sich Sender und Empfänger auf bestimmte Sequenzen einigen. Das heißt, die Signale bestehen nicht nur aus einzelnen Informationen, sondern aus Zeichenketten, die dann für eine Information stehen. Ein Beispiel ist das NATO-Alphabet, in dem Charly für C steht: Käme nur arly als Information an, wäre dennoch klar, dass C gemeint ist. Zwar ist dies ein unnötiger Overhead – also ein informationeller Mehraufwand –, bei gestörten Übertragungen und fehlenden Fragmenten in der Übertragung ist dies aber ein Weg, die Übermittlung zu verbessern. So kann ein gewisser Grad des Rauschens akzeptiert werden, zugleich ist aber eine gewisse Rechenleistung durch die Interpretation des Eingangs ebenso notwendig wie die Kenntnis der Codierung bei Empfänger und Sender.

Radio Frequency Identification

Eine andere Variante ist Sigma Shift Keying (SSK), der wir uns gleich zuwenden. Kurz gefasst ist dies eine Übertragungstechnik, der Ansätze des RFID zugrunde liegen und variiert werden. Was ist RFID? Grundsätzlich meint dies die Radio Frequency Identification und ist eine Technologie zur automatischen, kontaktlosen Identifizierung von Objekten mittels Radiowellen. Neben einem Lesegerät umfasst das System einen Sender-Empfänger (Tag) und erlaubt zugleich die eindeutige Authentifizierung des Tags. Die RFID-Tags sind weitverbreitet, sehr kostengünstig – zumindest in ihrer passiven Version – und erlauben die eindeutige Identifizierung von Objekten.

Es gibt verschiedene Varianten, wobei die grundlegende Funktion vergleichbar bleibt: Die Leseeinheit baut ein hochfrequentes Feld auf und aktiviert so den Tag. Je nachdem gibt der Tag nur die Information seiner Anwesenheit zum Zwecke der Identifizierung zurück, weitere Daten oder nimmt vom Lesegerät gesandte Daten auf. Der Tag kann passiv sein, also ohne eigene Stromversorgung, wobei er hierbei seine Energie vom Feld des Lesegerätes entnimmt. Durch diese Einschränkung ist der Funktionsumfang dieser Tags gering. Aktive Tags sind mit einer Batterie versehen, wodurch sie mit effizienten Sensoren ausgestattet werden können, deren Messungen sie zum Beispiel an das Lesegerät weitergeben können. Zudem können sie Berechnungen selbstständig vornehmen.

Software Defined Radio

Bevor wir zum SSK kommen, muss noch eine zweite technologische Komponente eingeführt werden, die eine weitere Grundlage des SSK bildet: Das Software Defined Radio. Kurz gefasst geht es hierbei um ein Kommunikationssystem über Radiowellen, bei dem die analoge Hardware durch eine auf einem integrierten Computer befindliche Software ersetzt wurde. Vormals hardware-basierte Komponenten der analogen Signalverarbeitung wie Selektion und die Modulation/Demodulation werden nun über eine digitale Signalverarbeitung geleistet. Bedingung hierfür ist die gewachsene Leistungsstärke der Chips. Vorderhand bieten Softwarelösungen den großen Vorteil einer bleibenden Flexibilität und Anpassungsfähigkeit, die fixierte, analoge Formen nicht aufweisen können. Zum Beispiel ist dies eine Grundlage der mobilen Telefonie: Der ständige Wechsel von einer Funkzelle in eine andere und die sich dabei verändernden Funkprotokolle (Regeln, Syntax, Semantik und Synchronisation des Datenaustauschs) wären mit analogen Apparaturen kaum realisierbar.

Mit den jüngsten technologischen Entwicklungssprüngen in der Rechenleistung und der Verfügbarkeit kostengünstiger Komponenten wie digitalen Signalprozessoren fand auch die SDR-Technologie im nicht-militärischen Sektor Verbreitung. Ein Beispiel sind die DVBT-Empfänger in USB-Sticks, in denen SDR-Komponenten verbaut sind. Wie nutzt nun SSK das SDR? Das SSK benötigt gewisser mathematischer Modelle und Berechnungen, um die Signale zu Detektieren und zu Synchronisieren. Diese Operationen können jedoch auf Algorithmen reduziert und in Form von Software auf den Empfängern hinterlegt werden. Das SSK-System bleibt in der Folge möglichst leicht und anpassungsfähig an verschiedene Anwendungsfelder und Berechnungsmodelle.

Sigma Shift Keying

In natürlichen Umgebungen gibt es ein unvermeidliches Grundrauschen. Dieses Rauschen ist eine echte stochastische Größe, also ein Zufallsprozess, der als solcher nicht prognostizierbar ist. Anders als im üblichen Umgang der Nachrichtentechnik wird dieses Rauschen im SSK akzeptiert und zum Beispiel als die binäre Null gesetzt. Der zweite zur Übertragung notwendige binäre Zustand „1“ wird durch eine gezielte Änderung des Rauschens herbeigeführt. Hierbei besteht die Möglichkeit zusätzliches Rauschen hinzuzufügen, oder alternativ eine Reduktion des vorhandenen Rauschens vorzunehmen. In beiden Fällen wird eine Unterscheidbarkeit der beiden Signale, also des Grundrauschens und des informationstragenden Signals, im Sinne von Rauschniveaus eingetragen. Auch wenn also die stochastische Größe des Rauschens selbst unberechenbar bleibt, lässt es sich so verändern, dass es Informationen übertragen und von einem Lesegerät aufgenommen werden kann. Das Rauschen, dass bislang einzig als Problem in der Nachrichtentechnik aufgetreten ist, kann so selbst zur Übertragung genutzt werden.

Gerade die Absorption hat den Vorteil der Energieeffizienz, da hier kein eigenes Feld aufgebaut werden muss, sondern ein vorhandenes genutzt wird. Dahinter steht das bereits in der Messtechnik bekannte Prinzip der Lastmodulation. Grob vereinfacht wird dabei Energie absorbiert und über einen Widerstand in Wärme verwandelt. Zugleich kann so das Rauschen reduziert werden, wodurch ein kontaktloses Abtasten des Signals möglich wird. 

Der technische Aufwand des SSK ist dabei nicht anspruchslos:  Gerade die Rückgewinnung der binären Daten aus dem stochastischem Rauschsignal ist eine Herausforderung, wobei die Synchronisation sowie die Detektion zu leisten ist. Für beide Aufgaben wurden bestimmte mathematische Methoden entwickelt, die die Übertragung der Informationen leisten. Der Algorithmus muss also klären, welches Niveau verschiedene Rauschsampels haben und an welchen Stellen Datenpakete beginnen und enden.

Der Vorteil des SSK liegt in Fällen vor, in denen eine kontaktlose Übertragung von Messwerten in geschlossenen Objekten anvisiert wird, die zugleich über längere Zeit gegeben sein soll. Durch den minimalen Energieverbrauch und die angepasste RFID-Technologie ist einerseits die langfristige Authentifizierung möglich, und andererseits durch die Nutzung effizienter, in die Microprozessoren bereits integrierter Sensoren eine Erweiterung der funktionalen Möglichkeiten gegeben. In der Auslegung als Low-Power-Sensoren eignet sich diese Technologie zum Beispiel für spezifische Medizinprodukte, die den inneren Zustand von Paketen überwachen (Druck, Temperatur u.a.).

Forschung und Lehre

Neben der weiteren Optimierung der Technik und Verfahren ist ein Ziel der Forschung, die SSK-Empfänger auf einer kostengünstigen Hardware zu implementieren, wobei die Reduktion der Kosten einer zukünftigen Verbreitung der SSK-Technologie dienlich sein sollte. Die praktische Umsetzung von SSK im konkreten Anwendungsfall der RFID steht noch in einer frühen Phase der Forschungstätigkeit. Ziel ist es hier eine kostengünstige Lösung in die Praxis umzusetzen. 

Neben der RFID Übertragung gibt es aber noch einige weitere andere Anwendungsgebiete, die aber hiervon deutlich abweichen. Durch die Möglichkeit, eine Änderung der Standardabweichung vorzunehmen (daher auch der Name „Sigma“- für die Standardabweichung), also die Umtastung der Standardabweichung, kann auch z.B. eine existierende Funkstrecke um den Parameter der Modulation der Standardabweichung erweitert werden. Kurzum können so zusätzliche Daten können zu den bereits existierenden Datenkanal übertragen werden.

Mit einer angetretenen Professur verbinden sich jedoch nicht nur Aspekte der Forschung, sondern auch der Lehre, mithin der Vermittlung von Wissen und Kompetenzen. Just der kreative Umgang mit Problemstellungen im Sinne eines Motors für Innovationen lässt sich als ein Brückenschlag zwischen der Entwicklung des Sigma Shift Keying und der grundlegenden Vermittlung ingenieurswissenschaftlicher Kernkompetenzen deuten, der insbesondere an Hochschulen angewandter Wissenschaften von Relevanz ist. Theorie und Praxis sollen sich demgemäß produktiv verknüpfen, und die Problemlösungskompetenz der Studierenden stärken. Ein Weg der Vermittlung besteht in ambitionierten studentischen Projekten, in denen sich mechanische und elektrotechnische Aufgaben verbinden. Ein Beispiel ist die Konstruktion einer Sortiermaschine, für die verschiedene Gruppen ganz unterschiedliche Wege der Umsetzung gefunden haben. Solche praxisnahen Erfahrungen können die Studierenden dann in ihrem Berufsleben nutzen.

SUAS Premier: Eine feierliche Zertifikatsübergabe bei der W.AG in Geisa

SUAS Premier: Eine feierliche Zertifikatsübergabe bei der W.AG in Geisa

Ende letzten Jahres konnten die Abschlusszertifikate an die Teilnehmenden des SUAS Premier Programms in einer feierlichen Zeremonie in den Räumen des Unternehmens W.AG in Geisa überreicht werden. Zehn junge Menschen aus ganz unterschiedlichen Ländern konnten in diesem Rahmen ihren erfolgreichen Abschluss des SUAS Premier-Programmes begehen.[1] SUAS Premier ist ein von dem Bundesministerium für Forschung, Technologie und Raumfahrt und dem DAAD (Deutscher Akademischer Austauschdienst)  im Rahmen des ProfiPlus-Programms gefördertes Projekt an der Hochschule Schmalkalden, das sich um die Aufnahme internationaler Studierender in den Thüringer Arbeitsmarkt bemüht.

Das allgemeine Ziel des Programms ist es, hoch-qualifizierte internationale Absolventen der Hochschule in der Region zu halten und ihnen den Eintritt in das Berufsleben zu erleichtern. Die Herausforderung des Fachkräftemangels steht uns bereits gegenwärtig vor Augen, zugleich wird sich die Problemlage absehbar noch verschärfen, werden bis 2030 doch gut die Hälfte der Fachkräfte den bundesdeutschen Arbeitsmarkt verlassen. Diesen sich ergebenden Bedarf vor Augen entschloss sich das DAAD, den vielversprechenden Ansatz zu verfolgen, die Integration internationaler Absolventen in den Fachkräftemarkt engagiert voranzutreiben. Ein daraus hervorgegangenes Einzelprojekt ist das SUAS-Premier-Programm, das von Jayabadhrinath Krushnan, einem Absolventen der HSM, koordiniert wird.

Dabei setzt dieses Programm direkt bei den internationalen Studierenden an, und versucht diesen über ein intensives, modular-aufgebautes Trainingsprogramm eine Anpassungsqualifikation in Hinsicht des Berufseinstiegs zu vermitteln. Hierfür wurden die konkreten Hemmschwellen, die den Absolventen begegnen, festgestellt und an diesen Bedarfen ausgerichtet ein Kurzlehrformat mit dem Ziel entwickelt, die Fachkräfte an die Region zu binden und gut ausgebildete Absolventen der Mint-Studiengänge in die kleinen und mittelständischen Unternehmen der Region Südthüringens zu bringen. Ausgehend von Befragungen lokaler Unternehmen ermangelt es den internationalen Fachkräften in der Regel an den erforderlichen technischen und sprachlichen Fähigkeiten, die genau im SUAS PREMIER-Programm vermittelt werden, um die Lücke zu schließen.

Das Programm

Neben einer Anwendungsorientierung im Sinne einer praktischen Lösungskompetenz steht vor allem die Kommunikation im Fokus, also die Vermittlung von Sprachkenntnissen. Auch wenn die Verbreitung der englischen Sprache durchaus auch in der Thüringer Fläche zunimmt, sind grundlegende Deutsch-Kenntnisse zentral für Berufseinstieg im von kleinen und mittelständischen Unternehmen geprägten Arbeitsmarkt Südthüringens.

Das erste Modul befasst sich mit der Vermittlung basaler professioneller MINT-Kompetenzen, dient dem Aufbau einer allgemeinen Befähigung und beinhaltet zugleich einen engen Fokus auf die Praxis. Gerade die konkreten Erfahrungen im Machen und Problemlösen sind es, die den internationalen Absolventen der MINT-Studiengänge für einer erfolgreichen Start in Berufsleben oftmals fehlen: Anders gesagt geht es um die Hands-On-Mentalität und entsprechende Erfahrungen, die zwar im Ansatz bei den Studierenden vorhanden sind, deren Profil aber geschärft werden soll. Das technische Programm wird in Zusammenarbeit mit dem Robotiklabor der HSM und dem Unternehmenspartner Mehnert Lab in Erfurt durchgeführt. Das zweite Modul beruht auf Vermittlung von Sprachkompetenzen und einem allgemeinen Verständnis der hiesigen Arbeitskultur. Das dritte und abschließende Modul soll die Absolventinnen mit Kenntnissen über den regionalen Arbeitsmarkt im MINT-Bereich ausstatten und sie schlussendlich befähigen, ihre Chancen zu erkennen und zu nutzen.

Am Ende dieses herausfordernden Lernprozesses, den die Teilnehmenden neben ihrem Studium absolvieren müssen, werden den erfolgreichen Absolventen ihre Zertifikate in einer feierlichen Zeremonie überreicht, in der das Erreichte gewürdigt wird. Um auch hier einen Akzent auf die Anbindung in die lokale Wirtschaft zu legen, wird die Vergabe der Zertifikate mit einem Unternehmensbesuch kombiniert: Diesmal ging es zum Unternehmen W.AG mit Sitz in Geisa, gelegen im südlichen Wartburgkreis.

Das Unternehmen

Das Unternehmen entspricht der nunmehr fast sprichwörtlichen Bezeichnung als „Hidden Champion“, wobei man dies ob des Betätigungsfeldes zunächst nicht erwarten würde: Die Fertigung von innovativen Kunststoffkoffern im B2B-Bereich, also Business to Business. Es geht um angepasste, individuelle Transport- oder Aufbewahrungsmöglichkeiten, wie sie zum Beispiel die Automobilindustrie für bestimmte Werkzeuge bedarf.

Die spannende Frage ist, wie es das Unternehmen aus der Rhön geschafft hat, neben der Konkurrenz aus Fernost zu bestehen. Am Ende ist die Ursache des Erfolgs eine Mischung aus Innovativität, Professionalität und Flexibilität. Die eher kleinen Stückzahlen sind dabei eine Grundlage des Konzepts: Individuelle Lösungen, die zugleich anpassbar bleiben und schnell produziert werden können. Ein Faktor bei der Schnelligkeit sind die geringen Transportwege vor Ort – selbst die Werkzeuge können am Standort in Geisa repariert werden.

Die Innovativität zeigt sich unter anderem in den drei Linien der verwandten Werkstoffe: Neben dem klassischen sortenreinen Polypropylen gibt es eine Auswahl zwischen der ORGANICLINE, die Nachhaltigkeitsnormen erfüllt und das EU-Güte-Siegel Green Brand führen darf, und die CIRCLELINE, die Rezyklate, also aufbereiteten, recycelten Kunststoff, verwendet und ebenso der Nachhaltigkeit verpflichtet ist. Neben einer breiten Palette an Modellen und Farbvarianten kommen somit noch drei Möglichkeiten hinzu, zwischen denen sich die Kund:innen bei der Individualisierung ihrer Koffer entscheiden können.

Die Absolventen konnten in ein Unternehmen hineinschnuppern, das wie viele andere gut ausgebildete Fachkräfte sucht. Das SUAS Premier Programm soll und kann dabei helfen, die Einstiegsschwierigkeiten internationaler Studierender in den Arbeitsmarkt abzuschmelzen und die Unternehmen mit einem bislang nur suboptimal genutzten Reservoir an Fachkräften zu versorgen. 


[1] Zwei weitere Zertifikate konnten an Teilnehmende versandt werden, die terminlich gebunden waren.

Tough times, tougher engineers. Wie der Werkzeugbau mit den aktuellen Herausforderungen umgeht

Tough times, tougher engineers. Wie der Werkzeugbau mit den aktuellen Herausforderungen umgeht

Der Werkzeugbau umfasst mit der Werkzeugentwicklung, deren Fertigung sowie Nutzung ein weites und vielfältiges Spektrum. Die Konzeption und Herstellung ebenso präziser wie komplexer Werkzeuge hoher Leistungsfähigkeit und Lebensdauer ist ein Grundbaustein der modernen Industrie, wobei die aktuellen Krisen weder den Maschinenbau insgesamt noch den Werkzeugbau im Besonderen unberührt lassen.

Angefangen bei der Konstruktion von speziellen Zerspanungswerkzeugen (z. B. Fräswerkzeuge oder Bohrer) und der Aufbringung von Beschichtungen befasst sich der Werkzeugbau auch mit angepassten Produktionsverfahren und der Aufbereitung von Werkzeugen. Ohne selbst im Zentrum der Aufmerksamkeit zu stehen, hat der Werkzeugbau einen relevanten Anteil an der Verbesserung des Alltags der Menschen, sei es über die Fertigung von Haushaltgeräten, den Ausbau der technischen Infrastruktur unserer Mobilität (neben den Automobilen u. a. auch Züge) bis hin zur Entwicklung zukunftsweisender Technologien in der Mikroelektronik und Raumfahrt.

Ein Ort, innovative Ansätze zu präsentieren, die Situation im Werkzeugbau zu reflektieren und in Austausch mit der Branche selbst zu treten, ist die Schmalkalder Werkzeugtagung, die von der GFE (Gesellschaft für Fertigungstechnik und Entwicklung Schmalkalden e.V.) in Kooperation mit der Hochschule Schmalkalden und dem VDMA (Verband Deutscher Maschinen- und Anlagenbau) in diesem Jahr zum nunmehr sechzehnten Mal ausgerichtet wurde. Renommierte Unternehmen und Forschungsinstitutionen gaben nicht nur Einblick in Ansätze technologischer Entwicklung und Erfahrungen in deren Anwendung, der Umgang mit den herausfordernden Zeiten stand ebenso im Blickpunkt.

Das Motto der im zweijährlichen Turnus stattfindenden Tagung war in diesem Jahr „Ressourceneffiziente & wirtschaftliche Werkzeugentwicklung, -fertigung und -nutzung“ und legte damit den Fokus auf eine produktive Verknüpfung ökologischer Nachhaltigkeit, technologischer Effizienz und ökonomischer Optimierung. Alle drei Aspekte können sich trotz differenter Schwerpunktlegungen gegenseitig positiv verbinden und motivieren, und so dem Werkzeugbau helfen, belastbare Antworten auf die Fragen und Aufgaben der Gegenwart zu finden.

Externe Einflüsse: Internationale Rohstoffmärkte und Bürokratien

Eine momentane Herausforderung der Werkzeughersteller besteht in der Verfügbarkeit der Rohmaterialien, also von Rohstoffen wie Wolfram, die die Basis der Hartmetallwerkzeuge bilden. Deren Verbreitung auf dem europäischen Markt ist derzeit stark eingeschränkt und die Preise sind im letzten halben Jahr zum Teil explodiert: Nicht nur schränkte China den Export dieser Metalle ein, es kauft auch massiv die verbliebenen Rohstoffe auf den globalen Märkten ein. Dies hat eine Verknappung zu Folge, und eine Erhöhung der Kosten. Selbst am Schrott zeigt sich diese Tendenz, wird dieser doch durch höhere Preisangebote ebenfalls aus China vom europäischen Markt abgeschöpft. Eine Reaktion der Branche ist, die eigenen Rohstoffquellen abzusichern, die Wiederaufbereitung noch energischer anzugehen und auch den Schrott als wertvollen Rohstoff auf dem europäischen Markt zu halten, denn die kurzfristigen Einbußen im Verkaufspreis rechtfertigen sich durch mittel- und langfristige Vorteile. Zugleich muss das Ziel sein, die verknappten Ressourcen effizient zu nutzen, was wiederum Ansätzen der Aufbereitung der Werkzeuge und ihre nachhaltige, optimale Anwendung Dynamik verleiht, wie auch an den Themen der Werkzeugtagung deutlich wurde.

Wie viele andere Branchen belasten auch den Werkzeugbau bürokratische Hemmnisse, was ein zweiter externer Faktor ist. Neben die nationalen tritt mit der Europäischen Union noch eine transnationale Ebene hinzu, wodurch es in der konkreten Erfahrung des Werkzeugbaus zu einem kaum mehr überschaubaren Wirrwarr unterschiedlicher Akteure und Rechtsvorschriften kommt. So stellen sich beim Import von Rohstoffen oftmals komplexe Aufgaben unterschiedlicher Nachweispflichten. Ein weiterer Punkt ist der abnehmende Zeithorizont von Richtungsentscheidungen der Politik: Industrielle Transformationsprozesse brauchen aber langfristige Perspektiven und die Gewissheit, dass sich Investitionen lohnen. Der Rahmensetzung der Politik fehlt es demnach an einer ordnungspolitischen Ausrichtung, die aber wiederum für die Setzung innovativer Impulse zentral ist.

Eine Antwort auf limitierende Vorschriften ist Forschung und Entwicklung: Wenn die EU die Verwendung von Blei in den Werkstoffen wie Aluminium verbietet, dann muss nach einem adäquaten Ersatz gesucht werden. Zunächst musste die Wirkung von Blei als Komponente und in der Verarbeitung verstanden werden: Kurzum hat das Blei als Weichmacher und Schmiermittel in der Verarbeitung positiven Einfluss gerade in Hinsicht des Ideals der Erzeugung vieler kleiner Späne beim Fräsen. Wenn es im Material wegfällt, ist ein verminderter Spanbruch bei Zerspanungsprozessen die Folge, was wiederum zu langen Band- und Wirrspänen führt, die die Maschine verstopfen, den Produktionsprozess stoppen und nur mühsam zu entfernen sind. Ein Weg wäre, die Werkzeuge u.a. durch veränderte Geometrien anzupassen, um den Spanbruch zu fördern und die Nutzung bleireduzierter Legierungen wie Messing gangbar zu machen. Hierin könnte also eine Ausweichmöglichkeit bestehen, die die Standards der Produktion erfüllt, wobei die Parameter der Nutz- und Skalierbarkeit im Maßstab der industriellen Produktion noch zu prüfen sind.

Die Wahlverwandtschaft von Effizienz und Ökologie

Eine andere Antwort ist die weitere Optimierung der Fertigungsverfahren von Werkzeugen, wobei diese schon immer ein Motiv der Werkzeugherstellung war. So gibt es Ansätze auf verschiedenen Wegen: Eine Möglichkeit, die auf der Tagung präsentiert wurde, besteht in der simulationsbasierten Fräswerkzeugentwicklung. Durch diese Optimierung kann gleichzeitig die Qualität der Fertigung garantiert und der Verschleiß der Werkzeuge minimiert werden. Ein solcher Ansatz nutzt sogenannte Greybox-Modelle, um den Werkzeugverschleiß zu prognostizieren und die Verwendungszeit der Werkzeuge zu maximieren. Ein abstrakt-physikalisches Modell (White-Box) wird mit einem an realen Sensordaten trainierten Modell (Black-Box) kombiniert, um so den idealen Punkt des Verschleißes taxieren zu können. Durch die effiziente Ausnutzung der Werkzeuge wird der Aufwand an Material und Energie minimiert.

Eine weitere Möglichkeit ist es, Werkzeuge modular aufzubauen, und bei Verschleiß nur jene Teile austauschen zu müssen, die tatsächlich unbrauchbar geworden sind. Wie bei vielen Anwendungsfällen muss diese Umsetzung von Prinzipien der Nachhaltigkeit bereits bei dem Design der Werkzeuge bedacht werden. Welche Teile müssen am Ehesten ausgetauscht werden, wo kann ein Werkzeug sinnvoll gegliedert werden usw.. Im Ideal würde sich eine nachhaltige Werkzeugnutzung anhand der Prinzipien „Recycle – Reduce – Reuse“ orientieren, was auch der Titel eines Vortrags auf der Werkzeugtagung war.

Nicht zuletzt war die Künstliche Intelligenz wie nicht anders zu erwarten ein Thema, das die Branche umtreibt. Wichtig ist hierbei, dass es weder ein Buzzword noch ein Heilsversprechen ist, sondern ein Instrument, dass am rechten Platz und richtig genutzt durchaus Vorteile bieten kann, u. a. in der Auswertung von Daten und der anschließenden Optimierung von Fertigungsprozessen. Genau wie im Falle der additiven Fertigung bedarf es Erfahrungswerten im Umgang mit dieser Technologie, um die Vor- und Nachteile im konkreten Umgang zu eruieren. Hier ist die Branche noch am Suchen nach der idealen Passung KI-gestützter Technologien.

Der Weltraum und das Vakuum. Innovation und Ausblick

Zwei Vorträge setzten Impulse in Hinsicht spezieller Anwendungsfelder: Das Unternehmen Spaceoptix aus Jena, eine Ausgründung aus dem Fraunhofer IOF, befasst sich mit der Entwicklung, der Fertigung und der Integration von hochpräzisen Metalloptiken und Spiegelsystemen, wie sie unter anderem in der Kommunikation von Satelliten Verwendung finden. Diese Anwendungsbereiche stellen hohe Ansprüche an die Verfahren der Fertigung (CNC-Fräsen, Drehen und u. a. Polieren) und die genutzten Werkzeuge. Ein konkretes Forschungsprojekt, an dem Spaceoptix beteiligt ist, ist das satellitenunterstützte Monitoring der Wasserversorgung von Agrarflächen. 

Den zweiten Impuls setzte mit VACOM ein Unternehmen, das in der Vakuumtechnologie für Anwendungen in Forschung und Industrie ein Alleinstellungsmerkmal gefunden hat und unter anderen für Partner in der Luft- und Raumfahrttechnik sowie im Themenfeld Beschichtungsverfahren tätig ist. Die Fertigung von hochreinen Bauteilen und die Säuberung von Komponenten ist ein wachsender Bereich, auf den gerade aktuelle Spitzentechnologien zurückgreifen: So bedarf die Herstellung modernster Computerchips über EUV-Lithografie – die Abkürzung steht für extremes ultraviolettes Licht – nicht nur hochwertigste Bauteile, sondern auch einem hohen Grad an Oberflächenreinheit aller Komponenten. Die Herstellung und anschließende Reinigung von Bauteilen für die Halbleiterindustrie setzt wiederum hohe Maßstäbe an die Fertigungsprozesse.

Spitzentechnologie braucht in Forschung und Anwendung versierte Fachkräfte: Neben Unternehmen wie VACOM, die sich dezidiert zur Ausbildung verpflichtet haben, ist die Hervorbringung von Nachwuchskräften eine universitäre Aufgabe. An Hochschulen angewandter Forschung wie der Hochschule Schmalkalden werden die Fachkräfte von morgen ausgebildet, wobei neben den theoretischen Kenntnissen auch ein Augenmerk auf die Vermittlung praktischer Kompetenzen gelegt wird. Dies zeigt sich auch im Rahmen der Tandemprofessur von Andreas Wirtz, der zu gleichen Teilen an der GFE und der HSM beschäftigt ist: Als Geschäftsbereichsleiter „Zerspanungswerkzeuge & Technologie“ an der GFE und Inhaber der Professur für „Fertigungstechnik und virtuelle Prozessgestaltung“ an der HSM kann Professor Wirtz die Erfahrungen beider Welten zum Vorteil seiner Forschung und Lehre verbinden. Neben der Werkzeugtagung ist es also die Tandemprofessor von Andreas Wirtz, an der sich die Möglichkeiten vertrauensvoller Kooperation von Wissenschaft und Industrie ablesen lassen.

Hilfe auf unbekanntem Terrain. Wie Therapien gegen Post-Covid entwickelt werden

Hilfe auf unbekanntem Terrain. Wie Therapien gegen Post-Covid entwickelt werden

Zwar haben sich die massiven Beeinträchtigungen des Alltags merklich reduziert, die individuellen und gesellschaftlichen Belastungen in Folge der Corona-Pandemie sind aber noch immer spürbar. Das Post-Covid-Syndrom ist mittlerweile als Krankheitsbild anerkannt, und die Verbesserung von Diagnose, Prophylaxe und Therapie bilden eine Triebfeder medizinischer Forschung. Professor Thomas Urban entwickelte zusammen mit dem Post-Covid-Zentrum in Senftenberg ein spezifisches Therapie-Konzept für Post-Covid-19-Patient:Innen und stellte in einem Bericht zu seinem zurückliegenden Forschungssemester seine Ansätze, Vorgehensweise und einige Ergebnisse vor, wobei dies auch zentrale Themen seiner zweiten Habilitationsschrift sind.

Die angewandte Wissenschaft im medizinischen Bereich hatte sich bereits zu Anfang der Pandemie durch eine immens schnelle Entwicklung und Bereitstellung verschiedener wirksamer Impfstoffe und deren kontinuierliche Anpassung an unterschiedliche Varianten hervorgetan. Ohne diese Errungenschaften der pharmazeutischen Einrichtungen und Unternehmen in Forschung und Produktion wären die Folgewirkungen von Corona gewiss weit drastischer und langwieriger gewesen. Die Reaktion auf die Pandemie macht das innovative Potential anwendungsnaher, medizinischer Forschung sowie der Health Tech deutlich, die modernste Technologien mit einem Fokus auf das physische und psychische Wohl von Patient:Innen verbindet.

Forschung in Progress

Die Forschung in diesem Bereich ist aber keineswegs abgeschlossen: Einerseits gibt es immer neue Varianten des Virus und damit die Notwendigkeit, die Impfstoffe anzupassen, um vulnerable Gruppen weiter effektiv zu schützen. Andererseits muss sich die medizinische Entwicklung mit den physischen und psychischen Auswirkungen der Pandemie befassen. Wie bei der Entwicklung von Impfstoffen stellt dabei die Neuartigkeit des Erregers die Forschung vor Herausforderungen, muss es doch zunächst darum gehen, das Krankheitsbild selbst zu verstehen und seine verschiedenartigen Ausprägungen zu charakterisieren. An diese Grundlegung können dann Überlegungen zu therapeutischen Maßnahmen anschließen.

Dem Post-Covid-Syndrom kommt als nunmehr anerkanntem Krankheitsbild breite gesellschaftliche Aufmerksamkeit zu, gerade weil die Spätfolgen einer Corona-Erkrankung nicht wenige Menschen betreffen und in ihrem Alltag belasten. Auch wenn die beiden Phänomene umgangssprachlich synonym verwandt werden, bezeichnet Long-Covid die anhaltenden Beeinträchtigungen mehr als vier Wochen bis zu drei Monaten nach der Infektion, und Post-Covid den anschließenden Zeitraum.[1]

Vergleichbar mit anderen Infektionskrankheiten können aus einer Corona-Infektion (SARS-CoV-2) verschiedenartige Langzeitfolgen resultieren, die Beeinträchtigungen der Organsysteme wie Herz, Lunge, Gehirn und u.a. Nebenorgane über einen längeren Zeitraum umfassen. Langzeit meint hier anhaltenden Beschwerden zwölf Wochen nach der eigentlichen Infektion, wobei die Häufigkeit des Auftretens zwischen 10% und 20% schwankt. Als verursachende Faktoren werden aktuell eine Überaktivierung des Immunsystems und eine Thrombusbildung im Mikrogefäßsystem diskutiert.[2] Die Folgen für die Menschen sind wiederum breitgefächert und reichen von Erschöpfungszuständen (Fatigue[3]) über Herz-/Kreislaufprobleme und Gleichgewichtsstörungen bis hin zu Nervenleiden und anhaltendem Schmerz. Diese Varianz legt die Komplexität des Syndroms nahe, was einerseits seine medizinische Beschreibung sowie ursächliche Verortung und andererseits die therapeutischen Ansätze anbetrifft, wobei hier verschiedene Disziplinen der Medizin kooperieren müssen. Das Ziel der Therapie ist neben der Symptomlinderung die Vermeidung der Verstetigung der Leiden und Befähigung der Betroffenen zur Teilhabe am Privat- und Berufsleben.

Der Blended-Therapy-Ansatz

Für diese Multidisziplinarität eignet sich ein innovativer Therapieansatz, den Professor Urban im Rahmen seines Forschungssemester analysierte und den er zugleich an einem Corona-Therapie-Zentrum empirisch untersuchen konnte. Der gewählte Zugang nennt sich Blended-Therapy und verschränkt klassisch-analoge mit digitalen Therapieformen. Durch die digitale Ergänzung wird eine flexiblere, räumlich wie zeitlich ungebundenere Behandlung möglich, die auch kontinuierliche therapeutische Formen und eine individuelle Umsetzung ärztlicher Empfehlungen zulässt. Zum Beispiel erlauben mobile Apps und Smart-Watches eine automatisierte, engmaschige (Selbst-)Kontrolle sowie spezielle Monitor-Kamera-Systeme überwachte Übungen in der Häuslichkeit und deren Kontrolle in Echtzeit. Die Forschung an diesen Therapieansätzen ist auch deswegen geboten, weil es derzeit kaum spezifische sektorübergreifende Konzepte gibt und bislang auch kein Therapieansatz bei Post-Covid als Standard empfohlen wird, der sich den Ursachen der Leiden im Unterschied zu symptomlinderungsorientierten Ansätzen annimmt und der nach empirischen Kriterien überprüft worden wäre.

Orientiert an den S2k-Leitlinie der Deutschen Gesellschaft für Neurologie und dem Post-COVID-Versorgungskonzept der LMU wurde eine Therapie entwickelt, die die spezifischen Bedarfe von Post-Covid-Betroffenen einerseits berücksichtigt, aber andererseits den Patient:Innen in gewissem Maße Belastungen zumutet. Diese waren in den bisherigen Post-Corona-Therapien eher unüblich.[4] Eine Folge des beeinträchtigten Energiehaushalts sind mögliche spontane Zusammenbrüche (postexertionelle Malaise), die Patient:Innen nicht voraussehen konnten und die den Rekonvaleszenzprozess immens zurückwarfen.[5] Zugleich haben Therapiemethoden, die Formen der Belastung nutzen und Überanstrengungen durch kontrollierte Bedingungen vermeiden, durchaus Erfolge vorzuweisen. Das individuelle Energiemanagement und die Minimierung von Überlastung waren in den Therapieansätzen wichtige Faktoren.

Die Blended-Therapy verknüpft die klassische Behandlung in Präsenz mit digitalen Interventionsinstrumenten, womit sich die Möglichkeit zur Echtzeitanalyse der Belastung, des Leistungsvermögens und der Beanspruchung des energetischen Haushalts der Patient:Innen während der Übungen (auch in der Häuslichkeit) bietet. Anstatt einer umfassenden Schonung wurden sensomotorische Einschränkungen und Fatigue mit einem Gleichgewichtstraining und motorischen Übungstherapien begegnet. Anschließend wurde eine auf Fatigue ausgelegte kognitive Verhaltenstherapie umgesetzt, in deren Fokus zudem die sekundären psychosomatischen Symptome sowie die Erfassung der subjektiven Wirksamkeit der Trainingstherapie standen.

Studie und Auswertung

Die begleitende Studie fand in einem dreijährigen Zeitraum am dem Corona-Therapie-Zentrum Lausitz (Senftenberg) statt. Neben den Veränderungen der Leitsymptome mussten auch allgemeine Auswirkungen auf die physische und psychische Gesundheit sowie sekundäre Effekte beachtet werden. Der Studie standen 407 Patient:Innen zur Verfügung, die bestimmte Kriterien erfüllten. Die Trainings fanden in Präsenz ebenso statt wie bei den Patient:Innen zu Hause, wobei so die erforderliche Übungsdichte erreicht werden konnte. Die zweite Phase wurde von einer Befragungsstudie begleitet, um hieraus wichtige Erkenntnisse über den Nutzen therapeutischer Maßnahmen im Rahmen der Gesundheitsversorgung zu gewinnen.

Die Evaluation der Therapie bemaß sich an zwei Kriterien, den Post-Covid-Leitsymptomen und den motorischen Fatigability-Parametern, wobei letztere einen Indikator für die Beweglichkeit bereitstellen. Generell ließen sich positive Effekte sowohl in Hinsicht der Leitsymptome als auch der motorischen und kognitiven Fatigability-Parameter ausmachen.[6] Am Ende konnten also ebenso positive therapeutische Effekte festgehalten werden sowie der Nutzen des Blended-Therapy-Ansatzes, der sich zudem in das bestehende Versorgungssystem integrieren lässt. Die Therapie machte es den Betroffenen nicht zuletzt möglich, mit ihrem verringerten Energiehaushalt umgehen zu lernen, und zugleich die verbliebenen Kapazitäten effektiv zu nutzen. Um den Patient:Innen wieder die Chance zur aktiven Teilhabe am gesellschaftlichen oder beruflichen Leben zu bieten, ist dies ein erster, wichtiger Schritt.

Die Habilitationsschrift mit dem Titel „, Sektorenübergreifende beanspruchungsgesteuerte multimodale Blended Therapy für Post-COVID-19-Patienten mit Fatigue und sensomotorischer Instabilität“ hat Professor Urban im Bereich Versorgungswissenschaft des Instituts für Medizintechnologie an der Brandenburgischen Technischen Universität Cottbus-Senftenberg eingereicht.


[1] Vgl. Urban 2025, Sektorenübergreifende beanspruchungsgesteuerte multimodale Blended Therapy für Post-COVID-19-Patienten mit Fatigue und sensomotorischer Instabilität, S. 10 – 24, (Manuskript) und https://www.kvberlin.de/fuer-praxen/aktuelles/themen/thema/long-covid.

[2] Vgl. Urban, Thomas et al., Fatigue und sensomotorische Instabilität. Neurologisch kontrollierte Konversion von Post-COVID-19-Patienten, in: Nervenarzt (2024:95, S. 1104 – 1115), S. 1107

[3] „Die Fatigue wird durch eine subjektiv oft stark einschränkende, zu den vorausgehenden Anstrengungen unverhältnismäßige, durch Schlaf nicht aufzuhebende körperliche (insb. motorische), kognitive und/oder psychische Erschöpfung charakterisiert.“ (Vgl. ebd., S. 1106) Ein weiteres Merkmal ist das unabsehbare Auftreten der Erschöpfung, was wiederum den individuellen Energiehaushalt anbetrifft.

[4] Bei energetischer Verarmung, Fatigue und ähnlichen Krankheitsbildern wurde eher die Schonung der Betroffenen empfohlen.

[5] Die Beanspruchungsreaktionen können wiederum somatischer, kognitiver und auch emotionaler Natur sein. Ein Problem bei der Vermeidung der Crashs ist, dass es keine Verhältnismäßigkeit zwischen faktischer Belastung und der Auslösung der Zusammenbrüche gibt. Die technischen Möglichkeiten erlauben eine Belastungssteuerung in Echtzeit, was wiederum hilft, Zusammenbrüche zu vermeiden. (Vgl. ebd., S.1110)

[6] Ohne auf die Details der Auswertung hier weiter einzugehen, soll doch auf eine Problematik hingewiesen werden, an der wiederum die Herausforderungen therapeutischer Ansätze deutlich wird. So kam es bei Frauen zu einer Verschlechterung der sekundären psychosomatischen Symptome: Eine Erklärung hierfür ist der schnellere Verlauf der Therapie bei Männern und die sich daraus ergebende längere Beanspruchung bei Frauen, eine Selbstüberschätzung und ein ausweichendes Verhalten speziell junger Frauen. Therapien müssen diese Besonderheiten verstehen und reflexiv in ihren Behandlungen berücksichtigen, um die anderweitigen Erfolge nicht zu gefährden.

Panta rhei. Die Materialwissenschaft und ihr Blick auf die Dynamik der Welt

Panta rhei. Die Materialwissenschaft und ihr Blick auf die Dynamik der Welt

Der griechische Aphorismus Heraklits, nach dem alles fließt, gewinnt auf dem Felde der Materialwissenschaft zusätzliches Profil. Das Prinzip des ewigen Werdens und Wandelns lässt sich hier darin übersetzen, dass Nichts wirklich fest ist, und manche Dinge wider Erwarten nicht wirklich scharf getrennt sind. Es ist dies ein eigener Blick auf die Struktur der Materialien und ihre Beziehungen, auf das das Wechselspiel zwischen Stoffen und Dingen. Und was all das mit der Produktion modernen Mikrochips zu tun hat, die in unseren Smartphones und Smartwatches stecken, darum wird es auf den folgenden Seiten gehen.

Zunächst ist es sinnvoll, das Fach selbst vorzustellen: Die Materialwissenschaft ist eine Disziplin zwischen Chemie, Physik sowie den Ingenieurwissenschaften und verknüpft diese Felder in einer eigenständigen Perspektive. Sie ist mithin ein interdisziplinäres Fachgebiet, das sich mit der Erforschung, Entwicklung und Anwendung von Materialien und Werkstoffen befasst. Als Wissenschaft, in deren Fokus Materialien stehen, zielt sie auf das Verständnis der Stoffgemische, ihren Wechselwirkungen und den daraus resultierenden Eigenschaften , es geht um chemische Beschreibungen ebenso wie um physikalische, chemische und mechanische Charakterisierungen, um Analysen der Strukturen und der Zusammensetzung von Substanzen ebenso wie um die Herstellungsbedingungen, die durch Faktoren der Thermodynamik und Kinetik beschreiben wird. Im Fokus stehen demnach thermodynamische und kinetische Grundlagen für ingenieurwissenschaftlich bedeutsame Werkstoffe:  Zugänge ergeben sich durch die Erarbeitung von Phasendiagrammen, die Untersuchung von Diffusionsprozessen oder auch die Charakterisierung von inneren Grenzflächen.

Ferner befasst sich ein Teilbereich der Materialwissenschaft mit Entwicklung neuer bzw. adaptierter Stoffe mit spezifischen Eigenschaften, die auf die Anforderungen bestimmter Anwendungsfälle abgestimmt sind. Wenn wir an die hochspezialisierten Materialien denken, die zum Beispiel in der modernen Mikroelektronik Verwendung finden und eine Grundlage für die Miniaturisierung und Leistungssteigerung sind, wird klar, wie die Materialwissenschaft durch ihre Verbindung von natur- und ingenieurwissenschaftlichen Ansätzen innovative Potentiale schöpft. Hier zeigt sich auch der Brückenschlag zwischen der Grundlagenforschung und der Transferierung in die anwendungsorientierte Wirklichkeit, der gerade als produktive Verknüpfung von Forschung und Entwicklung für Hochschulen angewandter Wissenschaften wichtig ist. 

Wie arbeiten Materialwissenschaftler:innen?

Um die Eigenschaften von Stoffen und deren Veränderungen in unterschiedlichen Zuständen zu verstehen, eignen sich Phasendiagramme, also Darstellungen der Zustandsübergänge in Abhängigkeit von verschiedenen Parametern. In diesen Diagrammen werden die Übergänge der Zustände (von fest zu flüssig zu gasförmig usw.) durch Einflussgrößen wie Zusammensetzung und Temperatur dargestellt. Dabei haben die Stoffe bzw. einzelne Bestandteile je Zustand und unter anderen während der Übergänge unterschiedliche, relevante Eigenschaften, die es zu charakterisieren gilt. So lässt sich an diesen Diagrammen das thermodynamische und kinetische Verhalten sondieren, das dann zum Beispiel gezielt bei Herstellungsverfahren genutzt werden können.

Ein anderer Aspekt innerhalb der Materialwissenschaft ist die Diffusion, also die Wechselbeziehungen zwischen Stoffen, zum Beispiel zwischen zwei Metallschichten. Unser Alltagsverständnis legt nahe, dass es zwischen beiden Metallen keine Wechselwirkungen gibt, sind doch beide solide Körper, die vollständig separat für sich bestehen. Wenn wir aber niedrigskalische Beobachtungsmethoden wie Elektronenmikroskope wählen, in denen die Atome und die Atomgitter sichtbar werden, verändert sich das Bild: Zwischen den Metallen, um in unserem Beispiel zu bleiben, können Beziehungen bestehen, was unteren anderem zur gegenseitigen Vermischung oder auch zur Einverleibung eines Stoffs durch den anderen führen kann. Wenn verschiedene Metalle und Legierungen wie bei der Mikrochipfertigung in der Elektrotechnik kombiniert werden, müssen solche Effekte bedacht werden, die in den Materialwissenschaften in den Fokus treten.

Die Untersuchung ebensolcher Interdiffusionsvorgänge ist ein Teilaspekt der Materialwissenschaft, der uns zu Martin Seyring und seiner Forschung an der Hochschule Schmalkalden führt. Dr. Martin Seyring hat im Oktober 2022 eine Stelle an der HSM angetreten, er ist wissenschaftlicher Mitarbeiter für Rasterelektronen- und optische Mikroskopie an der Fakultät der Elektrotechnik. Zuvor forschte und lehrte er an Friedrich-Schiller-Universität Jena, an der er auch promovierte.

Materialwissenschaftliche Forschung an der HSM

Das Forschungsthema Martin Seyrings sind Phasenungleichgewichte an metallischen Grenzflächen, was im Bereich der Materialwissenschaften Prozesse wie die Interdiffusion umfasst. An der HSM arbeitet er mit Roy Knechtel zusammen, der die Professur für Autonome Intelligente Systeme innehat. Beide forschen nun an der Entwicklung mikroelektronischer Bauteile, sogenannten MEMS. Es geht unter anderem um Druck-, Beschleunigungs-, Drehraten-, Infrarotstrahlungs- und Neigungssensoren, die eine technologische Grundlage unserer modernen Gerätschaften wie Smartphones oder Smartwatches bilden. Während sich Roy Knechtel mit der mikroelektronischen Konstruktion und Integration der Sensoren befasst, widmet sich Martin Seyring der Einbindung der Sensoren, die zum Beispiel über Prozesse des Bondens und Lötens geschehen, und bringt so seine Erfahrungen aus dem metallurgischen Bereich der Materialwissenschaft ein. Um bei dem Ziel, immer höher Integrationsdichten zu erreichen und kleinere, effizientere und leistungsstärkere Bauteile zu realisieren, voranzukommen, rücken die verwandten Materialien und deren komplexe Beziehungen zunehmend in den Fokus.

Ein Ziel ist die Ausreizung technischer Potentiale bei der Verbindung der winzigen Strukturen auf und mit dem Siliziumwafer. Selbstredend gibt es nicht nur ein Verfahren des Bondens, sondern verschiedene Methoden, die sich wiederum für unterschiedliche Anwendungsfälle eignen. Neben dem anodischen Bonden und zum Beispiel dem Glas Fritte Bonden können beim metallischen Bonden auch Metalle bzw. Legierungen zur Verbindung verwandt werden, und hier setzt die Forschung Martin Seyrings und seine Erfahrung mit metallischen Werkstoffen sowie dem Verhalten von Dünnschichten an. Was sind die Beziehungen zwischen den einzelnen Metallschichten – die teils beim Bonden, Löten und Lackieren entstehen –, und wie lassen sich diese in verschiedenen Hinsichten optimieren?

Ein wichtiger Aspekt bei den Wechselwirkungen ist die Zeit: Diffusion und chemische Reaktionen laufen mitunter sehr langsam ab, gleich sind ihre Folgen erheblich. Eine Einflussgröße ist hier die Temperatur, welche diese beiden Prozesse beschleunigt. So ergibt sich zugleich eine Möglichkeit für die Forschung: Durch die kontrollierte Erhöhung der Temperatur lässt sich eine größere Zeitspanne simulieren und die Effekte auf die Materialien studieren. So lassen sich dann Fragen beantworten, wie warm Komponenten werden können oder wie dünn die verwandten Schichten ausfallen dürfen, was gerade aus Sicht einer effizienten Produktion in hoher Stückzahl relevant ist.

Wo sich Technologie und Ökologie verbinden

Mit der Nachhaltigkeit wurde ein wichtiger Aspekt angetippt, der uns galant zu einem aktuellen Forschungsvorhaben Martin Seyrings und Roy Knechtels hinleitet. Der Titel des Projektes lautet MatInWLP, was für Material-Innovationen  im Wafer-Level-Packaging steht. Wiederum verbinden sich hier die von uns bisher verhandelten Themen in einem neuen Kontext. Neben dem Fokus auf den Materialen steht das WLP im Zentrum: Dies meint den Versuch, die Komponenten direkt auf dem Wafer aufzubringen, und sich viele einzelnen Prozessschritte zu sparen. Anders formuliert erfolgen beim WLP die Aufbauschritte von Halbleiterchips zu einsatzfähigen Bauelementen simultan und direkt auf Waferebene, was unter anderem die Schritte der Verkapselung und Kontaktierung umfasst. In diesem Projekt werden zugleich innovative Verfahren der 3D-Druck-Technologien aufgegriffen, die für das WLP eine Rolle spielen könnten.

Um den innovativen Charakter zu verstehen, gilt es, den bisherigen Stand der Produktion von Chips zu betrachten: Trotz oder unabhängig von der enormen Steigerung der Quantität – neben der Qualität – der produzierten mikroelektronischen Komponenten ist deren Fertigung noch immer mit einem immensen logistischen Aufwand verbunden. Für die vielen einzelnen Fertigungsschritte reisen die Bauteile um den Globus, und hinterlassen so einen prägnanten ökologischen Fußabdruck. Ferner sind die mitunter heiklen Herkünfte der verwandten Materialien wie Cobalt zu bedenken: Die Entwicklung hin zur immer weiteren Miniaturisierung wird in Hinsicht des Materialverbrauchs durch die schiere Masse an produzierten Chips wettgemacht. In dem Projekt MatInWLP verbinden sich kurzerhand technologische und ökologische Ambitionen: Einerseits geht es um die technische Realisierung einer direkten Integration der Bauteile auf dem Wafer, was an sich schon Herausforderung genug ist. Andererseits geht es um den Versuch, durch die direkte Bündelung auf dem Wafer neben den Transportkosten auch den Materialeinsatz zu minimieren, und die ökologischen Folgekosten so weiter zu reduzieren.

Das Forschungsprojekt „MatInWLP“ wird von der Carl-Zeiss-Stiftung gefördert, die in ihrem Themenschwerpunkt RessourcenEffizienz die Optimierung von Fertigungsverfahren und Materialkombinationen fördert und in diesem Projekt die technologischen, ökonomischen und ökologischen Potentiale erkennt. In der anwendungsorientierten Forschungsförderung verfolgt die Stiftung das Ziel, Ergebnisse und Erkenntnisse auch in die konkrete Anwendung zu bringen. Das Projekt hat eine Laufzeit bis Anfang 2027 und wird mit 1 Million Euro gefördert.

Die Assistentenexkursion (AssEx) 2025: Austausch, Einblicke und neue Perspektiven

Die Assistentenexkursion (AssEx) 2025: Austausch, Einblicke und neue Perspektiven

Alle zwei Jahre findet eine gemeinsame Exkursion der wissenschaftlichen Assistent:innen und Doktoranden der Hochschule Schmalkalden statt, die vom Vizepräsidenten Forschung und Transfer und von Frau Sandy Korb, Dezernatsleiterin D2, organisiert wird. Führte die sogenannte AssEx vor zwei Jahren ins mittelfränkische Nürnberg, so ging es diesmal ins unterfränkische Würzburg.

Die Assistentenexkursion verfolgt das Ziel, den fächerübergreifenden Austausch unter den Nachwuchswissenschaftler:innen unserer Hochschule zu fördern. Im Rahmen der Veranstaltung stellten die Teilnehmenden ihre Forschungsprojekte und die Themen ihrer Promotionsvorhaben vor und diskutierten diese interdisziplinär. Ergänzt wurde das wissenschaftliche Programm durch informelle Gesprächsrunden, in denen Herausforderungen im Promotionsalltag offen angesprochen und wertvolle Erfahrungen in vertrauensvoller Atmosphäre geteilt wurden.

Ein zentrales Element der Exkursion ist zudem der Besuch eines Unternehmens. Zum Auftakt der diesjährigen AssEx öffnete die Brose Fahrzeugteile SE & Co. KG am Standort Würzburg ihre Tore. Der Automobilzulieferer entwickelt und fertigt dort elektrische Motoren für Getriebe, Lenkung und Klimatisierung sowie Antriebe für Zweiräder. Die Teilnehmenden erhielten tiefreichende Einblicke in das Unternehmen sowie dessen Fertigungsprozesse.

Mit 68 Standorten in 24 Ländern ist Brose als Unternehmen global breit aufgestellt und nach wie vor ein Familienunternehmen – ein Selbstverständnis, das sich sowohl im Leitbild als auch im gelebten Arbeitsalltag widerspiegelt. Den aktuellen Herausforderungen der Automobilzulieferbranche begegnet Brose Würzburg mit einem hohen Maß an Innovationskraft – nicht nur in Bezug auf die Produkte, sondern auch hinsichtlich moderner Fertigungstechnologien, insbesondere in den Bereichen Automatisierung und Digitalisierung.

Im Anschluss wurden drei Dissertationsprojekte präsentiert. Den Beginn machte Paul Kluth, der an der Fakultät Wirtschaftsrecht zum Thema Ortsprädikate promoviert. Es handelt sich dabei um rechtlich belangvolle Begriffe wie „Kurort“, „Heilbad“ oder „Erholungsort“, die zahlreichen Gemeinden in Deutschland offiziell anerkannt tragen. Zunächst besteht die Aufgabe darin, das Phänomen zu beschreiben und im juristischen Kontext zu fassen. Auch wenn es sich vorderhand um ein rechtswissenschaftliches Problem im Kommunalrecht handelt, nimmt sich der Sachverhalt komplexer aus, je näher man ihn betrachtet. Die landesrechtlich verorteten Anerkennungen basieren auf Gesetzen oder Verordnungen; in der Praxis kommt verbandlichen Festlegungen eine erhebliche Bedeutung zu. Hierbei muss eine bestimmte medizinisch-gesundheitstouristische Qualität gegeben sein, die mit dem Prädikat ausgezeichnet wird. Gerade weil mit den Prädikaten besondere Rechtsfolgen mit hoher Praxisrelevanz einhergehen können (z. B. im Abgabenrecht oder bei den Ladenöffnungszeiten), entsteht ein juristisch reizvolles Untersuchungsfeld. Thematisch fügt es sich auch in die immer wichtiger werdende Diskussion um Gesundheitsaspekte ein. Eine fundierte wirtschaftsrechtliche Einordnung liegt ebenso im Sinne der Verwaltung wie im Interesse betroffener Wirtschaftsakteure.

Yekatarina Strigina promoviert an der Fakultät Maschinenbau und setzt beim Forschungsprojekt „RoboTraces“ an, an dem sie beteiligt war. Das Projekt befasste sich mit der Logistik durch Mikromobile, die insbesondere ältere Menschen im Alltag entlasten sollten, indem sie Besorgungen erledigten oder den Transport von Waren übernahmen. Eine besondere Herausforderung stellte die Bewegung des Roboters auf Gehwegen dar. Zum einen war das unebene Gelände und der teils schlechte Zustand der Wege für den Roboter schwer zu bewältigen. Zum anderen sind Gehwege von Natur aus unstrukturierte Räume: Sie verfügen in der Regel weder über klare Regeln noch über Markierungen oder eindeutige Vorgaben, was es für autonome Systeme schwierig macht, sich sicher und vorhersehbar zu bewegen. Eine weitere zentrale Aufgabe war die Kommunikation zwischen dem Roboter und seiner Umgebung, zu der auch Passant:innen zählen. Ziel war es, Parameter in dieser Mensch-Maschine-Interaktion zu bestimmen, um die Bedingungen für Akzeptanz zu klären. Geschwindigkeit, Abstand und Vorhersagbarkeit der Handlungen waren dabei wesentliche Faktoren. In der Dissertation wird der Versuch unternommen, in den Reaktionsmustern des Roboters Entscheidungsroutinen zu integrieren, die sich aus einer künstlichen Intelligenz speisen, die wiederum am realen Verhalten und psychologischen Einsichten trainiert wurde. Eine der Ideen ist hierbei die Körperhaltung, die – richtig gedeutet – Rückschlüsse auf die Intention eines Passanten zulässt. Hierauf kann dann wieder der Roboter in seinen Bewegungsabläufen schnell, flexibel und verlässlich regieren, so das Ziel. Da sich im öffentlichen Raum absehbar eine Vielzahl autonomer Mikromobile bewegen werden, bedarf es ebensolcher Projekte, um Konflikten auf den geteilten Wegen proaktiv zu begegnen.

Zuletzt stellte Lukas Hauck aus der Fakultät der Elektrotechnik den Fortschritt seines Projektes vor, der sich seit seiner ersten Präsentation auf der vorherigen AssEx ergeben hat. Im Grundsatz geht es in dieser Dissertation um die additive Fertigung elektronischer Bauteile und die Auslotung der technischen Möglichkeiten eines 3D-Integrations-Systems: Letzteres lässt sich als eine Maschinenplattform beschreiben, die es zulässt, mit unterschiedlichen Verfahren unterschiedliche Substrate auf unterschiedliche und inhomogene Topologien aufzubringen. Anders formuliert bietet das System verschiedene technische Möglichkeiten der Verarbeitung (wie die Dispersion oder das Jetten, also den kontaktlosen Auftrag von meist tropfenförmigen Fluiden) von ganz unterschiedlichen Materialien. Zugleich lässt es das 5-Achsen-System zu, nicht nur auf einer flachen Ebene zu arbeiten, sondern im 3-dimensionalen Raum. So können elektronische Bauteile an Positionen entstehen, die vorher schwer oder nicht zugänglich waren. Durch die Vielzahl an Möglichkeiten ist die Beherrschung und effiziente Verwendung allerdings zugleich komplex geworden, was Prototypisierungen als ein Anwendungsgebiet des Systems vor Herausforderungen stellt. Um die Anpassungszyklen und das Finden der optimalen Technik möglichst minimal zu halten, versucht sich Lukas Hauck an der Charakterisierung und Systematisierung verschiedener technischer Möglichkeiten, der Bestimmung unterschiedlicher Module und Beschreibung von Kombinationsmöglichkeiten verschiedener Komponenten. Durch diese Designregeln soll der Umgang mit der Maschinenplattform einfacher und das Optimum seiner technologischen Möglichkeiten ausgeschöpft werden.

Zum Abschluss berichtete Frau Ludwig über den aktuellen Stand des FH-Personal Projekts mit besonderem Blick auf die Aktivitäten im Kontext der Nachwuchswissenschaftler:innen. Beispielsweise die erstmals erschienene Promotions-Webseite, neue Impulse im Promotionscoaching oder aktuelle Aktivitäten in der Wissenschaftskommunikation.

Die AssEx wurde durch einen gemeinsamen Abend und eine Stadtführung abgerundet. Der informelle Austausch, der einen solchen Abend begleitet, dient dem Teilen von Erfahrungen dieser speziellen Phase eines wissenschaftlichen Werdegangs: Neben Themen der Forschung geht es zum Beispiel um Strategien der Karriereplanung oder auch ganz menschliche Fragen der Work-Life-Balance.

Da sich die Doktoranden in einer zumindest ähnlichen Situation befinden, treffen bei Veranstaltungen wie der AssEx Menschen zusammen, die sich über solche Fragen barrierearm austauschen können.

Tickt die GenZ anders? Eine empirische Überprüfung generationaler Unterschiede

Tickt die GenZ anders? Eine empirische Überprüfung generationaler Unterschiede

Seit ein paar Jahren mehren sich journalistische Beiträge, in denen vermeintliche Defizite der GenZ, von allgemeinen Wertvorstellungen bis hin zur spezifischen Arbeitsmoral, aufgegriffen werden. Personen dieser Alterskohorte, ungefähr die Geburtsjahre von 1995 bis 2010, werden Bequemlichkeit, Freizeitorientierung und unter anderem fehlender Ehrgeiz vorgeworfen. Der Frage, wie sich die Einstellungen der GenZ zur Arbeit und ihre Ansprüche an ihre Arbeitsverhältnisse von jenen vorheriger Generationen unterscheiden und ob diese Abweichungen einer wissenschaftlichen Überprüfung standhalten, ist eine offene Frage der Forschung. Professorin Katharina Sachse ist dieser in Zusammenarbeit mit Claus-Peter Heinrich, Silke F. Heiss und Sandra Sülzenbrück im Rahmen einer jüngst veröffentlichten Studie mit dem Titel „Arbeitgeberattraktivität aus Sicht der Generationen. Einigkeit statt Unterschiede“ nachgegangen.

Der Begriff „Generation“ ist unscharf und wird in Wissenschaft und Alltag unterschiedlich genutzt. Viele Menschen fühlen sich zwar einer Generation zugehörig, doch bleibt unklar, wodurch diese Einheit eigentlich zusammengehalten wird.

Der Jugendforscher Jürgen Zinnecker unterscheidet drei Perspektiven:

  1. Geburtskohorten – Menschen, die im gleichen Zeitraum geboren wurden.
  2. Lebensabschnitte – etwa Großeltern, Eltern und Kinder, die durch unterschiedliche Lebenssituationen geprägt sind.
  3. Zeitgeschichtliche Ereignisse – prägende Momente wie 9/11 oder die Einführung des iPhones.

Alle drei Ansätze zeigen, dass „Generation“ Unterschiedliches meinen kann. Letztlich sollte man den Generationenbegriff nicht als feste Grenze verstehen, sondern als Hilfsmittel, um Veränderungen zwischen Gruppen sichtbar zu machen.

Wichtig ist, dass verschiedene Disziplinen den Begriff unterschiedlich verwenden: Pädagogik, Soziologie oder Geschichtswissenschaft setzen jeweils eigene Akzente. Nützlich bleibt der Begriff vor allem, um Selbst- und Fremdverortungen von Menschen in ihrer Zeit zu beschreiben. In den Personalabteilungen von Unternehmen werden mitunter Generationenzuordnungen genutzt, um spezifische Personalmaßnahmen daran auszurichten. Die Wirtschaftspsychologie beleuchtet wissenschaftlich, wie Mitarbeitende gewonnen und gehalten werden können, und untersucht dabei auch, ob sich die oft diskutierten Unterschiede zwischen Generationen – etwa bei der GenZ – tatsächlich nachweisen lassen.

GenZ: Zwischen Krisen und Kritik

Und schon sind wir bei der GenZ, deren Jugend bzw. junges Erwachsenenleben vor allem von Krisen geprägt war, angefangen bei der Euro-Krise und der „Flüchtlings“-Krise bis zur Pandemie und ihren Folgen und schließlich der Ukraine-„Krise“. (Vgl. Katharina Sache et al., Arbeitgeberattraktivität aus Sicht der Generationen. Einigkeit statt Unterschiede, Berlin 2025, S.12) Die zunehmende Digitalisierung des Alltags, des Soziallebens und der Kommunikation sollte sich zudem auf Weltverständnis und -verhältnis dieser Generation auswirken. Auch wenn also die Kindheit und Jugend der GenZ von besonderen Umständen geprägt wurde und bestimmte Effekte auf diese Generation mithin plausibel sind, geht die eingangs notierte Kritik an der Arbeitsmoral dieser Generation weniger von weichen Einstellungsvarianzen als von festen, greifbaren Unterschieden im Wertesystem der GenZ aus, die diese von anderen Kohorten trenne. Der Generationsbegriff dient hier nicht im Sinne einer Auslotung von weichen Einstellungsunterschieden, sondern als Zuschreibung fassbarer, übergreifender Wesensmerkmale einer Altersgruppe.

Die Kritik zielt vornehmlich auf den Themenbereich der Arbeit, und lässt sich in die individuelle Arbeitsmoral und die Ansprüche der betroffenen Personen an ihre Arbeitgeber unterscheiden. Als Beispiele: Die WirtschaftsWoche titelt, die GenZ wäre lieber arbeitslos als unglücklich. Deutschlandfunk Nova konstatiert eine hohe Bereitschaft zum Arbeitsstellen- bzw. Arbeitgeberwechsel, RP online fragt nach einer allzu hohen Sensibilität im Berufsleben. Im Presseportal ist von immensen Gehaltsvorstellungen der GenZ zu lesen, der Focus sieht eine mangelnde Bereitschaft zu Überstunden. Prominent äußerte der ZDF-Moderator Lanz eine Kritik an den postmateriellen Werten der GenZ und ihrer Suche nach der idealen Work-Life-Balance. Neben Artikeln und Büchern über die GenZ gibt es zahlreiche Videos auf Plattformen wie YouTube. Abseits von kritischen Impulsen stehen oftmals Beratungsangebote an Unternehmen und Personalverantwortliche im Fokus.

Die evidenzbasierte Überprüfung

Nicht nur stellt sich die Frage, ob diese Beschreibungen der Generation Z überhaupt zutreffen, sondern auch, ob die normativen Veränderungen zum Beispiel der Anspruchshaltungen einer Work-Life-Balance ein auf diese Generation begrenzter Effekt sind, oder doch eher eine alle Generationen umfassende sozio-kulturelle Verschiebung im Sinne des Zeitgeistes markieren. In einer empirischen Studie ist die Forschungsgruppe um Katharina Sachse der Frage nachgegangen, ob die behaupteten Unterschiede zwischen den Generationen einer Überprüfung standhalten.

Gemäß einer populären Unterscheidung der Generationen in Kohorten lassen sich Baby Boomer, die Generation X, Y (Millenials) und Z trennen und durch mehr oder weniger grobe Zuschreibungen charakterisieren. Aus Sicht von Unternehmen, die sich in einem immer umkämpfteren Wettbewerb um Fachkräfte wähnen, sind diese Profile von Bedeutung, lassen sich doch vermeintlich durch ihre Berücksichtigung Rekrutierungschancen maximieren und Fluktuationsrisiken minimieren. Aus der Vermutung, Sicherheit wäre für die Motivation älterer Mitarbeitender, Selbstverwirklichung im Beruf für jene jüngerer Generationen wichtig, könnten maßgeschneiderte Ausschreibungsprofile und Jobkonditionen generiert werden. (Vgl. Sachse et al. 2025, S.09f.)

Die Frage ist nun, ob die grundlegende These einer greifbaren Unterschiedlichkeit der Generationen und ihrer Gewichtung von Faktoren der Arbeitgeberattraktivität überhaupt zutrifft. Die Forschungslage zur GenZ ist noch dünn, weil es allein deshalb noch kaum belastbare Studien geben kann, weil die GenZ erst in jüngerer Zeit den Arbeitsmarkt betritt und Erfahrungen sammeln kann. Internationale Studien, die ihren Fokus generell auf Generationenunterschiede legen, haben bisher keine gravierenden Unterschiede zwischen den Generationen feststellen können. (Vgl. Sachse et al. 2025, S. 17f.)

Das Ziel der Studie von Professorin Sachse und ihrem Forschungsteam war einerseits, eine empirische Studie am Beispiel Deutschlands zu liefern, und zudem einen Fokus auf die Einstellungen gegenüber den Arbeitgebern bereitzustellen.[1] Die Auswertung der Umfrage konnte auf Daten von 1133 berufstätigen Personen zurückgreifen, wobei alle Generationen quantitativ ungefähr gleich vertreten waren.

Die Befragung ging in 68 Items entlang von 19 Dimensionen unterschiedlichen Arbeitgeberattraktivitätsfaktoren nach. Eine regressionsanalytische Auswertung der Daten ergab, dass sowohl instrumentelle (Einkommen, Sicherheit, Benefits u.a.) als auch symbolische Merkmale (soziale und altruistische Werte sowie Status, also Prestige und Autorität u.a.) für die Arbeitgeberattraktivität relevant sind. Die Gewichtung der Faktoren unterscheidet sich dabei nicht bedeutsam zwischen den Generationen. Vor allem bei den wichtigsten Merkmalen wie Identifikation mit dem Arbeitgeber, Führung und Arbeitsaufgaben gibt es keine Unterschiede zwischen den Generationen – für alle sind diese gleich relevant. Kurzum lässt sich der Bruch zwischen den Generationen und eine distinkte Eigenart der GenZ in ihren Arbeitswerten und Erwartungen empirisch nicht bestätigen.

Fazit: Eine unnötige Polarisierung

Das heißt nicht, dass sich die Attraktivitätsfaktoren über die Zeit nicht verändern würden. Hierfür scheint aber eher ein Zeitgeisteffekt ausschlaggebend, der sui generis alle Generationen anbetrifft. So stellte eine andere Untersuchung fest, dass sich die Präferenzen zur Länge der Arbeitszeit im Allgemeinen geändert haben – auch die Babyboomer achten heute mehr auf Work-Life-Balance als früher.

Ein Zuschnitt der Rekrutierung auf die Generation Z ist demgemäß unnötig. Mitarbeitenden in allen Berufslebensphasen – vom Jobeinstieg bis zum Übergang in die Rentenzeit – sollten Arbeitsbedingungen geboten werden, die zu ihren Bedürfnissen passen. Dazu gehören eine gute Führung, sinnvolle Tätigkeiten, angemessene Entlohnung sowie Arbeitsaufgaben, bei denen die eigenen Kompetenzen genutzt und erweitert werden können.

Es lässt sich festhalten, dass es zwar einzelne generationale Varianzen gibt, diese sind aber nur minimal. Unter anderem die Veränderungen des Zeitgeistes und die genuinen Effekte von Lebensabschnitten sind bei Vergleichen von Generationen stets mitzubedenken. Die GenZ befindet sich am Beginn ihres Berufslebens in einer Orientierungsphase, in der sie verschiedene Erfahrungen sammeln muss, um den passenden Arbeitgeber und Berufsweg zu finden[2]. Allein dadurch lassen sich Unterschiede zu den Mitgliedern älterer Generationen am Arbeitsmarkt erklären.

Dem Begriff der Generation fehlt es neben einer konzeptionellen Schärfe auch an einem empirischen Profil, das sich anhand konkreter Beobachtung bestätigen ließe: Zwar lassen sich zwischen Generationen einzelne Unterschiede auch in der Attraktivität der Arbeitgeberfaktoren und Arbeitswerte ausmachen, diese sind aber zu gering, um als Scheidelinie zwischen den Generationen dienen zu können. Die Arbeitswerte der Generationen liegen trotz einer gewissen Varianz nahe beieinander. Kurzum: Die GenZ tickt nicht anders.


[1] Die Anlage von Studien hat notwendigerweise Auswirkungen auf die eröffnete Perspektive: In einer Querschnittsstudie, in der alle Personen zu einem Zeitpunkt befragt werden, können zwar alle Generationen abgebildet werden, gleichzeitig kann die Generation nicht vom Lebensabschnitt getrennt werden. Zum Befragungszeitpunkt befinden sich alle Mitglieder einer Generation auch im selben Alter und damit in derselben Lebensphase. Eventuell identifizierte Unterschiede zwischen den Generationen können somit auch durch Alters- bzw. Lebensphaseneffekte zustande kommen.

[2] Es lassen sich die Phasen der Exploration, der Etablierung, der Erhaltung und des Rückzugs trennen, wobei jede eigenen Logiken und Präferenzen unterworfen ist.  (Vg. Sachse et al. 2025, S. 16)

Stiftungsprofessuren als Impulsgeber der Forschung am Beispiel von Roy Knechtel

Stiftungsprofessuren als Impulsgeber der Forschung am Beispiel von Roy Knechtel

Auch wenn Stiftungsprofessuren noch recht neuartige Strukturen sind, haben sie sich mittlerweile in der bundesdeutschen Wissenschaftslandschaft fest etabliert. Sie bieten einen genuinen Vorzug, der gerade aus Sicht von Forschung und Transfer ins Gewicht fällt: Stiftungsprofessuren nehmen innovative Potentiale technologischer Entwicklungen auf und begünstigen deren Übersetzung in universitäre Einrichtungen. Ihre Anzahl hat in der jüngsten Vergangenheit zugenommen, wodurch in Deutschland mittlerweile bis zu 2 % der Gesamtzahl Stiftungsprofessuren ausmachen. Bevor wir uns einem konkreten Beispiel einer solchen Stiftungsprofessur an der Hochschule Schmalkalden zuwenden, muss geklärt werden, was traditionelle von Stiftungsprofessuren unterscheidet.

Anders als bei den üblichen Professuren wird die Finanzierung nicht staatlicherseits aufgebracht, sondern vom jeweiligen Stifter, also Institutionen, Unternehmen oder auch Privatpersonen. Zudem ist der Zeitraum der eigentlichen Stiftungsprofessur begrenzt, zumeist auf fünf, teils auf zehn Jahre. In Absprache mit den Hochschulen wird die gestiftete dann üblicherweise in eine klassische Professur umgewandelt und so die Kontinuität der Forschung und der erarbeiteten Expertise gewährleistet. Ein zentraler Vorteil dieser Stiftungsprofessuren ist, dass über diese Methode innovative Forschungsfelder erschlossen werden können: Die Stifter legen im Austausch mit den entsprechenden Gremien der Hochschulen den thematischen Fokus der Professur fest, und stellen die Mittel für die Professur sowie weitere Sach- und Investitionsmittel (z.B. für  Laboreinrichtungen) bereit. Durch diese externen Initiativen können neuartige Themen und Bereiche Eingang finden, die bislang kein Teil des etablierten Kanons waren.

Der Reiz dieser Einrichtungen geht für Hochschulen neben dem Punkt der geminderten Kosten zum großen Teil von diesen Impulsen auf die Forschung aus, wie sich auch anhand der Stiftungsprofessur Roy Knechtels durch die Carl-Zeiss-Stiftung an der Hochschule Schmalkalden verdeutlichen lässt. Der Hochschule bot sich hier die Gelegenheit, in einem zukunftsträchtigen Forschungsfeld Expertise und Kompetenzen aufzubauen. Da der Förderzeitraum dieser Stiftungsprofessur kürzlich auslief, ist nun ein guter Augenblick für ein Resümee.

Möglichkeiten und Herausforderungen

Neuberufene Professoren und Professorinnen stehen für gewöhnlich einerseits vor der Aufgabe, die Ausrichtung ihres Lehrstuhls in Forschung und Lehre anhand ihrer Interessen und Vorstellungen vorzunehmen zu müssen. Neben Personal und Technik umfasst dies auch die Fixierung thematischer Schwerpunkte. Andererseits bestehen die Lehrstühle zumeist bereits, wodurch es einen gewissen Rahmen und einen Bestand an vorhandenem Personal sowie Forschungs- und Lehrmitteln gibt. Im Unterschied zu diesen Fortführungen von klassischen Professuren ist es eine Eigenart von Stiftungsprofessuren, eine Neugründung zu sein und nicht an einen bereits bestehenden Lehrstuhl anzuknüpfen, was Möglichkeiten bietet, aber auch Herausforderungen mit sich bringt.

An der Hochschule Schmalkalden wurde Roy Knechtel im April 2019 auf die von der Carl-Zeiss-Stiftung geförderte Forschungsprofessur „Autonome intelligente Sensorik“ berufen. Der Förderzeitraum der Professur war für einen Zeitraum von fünf Jahren angesetzt und dauerte dementsprechend bis zum März 2024. Die von der Carl-Zeiss-Stiftung im Rahmen eines ausgeschriebenen Programms geförderte Professur zielte auf einen Bereich, in dem sich Roy Knechtel in über zwanzig Jahren Expertise und Erfahrungen im Rahmen seiner Tätigkeit im Erfurter Unternehmen X-FAB aneignen konnte: Die Entwicklung von MEMS (Micro Electromechanical Systems) Sensortechnologie.

Neben kleineren Projekten zu Sensoranwendungen lag der ein besonderer Schwerpunkt der Forschung der vergangenen Jahre auf technologischen Teilschritten zur Realisierung von Sensoren und deren 3D-Integration mit Mikroelektronik zu komplexen elektronischen Systemen, insbesondere zu Sensoraufbauten. Es versteht sich von selbst, dass für diese Forschungsfragen spezifische Anlagen, Labore und Apparaturen notwendig sind. Im Besten Falle sind diese schon vorhanden, ansonsten muss der mehr oder weniger aufwendige Weg ihrer Anschaffung beschritten werden.

An der Hochschule Schmalkalden fand Roy Knechtel bei Antritt seiner Professur ein Reinraumlabor vor, das neben der Partikelfreiheit auch eine Kontrolle der Umgebungsbedingungen wie Temperatur und Luftfeuchte zuließ. Hiermit lag bereits eine günstige Ausgangssituation vor. Zudem wurde bis Ende letzten Jahres die Klimatechnik des Reinraumlabors modernisiert. Aber auch in Hinsicht der Anlagentechnik konnte Roy Knechtel auf ein bestehendes Fundament aufbauen: Nicht nur gab es einen Hochtemperaturofen, der bis zu 800°C für Anglasprozesse von Siebdruckmaterialien erzeugen kann, sondern auch einen Siedrucker und einen Siebreiniger. Zudem waren neben chemischen Boxen und einem Drahtbonder auch Mikroskoptechnik einschließlich eines Rasterelektronenmikroskops mit EDX-Technologie für Materialanalysen und einen löttechnischen Bestand mit einer Hotplate und einer halbautomatischen Lötstation bereits vorhanden.

Grundlegung der Forschung

Roy Knechtel musste folglich keineswegs bei null anfangen, sondern konnte sich auf Anlagen konzentrieren, die für das neue Forschungsgebiet zentral sind. Die Neuausrichtung auf moderne Integrationstechnologien der Mikroelektronik und Mikrosystemtechnik insbesondere hinsichtlich der Sensorintegration machte es notwendig, Prozessierungsanlagen – wie verschiedene Typen von 3D-Druckern – und spezielle Analysetechnik in Form von Mikroskopen anzuschaffen.

Die verschiedenen 3D-Drucker dienen als Grundlage der Forschung. Der Anycubic Photon Mono m5s pro erlaubt das 3D-Drucken von Kunststoffen mit fotolitografischen Mitteln, also Licht. Hierfür werden spezielle Polymere verwandt, die auf den UV-Anteil des Lichts reagieren. Bei der Fertigung von mechanischen Bauteilen lässt sich eine Auflösung von bis zu 18,5µm erreichen, was eine hohe Präzision darstellt. Der Bambulab X1E ist ein Filament 3D-Drucker mit verschiedenen Austrittsdüsen zum Drucken von feinen Strukturen. Durch seine zahlreichen Sensoren und Softwareapplikationen ist ein präziser und schneller Druck möglich. Ein anderer Vorteil bietet sich in der Verarbeitung von bis zu 5 Farben und Materialien in einen Druck.

Die wichtigste Anschaffung lässt sich mit dem Begriff 3D-Drucker nur ansatzweise beschreiben: Das KRONOS 15XBT[1] System ist eher ein 3D-Integrationssystem, das viele verschiedene Möglichkeiten der Verfahren und verwandten Komponenten erlaubt, um elektronische Bauteile dreidimensional zu fertigen. Das 5-Achsen-System ermöglicht zum Beispiel die Verwendung von 10 Drucktechnologien, und weiter bieten sich mit 8 unterstützten Modulen Erweiterungen der Bildgebungsverfahren, der Vor- sowie Nachbehandlung und der Ergebnisoptimierung. Das System gestattet die Verarbeitung verschiedenster Materialen mit stark unterschiedlichen Viskositäten und Eigenschaften auf topographisch komplexen Substraten. Der Anwendungsbereich wird in der Folge um ein Vielfaches breiter: Nicht nur können verschiedenartige Verfahren zum Drucken, Härten und Prüfen simultan verwendet und kombiniert werden, es kann zudem beinahe alles von elektrisch Leitenden Pasten, über isolierende Tinten bis zu zähflüssigem Glas gedruckt werden.

Diese Drucktechnologien durch eine klassische Fotolithografie ergänzt, die technologisch gesehen die Grundlage der modernen Halbleiterfertigung darstellt. Zwar bietet der neu angeschaffte maskenlose digitale Belichter MLA100 von Heidelberg Instruments eine geringere Arbeitsgeschwindigkeit, er benötigt aber keine teuren Masken und ermöglicht dennoch eine Auflösung bis zu einem Mikrometer (ein Tausendstel Mikrometer). In Kombination mit einer Tischsputtereranlage lassen sich damit metallische Mikrostrukturen (auch als Kombination von zwei Metallen) mit elektronischen und magnetischen Funktionen oder als Fügesysteme herstellen. Die Kombination mit den Druckverfahren ist Gegenstand aktueller Forschungen.

Um die Fortführung eines wichtigen Forschungsfelds von Roy Knechtel aus seiner Zeit in der Industrie, das WaferBonden, also das definierte Stapeln und Fügen von Halbleiterwafern zur Realisierung dreidimensionaler Substrate und Elektronik- sowie Sensoriklösungen, zu ermöglichen, konnte durch eine Sonderförderung der Carl-Zeiss-Stiftung eine WaferBonderanlage beschafft werden. Diese wird inzwischen sehr intensiv genutzt. Da auch für das WaferBonden die Prozesskontrolle, d. h. die Analyse der Ergebnisse sehr wichtig ist, konnte ein Scanning Acoustic Microscope (SAM) als Leihgabe von der Firma PVA Tepla genutzt werden, das die Forschungen im Bereich des WaferBondens auf ein nochmals höheres Niveau gehoben hat.

Als ein weiterer Bereich der Anschaffungen kommen die Mikrokopie hinzu, mit deren Hilfe unter anderem die Prozessergebnisse vermessen und evaluiert werden können. Ein Lichtmikroskop der Firma Zeiss (LSM 700) arbeitet mit Hilfe eines Lasers, um kleinste Merkmale wiedergeben zu können. Der Laserstrahl fährt dabei über das Objekt und scannt jeden Punkt einzeln über das reflektierte Licht. Aus diesen einzelnen Informationen wird dann ein Bild zusammengefügt. Zudem kann das Mikroskop verschiedene Schichten erfassen, wodurch die Erstellung eines dreidimensionalen Modells möglich wird. Zuletzt bietet das Mikroskop auch Instrumente der Korrektur der Bildgebung an.

Das andere Mikroskop stammt ebenfalls von Zeiss: Es ist ein Rasterelektronenmikroskop vom Typ EVO MA15. Die Objekte, die dieses Mikroskop erfassen kann, sind nochmals kleiner. Um Dinge der Größenordnung einer Haarsträhne abbilden zu können, greift das Gerät nicht auf Licht zurück, sondern auf Elektronen. Ein Strahl von Teilchen wird auf die Materialien gerichtet, und die Elektronen schlagen andere Elektronen aus oder prallen an ihnen ab. Aus diesen Informationen wird dann ein Bild gewonnen. Diese Detailschärfe des Mikroskops ist zweckmäßig, wenn es zum Beispiel um Oberflächen von Micro-Chips geht. Auch die winzigen Muster (d.h. Mikro- und Nanostrukturen), die bei der Herstellung dieser Chips verwendet werden, können so erfasst werden. Zudem verfügt das Mikroskop über die Option des energiedispersiven Röntgens (EDX), was zum Beispiel für die Analyse der Vermischung zweier Metalle zu einer Legierung nützlich ist. Mit dieser Technologie ist es möglich, festzustellen, um welches neue Material es sich handelt.

Das Team und neue Herausforderungen

Mit der erfolgreichen Anschaffung dieser Geräte kann nun die nächste Phase eingeläutet werden, eben die der intensiven Forschung an und mit den Geräten. Micalea Wenig ist eine technologisch versierte wissenschaftliche Mitarbeiterin. Sie sorgt für den reibungslosen Betrieb des Reinraums und der Anlagen, ist inzwischen Expertin am SAM und führt eigene Forschungen durch. Mit Lukas Hauck konnte Roy Knechtel einen Doktoranden gewinnen, der sich mit dem 15XBT auseinandersetzt und der untersucht, ob sich Grundregeln in der Nutzung des Systems mit verschiedenen Verfahren und Materialien aufstellen lassen. Zudem konnte mit Dr. Martin Seyring ein wissenschaftlicher Mitarbeiter ins Team geholt werden, der einen für die Mikroelektronik durchaus relevanten Bereich abdeckt: Die Materialwissenschaften. Um immer kleinere und komplexere elektronische Bauteile und Schaltungen fertigen zu können, sind die Materialien und die Prozesse in diesen wichtig. Kurzum hat sich nun ein Team zusammengefunden, das die technischen Möglichkeiten für die weitere Forschung bestens nutzen kann.

Dies zeigt sich anhand mehrerer Forschungsprojekte mit der Thüringer Industrie über die letzten Jahre hinweg. Ein aktuell laufendes, von der Carl-Zeiss-Stiftung gefördertes Projekt hat zu einer weiteren personellen und fachlichen Verstärkung dieser Forschergruppe geführt (über das wir demnächst berichten werden) sowie zu mehr als zehn wissenschaftlichen Veröffentlichungen (reviewte Artikel in Fachjournalen und Konferenzbeiträgen).

Abschließend kann festgehalten werden, dass die Stiftungsprofessur wie angedacht umgesetzt wurde: Es konnten die infrastrukturellen Grundlagen für State-of-the-Art-Forschungen geschaffen und ausgebaut werden, eine leistungsfähige Forschungsgruppe etabliert werden, die weiter wächst und an relevanten Projekten arbeitet und viele Ideen für neue zukünftige Forschungen hat. Hierfür gilt ein besonderer Dank der beteiligten Wissenschaftler sowie der Hochschule Schmalkalden an die Carl-Zeiss-Stiftung für die sehr umfangreiche finanzielle Förderung, aber auch für Weiterbildungsveranstaltungen wie das Vernetzungstreffen der von ihr berufenen Stiftungsprofessorinnen und -professoren, die diesen nachhaltigen Forschungsaufbau ermöglicht haben.


[1] Drucksystem 3D- Elektronikintegration Kofinanziert von der Europäischen Union im Rahmen des Förderprogramms Richtlinie zur Förderung der Forschung FTI Thüringen Forschung, Vorhabens-Nr. 2022 FGI 0019

Freie Fahrt für heiße Schmelze. Welche Vorteile können additiv hergestellte Werkzeuge bei der Extrusion bieten?

Freie Fahrt für heiße Schmelze. Welche Vorteile können additiv hergestellte Werkzeuge bei der Extrusion bieten?

Forschung an Hochschulen angewandter Wissenschaften ist praxisnah und transferorientiert: Die Potentiale der wechselseitigen Kooperation von Wissenschaft und Wirtschaft können an Forschungsprojekten wie ExAM deutlich gemacht werden, das Stefan Roth, Professor für Produktentwicklung und Konstruktion an der HSM und Teil des Teams der Angewandten Kunststofftechnik (AKT), gerade umsetzt.

Um was geht es? Zunächst ist es sinnvoll, die Extrusion als ein spezielles Verfahren in der Kunststofftechnik vorzustellen: Grundsätzlich ist die Extrusion eine Möglichkeit der Fertigung von „endlosen“ Kunststoffteilen wie Rohre und Schläuche, wobei die eigentliche Methode auch in anderen Zusammenhängen angewandt wird, zum Beispiel bei der Herstellung von Nudeln. Kurz lässt sich eine Extrusionsanlage als eine Apparatur beschreiben, die Rohmaterialien wie Kunststoffe, Metalle oder Lebensmittel verflüssigt und durch eine Düse – auch Matrize genannt – presst, wobei diese Öffnung die Form des Produkts ergibt. Im Unterschied zu anderen Verfahren ist der Austritt kontinuierlich, was wiederum spezifische Möglichkeiten, aber auch Herausforderungen mit sich bringt. Wichtig ist dabei, dass die Komplexität über die Düse hinausgeht und neben der Schmelze unter anderem auch Prozessschritte wie die Abkühlung umfasst. Bevor wir uns dem Forschungsprojekt ExAM zuwenden, worin es um die Vorteile der additiven Fertigung von Werkzeugen wie der Düse geht, verbleiben wir zunächst beim Extrusionsprozess.

Die Extrusion

Wie bereits erwähnt ist die Extrusion keine einzelne Maschine, sondern lässt sich eher als eine Anlage mit verschiedenen Teilen und Stationen verstehen. Gehen wir kurz den Weg des Produktes: Am Anfang steht das Rohmaterial, also das Granulat, das über einen Befülltrichter in den Extruder eingeführt wird. In diesem befinden sich eine Schnecke, die sich dreht und das so Material zum Ausgang transportiert und es dabei vermengt, verdichtet und erwärmt. Durch die in der Schneckenbewegung entstehende Reibung des Materials wird Wärme produziert, durch welche das Granulat aufgeschmolzen wird. Dieser Schmelzprozess wird durch außen auf der Anlage angebrachte Heizbänder gefördert.

So entsteht eine Schmelze, die im weiteren Gang durch die Schnecke verknetet und homogenisiert wird. Die Schmelze wird dann durch die Düse gepresst und so in die gewünschte Form gebracht. So entsteht ein im Grunde endloses Formteil, wie wir es zum Beispiel als Kabelschacht, Fensterprofil oder Folie kennen.  Im Anschluss wird das Produkt abgekühlt und simultan kalibriert, wobei sich hier die Verfahren je nach Eigencharakteristik des Produkts unterscheiden. Die Aufgabe ist es, Verformungen zu vermeiden, die durch die thermoplastischen Eigenschaften des Materials beim Abkühlen entstehen. Am Ende des Prozesses wird das endlose Extrudat abgelängt oder aufgewickelt.

Ansätze der Optimierung

Wichtig ist zu verstehen, dass es nicht um ein Material, ein Verfahren und eine Maschine geht, durch die letztendlich ein Produkt entsteht, sondern verschiedene Parameter die Möglichkeiten und Grenzen des Prozesses und des Produkts sowie deren Qualität entscheidend beeinflussen. Zum Beispiel haben sowohl die Schneckentypen als auch ihre Verfahrensweisen (z.B. ihre Rotation) Auswirkungen auf die Schmelze: Je nach Material eignen sich andere Schneckentypen. Variablen wie Menge, Geschwindigkeit und Wärme kommen hinzu, aber auch die Rolle von Additiven, also Zusätzen neben dem Granulat, denen wiederum eigene Eigenschaften zukommen. All diese Komponenten müssen je nach Material und Produkt abgestimmt werden, um am Ende des Prozesses eine möglichst passgenaue und effiziente Produktion zu realisieren. Gerade für Produkte, wie sie typischerweise mittels Extrusion hergestellt werden, sind die Aspekte der Quantität zentral. Durch die hohen Stückzahlen haben hier Verbesserungen der Produktion enorme Effekte.

In solchen grundlegenden und generalisierbaren Bereichen bietet sich die industrielle Gemeinschaftsforschung als Träger von Forschungsprojekten an. Von den IGF-Projekten und dessen Ergebnissen können alle Beteiligten profitieren, ohne hier von dem Konkurrenzdruck ausgebremst zu werden. Anders formuliert geht es hier um eine ambitionierte, vorwettbewerbliche Kooperation, die Forschung zum gemeinsamen Nutzen fördert. Getragen wird diese Gemeinschaft vom Bundesministerium für Wirtschaft und Klimaschutz, sie verbindet aktuell 101 Forschungsvereinigungen und 1200 Forschungseinrichtungen. Einer dieser Forschungsbereiche, repräsentiert durch die Forschungsgemeinschaft Deutscher Werkzeug- und Formenbauer FDWF e.V., betrifft die Frage, ob und wie sich die Vorteile additiv gefertigter Werkzeuge im Extrusionsverfahren bemessen lassen. Und damit sind wir an der Hochschule Schmalkalden.

Das Forschungsprojekt

Das Forschungsprojekt ExAM rückt den Fokus weg von klassisch hergestellten Werkzeugen, die subtraktiv gefertigt werden, hin zum Verfahren der additiven Fertigung. Dieses ist in anderen Bereichen – sowohl im Allgemeinen als auch auf dem Gebiet der Kunststofffertigung – schon etabliert, und nun stellt sich die Frage, ob sich diese Vorteile auf das Verfahren der Extrusion übertragen lassen. Ein auf der Hand liegender Nutzen ist, dass die additiven Verfahren mehr Freiheitsgrade bei Fertigung der Werkzeuge bieten, und somit neue bzw. innovative Ansätze der Konstruktion ermöglichen.

Klassisch werden die Werkzeuge in Zerspanungsverfahren wie dem Fräsen, oder Drehen gefertigt, poliert und die Komponenten anschließend zusammengebaut. Eine notwendige Folge dieses Vorgehens sind Restriktionen wie Übergänge und Toträume, die negative Auswirkungen auf den Fluss der Schmelze haben. Der Schicht-für-Schicht-Aufbau der additiven Fertigung kann eben diese Restriktionen vermeiden. Die Optimierung der Werkzeuge führt dann zu einer Verbesserung der Produkte bzw. des Fertigungsprozesses: Bessere Bauteileigenschaften und maßhaltigere Teile sind ebenso Ziele wie die robustere und einfachere Ausgestaltung der Prozesse. So lassen sich unter anderem die optischen Eigenschaften optimieren auch der Ausschuss von Teilen minimieren. Kurzum haben Ingenieur:innen bei der Konstruktion mehr Möglichkeiten: Offen ist hingegen die Frage, ob sich der Mehraufwand der additiven Fertigung lohnt.

Bleiben wir bei den Möglichkeiten: Der zentrale Punkt ist die Führung der Schmelze im Werkzeug, die möglichst homogen zum Austrittspunkt geleitet und in Form gebracht werden soll. Stockungen, Stausituationen und Toträume müssen auch aus Sicht der Materialqualität vermieden werden, führen diese doch unter anderem zu Schlieren oder farblichen Mängeln. Das sich in Toträumen ansammelnde Material degradiert mit der Zeit, stört den Fluss und hat negative Effekte auf die mechanischen und optischen Eigenschaften des Materials. Wichtig ist ferner die Kontrolle der Geschwindigkeit der Schmelze, was wiederum in Abhängigkeit zum Druck und der Temperatur steht. Die additive Fertigung der Werkzeuge erlaubt die Umsetzung einer gezielten Temperierung, und somit die bestmögliche Auslegung der Schmelzekanäle und -führung. Zugleich lassen sich innovative Geometrien in Form von Kühlkanälen in das Werkzeug einbringen.

Ziel der Konstruktion ist die Optimierung des Schmelzraums, die eine möglichst schnelle Durchleitung bei gleichbleibender Qualität erlaubt. Die Effizienzsteigerung kann bei der Massenproduktion entscheidende Vorteile bieten. Dieser ökonomische Nutzen in der Produktion, den die additiven Bauteile liefern, soll im Forschungsprojekt ExAM geklärt werden. Am Ende des Projektes steht neben der Bewertung der Vorteile die Entwicklung eines Leitfadens, der die Konstruktion und die Auslegung additiv gefertigter Bauteile aufbereitet und allen Kooperationspartnern zur Verfügung steht. Anhand dieses Leitfadens können die Unternehmen dann gemäß ihrer eigenen Ansprüche und Ziele additive Werkzeuge entwickeln. Durch diese grundlegende Zugänglichkeit kann die Technologie der additiven Fertigung von Werkzeugen breit in Anwendung gebracht und die innovativen Impulse für die Steigerung der Produktqualitätsmerkmale genutzt werden.

Innovativer Transfer

Die Nutzung von additiv gefertigten und optimierten Werkzeugen ist im Bereich des Spritzgusses keineswegs Neuland, aber für das Verfahren der Extrusion schon. Somit gilt es weniger, neue Technologien zu entwickeln als darum, schon vorhandene in ein neues Gebiet zu übertragen. So lassen sich die bereits vorhandenen Erfahrungen aus dem Spritzguss in den Aspekten wie der Temperierung und der Flussführung der Schmelze nutzen. Infolge der grundlegenden Anwendungsorientierung bietet sich dieses Thema als kooperatives Projekt der industriellen Gemeinschaftsforschung (IGF) an, wobei von den erforschten Technologien alle beteiligten Unternehmen profitieren können sollen. Als ein hier angesiedeltes Projekt steht die Anwendungsnähe im Fokus, also die anvisierten Wettbewerbsvorteile der kooperierenden Institutionen und Unternehmen.

Das zweijährige Projekt ExAM startete im letzten Herbst und verbindet drei Kooperationspartner mit drei unterschiedlichen Schwerpunkten: Im Fokus der Hochschule Schmalkalden steht die Extrusion und das Feld der Health Tech, die Kunststofftechnik der Universität Paderborn konzentriert sich auf das technische Profil; und das Fraunhofer Institut für additive Produktionstechnologien mit Sitz in Hamburg-Bergedorf ist im Projekt auf das Thema der Simulation und additiven Fertigung der Werkzeuge im laserbasierten Pulverbettverfahren spezialisiert.

Die durch das additive Verfahren ermöglichte Formvielfalt in der Konstruktion ist dabei für die HSM eine Herausforderung, ergeben sich doch viele neue Optionen. Zugleich setzt hier aber auch die innovative Optimierung der Werkzeuge an. Neben der eigentlichen Form das Bauteils werden auch verschiedene Werkzeugstähle für das additive Laserschmelzverfahren untersucht, wobei es immer um bereits kommerziell verfügbare Typen geht. Wichtig ist die Unkompliziertheit der anschließenden Nutzung. Nicht zuletzt muss jede einzelne Optimierung den gesamten Prozess der Extrusionsanlage mitbedenken und eventuelle Wechselwirkungen in Betracht ziehen.

Team bei der Vorstellung des 3D-Druckers

Jüngst konnte die Fakultät Maschinenbau und das AKT eine Neuanschaffung vermelden, die auch die Forschung am ExAM-Projekt unterstützen kann: Der innovative 3D-Drucker des Herstellers NewAIM3D wurde erfolgreich in Betrieb genommen und steht nun für Forschung und Lehre bereit. Mit diesem Drucker nach dem Pelletdirektextruderprinzip ist es möglich, Kunststoffe, Compounds, in handelsüblicher Granulatform direkt und effizient zu verarbeiten. So wird beispielsweise der Druck mit Granulaten, bestehend aus Metallpulver und Binder, sogenannten Feedstocks, möglich. Die daraus entstehenden Bauteile werden anschließend gesintert und erlangen so die Dichte und Eigenschaften von konventionellen Stählen. Das Verfahren stellt so eine Alternative zum etablierten jedoch aufwändigen additiven Laserschmelzverfahren von Metallpulvern dar. Die Anschaffung des Druckers wurde im Rahmen der dritten Förderperiode des Thüringer Zentrums für Maschinenbau ermöglicht und durch das Thüringer Ministerium für Wirtschaft, Landwirtschaft und ländlichen Raum gefördert. Zudem unterstützt der Freistaat Thüringen das Vorhaben, das durch Mittel der Europäischen Union im Rahmen des Europäischen Fonds für regionale Entwicklung (EFRE) kofinanziert wird.

In Kürze wird an dieser Stelle noch ein Video eingestellt, dass die Allianz Thüringer Ingenieurwissenschaften zu diesem Projekt produziert hat.

Abbrüche verhindern, Leistung verbessern: Wie eine Lern-App Studierende in der Anfangsphase unterstützt

Abbrüche verhindern, Leistung verbessern: Wie eine Lern-App Studierende in der Anfangsphase unterstützt

Die Zahl an Studienabbrüchen ist seit Langem hoch, gerade in den ersten Jahren geben viele Studierende ihr Studium vorzeitig auf. Die Gründe für diese Entscheidungen sind vielfältig und lassen sich nicht verallgemeinern. Auf der einen Seite beruhen sie auf gewonnenen Erfahrungen mit den jeweiligen Fachbereichen: Die individuelle Einsicht darin, dass Fachgebiete oder Methoden den eigenen Präferenzen nicht entgegenkommen, führt dazu, das Fach zu wechseln oder gänzlich andere Wege zu gehen. Andere Gründe für den Abbruch des Studiums sind dagegen vermeidbar: So stellt der Wechsel von der schulischen hin zur universitären, höheren Bildung viele junge Menschen vor Herausforderungen. Neben dem Umfeld ändern sich auch die Ansprüche an die Organisationsfähigkeit, das selbstständige Lernverhalten und nicht zuletzt die Komplexität der vermittelten Inhalte. Hier könnte eine mobile Lern-App Abhilfe schaffen.

Institutionen wie Hochschulen ist daran gelegen, die Zahl vermeidbarer Studienabbrüche zu minimieren. Eine mögliche Antwort holt die Studierenden gezielt in ihrem Alltag ab: Die Nutzung von mobilen Endgeräten ist aus dem Leben junger Erwachsener nicht mehr wegzudenken. Smartphones dienen nicht mehr nur allein der Kommunikation, sondern neben der Organisation und Navigation nun vermehrt auch dem Banking und vielen anderen Dingen. Kurzum: Die Geräte sind Teil des Alltags und der Umgang mit ihnen ist ebenso häufig wie intensiv. Anhand dieses Befundes lassen sich durchaus Potentiale absehen, die es nahelegen, diese Geräte zu nutzen, um Studierende zu unterstützen. Es stellt sich mithin die Frage, ob und wie sich eine mobile Lernapplikation dazu eignen könnte, die Anfangsphase des Studiums und seine Herausforderungen für die Betroffenen zu erleichtern und somit den Abbruch eines Studiums zu verhindern. 

Von der Konzeption eines Anforderungsprofils…

Professor Florian Johannsen begann bereits in seiner Zeit an der Universität Bremen mit einem Team eine entsprechende App für den Bereich Wirtschaftswissenschaften zu entwickeln. Auch nach dem Antritt seiner Professur für Betriebliche Anwendungssysteme an der Fakultät für Informatik der HSM ist er weiter Teil dieses Projektes an der Bremer Universität. Auf Seiten des Lehrstuhls für Allgemeine Betriebswirtschaftslehre, Unternehmensrechnung und Controlling (Universität Bremen) besteht das Projektteam neben Professor Jochen Zimmermann, Dr. Martin Kipp, Dr. Johannes Voshaar und M.Sc. Janik Ole Wecks auch aus den Kollegen Prof. Thomas Loy (mittlerweile Universität der Bundeswehr München) sowie dem studentischen Mitarbeiter Patrick Heusmann. In mittlerweile fünf Publikationen präsentieren die Forschenden unterschiedliche Etappen der Entwicklung und folglich auch verschiedene Stufen der Implementierung der App „WiWiNow“.

Anwendungsbeispiel

Am Anfang stand die Frage, worin die Gründe für Studienabbrüche liegen und was die spezifischen Bedürfnisse und Herausforderungen von Studierenden am Beginn ihrer akademischen Laufbahn sind: Was sind die individuellen Motive und Situationen, die den Ausschlag für den Abbruch geben? Und wie kann ein App die Studierenden unterstützen, welche Funktionen und Features muss sie bieten? Wichtig ist hierbei die Einbeziehung der Betroffenen, da es genau um ihre Erfahrungen geht und sie am besten Auskunft darüber geben können, welche Angebote nicht nur nützlich wären, sondern auch tatsächlich genutzt werden. Dieser Punkt ist so trivial wie relevant: Beim Design einer App ist nicht nur die Funktionalität und die Usability zu beachten, sondern auch die Wahrscheinlichkeit einer regelmäßigen Nutzung. Es geht darum, die App als aktiven Teil in den Alltag zu integrieren, und so die nützlichen Effekte zu potenzieren. Aber der Reihe nach…

Am Beginn stand die empirische Evidenz, dass nicht nur der Bildungshintergrund einen Einfluss auf Erfolg und Misserfolg der höheren Bildungswege hat, sondern auch schlechte Erfahrungen im Studium selbst sowie psychologische Faktoren wie ineffiziente Lernstrategien oder der Mangel an Selbstorganisation (Vgl. Johannsen et al. 21, S. 1). Diese Kompetenzen werden in der Hochschulbildung vorausgesetzt, was einen großen Unterschied zum schulischen Kontext darstellt. Zugleich sind sie für so manchen Studierenden das umgangssprachliche Neuland. Die Abbruchquoten sind in der ersten Phase vergleichsweise hoch, zugleich haben Studien mit Blick auf das deutsche Bildungssystem einen Mangel an sozialer und akademischer Integration festgestellt, der zu den vermehrten Abbrüchen führt (Vgl. Johannsen et al. 23, S. 636f.). Diesen Herausforderungen der Transition-in-Phase[1] könnte eine App Abhilfe verschaffen, die nicht nur dazu dient, Seminar- und Vorlesungstermine zu koordinieren, sondern auch das Lernverhalten trackt und transparent macht sowie Wissen durch Übungen vertieft und über spielerische Elemente abruft. 

… zur Entwicklung einer App…

Die erste Phase des Projektes befasste sich mit der Konzeption eines Prototyps anhand spezifischer Design-Vorgaben und mit der Taxierung eines technischen Rahmens: Die Fixierung von drei Meta-Anforderungen wurde in acht Design-Anforderungen überführt, welche die App erfüllen muss (Vgl. Johannsen et al. 23, Fig. 2, S. 639). Es ging also darum zu klären, was die App liefern soll, und was die beste technische Lösung wäre. Nach einer ersten Orientierung über das Design der Anwendung und einer Übersicht über die am Markt befindlichen Alternativangebote wurde eine Gruppe Studierender befragt, die sich im zweiten oder dritten Studienjahr befanden: Die Idee war, von deren Erfahrungen der Herausforderungen zu lernen, etwaige Lösungswege zu eruieren und schließlich Anforderungen an die App einzuholen. Eine zweite Umfrage zielte auf eine Gruppe von Lehrenden, die in engem Kontakt zu den Studierenden stehen und mit ihren Problemen vertraut sind. Zugleich verfügen sie über einen reichhaltigen Erfahrungsschatz des akademischen Alltags. Anhand dieser beiden Usergruppen wurden User Journeys beschrieben, also wie mögliche Anwender:innen mit der App umgehen und wie sie durch sie geleitet werden. Anhand des Prototyps konnten dann verschiedene Testphasen vollzogen werden, und sowohl das Front- als auch das Backend verbessert werden. 

Nun war der Zeitpunkt da, die App unter realen Bedingungen zu testen. In einem verpflichtenden Einführungskurs zum Rechnungswesen im Wintersemester 2020/21 wurde die App den Studierenden zur Verfügung gestellt. Um Verzerrungen zu vermeiden, gab es keine Gratifikationen für die Teilnahme an der Studie. Wichtig zu erwähnen ist noch der Umstand der Pandemie und die Folge, dass der Lehrbetrieb ins Digitale verschoben wurde – was natürlich die Testbedingungen veränderte. Von den Teilnehmenden wurden sozio-demografische und strukturelle Daten abgefragt, die in die spätere Auswertung einfließen sollten. Hinzu kamen die Daten der App-Nutzung (u.a. Dauer der Nutzung und Quiz-Performanz), die Daten der Kursteilnahme (neben dem Kurs auch das begleitende Tutorium) und der akademischen Performanz (die Prüfungsleistung). Selbstredend wurden die Daten anonymisiert und dem Datenschutz genüge getan. Am Ende konnten die Daten von 575 Teilnehmenden in die Studie aufgenommen werden (Vgl. Voshaar et al. 22, S. 7).

Im Ergebnis ließ sich festhalten, dass sich ein intensiverer Gebrauch der App signifikant positiv auf das Prüfungsergebnis auswirkt. Gerade weil die höhere Nutzung der App auch mit Faktoren der Besuche der Vorkurse und der Tutorien positiv korrelierte – und folglich unklar war, was der entscheidende Faktor der Leistungssteigerung war –, wurden weitere Untersuchungen nötig. Mit anderen Worten: Es blieb offen, ob die Nutzung der App selbst positive Effekte hatte oder ob leistungsstärkere bzw. motiviertere Studierende die App eher von sich aus nutzten, was den Einfluss der App verringern würde (Vgl. Voshaar et al. 22, S. 14). Nach der Korrektur mit Hilfe einer Kontrollvariable, die auf die Einflussfaktoren der Selbst-Selektion abgestimmt war, haben sich die ersten Ergebnisse aber als robust erwiesen. Nach diesen durchaus positiven Befunden konnten die Forschungen um die App weitergeführt werden.

… über die Bestimmung von Qualitätsdimensionen der Nutzung …

Ein weiterer Ansatz, der zu einer Veröffentlichung geführt hat, befasst sich mit den verschiedenen Qualitätsdimensionen der Akzeptanz, die eine Anwendung aufweisen kann und die mit ihrer Nutzung einhergehen. Hierbei wurden vier Qualitätsdimensionen ausgemacht, die von der App bedient werden sollten und die wiederum selbst in Unterkategorien aufgegliedert werden können: Geht es in der Systemqualität um die Art und Weise, wie die Informationen durch eine App aufbereitet werden, zielt die Servicequalität auf die angebotene Unterstützung ab. Die Informationsqualität wiederum umfasst die Evaluation der ausgegebenen Inhalte, wogegen die Qualitätsdimension des wahrgenommenen Vergnügens (perceived enjoyment) bei der Nutzung ebenso selbsterklärend wie eine für die Wiedernutzung relevante Kategorie ist (Vgl. Johannsen et al. 23, S. 641 – 644). Mit der Intension der Wiedernutzung und der wahrgenommenen Nutzer:innenzufriedenheit (perceived user satisfaction) schließen sich dann zwei Aspekte aus der User-Perspektive an, die wiederum mit unterschiedlichen Qualitätsdimensionen gekoppelt werden können und zugleich beide auf die Lerneffektivität als letzten Aspekt Einfluss haben.

Ein Ziel im Design der App war es, die Funktionalität und den Komfort kommerzieller Apps in der Strukturierung des Alltags mit universitätsbezogenen Inhalten, organisatorischen Funktionalitäten und spielerischen Elementen zu kombinieren (Vgl. Johannsen et al. 23, S. 638f.). Mit Hilfe der unterschiedlichen Qualitätsdimensionen lassen sich Stärken und Schwächen in der Nutzer:innenfreundlichkeit eruieren, was wiederum die Implementierbarkeit in den Alltag zumindest indirekt erhellt. 

Im Ergebnis wurde eine Umfrage zu den Erfahrungen der Nutzung ausgewertet, an der sich zum Semesterende 131 Studierende beteiligten, wobei das eigentliche Sample aus unterschiedlichen Gründen (z. B. unvollständige Datensätze) 113 Studierende umfasste. In diese Auswertung flossen die vermerkten Qualitätsdimensionen ein, die in unterschiedlichen Items abgefragt wurden. Die System- und die Informationsqualität sowie die Qualitätsdimension des wahrgenommenen Vergnügens fördern die Nutzer:innenzufriedenheit, wobei die letzte Qualitätsdimension auch die Intension zur Wiedernutzung verstärkt. Die Lerneffektivität wird wiederum durch die Nutzer:innenzufriedenheit und die Intension positiv beeinflusst. Anhand dieser Daten konnte das Design der App und seine Erfüllung der Anforderungen überprüft und justiert werden (Vgl. Johannsen et al. 23, S. 651ff.). Ferner konnten vier spezifische Designprinzipien formuliert werden, die eine App bezogen auf die Transition-in-Phase beachten sollte: Neben einer Teilnahme-Management-Funktion bedarf es einer Kontrollfunktion des selbstständigen Lernens. Zudem muss eine plattformübergreifende Zugänglichkeit gegeben sein und die Inhalte einfach zu organisieren sein (Vgl. Johannsen et al. 23, S. 655f.).

… über die Verbesserung des Lernverhaltens …

In einer weiteren Studie, die auf der 44. Internationalen Konferenz zu Informationssystemen (International Conference on Information Systems – ICIS) in Hyderabad vorgestellt wurde, wird der Versuch unternommen, die App an etablierten Ansätzen der Lerneffektivität zu messen. Zwar wurde eine Verbesserung der Noten in den Abschlussprüfungen bereits nachgewiesen, dieser Aspekt ist aber nur ein Teilbeitrag zum Ziel, die Abbruchsquoten des Studiums zu senken. Das Konzept der fünf Erfolgsfaktoren studentischen Erfolgs hat Lizzio (2011) bezogen auf die Transition-in-Phase entwickelt: Die Erfolgsfaktoren sind die Verbundenheit (connectedness) z.B. mit dem akademischen Leben, die Fähigkeit (capability) der Selbstorganisation u.a., die Sinnhaftigkeit (purpose) z.B. akademischer Praxen, der Einfallsreichtum (resourcefulness) in der Koordinierung verschiedener Anforderungen und die Kultur (culture) im Sinne einer Wertschätzung der höheren Bildung. Der zweite Ansatz differenziert unterschiedliche Lernmodelle mit je eigenen Charakteristika: Neben dem oberflächlichen Lernen kann das strategische und zuletzt das tiefe Lernen angeführt werden (Vgl. Voshaar et al. 23, S. 3f.). Bleibt das erste Lernverhalten unfokussiert und ephemer, unterwirft sich das zweite Modell der Maxime der Effizienz und spricht dem Gelernten selbst keinen Eigenwert zu. Das tiefe Lernen wiederum lässt sich am ehesten als eigenständige Durchdringung der Wissensbestände erklären. Ziel war es zu erfahren, ob die App bzw. bestimmte Elemente helfen, die Herausforderungen der Transition-in-Phase zu meistern.

Die Auswertung der Studie ergab, dass die Nutzung der App die Sinne der Fähigkeit und des Einfallsreichtums positiv beeinflussen kann. Zudem verstärkt es das strategische und mindert das oberflächliche Lernverhalten. Die App hilft demnach bei der studentischen Selbstorganisation, fördert das eigenverantwortliche Lernen und die Einsicht in institutionelle Anforderungen in der höheren Bildung. Diese Potentiale sollten sich nutzen lassen, um die Quoten der Studienabbrüche zu verringern, werden Studierende doch über Angebote der App bei den ausgemachten Herausforderungen in der Anfangsphase des Studiums unterstützt.

In Kombination mit analogen Unterstützungsangeboten vor Ort haben die verschiedenen Komponenten der App unterschiedliche Potentiale der Unterstützung, die von der Selbstorganisation über die Prüfungsvorbereitung bishin zur Ausbildung einer studentischen Identität reichen. Gerade weil Defizite an effizienten Lernstrategien und dem Zeitmanagement enorme Potentiale an Frustration bergen, kann hier die App produktive Akzente setzen. Nicht zuletzt dienen die spielerischen Elemente der App der Motivation zur Wiedernutzung. Somit kann die App nicht nur die abgerufene Prüfungsleistung verbessern, sondern auch andere Impulse der Unterstützung setzen, die neben dem Lernverhalten auch die Selbstorganisation betreffen.

… bis zur Differenzierung verschiedener App-Features

In der jüngsten Studie befasst sich das Bremer Team zusammen mit Florian Johannsen mit der Frage, ob sich die einzelnen Komponenten der App anhand ihrer Effektivität differenzieren lassen. Diese Studie wurde auf der 45. Internationalen Konferenz zu Informationssystemen (International Conference on Information Systems – ICIS) in Bangkok vorgestellt. Zunächst konnte bestätigt werden, dass App-Nutzende ein signifikant besseres Ergebnis in den Prüfungen haben. Eine Unterteilung in verschiedene Nutzungstypen (Übungen, Quizze und Selbstorganisation) ergab keine nennenswerten Unterschiede hinsichtlich einer Verbesserung der Prüfungsleistung.

Prof. Florian Johannsen und Dr. Johannes Voshaar auf der Konferenz (Bildquelle: privat)

Die anschließende Forschungsfrage war, ob die Komponenten der App die Anforderungen und die Prinzipien des Designs unterschiedlich gut unterstützen. Festhalten lässt sich zunächst, dass alle drei App-Features die Leistung positiv unterstützen, mit einer Ausnahme: Die Beantwortung komplexer Fragestellungen wurden durch das Quiz-Feature nicht signifikant positiv gefördert. Das ist auch durchaus plausibel, zielen die Quizze doch auf die Abrufung von Wissensbeständen, und nicht auf deren Anwendung in diffizilen Fällen ab.

Relativ lässt sich sagen, dass die Übungsfunktion den stärksten Unterstützungseffekt hat, der zugleich über die verschieden Fragetypen stabil bleibt. Bei den einfachen Fragekomplexen, die Standardwissen abriefen, waren auch die Quizze für die Studierenden hilfreich. Das Selbstorganisationsfeature trägt zwar ebenfalls zur Verbesserung der Prüfungsleistung bei, aber in geringerem Ausmaß. Die Studierenden in der konkreten Studie profitierten also am meisten von der Übungsfunktion, wobei die Quizzes ergänzend für den Aufbau von Wissensbeständen nützlich waren. Die Selbstorganisationsfunktionen haben zwar einen relativ geringen Mehrwert für die Prüfungsleistung, ihre positiven Effekte könnten aber auf andere Weise entstehen und eher die grundlegende Identitätsbildung der Studierenden betreffen. Durch den Abgleich mit den beiden Designaspekten lassen sich Empfehlungen für App-Entwickler:innen, Studierende und Lehrende formulieren (Vgl. Voshaar et al. 24, S. 13f.).

Viele Fragen sind noch offen, so wird auch die Erforschung der Nützlichkeit einer mobilen Lern-App weitergehen. Neben der Frage der Zweckdienlichkeit der organisatorischen Features und ihrer deskriptiven Abbildung können auch die Komponenten der App in ihren positiven Effekten weiter aufgeschlüsselt und differenziert werden. Gerade weil neue Technologien wie das Smartphone nicht mehr aus dem Alltag wegzudenken sind, ist die Implementierung einer mobilen Lern-App sinnvoll und ihre Erforschung geboten, auch um den Bedürfnissen nach ort- und zeitunabhängigen Angeboten gerecht zu werden. Es geht bei den verschiedenen Lehr- und Lernformen eben nicht um ein Verhältnis der Konkurrenz, sondern der Komplementarität, also der gegenseitigen Ergänzung. Die Digitalisierung setzt auch hier neue Impulse, die in Technologien wie einer Lern-App produktiv aufgenommen werden können.

Literatur (chronologisch sortiert)

  • Lizzio, A. (2011), The Student Lifecycle: An Integrative Framework for Guiding Practice. Griffith University.
  • Johannsen, F; Knipp, M; Loy, T; Voshaar, J; Zimmermann, J (2021): A mobile app to support students in the „transition-in“ phase. Proceedings of the 29th European Conference on Information Systems (ECIS 2021), Research-in-Progress Paper.
  • Voshaar, J., Knipp, M., Loy, T., Zimmermann, J. and Johannsen, F. (2022), „The impact of using a mobile app on learning success in accounting education“, Accounting Education, Vol. No. pp. 1-26.
  • Johannsen, F., Knipp, M., Loy, T. et al. (2023): What impacts learning effectiveness of a mobile learning app focused on first-year students?. Inf Syst E-Bus Manage (2023). https://doi.org/10.1007/s10257-023-00644-0
  • Voshaar, J., Wecks, J.O., Johannsen, F., Knipp, M., Loy, T., Zimmermann, J. (2023): Supporting Students in the Transition to Higher Education: Evidence from a Mobile App in Accounting Education, Proceedings of the International Conference on Information Systems (ICIS 2023), Hyderabad, India.
  • Voshaar, J., Johannsen, F., Mkervalidze, S. and Zimmermann, J. (2024). Unbundling the App Advantage: Evaluating Exam Performance-enhancing Features of Mobile Learning Apps in Accounting. International Conference on Information Systems (ICIS 2024). Bangkok.

[1] Die Transition-in-Phase ist eine Etappe des Studierendenzyklus nach Lizzio (2011). Dieser unterteilte das Studium in verschiedene, teils vor- und nachgelagerte Phase, in denen sich unterschiedliche studentische Identitäten je nach genuinen Herausforderungen, Aufgaben und Status ergaben.