Aus dem Alltag von … Katharina Lingelbach

Ein Gespräch über die Feinfühligkeit von Technik

Die Neurowissenschaftlerin Katharina Lingelbach untersucht, wie Nutzerzustände identifiziert und für die Verbesserung der Mensch-Technik Interaktion (HMI) genutzt werden können. Was sie an diesem Forschungsgebiet so spannend findet und welche Potenziale sie in feinfühliger Technik sieht, verrät sie im Interview.

Du bist wissenschaftliche Mitarbeiterin in der Gruppe »Angewandte Neurokognitive Systeme« am Fraunhofer IAO. Worin liegt dein Forschungsschwerpunkt?

Ich promoviere in Kooperation mit der Universität Oldenburg. Mein Forschungsschwerpunkt umfasst die Frage, wie sich emotionale und kognitive Prozesse beeinflussen. Normalerweise gibt es in der Forschung eine Spezialisierung auf einen der beiden Prozesse, die sich in unserer natürlichen Umgebung aber nicht trennen lassen. Darum müssen wir auch interagierende Prozesse betrachten und uns der Komplexität von Interaktionen stellen. Ich untersuche, wie wir Nutzerzustände messen, erkennen und aus Daten und Signalen vorhersagen können. Zu diesen Signalen gehört die Gehirnaktivität, physiologische Signale wie Herzaktivitäten mittels EKG oder die Hautleitfähigkeit aber auch Blickbewegungen mittels Eyetracking. Sie liefern Informationen, wie sich eine Person bei der Interaktion mit Technologie fühlt. Aus diesen Signalen erkenne ich eine Über- oder Unterbelastung, eine positive oder negative Stimmung und die Interaktion dieser Zustände. Wir kombinieren mehrere Signale und Informationsquellen und versuchen relevante Aspekte wie Aktivierungsmuster zu erkennen, die uns Informationen zum Zustand liefern. Dann extrahieren wir diese Informationen und lassen ein Machine-Learning-Programm lernen, Nutzerzustände einzuschätzen.

Was begeistert dich an diesem Thema?

Besonders begeistert mich, dass wir die untersuchten Situationen selbst kennen. Wenn wir in einer Stresssituation sind, reagiert unser Gehirn anders auf Impulse von außen. Diesen Zustand richtig zu erkennen, ermöglicht uns, Systeme zu schaffen, die uns in diesen Zuständen unterstützen und positive Erlebnisse in der Interaktion mit Technologie fördern – im Arbeitsalltag wie auch im normalen Alltag. Der Mensch steht im Mittelpunkt meiner Forschung. Ich betrachte, wie es uns als Mensch in einer zunehmend technologisierten Welt geht. Meine Vision ist es, feinfühlige Technik zu entwickeln, die sich individuell auf uns einstimmt und uns nach unseren Bedürfnissen unterstützt. Ich erforsche den ersten Schritt dieser Entwicklung – die Erkennung von Nutzerzuständen. Diese Erkenntnisse können durch die Zusammenarbeit mit Interaktions-Designer*innen, Maschinenbauer*innen und Ingenieur*innen für die Weiterentwicklung der Technologie genutzt werden.

Was versteht ihr unter Human-Machine-Interface?

Ein Human-Machine-Interface (HMI) ist die Schnittstelle – das Kommunikationsmedium in einer Mensch-Technik-Interaktion. In der Mensch-Technik-Interaktion können einzelne Use Cases spezifiziert werden. Es kann sich zum Beispiel um eine Mensch-Roboter-Interaktion oder eine Mensch-Fahrzeug-Interaktion handeln. In der Neurowissenschaft arbeiten wir mit sogenannten Brain-Computer Interfaces. Diese Schnittstelle verwendet Sensorsignale, um Technik wie einem Roboter unsere Intentionen zu kommunizieren und Feedback zu geben. Wir brauchen diese Schnittstelle als gemeinsame Kommunikationsbasis. Nicht nur der Mensch kann sich in der Interaktion an die Technik anpassen, sondern auch die Technik an den Menschen. Doch auch mit feinfühliger Technik wird es immer eine wechselseitige Anpassung geben, weil wir uns automatisch und auch unbewusst an Technik anpassen. Die Arbeit mit Technik verändert unsere Wahrnehmung und unser Arbeiten.

Welche Potenziale siehst du in eurer Forschung?

Brain-Computer Interfaces bieten besonders in sicherheitskritischen Systemen große Potenziale. Dort ist der Mensch als letzte Instanz noch immer unabdingbar, wenngleich er auf längere Zeit nicht konstantes Leistungsniveau halten kann und potentiell Fehler macht. Die Technik erkennt einen Aufmerksamkeits- und Leistungsabfall und kann dieses Feedback an die Nutzer*innen zurückspielen. HMI bietet zudem enorme Potenziale für das autonome Fahren. Wie kann der Fahrende auf einer Straße mit autonomen, semiautonomen und menschengesteuerten Fahrzeugen bestmöglich unterstützt werden? Es geht in unserer Forschung nicht darum, den Menschen zu ersetzen oder zu kontrollieren, sondern ihn zu unterstützen. Auch bei der Produktevaluation kann die Nutzerzustandserkennung während der Interaktion mit Technologie genutzt werden. Ein Beispiel ist die Evaluation der Benutzerfreundlichkeit von Apps.

Wenn wir in einer Stresssituation sind, reagiert unser Gehirn anders auf Impulse von außen. Diesen Zustand richtig zu erkennen, ermöglicht uns, Systeme zu schaffen, die uns in diesen Zuständen unterstützen und positive Erlebnisse in der Interaktion mit Technologie fördern.

M.Sc. Katharina Lingelbach


Welche Projekte führst du am KI-Fortschrittszentrum »Lernende Systeme und Kognitive Robotik« durch?

Ich kooperiere mit Unternehmen in Quick Checks und Exploring Projects, um realisierbare Lösungsansätze zu erarbeiten. Ich finde heraus, welche Problemstellungen dort vorhanden sind und wie Machine-Learning und Datenanalysen bei der Lösung helfen können. Dann konzipieren wir gemeinsam KI-Lösungen und setzen sie um. Meistens kommen die Unternehmen bereits mit einer Projektidee auf uns zu. Ein Unternehmen wollte beispielsweise mittels einer Elektroenzephalographie (EEG) die Motivation von Personen bei der Lösung einer Aufgabe analysieren und die Gehirnaktivität identifizieren. Meine Aufgabe besteht darin, den Use Case aufzubauen: Aus einem Trainingsdatensatz Signale, die Aufschluss über die Motivation von Personen geben, extrahieren und darauf basierend einen Algorithmus trainieren. Im nächsten Schritt soll der Algorithmus den Nutzerzustand auch bei neuen Daten erkennen können. Dieses Projekt startete als Quick Check. Wir haben die Daten betrachtet und ihre Qualität eingeschätzt, um sie weiter aufzubereiten und zu standardisieren. Jetzt entwickeln wir den Algorithmus für eine gute Performance weiter. Im Bereich der Technologieentwicklung untersuchen wir, ob wir Zustände in Echtzeit erkennen können und welche Algorithmen sich dafür am besten eignen. Wir wollen eine Technologie vorantreiben, die folglich robuste und valide Vorhersagen treffen kann, sodass sie später eingesetzt werden kann.

Wie sieht ein typischer Arbeitstag bei dir aus?

Aktuell bin ich viel im Labor mit der Datenerhebung beschäftigt. Dazu lade ich manchmal Proband*innen zu Experimenten ein oder setze Use Cases in Form von Experimenten um. Ein großer Teil meiner Arbeit besteht in der Analyse von Datensätzen. Ich versuche neue Methoden zu evaluieren, die von anderen Forschenden entwickelt wurden, aber entwickele auch eigene Ideen weiter und versuche Signalverarbeitungsmethoden zu verbessern, um zum Beispiel aus einem Rohsignal noch bessere Signale extrahieren zu können. Die richtige Methode ist dabei immer abhängig von der Fragestellung. Wir wollen neue Technologien entwickeln und diese ausprobieren, um im besten Fall eine funktionierende Architektur zur Anwendung zu bringen. Außerdem veröffentliche ich meine Erkenntnisse in Form von Artikeln für die Forschungsgemeinschaft bei Journals oder Konferenzen. Gleichzeitig bereite ich meine Erkenntnisse auch für die breite Masse verständlich und interessant auf – ob mit einem Digital-Dialog mit möglichen Kunden, Lab-Videos oder Interviews.

Unsere S-TEC Partner

Fraunhofer IPA Logo
Logo Fraunhofer IAO
Fraunhofer IBP Logo