Passwort vergessen?  | 
 |  Passwort vergessen?  | 
Suche
  • Login
  • Login

Dienstag, 12. Dezember 2017

Forschung

Die Maschine versteht dich

Von Kathleen Spilok | 23. November 2017 | Ausgabe 47

Mensch trifft intelligente Maschine – wie fühlt sich der Mensch dabei? Das untersuchen Wissenschaftler im Neurolab des Fraunhofer IAO.

Neurolab BU (3)
Foto: K. Spilok

Welches Bild ruft welche Emotion bei dem Probanden hervor? Beim Betrachten der Szenen von Gewalt, Abenteuer oder heiler Welt werden jeweils die Hirnströme per EEG erfasst und dann ausgewertet.

Mathias Vukelic macht das Licht aus. Ab sofort wird im Labor zudem geflüstert, denn der Versuch beginnt. Nur das Rauschen der Computerlüftung erfüllt den Raum. Die hochempfindlichen Geräte, an denen vorbei sich der Forscher zu seinem Beobachtungsposten tastet, liegen ganz im Dunkeln.

Einblick ins Oberstübchen

Nur die Bilder auf dem 24-Zoll-Computerbildschirm leuchten hell. Sie zeigen eine Villa auf einem Hügel, einen Skifahrer in einer Schneelandschaft, einen Surfer in einer Riesenwelle, eine Frau mit einem Messer an der Kehle. Die Fotos ziehen den einzigen Zuschauer in Bann. Er heißt Benjamin*.

Benjamin ist der Proband und macht die Untersuchung freiwillig mit. Alle 16 s kommt ein neues Bild auf die Mattscheibe. Es sind Szenen von Gewalt, Abenteuer, heiler Welt. Benjamin ist voll konzentriert. Manchmal huscht ein Lächeln über sein Gesicht. Etwas ungewöhnlich ist derweil sein Anblick: Benjamin trägt eine Art Badekappe, die mit Klettverschluss unterm Kinn befestigt ist. In der Kappe sitzen 32 Elektroden, die in sein Gehirn lauschen.

Forschungsfeld Neuroarbeitswissenschaft

„Wenn die Nervenzellen miteinander kommunizieren, erhält man diese elektromagnetische Aktivität, die wir mit der Elektroenzephalografie (EEG) messen“, erklärt Vukelic. Daten wie diese erheben die Forscher um Mathias Vukelic im Neurolab, dem Labor für Neuroarbeitswissenschaften am Fraunhofer-Institut für Arbeitswirtschaft und Organisation (IAO) in Stuttgart. Sie wollen damit menschlichen Emotionen auf die Spur kommen – und einschätzen lernen, was im Gehirn passiert, wenn der Mensch technische Assistenzsysteme nutzt.

Foto: K. Spilok

Mathias Vukelic und Kathrin Pollmann vom Fraunhofer IAO spritzen ein Leitfähigkeitsgel in die Elektroden auf dem Kopf ihres Probanden.

Klären wollen die Forscher zum Beispiel, wie eine Maschinenumgebung angenehm und menschengerecht gestaltet werden könnte. „Nehmt die Menschen mit“, heißt es in den Diskussionen über neue automatisierte Arbeitswelten oder autonomes Fahren. Aber wie soll das gehen, wenn gar nicht klar ist, wie sich der Nutzer in einer Mensch-Maschine-Interaktion fühlt?

Jede einzelne Elektrode auf Benjamins Kopf ist mit einem Kabel verbunden und einem Kanal zugewiesen, auf dem die Forscher den Gehirnstrom ablesen können. 32 Kabel bündeln sich im Nacken des Probanden und führen von dort in die Messverstärker. In die Sensoren integrierte Leuchtdioden zeigen an, ob sie überhaupt Kontakt mit der Kopfhaut haben.

Foto: Kathleen Spilok

Eine ganze Kollektion verschiedener EEG-Kappen steht den Forschern zur Verfügung. Der Clou ist eine schnurlose Kappe.

Von der Messung spürt Benjamin nichts. Nur die Haube sei ein bisschen unbequem, sagt der junge Mann. Während der Messung ist er völlig still, damit sich kein Störsignal in die Auswertung einschleicht.

Die Wissenschaftler halten sich im Hintergrund, starren auf die Monitore, nicken sich zu, vergrößern hier einen Messausschnitt, verändern dort die Auflösung der ankommenden Signale. Mathias Vukelic führt das Experiment mit Kathrin Pollmann gemeinsam durch. Auf einem der Monitore erscheinen gezackte Linien, wie die Konturen einer Gebirgslandschaft. Das ist das EEG-Signal, das direkt aus Benjamins Gehirn übertragen wird.

Misst eine Elektrode mal nichts, greift das System auf die 31 anderen Kanäle zu – ohne die Messung stoppen zu müssen. Zwei weitere Kurven liefert das Nirs-Signal. Nirs steht für Nahinfrarotspektroskopie, die den Sauerstoffverbrauch im Gehirn misst. Damit können die Forscher auf 3 cm genau feststellen, welcher Hirnbereich aktiv ist und beim Denken stark durchblutet wird.

Mit dem EEG ist diese Differenzierung nicht möglich. „Die Stärken von EEG und Nirs kombinieren wir. Das hilft uns, die mentalen Zustände des Probanden genauer zu erkennen“, erklärt Pollmann. Emotionen lesen ist seit zwei Jahren Forschungsgegenstand im Neurolab.

Foto: K. Spilok

Emotion sichtbar gemacht: Sieht Proband Benjamin ein Bild, das ihm missfällt, erscheint ein schmollendes Smiley auf dem Monitor.

Für die Messmethodik werden die Stuttgarter von Sunjung Kim unterstützt, Neuro- und Verhaltenswissenschaftlerin an der Uni Tübingen. Sie arbeitet im Team von Niels Birbaumer, dem Pionier des nichtinvasiven Gedankenlesens, das er zu medizinischen Zwecken anwendet. In dem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt „Emoio“ (s. Kasten oben re.) hat Kim gemeinsam mit Pollmann und Vukelic die Algorithmen entwickelt, die die Rohdaten in Echtzeit analysieren und auswerten.

Während der Messung ist Kim in ihrem Element. Sie klickt sich mit den Maustasten rasend schnell durch Kalibrierungen, Kurven und Datenreihen, startet Programme, gleicht ab. Sie kümmert sich um Kanalzuordnungen, Darstellungsempfindlichkeiten, legt eine neue Messreihe in der Datenbibliothek an. Dort liegen auch Hunderte Bild- und Messdaten anderer Probanden.

Permanent kommen Daten von Benjamins Hirn rein, die ein Algorithmus im Sekundentakt als „positiv“ oder „negativ“ klassifiziert. Eine App übersetzt die Verlaufskurven zum Gefühlszustand in ein Emoticon. In schnellem Wechsel erscheint ein Lachgesicht oder ein Schmollgesicht auf einem kleinen Monitor.

Plötzlich steigen die Hirnströme sichtbar an und erreichen ein Maximum. Das Programm übersetzt das in ein Schmollgesicht. Eine brutale Szene war der Auslöser. Ein lächelndes Smiley erscheint, als Benjamin eine Szene auf einem Friedhof betrachtet. Ein Irrtum? „Nein“, sagt Benjamin später. Die Darstellung hätte ihn an einen Film erinnert, den er gut fand.

Die Wissenschaft schleicht sich scheinbar tiefer und tiefer ins menschliche Gehirn. Für manch einen fühlt sich das gruselig an. Nun bohren die Stuttgarter Forscher aber keine Löcher in den Schädel, sondern nutzen nichtinvasive Methoden, stellen Zusammenhänge her und kombinieren dies mit moderner Datenverarbeitung. Dennoch, beim ersten Mal hatte Benjamin ein mulmiges Gefühl. „Dass andere Personen etwas aus mir erfahren, obwohl ich nichts sage“, beschreibt er es. Im Nachhinein findet er die Experimente gut. „Spannend, was man damit machen kann“, meint er.

An der Wand des Neurolabs hängt eine Kollektion von EEG-Kappen, bestückt mit Kabeln und Elektroden. Das neueste Modell: eine schnurlose Kappe. „Unser mobiles System“, sagt Vukelic stolz. Genutzt haben die Forscher es bei einer Studie für den Automobilhersteller Audi. In einem Fahrsimulator interagierten Probanden damit frei. Vukelic konnte messen, wie sich eine Fahrgastzelle in einem autonomen Auto anfühlt. Denn die Rolle des Menschen im selbstfahrenden Fahrzeug wurde bis jetzt kaum in den Blick genommen. „Was wir ableiten wollen, ist, ob der Mensch diese Unterstützung positiv oder negativ findet“, erläutert der Forscher.

In Zukunft wollen die Forscher die gemessenen Emotionen an die Maschine zurückliefern, die sich dann dynamisch an das menschliche Befinden anpasst. „Im Laufe der Zeit versteht die Maschine dich besser“, formuliert es die junge Forscherin Pollmann. Der Nutzer soll ein positives Erlebnis haben, ohne ständig gefragt zu werden: Wie war das? „Es reicht mir nicht, wenn ein System einfach nur funktional ist“, ergänzt Pollmann. Sie möchte motiviert sein, wenn sie damit arbeitet.

„User Experience“ ist der Trendbegriff dafür. Software haben die Forscher schon getestet, nämlich, ob die Menüstruktur dem Betrachter gefällt. Und sie untersuchen Smart-Home-Systeme. In einer Art Smart-TV soll das System vorhersehen, welche Art Film der Nutzer gerade sehen will. Auch in Produktionshallen macht das Team Untersuchungen. Etwa um Arbeiter, die ständig Werkstücke prüfen, in ihrer Konzentration zu unterstützen.

Im Moment messen die IAO-Mitarbeiter mit Sensoren am ganzen Kopf. In der praktischen Anwendung ist das aber unhandlich. Perspektivisch könnte aus der unbequemen Haube eine schicke Basecap werden.

Außerdem könnten noch andere Informationen in eine lernende Mensch-Maschine-Interaktion einfließen. „Herzrate, Schweißbildung“, schlägt Vukelic vor. „Das Ziel ist, unser System mit anderen Sensoriken wie Kameras und Eye-Tracking zu kombinieren“, sagt er. Das gilt besonders in der Fahrgastzelle eines autonomen Autos, die sowieso schon mit Sensorik vollgestopft ist.

Ein System, das Emotionen erkennt, ist für die Wissenschaft interessant. Allerdings ist es auch für die Wirtschaft verlockend, besonders für das Neuromarketing. „Das ist nicht unser Anwendungsfeld – nichts liegt uns ferner, als Leute zu manipulieren“, wehrt sich Pollmann. Technik besser machen, für den Menschen und nicht gegen ihn, ist das Ziel. „Wir stellen uns eine Welt vor, wo jeder nach Bedarf im Alltag oder bei der Arbeit eine Unterstützung durch ein technisches System bekommt – möglichst passgenau und zum Wohlfühlen“, sagt sie mit Nachdruck. Das sei aber noch ein langer Weg.

Oder doch nicht? Es könne sehr schnell gehen, wenn innovative Messtechnik in der Biosensorik entwickelt würde, glaubt Kim. „Mit den Algorithmen für die künstliche Intelligenz sind wir schon sehr weit“, sagt sie. Sie stellt sich ein Gerät vor, das in einer räumlichen Umgebung berührungslos die Signale aus dem menschlichen Gehirn empfangen kann. „Was uns hemmt, ist die Technik – die Begrenztheit der Geräte“, unterstreicht sie.

Plötzlich tönt ein lautes „Halleluja“ aus einem der Computer im Neurolab, das Endsignal. Die Messung ist nach 15 min abgeschlossen. Das Licht geht wieder an. Pollmann und Vukelic ziehen Benjamin vorsichtig die Kappe vom Kopf. Zerraufte Haare hat er jetzt und einen angestrengten Blick. „Ich gehe jetzt mal Haare waschen“, sagt Benjamin zum Abschied.

* Der Proband stellt sich als Benjamin vor. Seinen Nachnamen möchte er zum Schutz seiner Privatsphäre nicht sagen.

stellenangebote

mehr