Previous Page  35 / 52 Next Page
Information
Show Menu
Previous Page 35 / 52 Next Page
Page Background

35

Nein. Es wäre eine naive Annahme, dass mimischer Ausdruck

alleine reicht, um Vorhersagen über den emotionalen Zustand

einer Person zu treffen. Dem ist nicht so. Menschen sind holis-

tische, also ganzheitlich wahrnehmende Menschen. In unsere

Wahrnehmung fließen immer Erfahrungen, Kontextinforma-

tionen, eigene Präferenzen, die Umgebung und vieles mehr

mit ein. Wenn die KI solche Dinge nicht berücksichtigt, bleibt

sie sehr rudimentär, ungenau und nur zu einem gewissen Grad

brauchbar. Und das ist die Herausforderung, mit denen sich

Wissenschaftler*innen, aber auch Firmen, Jurist*innen und

die Politik momentan konfrontiert sehen. Wir sind inzwischen

gut in der Lage, äußere Eindrücke, die einMensch aussendet, zu

erfassen und zu beschreiben. Dies ist ein erster und wichtiger

Schritt, reicht aber noch nicht, um eine KI auf natürliche, also

uns Menschen vertraute Weise, interagieren zu lassen.

In der Forschung wird daher an Simulationsmodellen ge-

arbeitet, diemenschliche emotionale Kompetenz, zumBeispiel

Empathie (André, 2014), nachzubilden versuchen. Dadurch

können nicht nur Emotionen des menschlichen Gegenübers

erfasst werden, sondern man ermöglicht der KI, angemessen

auf die Emotionen der Person zu reagieren. Eine sehr einfache

Methode, die man hier verwendet, ist das Spiegeln der vom

Menschen gezeigten Emotion: Schaut eine Person traurig und

ein Roboter, der KI verwendet, reagiert mit einem traurigen

Blick als Antwort, kann dies als mitfühlende Geste interpretiert

werden. Nicht immer ist es aber wünschenswert, die Emotion

zu spiegeln. Der Roboter wird eine aggressive Person kaummit

einemebenfalls aggressiven Emotionsausdruck beruhigen kön-

nen. Deeskalationsstrategien wären hier ein besserer Ansatz.

Zu entscheiden, wann welche Strategie am besten zumEinsatz

kommt, ist eineHerausforderung.WirMenschen treffen solche

Entscheidungen immer unter Bezugnahme auf die eigenen Er-

fahrungen und den Kontext, in dem wir uns gerade befinden.

Wir werden uns in einemBewerbungsgespräch gegenüber einer

Person, die unfreundlich zu uns ist, anders verhalten als im

vertrauten Kreise unserer Familie. Um angemessen reagieren

zu können, benötigt auch KI solche Informationen. Diese zu

erfassen und auszuwerten, stellt bis heute noch eine große He-

rausforderung dar (Schiller et al., 2019).

Bei all den Chancen und Herausforderungen, die uns KI

bietet, darf man einen wichtigen Punkt nicht vergessen: Es gibt

viele Anwendungen, in denen ein emotional intelligentes Sys-

tem sinnvoll ist. Es gibt aber auch Anwendungen, die dies nicht

benötigen. Wer würde zum Beispiel gerne ein emotionales Be-

triebssystem nutzen wollen, das intelligent auf die Emotionen

des Nutzers eingeht und den Computer herunterfährt, wenn

der Nutzer lange Zeit traurig oder genervt vor demBildschirm

sitzt? Auch das Training von gewünschten oder angemessenen

emotionalen Verhaltensweisen mithilfe von KI birgt Gefahren,

wenn es zu einem einseitigen oder manipulativen Zweck ge-

nutzt wird. Soll eine Person zum Beispiel nur positive Emo-

tionen zeigen, unabhängig von ihrem aktuellen Empfinden,

wird eher eine emotionale Abstumpfung als eine Entfaltung

erreicht und das Gefühl vermittelt, dass negative Emotionen per

se schlecht sind. Unterschätzt werden sollte nicht die Tatsache,

dass KI Emotionen nur imitieren kann. Man könnte sagen, sie

täuscht Emotionen vor und empfindet sie nicht wie wir Men-

schen. Selbst wenn ein Roboter mit KI glücklich schaut und in

Mensch, Maschine! Die Zukunft sozialer Interaktion mit KI

Fußnoten:

uni-augsburg.de/de/fakultaet/fai/informatik/prof/hcm/ forschung/emma uni-augsburg.de/de/fakultaet/fai/informatik/prof/hcm/ forschung/viva uni-augsburg.de/de/fakultaet/fai/informatik/prof/hcm/ forschung/fordigithealth uni-augsburg.de/de/fakultaet/fai/informatik/prof/hcm/ forschung/mindbot ec.europa.eu/futurium/en/ai-alliance-consultation

Prof. Dr. Elisabeth André und ihre Mitarbeiter*innen am Lehrstuhl für

Human-Centered Multimedia der Universität Augsburg erforschen die

Zukunft sozialer Interaktion zwischen Mensch und Maschine.

Interaktive Assistenzsysteme wie

EmmA

könnten in Zukunft Menschen vor

psychischen Überbelastungen am Arbeitsplatz schützen.

Foto unten: Charamel GmbH, Foto oben: privat

1

2

3

4

5