Previous Page  36 / 52 Next Page
Information
Show Menu
Previous Page 36 / 52 Next Page
Page Background

36

der Audioausgabe ein fröhlicher Untertonmitschwingt, fühlt er

nicht die Emotion, die er gerade darstellt. Trotzdemwird seine

simulierte Emotion bei uns Menschen eine echte emotionale

Reaktion auslösen.

Es ist daher wichtig, ethische Fragestellungen zu adres-

sieren. Was soll KI können? Wozu soll sie verwendet werden?

Was sollte vermieden werden? Welchen sozialen Normen soll

KI unterliegen und wen benachteiligt sie dadurch vielleicht?

Brauchen und wollen wir überhaupt Maschinen, die mit uns

sozial interagieren? Falls ja, wann und wofür wollen wir diese

Maschinen verwenden? Eine Vielzahl von Studien zeigen, dass

Menschen auf Computer ähnlich reagierenwie auf andereMen-

schen. Ohne dass es ihnen bewusst ist, erwarten vieleMenschen,

dass Computer soziale Normen erfüllen und beispielsweise Be-

dauern äußern, wenn die Software einmal nicht einwandfrei

funktionieren sollte. Jeder hat wohl schon einmal eineMeldung

wie »Entschuldigung, es ist ein Fehler passiert. Das Programm

wird beendet« erhalten, wenn er oder sie mit einem Programm

auf dem Computer gearbeitet hat. Auch Alexa oder Siri ver-

stehen manchmal nicht, was wir sagen und entschuldigen sich

dann bei uns. Wir Menschen kennen aber noch viele weitere

soziale Normen, die in sozialen Interaktionen von Bedeutung

sind. Solche sozialen Normen, die über eine Entschuldigungs-

nachricht hinausgehen, erwarten wir in Situationen, in denen

technische Systeme Nutzern als Assistent*in, Gefährt*in oder

Lehrer*in zur Seite stehen sollen. Dies ist zum Beispiel der

Fall bei Systemen mit KI, die ältere Menschen in ihrem Alltag

unterstützen sollen, oder einer KI, die Arbeitnehmer*innen

helfen soll, Stresssituationen am Arbeitsplatz zu bewältigen.

Forschungsprojekte wie EmmA1, VIVA2, ForDigitHealth3 und

MindBot4 widmen sich dieser Thematik.

Die Fragen, die wir hier stellen, sind noch nicht beantwor-

tet. Die Auseinandersetzung mit ihnen ist aber unumgänglich,

da KI ein Teil unserer Zukunft sein wird. Wir müssen als Ge-

sellschaft entscheiden, welche ethischen Ansprüche wir an die

Systeme stellen, die wir entwickeln. Welche sozialen Normen

und Werte wollen wir in unserer KI verankern, um am Ende

nicht eine wie in E.T.A Hoffmanns Erzählung menschenähn-

liche Maschine zu entwickeln, die das Leid der Nutzer noch

vergrößert, statt es zu lindern oder zu beseitigen?

Wohin führt uns die immer stärker zunehmende (soziale)

Interaktion mit KI letztendlich? Für ein abschließendes Fa-

zit wäre es wohl noch zu früh. Wir stehen erst am Anfang der

Mensch-Maschine-Interaktion. Es ist jedoch angekommen, dass

wir unsmit diesen vielen Fragen auseinandersetzenmüssen. Für

Europa wurden imApril 2019 Richtlinien für einen vertrauens-

würdigen, menschenzentrierten Einsatz von KI veröffentlicht.5

Diese Richtlinien zeigen einerseits, welcheWerte und Normen

Europa für die Zukunft mit KI setzen will. Anderseits zeigte

die Entwicklung des Dokuments unter Berücksichtigung von

Wissenschaftler*innen, Firmen und Politiker*innen in ganz

Europa, dass viele Ansichten, Vorstellungen und Erwartungen

aufeinanderstießen. Die Debatte ist wertvoll und die ungeklär-

ten Unstimmigkeiten weisen darauf hin, dass noch viel getan

werden muss. Diese Diskussionen und Debatten werden uns

helfen, die Möglichkeiten, die uns KI gibt, zu nutzen und uns

gleichzeitig umfassendmit den kritischen Aspekten dieser The-

matik auseinandersetzen.

Prof. Dr. Elisabeth André ist Inhaberin des Lehrstuhls für

Multimodale Mensch-Technik Interaktion am Institut für

Informatik der Universität Augsburg. Dort beschäftigt sie

sich mit der Erforschung neuer Paradigmen für die

Mensch-Technik-Interaktion. Vorrangiges Ziel ist die Ent-

wicklung intuitiver Kommunikationsformen für die Inte-

raktion zwischen Menschen, Robotern und Avataren, die

an der zwischenmenschlichen Kommunikation orientiert

sind und auf Gestik, Körperhaltung, Gesichtsmimik und

Sprache basieren. Für ihre herausragenden Forschungs-

leistungen wurde sie zum Mitglied in drei wissenschaft-

liche Gelehrtenvereine gewählt: die Nationale Akademie der

Wissenschaften Leopoldina, die Academy of Europe und

AcademiaNet. Im Jahr 2013 wurde sie in die Reihe der EurAI

Fellows aufgenommen, ein Programm, mit dem Forscher

gewürdigt werden, die maßgeblich das Gebiet der Künst-

lichen Intelligenz geprägt und zu dessen Weiterentwick-

lung beigetragen haben. Im Jahr 2017 erhielt sie für ihre

richtungsweisenden Forschungsarbeiten auf dem Gebiet

Mensch-Technik-Interaktion einen ACM SIGCHI Award

und wurde in die Computer-Human-Interaction (CHI) Aka-

demie gewählt. Im Jahr 2019 wurde sie von der Gesell-

schaft für Informatik (GI) zu einem der zehn prägenden

Köpfe der deutschen KI-Geschichte gekürt. Seit 2019 ist

sie Chefredakteurin der internationalen Zeitschrift

IEEE

Transactions on Affective Computing.

Informationen zu Katharina Weitz finden Sie unter ihrem

Beitrag zur Rubrik Science Slam 44 ff.

Literatur:

André, Elisabeth (2014).

Lässt sich Empathie simulieren? Ansätze

zur Erkennung und Generierung empathischer Reaktionen

anhand von Computermodellen.

Nova Acta Leopoldina NF, 120

(405), 81-105.

Schiller, D., Weitz, K., Janowski, K., & André, E. (2019).

Human-inspi-

red socially-aware interfaces.

In International Conference on

Theory and Practice of Natural Computing (pp. 41-53). Springer, Cham.

Weitere Informationen:

EmmA, VIVA, ForDigitHealth

und

MindBot

sind aktuelle Forschungs-

projekte am Lehrstuhl für Multimodale Mensch-Technik Interaktion

der Universität Augsburg.

Das Ziel des BMBF Projektes

EmmA

ist es, ein interaktives, mobiles

Assistenzsystem zu entwickeln, das bei psychischer Belastung in-

dividuell berät und darüber hinaus zur Gefährdungsbeurteilung am

Arbeitsplatz sowie der betrieblichen Wiedereingliederung nach einer

psychischen Erkrankung genutzt werden kann.

Das BMBF Projekt

VIVA

hat sich zum Ziel gesetzt, einen vertrauens-

würdigen, lebendigen, sozialen Roboter zu entwickeln, der von Nut-

zern im privaten Umfeld als attraktive Bereicherung empfunden wird.

VIVA soll das persönliche psychische Wohlbefinden der Nutzer ver-

bessern und sie bei der Pflege von Sozialkontakten unterstützen.

Das Bayerisches Staatsministerium für Wissenschaft und Kunst för-

dert den Forschungsverbund

ForDigitHealth.

Ziel ist es, die Gesund-

heitseffekte der zunehmenden Präsenz und intensivierten Nutzung

digitaler Technologien und Medien – speziell in Hinblick auf die

Entstehung von digitalem Stress und dessen Folgen – in ihrer Vielge-

staltigkeit zu erforschen sowie Präventions- und Interventionsoptio-

nen zu erarbeiten und zu evaluieren.

Das EU Projekt

MindBot

zielt darauf ab, Methoden und Lösungen zur

Förderung der psychischen Gesundheit von Arbeitnehmern in der

Industrie 4.0 zu entwickeln, die mit sogenannten Co-Bots kooperati-

ve Aufgaben durchführen. MindBot strebt an, Arbeitsplätze so zu

gestalten, dass die individuellen Bedürfnisse und Fähigkeiten der

Mitarbeiter*innen optimal unterstützt werden.

Neugierig geworden? Weitere Informationen über uns und unsere

Arbeit finden Sie unter

hcm-lab.de

Thema Künstliche Intelligenz