Previous Page  45 / 52 Next Page
Information
Show Menu
Previous Page 45 / 52 Next Page
Page Background

45

KI vertrauen, dass sie schon alles richtig macht? Aber möchte

man wirklich Systemen vertrauen, die man nicht versteht und

bei denen nicht sicher ist, ob und welche Fehler sie machen? Ist

die Alternative, KI gar nicht einzusetzen? Die Vorteile, die uns

diese Systeme bescheren, würden wir dann einfach wegschmei-

ßen. Die dritte Variante scheint vielversprechender zu sein:Wir

müssen dafür sorgen, dass diese Systeme nachvollziehbar und

transparent werden! Mit dieser Aufgabe beschäftige ich mich

und viele andere Forscher*innen imForschungsbereich der Er-

klärbaren Künstlichen Intelligenz (XAI). Was bringt XAI zum

Beispiel bei

der Er-

kennung von Emotionsausdrücken? Wir zeigen dem System

Bilder vonMenschen, die traurig, glücklich oder wütend ausse-

hen und lassen klassifizieren, umwelchen Emotionsausdruck es

sich handelt. Anschließend visualisierenwir, auf welche Bereiche

imBild die KI »geschaut« hat, als es die Entscheidung getroffen

hat. Die Visualisierung gibt uns ersteHinweise darauf, wie es um

die Fähigkeiten des Systems bestellt ist. Schaut es bei der Klas-

sifikation nicht auf das Gesicht, sondern auf den Hintergrund,

steht schnell fest: Da muss nachgebessert werden. Solche Visu-

alisierungen liefern aber noch mehr: Hinweise auf Fehler, die

sich zum Beispiel in Datensätzen verstecken. Diese Daten sind

das Einzige, was solche Systeme für das Lernen heranziehen.

Daher sollten sie die Realität gut abbilden. Wenn dies nicht der

Fall ist, kommt es zu Fehlschlüssen. Bekanntgeworden ist das

Beispiel von Google, deren Netz dunkelhäutige Menschen als

Gorillas klassifizierte. »Rassistische KI« hieß es in denMedien.

Der Fehler lag in dem Datensatz, der zum Lernen verwendet

wurde. Hier waren kaum oder keine dunkelhäutigen Men-

schen in den Bildern vertreten. Dies führte dazu, dass das

Netz eine Klasse, die ähnliche Merkmale zeigte, hier

also die Gorillas, die ein dunkles Fell haben, für die

Klassifikation verwendete. Sind wir nun mit er-

klärbarer KI gegen diese Probleme gewappnet?

Jein. Die derzeitigen Verfahren sind ein gu-

ter Anfang, aber es gibt noch viel zu tun.

Wir brauchen Erklärungen, die möglichst

aussagekräftige Informationen liefern. Vi-

sualisierungen sindnicht ausreichend. Und

dasGanzemuss verständlich sein, nicht nur

für KI-Experten*innen, sondern auch für

Endnutzer*innen. Es gilt, herauszufinden:

Wie sieht eine guteErklärung überKI- Sys-

teme aus? Wann brauchen wir Erklärun-

gen? Wie viele Details darf die Erklärung

haben, ohne Endnutzer zu überfordern?

Wie garantieren wir, dass die Erklärungen

den Inhalt vermitteln, den sie transportie-

ren sollen? Auf diese Fragen gibt es noch

keine endgültigen Antworten. Sie stellen

eine große Herausforderung an die derzei-

tigeForschungundEntwicklung vonKI dar

und machen unsere Forschung für meine

Kolleg*innen und mich so spannend.

Künstliche Intelligenz erklärbar machen

Katharina Weitz studierte Informatik und

Psychologie an der Universität Bamberg. Seit

Oktober 2018 arbeitet sie als wissenschaft-

liche Mitarbeiterin am Lehrstuhl für Multimo-

dale Mensch-Technik Interaktion der Uni-

versität Augsburg. Hier forscht sie an Möglich-

keiten, der KI in den »Kopf« zu schauen und

zu erklären, wie solche Systeme funktionieren

und zu ihren Entscheidungen gelangen. Sie

interessiert sich aber nicht nur für Computer

und Roboter, sondern auch für Menschen.

Daher bringt sie Forschungserkenntnisse Jung

undAlt näher –mit öffentlichen Vorträgen, Nach-

wuchsveranstaltungen und Science Slams.

Mehr von Tobi Frank

unter:

tobifrank.com