medien impuls zur Künstlichen Intelligenz

Bei Künstlicher Intelligenz denke ich sofort an HAL, David und Ava. Sie sind artifizielle Intelligenzen in den Filmen von Stanley Kubrick, Steven Spielberg und Alex Garland – und ich habe mich vor und mit ihnen gefürchtet, getrauert und gelitten. Jedoch weiß ich nun durch den medien impuls am 30. Mai 2016 zum Thema „Künstliche Intelligenz – Werkzeug des Menschen oder Menschen als Werkzeug“, dass ich einen zwar weit verbreiteten, aber grundlegenden Fehler gemacht habe: Künstliche Intelligenz (KI) und Robotik müssen unterschieden werden. Grundsätzlich ist KI nämlich das Lernen von Maschinen, mit einer Datenmenge auf unterschiedliche Weise umzugehen.

Otto Vollmers Geschäftsführer der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM) © sh/fsf
Otto Vollmers © sh/fsf

Auf dem medien impuls wurden die Grundlagen und Verwendungsmöglichkeiten der KI im Jugendmedienschutz sowie ethische Grundlagen vorgestellt und diskutiert. Schon am Anfang verwies Otto Vollmers (FSM)darauf, dass KI immer auch als Bedrohung angesehen wird – und es zeigte sich im Verlauf der Veranstaltung, dass die Skepsis immer dann besonders groß ist, wenn es um Emotionen oder aber militärische und kommerzielle Verwendungsmöglichkeiten geht. Dabei verwiesen Jens Redmer (Google Deutschland), Stephan Dreyer (Hans-Bredow-Institut) und Dr. Florian Röhrbein (Technische Universität München) darauf, dass intelligente Maschinen noch ganz am Anfang sind. Sicherlich hat AlphaGo im März den amtierenden Go-Meister in dem komplexen Spiel geschlagen, aber im konkreten Einsatz bspw. in der Medizintechnik würden sich weitaus komplexere Fragen stellen. Auch könnten Maschinen Gefühle erkennen – das ist technisch gesehen einfache Gesichtserkennung –, aber diese Frage müsse davon unterschieden werden, ob sie sich dieser Gefühle auch bewusst sind. Vielmehr sind Roboter gut darin, repetitive Tätigkeiten auszuüben – als Beispiel wurde genannt, dass sie das Personal in der Altenpflege unterstützen könnten, indem sie z.B. die Betten neu beziehen, sodass dem Personal mehr Zeit für die emotionalen Betreuung  bliebe. Jedoch werden sie dort – und in vielen anderen Bereichen – noch gar nicht eingesetzt.

Ebenso wie Roboter mit repetitiven Tätigkeiten in der Altenhilfe das Pflegepersonal entlasten könnten, kann KI auch im Jugendmedienschutz Unterstützung bieten, indem Programme Inhalte klassifizieren, einordnen und dann weitere Schritte ableiten. Dabei ist es einfach bekannte Inhalte zu identifizieren, schwieriger wird es bei unbekannten und noch schwieriger bei Live-Inhalten. Hier müssen die Systeme noch viel hinzulernen. Text können beispielsweise schon recht gut analysiert werden, bei Mehrdeutigkeiten oder Bewegtbildern geraten die Algorithmen dann aber an ihre Grenzen. Es fehlen Erfahrungen und Daten, durch die sie es hinzulernen können.

Dr. Katharina Zweig, Professorin für Informatik an der Technischen Universität Kaiserslautern, zur Frage: Was soll und darf Künstliche Intelligenz? Tagungsmoderation: Miriam Janke © sh/fsf
Dr. Katharina Zweig mit Moderation Miriam Janke © sh/fsf

Sehr deutlich wurde im Verlauf der Veranstaltung zudem immer wieder, dass die Frage nach der Kontrolle der Algorithmen und damit nach Verantwortung eine wichtige Rolle spielt. Wenn ein Algorithmus entscheidet, ein Inhalt sei unbedenklich, wer trägt dann die Verantwortung?

Hier verwies Dr. Katharina Zweig, Technische Universität Kaiserslautern, auf einen wichtigen Unterschied, der in der Öffentlichkeit nicht oft getroffen wird: Es reiche nicht, Algorithmen offen zu legen, vielmehr müssten ihre Komponenten überprüfbar sein.

Adriano Mannino © sh/fsf
Adriano Mannino © sh/fsf

Doch es entstehen weitere Fragen: Wenn ein intelligentes, selbststeuerndes Fahrzeug einen Unfall baut, wer ist dann haftbar? Daraus kann dann irgendwann die Frage entstehen, ob beispielsweise Roboter auch Rechtsträger sein können, wie Adriano Mannino (Stiftung für Effektiven Altruimus) einwarf. Aber diese Entwicklung lässt sich auch weiterdenken, wie Dr. Sönke Bartling (Alexander von Humbold Institut für Internet und Gesellschaft) ergänzte. Wenn es bald selbstfahrende Fahrzeuge geht, kann man sich dann beispielsweise auch eine Vorfahrt kaufen? Der erste Impuls war Gelächter, aber tatsächlich muss man sich diese Entwicklung nur konsequent zu Ende denken: durch KI können bald Entscheidungsprozesse sichtbar werden, über die noch nicht gesprochen wird.

Insgesamt hat der medien impuls daher gezeigt, dass es weiterhin viele Fragen und viel Klärungsbedarf gibt. Nur eines scheint im Moment festzustellen: Noch sind intelligente Maschinen ohne Menschen nicht denkbar.

 

Weitere Bilder zur Veranstaltung finden sie auf unserem Facebookkanal. Die Pressemeldung mit Bildern der Referentin und den Referenten auf unserer Website.

Über Sonja Hartl

Sonja Hartl studierte Deutsche Sprache und Literatur, Medienwissenschaft und Sozial- und Wirtschaftsgeschichte in Marburg und schreibt seither als freie Journalistin über Film, Fernsehen und Literatur. Außerdem betreibt sie das Blog Zeilenkino und ist Chefredakteurin von Polar Noir.