Sie sind hier: HomeTelekommunikation

Kommentar: KI - wem vertrauen wir?

Ist Künstliche Intelligenz (KI) gerade auf dem Weg zu menschlich zu werden? Viele fühlen sich unwohl bei dem Gedanken daran, dass Maschinen eines Tages anfangen werden, wie Menschen zu denken.

Künstliche Intelligenz Bildquelle: © Fotolia / monsitj

Bisher liegt diese Möglichkeit jedoch noch in ferner Zukunft. Denn das menschliche Denken wird von einem nicht greifbaren Faktor namens "Seele" angetrieben und gesteuert. Wir haben eine Seele, ein Gewissen und einen Sinn für Ethik, der unser Verhalten prägt. Wir nehmen Ideen und Ereignisse mit einer einzigartigen und oft unerklärlichen Weise auf - ebenso interagieren wir mit Menschen auf eine kaum nachvollziehbare Art und Weise. Interaktionen einer Künstliche Intelligenz hingegen hängen streng von Mustern, Richtlinien und “Ausbildung” ab.

Blackbox versus Seele

Wenn ein Arzt eine Behandlung empfiehlt, neigen wir dazu, der Meinung des Arztes zu vertrauen. Das liegt daran, dass wir den Arzt fragen können, warum eine bestimmte Behandlung empfohlen wurde und wir eine entsprechende Erklärung bekommen. Ärzte (Menschen) sind transparent. Transparenz und Verantwortlichkeit schaffen Vertrauen.

Wenn eine KI ein Bild betrachtet und sagt: "Das ist eine Katze", kann sie nicht sagen, warum sie dachte, das Bild sei eine Katze. AI ist eine Blackbox und einer Blackbox ist schwer zu trauen. Außerdem hat eine Blackbox sehr wenig Verantwortung. Erst wenn die KI beginnt, Entscheidungen, Schlussfolgerungen, Standpunkte und Ideen zu erklären - mit anderen Worten, erst wenn eine KI rechenschaftspflichtig und transparent wird - werden wir anfangen, ihr zu vertrauen.

"Erklärbare KI" ist der heilige Gral der Informatik. Dabei ist es noch nicht einmal so, dass Ärzte keine Fehler machen. Es gibt zahlreiche Beweise dafür. Der Lackmustest liegt zwischen den Fehlern eines Arztes und denen eines autonomen Fahrzeugs. Selbst wenn der Arzt einen Fehler macht, würden wir vielleicht noch immer dem Arzt vertrauen, aber nicht dem autonomen Fahrzeug.

Ethisches Handeln lässt sich nicht antrainieren

Fast jeder kennt diese realitätsnahen Szenarien, in denen der Unterschied zwischen menschlichem und KI-Handeln untersucht wird: Was macht ein autonomes Fahrzeug, wenn ein Mensch seinen Weg kreuzt? Soll das Fahrzeug die Person auf der Straße oder die Person im Auto retten? Dies ist eine philosophische Debatte über ethische Entscheidungen. Was ist, wenn die Person, die den Weg des Fahrzeugs kreuzt, ein Baby ist? Auf der ganzen Welt würden die Menschen die gleiche Entscheidung treffen: das Baby retten. Aber was, wenn das Fahrzeug auch ein Baby transportiert? Was würde das Fahrzeug tun? Es kann keine Entscheidung treffen, wie es ein Mensch mit Gewissen tun würde; das Fahrzeug kann nur das tun, wozu es programmiert wurde.

Das eigentliche Problem dabei ist, dass Gefühle, Emotionen, Beziehungen, Werte, Moral und Ethik fließende Dinge sind. Sie ändern sich je nach Alter, Geschlecht, Kultur, Beruf und Umgebung. Dies stellt für einen Programmierer und für selbstlernende Systeme eine unverständliche Komplexität dar.

Ein weiteres Beispiel verdeutlicht dies: Ein Chirurg steht vor der Wahl, eine Mutter oder ihr Neugeborenes zu retten, und basierend auf seinen Erfahrungen und seinem Weltbild entscheidet er sich für das Baby. Wenn eine KI mit denselben Daten wie sie dem Chirugen vorliegen trainiert werden würde, dann würde sie die gleiche Entscheidung bis in alle Ewigkeit treffen. Wir wissen, dass die verfügbaren Daten die Entscheidung unterstützen, aber wir wissen auch, dass mit dieser Methode der Entscheidungsfindung etwas nicht stimmt. Wir wissen, dass es falsch ist, weil wir Gefühle, Emotionen und Werte haben. Wir vertrauen darauf, dass unser Gewissen und unsere moralischen Werte die vollkommen vernünftige, datengesteuerte Entscheidung bei Bedarf ohne Zögern ändern.

Es gibt nichts Unveränderliches an Entscheidungen für den Menschen. Und genau dies ist im Wesentlichen der Unterschied zwischen Maschinen und uns.

Mensch & Maschine - das bessere Team?

Experten und Fachleute stehen vor einem Dilemma: Zum einen gibt es die Möglichkeit, dass Vertrauen über einen längeren Zeitraum aufgebaut werden kann, besonders wenn KI erklärbar wird. Zum anderen ist das menschliche Vertrauen in eine KI weiterhin gebremst, da sie weder Gefühle noch Emotionen in ihre Entscheidungen mit einbeziehen kann.

Vertrauen entwickelt sich mit der Zeit. Schließlich haben wir begonnen, blind auf Pathologie-Laborberichte, Google Maps und sogar Autopilot-Landungen zu vertrauen (die Ironie ist, dass wir einem autonomen Auto aktuell noch nicht trauen ). In jedem dieser Fälle besteht allerdings die Möglichkeit, bei Zweifeln einen Menschen hinzuziehen, um die Entscheidung abzusichern. So lassen wir Ärzte den Laborbericht prüfen, bevor wir einer Operation zustimmen. Führt uns Google in die Irre, können wir Passanten und andere Autofahrer  um Rat fragen. Und wenn Autopilot beginnt, Kapriolen zu schlagen, ertönt ein Alarm, der den Piloten auffordert zu übernehmen.

Technologieführer und Computerprofis streiten sich ob man eine bessere KI entwickeln müsste oder irgendwo bei den Entscheidungen einen Schlussstrich ziehen sollte - und so sicherstellt, dass die KI-Systeme ihre Grenzen kennen und die Kontrolle bei Bedarf an den Menschen übergeben - zumindest bis Experten "Responsible AI" zu "Explainable AI" entwickeln können.

K. R. Sanjiv ist Chief Technology Officer für das globale IT-Geschäft von Wipro