Gastkommentar von Vectra AI

Künstliche Intelligenz und die Sache mit der Ethik

19. Oktober 2022, 8:00 Uhr | Autor: Andreas Riepen / Redaktion: Diana Künstler | Kommentar(e)
Andreas Riepen, Vectra AI
Andreas Riepen ist Head Central Europe bei Vectra AI, einem Anbieter von Cybersicherheit auf Basis von KI.
© Vectra AI

KI im ethischen Spannungsfeld vor dem Hintergrund kognitiver Verzerrungen – Andreas Riepen von Vectra AI kommentiert.

KI-Algorithmen sind dazu da, den Menschen zu unterstützen und ihn zu anspruchsvollen Aufgaben zu befähigen. Ein Schlüsselelement bleibt dabei jedoch die Frage, ob kognitive Verzerrungen in Algorithmen beseitigt werden können. Dies gilt auch für den Schutz der Privatsphäre und falsche Annahmen, die auf einer voreingenommenen Künstlichen Intelligenz beruhen. Wie lassen sich falsch-positive Ergebnisse von KI aber ausschließen? Die grundlegende Frage lautet: Können wir unser Vertrauen in Künstliche Intelligenz setzen und unsere individuelle Zukunft in ihre Hände legen?

Im besten Fall ermöglichen KI-Algorithmen dem Menschen bessere Entscheidungen, da sie menschliche Unzulänglichkeiten wie zum Beispiel Voreingenommenheit beseitigen. Denn eine kognitive Voreingenommenheit ist dem menschlichen Geist inhärent. Jeder Mensch arbeitet auf der Grundlage von Vorurteilen, um seine Effizienz zu steigern. Es ist ein bekanntes Problem, sich dessen bewusst zu sein und zudem sicherzustellen, dass sich dieser Umstand nicht auf das tägliche Handeln auswirkt.

Algorithmen werden aber ebenso von Menschen entwickelt. Die von diesen Algorithmen beschriebenen Modelle können durch von Menschen ausgewählte und gelieferte Daten trainiert werden. Daher ist die Beseitigung von Verzerrungen im Code eine ebenso große Herausforderung wie die Sensibilisierung für kognitive Verzerrungen.

Kognitive Verzerrungen nicht auszuschließen

Da wir Künstliche Intelligenz so gestalten, dass sie menschliches Verhalten und menschliche Entscheidungen abbildet, unterliegt sie denselben Beschränkungen, sofern sich der Entwickler dieser nicht bewusst ist. Da dieses menschliche Element aber auf absehbare Zeit präsent bleiben wird, ist eine vollständige Beseitigung der Voreingenommenheit vorerst nicht zu erwarten. Ein Beispiel aus der nicht-digitalen Welt wäre die Vergabe von Mietwohnungen nach ethnischen Merkmalen: ethisch nicht korrekt, in der Praxis aber durchaus üblich. Und so ist es auch kaum möglich, diese kognitiven Verzerrungen vollständig aus den Algorithmen zu entfernen.

Zudem ist das Arbeiten mit unvollständigen Datensätzen eine weitere Quelle für mögliche Verzerrungen. Denn wenn Daten fehlen, können sie zu voreingenommenen Entscheidungen führen, da sie nicht das gesamte Bild berücksichtigen. Daher gilt es, die an der Erstellung von Algorithmen und dem Training von Modellen beteiligten Fachkräfte zu schulen, um das Bewusstsein für kognitive Verzerrungen zu stärken. Wir müssen eine Qualitätssicherung in den Lebenszyklus von KI-Modellen einführen, um mögliche Verzerrungen zu erkennen, sie zu verringern oder gar zu beseitigen.

Der mensch sollte die KI immer nur als Helfer und Ratgeber betrachten, da die fundierte Entscheidung in vielen Bereichen vorerst beim Menschen verbleibt.

Eine Vertrauensfrage

Menschen müssen sich auf eine Künstliche Intelligenz verlassen können, die ihnen hilft, Prioritäten zu setzen und ihnen volle Transparenz über einen jeweiligen Aspekt verschaffen soll. Ein „falsch-positiver“ Befund ist dabei zwar ärgerlich und unnötig zeitaufwendig, stellt aber je nach Kontext eine geringere Herausforderung dar als ein übersehener „echt-positiver“ Befund, sofern das Prinzip der Ausfallsicherheit befolgt wird. Und da unser Leben zunehmend von automatisierten Systemen abhängt, können die Folgen von voreingenommenen Algorithmen und KI künftig weitaus schädlicher und immer schwieriger zu entdecken und zu beheben sein. Die Frage, ob wir einer KI „vertrauen“ können oder sollten, ist daher stets eine individuelle Frage. Man sollte die KI immer nur als Helfer und Ratgeber betrachten, da die fundierte Entscheidung in vielen Bereichen vorerst beim Menschen verbleibt. Für zukünftige Anwendungen und vor allem für komplexere Sachverhalte – wie etwa das autonome Fahren – gilt es, andere Mechanismen zur Schaffung von Vertrauen in Betracht zu ziehen.

Menschen können entscheiden, wie viel Vertrauen sie automatisierten Systemen schenken – wie grundsätzlich bei jeder neuen Technologie. Sie müssen dabei bewerten, wie gut diese funktionieren, und die Risiken gegen die potenziellen Vorteile abwägen. Eine Entscheidung, die möglichst frei und mit so viel Transparenz wie möglich getroffen werden sollte. Glücklicherweise haben zahlreiche KI-Forscher zuletzt begonnen, Fragen der Voreingenommenheit sehr viel ernster zu nehmen, sodass diese künftig intensiv behandelt werden dürften – noch bevor sie zu großen ethischen Problemen führen.


Das könnte Sie auch interessieren

Verwandte Artikel

Vectra Networks GmbH

Forum Künstliche Intelligenz

Künstliche Intelligenz

Matchmaker+