KI und Modern Workplace

Die Psychologie der Daten(-getriebenen)

7. September 2021, 7:00 Uhr | Autorin: Anne Hsu / Redaktion: Diana Künstler | Kommentar(e)

Fortsetzung des Artikels von Teil 2

KI und Ethik: Das menschengemachte Problem

Viele Menschen stehen Künstlicher Intelligenz – trotz vieler Fortschritte der Technologie – nach wie vor skeptisch gegenüber. Der Grund: Sie halten Algorithmen für ungerecht oder voreingenommen. Dass diese Bedenken durchaus berechtigt sein können, lässt sich am Fall des Bewerbungsroboters von Amazon veranschaulichen, der vor ein paar Jahren für Schlagzeilen sorgte. Er verdeutlicht, dass ein Ziel nicht von Erfolg gekrönt sein kann, wenn die zugrundeliegenden Daten bereits „kontaminiert“ sein – auch wenn die Absichten noch so gut gemeint sind.

Der diskriminierende Bewerbungsroboter

Amazons Anliegen war es, eine Software zu entwickeln, die unter Bewerbern automatisch die passenden Kandidaten findet. Doch der Algorithmus hatte die unerwünschte Nebenwirkung, dass Frauen systematisch benachteiligt wurden. Wie Reuters erklärte, hatte der Algorithmus mit den Datensätzen der angenommen Bewerber trainiert und sollte quasi so lernen, welche Eigenschaften Amazon bevorzugt. Weil das Unternehmen aber zu dem Zeitpunkt Teil einer von Männern dominierten Industrie war, waren in den zugrundegelegten vergangenen zehn Jahren vor allem Männer eingestellt worden. Diesem Auswahlkriterium blieb die KI treu.

Zwar hätte das Entwicklerteam die Software später angepasst, allerdings habe man nicht garantieren können, dass die Technik nicht trotzdem weiter diskriminieren würde, so Reuters. Das ursprüngliche Ziel, dass die Software den Auswahlprozess komplett übernehmen könnte, wurde somit eingestellt. Amazon erklärte, man habe jedoch die Technologie nie über die Vorschlagsfunktion hinaus eingesetzt. Der Online-Händler habe zu keiner Zeit allein auf Basis des Algorithmus‘ eingestellt.

Kein Einzelfall

Amazons Erfahrungen mit Maschinellem Lernen sind kein Einzelfall. Auch in anderen Bereichen gibt es ähnliche Vorkommnisse, die dem gleichen Prinzip folgen. Beispiel „Tay“: Microsofts selbstlernendes Chatprogramm mit weiblichem Avatar hatte Zugriff auf Kik, GroupMe, Twitter sowie Accounts bei Facebook, Snapchat und Instagram – und sollte im Netz lernen, wie junge Menschen kommunizieren. „Je mehr du redest, desto schlauer wird Tay“, versprach der US-Konzern. Das schloss allerdins neben Witze erzählen und Spiele spielen auch Hitler-Vergleiche ziehen und den Holocaust leugnen ein, weshalb das Programm bereits nach kurzer Zeit eingestellt werden musste. Anderes Beispiel: Algorithmen, die in den USA routinemäßig eingesetzt werden, um die Rückfallgefahr von Straftätern zu berechnen. Afroamerikaner werden dadurch systematisch benachteiligt.

Ein Ethik-Label als Regularium?

Ethik-Label
Ausgehend vom Energieeffizienzlabel könnte ein Label mit einer Bewertung der ethischen Eigenschaften eines KI-Systems wie abgebildet aussehen.
© „From Principles to Practice – An interdisciplinary framework to operationalise AI ethics“, VDE / Bertelsmann Stiftung

Um Unternehmen den Umgang mit ethischen Richtlinien bei der Gestaltung von KI zu erleichtern, gibt es eine Vielzahl an Initiativen. Doch an der praktischen Umsetzung hapert es bisweilen noch. Genau hier setzt der VDE als Initiator und Leiter der „AI Ethics Impact Group“ gemeinsam mit der Bertelsmann Stiftung an. Die Studie „From principles to practice – an interdisciplinary framework to operationalise AI ethics“ zeigt, wie mit der Kombination dreier Werkzeuge – einem WKIO-Modell, einem KI-Ethik-Label und einer Risikoklassifizierung – allgemeine ethische Prinzipien messbar und konkret umsetzbar werden.

Das WKIO-Modell (englisch VCIO: Value, Criteria, Indicators, Observables) schlüsselt dabei Werte in Kriterien, Indikatoren und letztlich messbare Observablen auf. Das ebenfalls im Rahmen der Studie entwickelte Ethik-Label für KI-Systeme ermögliche Unternehmen, die ethischen Eigenschaften ihrer Produkte klar und einheitlich zu kommunizieren. Es ist an das Energieeffizienzlabel für Elektrogeräte angelehnt und schaffe sowohl für Konsumenten als auch Unternehmen eine bessere Vergleichbarkeit der Produkte. Dabei handele sich nicht um ein ungenaues Ja/Nein-Gütesiegel, sondern um eine abgestufte Kennzeichnung relevanter Eigenschaften eines Systems. (DK)


  1. Die Psychologie der Daten(-getriebenen)
  2. Menschliche Qualitäten anerkennen
  3. KI und Ethik: Das menschengemachte Problem

Das könnte Sie auch interessieren

Verwandte Artikel

Lenovo Deutschland

Forum Künstliche Intelligenz

Künstliche Intelligenz

Matchmaker+