Predictive Analytics vs. moralischer Kompass
Intelligente KI-Technologien sind Vorhersagemaschinen, die mithilfe von Algorithmen riesige Datenmengen, also Big Data, analysieren und im Laufe der Zeit dazulernen, um bessere Ergebnisse zu erzielen. KI-Systeme können in kürzester Zeit eine unbegrenzte Anzahl von Dokumenten analysieren. Sie können Muster erkennen und befolgen (die möglicherweise bereits menschliche Vorurteile enthalten), Verhaltensweisen und Wahrscheinlichkeiten vorhersagen. Präzise Predictive Analytics hilft bereits bei der Diagnose von Gesundheitsproblemen und bei Behandlungsplänen. Algorithmen können Vorhersagen über Personen treffen, die Straftaten begangen haben, wie im Falle von Brisha Borden und Vernon Prater. Sie können empfehlen, ob ein Antragsteller oder Antragstellerin geeignet ist, einen Kredit zu erhalten oder eine Versicherung abzuschließen. Im Falle eines Unfalls kann ein autonomes Auto wahrscheinlich schneller als eine menschliche Fahrerin oder ein menschlicher Fahrer „entscheiden“, wie es reagieren soll, um Leben zu schützen.
Aber wie und anhand welcher Prinzipien und wessen ethischer Regeln bemisst ein Algorithmus den Wert eines Lebens? KI ist nicht menschlich, sie imitiert menschliches Verhalten. Gegenwärtig birgt der Einsatz von KI ohne angemessene ethische Standards zum Schutz der Menschenwürde und der Menschenrechte das Risiko, dass menschliche Vorurteile, einschließlich Diskriminierung aufgrund der Herkunft oder des Geschlechts, in die automatisierte Entscheidungsfindung einfließen.3 Wenn wir maschinelles Lernen und Algorithmen verwenden, müssen wir unser menschliches Einfühlungsvermögen und unsere menschliche Ethik anwenden, um eine endgültige Entscheidung zu treffen.4 Im vorherigen Beispiel, in dem ein Algorithmus die Prüfungsergebnisse von Abschlussklassen auf der Basis früherer Ergebnisse der Schule herabgestuft hat – in vielen Fällen zum Schaden sozial benachteiligter Schülerinnen und Schüler –, wurden die Ergebnisse der KI letztendlich verworfen. Stattdessen bewerteten die Lehrkräfte die Leistung der Schülerinnen und Schüler anhand ihrer früheren Leistungen und der Gesamtleistung – basierend auf menschlicher Erfahrung, Expertise, Empathie und einem moralischen Kompass, der sich über Millionen von Jahren entwickelt hat.
Vor dem Hintergrund zunehmend intelligenter, selbstlernender Systeme sowie des raschen Fortschritts der KI besteht ein dringendes Bedürfnis nach Werten, Regeln und Vorschriften.5 Derzeit ist menschliche Kontrolle über KI-Systeme der sicherste Schutz vor Voreingenommenheit, Verletzung der Privatsphäre und anderen ethischen Fallstricken.
„Die fortlaufende Forschung im Bereich KI führt zur Entwicklung von Methoden zur Bewertung und Verbesserung der Fairness von KI-Systemen. Es gibt jedoch viele komplexe Ursachen für Ungerechtigkeiten, einige davon sind gesellschaftlicher und einige sind technischer Natur. Es ist weder für die KI noch für den Menschen möglich, Entscheidungen vollkommen unvoreingenommen zu treffen. Das Ziel muss darin bestehen, Voreingenommenheit, soweit es möglich ist, zu vermeiden und einen Kompromiss zwischen Fairness und Effizienz zu finden“, so Dirk Wacker, Director Technology and Innovation bei G+D im Bereich Corporate Technology Office.