Im Jahr 2022 geriet der amerikanische Finanzdienstleister Wells Fargo unter Beobachtung, als festgestellt wurde, dass sein Algorithmus zur Kreditbewertung schwarze und lateinamerikanische Antragstellerinnen und Antragsteller systematisch benachteiligte, indem er ihnen eine geringere Bonität attestierte als weißen Antragstellerinnen und Antragstellern mit einem vergleichbaren Finanzhintergrund.1
Dieses Beispiel beweist, welche schwerwiegenden Folgen die schnelle Einführung von KI-Systemen mit sich bringen kann. Und es stellt sich die Frage: Ist künstliche Intelligenz wirklich vertrauenswürdig?
Im Fall von Wells Fargo handelte es sich nicht um eine böswillige Absicht – vielmehr hatte die KI aus historischen Kreditvergabemustern gelernt, die Jahrzehnte diskriminierender Praktiken widerspiegelten, und reproduzierte diese systematisch. Für sicherheitskritische Bereiche wie das Bank- und Finanzwesen, die Identitätsprüfung und die öffentliche Infrastruktur sind derartige Verzerrungen allerdings inakzeptabel. Neben der Tatsache, dass möglicherweise Bußgelder fällig werden, zerstören solche Vorfälle das Vertrauen der Kundinnen und Kunden und untergraben damit die Grundlage für den langfristigen Erfolg von Unternehmen und Institutionen.
Neue Vorschriften wie der AI Act der EU wurden eingeführt, um Rahmenbedingungen für den sicheren Einsatz von KI-Systemen zu schaffen und um Unternehmen dabei zu unterstützen, die KI-Vorschriften einzuhalten. Verstöße können mit Geldstrafen von bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes geahndet werden.2 Wird die Sicherheit künstlicher Intelligenz ausschließlich unter dem Gesichtspunkt der Compliance betrachtet, läuft man Gefahr, ihre Potenziale ungenutzt zu lassen.





