Trend 2: KI zum Schutz der Privatsphäre
KI ohne Daten funktioniert nicht. In Zukunft werden Unternehmen und Organisationen aller Art Zugang zu ausreichend großen Mengen qualitativ hochwertiger Daten benötigen, um sicherzustellen, dass den KI-Systemen vertraut werden kann. Insbesondere dann, wenn sie auf Live-Daten zurückgreifen, um Muster zu erkennen, Vorhersagen zu treffen oder Entscheidungen zu fällen.
Die Fokussierung auf Daten zur Schaffung einer solchen verantwortungsvollen KI ist aber nur ein Baustein. Ebenso muss es ein klares Verständnis dafür geben, wie sich ihre Algorithmen in der Praxis verhalten werden, bevor die Daten eingesetzt werden.
Es gibt bereits viele gut dokumentierte Fälle, in denen sich KI-Algorithmen äußerst negativ gegenüber verschiedenen ethnischen Gruppen und Geschlechtern verhalten haben. Zudem gibt es zahlreiche Beispiele von Unternehmen, die sich an unethischen Datenerhebungen beteiligen, bei denen die oder der Einzelne nicht in vollem Umfang weiß, wofür seine oder ihre Daten möglicherweise verwendet werden (z. B. bei der Registrierung auf einer Website).
Zu den wichtigsten Reaktionen auf diese Bedenken zählt das KI-Gesetz der Europäischen Union. Darin werden die Regulierung der künstlichen Intelligenz und die Schaffung eines Rechtsrahmens vorgeschlagen, in dem KI-Systeme nach ihrem Risikoniveau eingestuft werden. Das Gesetz, das noch in diesem Jahr verabschiedet werden soll, schreibt verschiedene Anforderungen für die Entwicklung und den Einsatz von KI vor, darunter das Verbot bestimmter Anwendungen wie die Überwachung oder das soziale Scoring von Menschen.
„Bei dem Gesetz geht es darum, eine vertrauenswürdige KI zu schaffen“, sagt Bordoli. „Die Verschärfung der Vorschriften hat den großen Vorteil, dass KI-Systeme dadurch an Vertrauen gewinnen.“ Und die EU ist mit ihrer Auffassung nicht allein: Auch Kanada und Großbritannien erarbeiten derzeit Regelwerke für den KI-Einsatz.
Als führender Anbieter von Identitätslösungen legt Veridos großen Wert auf eine vertrauenswürdige KI und arbeitet in diesem Bereich intensiv mit Partnern aus Wissenschaft und Industrie zusammen. „Vertrauenswürdige KI ist ein Schwerpunkt unserer Arbeit. Wir wollen sicherstellen, dass unsere KI-Systeme gerecht und transparent agieren und die persönliche Selbstbestimmung der Menschen respektieren“, so Bordoli.
Um Voreingenommenheit zu vermeiden, investiert Veridos in das kontinuierliche Training seiner KI-Modelle und in die Diversifizierung der Trainingsdaten. Darüber hinaus setzt Veridos strenge Testmethoden ein, um tief verwurzelte Vorurteile zu erkennen und zu vermeiden, bevor ein System in Betrieb genommen wird.
Gleichzeitig arbeitet das Unternehmen mit der renommierten Universität Erlangen-Nürnberg zusammen. Ziel ist es, modernste Methoden für vertrauenswürdige KI zu erforschen und eine ganzheitliche Implementierung über den gesamten Lebenszyklus von KI zu entwickeln. Dazu wurden mehr als 40 quantitative und qualitative Kriterien ermittelt, anhand derer sich die Vertrauenswürdigkeit von KI-Systemen bewerten lässt.
Die datenschutzfreundlichen KI-Lösungen von Veridos sind so konzipiert, dass sie sowohl die Nutzerdaten schützen als auch die Datenhoheit gewährleisten. Eine Schlüsseltechnologie ist dabei das föderale Lernen. Ein innovativer Ansatz für maschinelles Lernen, bei dem ein Algorithmus auf mehreren dezentralen Geräten oder Servern trainiert werden kann, die jeweils über einen eigenen Datensatz verfügen, ohne dass die Daten selbst ausgetauscht werden. Durch föderales Lernen wird sichergestellt, dass die Daten an dem Ort verbleiben, an dem sie ursprünglich gespeichert wurden, wodurch die Datenhoheit gewahrt und das Risiko von Datenschutzverletzungen minimiert wird.
Mit einem föderalen Lernsystem könnte beispielsweise ein Gesundheitsdienstleister Patientendaten zur Verfügung stellen, um ein neues KI-gestütztes Gerät zur Krebsdiagnose zu trainieren – und gleichzeitig den vollständigen Datenschutz für diese Patientendaten sicherstellen.