Sprache wähle
Sprache wähle
 
#Cybersecurity

Künstliche Intelligenz und Ethik: Verantwortung übernehmen

Globale Trends
8 Mins.

Künstliche Intelligenz (KI) wird einen enormen Einfluss auf unser Leben haben. Sie verspricht nicht nur geschäftsfördernde Verbesserungen, sondern auch mehr Effizienz und Genauigkeit sowie schnellere Ergebnisse. Intelligente Systeme, die auf zuverlässigen Daten beruhen, helfen Menschen heutzutage bereits, bessere und fundiertere Entscheidungen zu treffen, und das in allen Branchen. KI ist überall und wir erachten ihre Vorteile bereits als selbstverständlich. Wir Menschen sind von Natur aus sehr anpassungsfähig, weshalb wir auch KI schnell in unserem Alltag akzeptiert haben. Aber die ethischen Überlegungen und Vorschriften müssen mit der Technologie Schritt halten

Als die 18-jährige Brisha Borden 2014 verhaftet wurde, weil sie ein nicht abgeschlossenes Fahrrad genommen hatte und damit in Fort Lauderdale die Straße entlanggefahren war, wurde sie von einem Computerprogramm im Bundesgefängnis als besonders gefährdet eingestuft, in Zukunft wieder straffällig zu werden. Ein Jahr zuvor wurde der 41-jährige Vernon Prater, der bereits Vorstrafen hatte, festgenommen, als er Werkzeug im Wert von 86.000 US-Dollar aus einem Geschäft gestohlen hatte. Der gleiche Algorithmus hatte Prater ein geringes Risiko in Bezug auf eine erneute Straffälligkeit zugewiesen.

Zwei Jahre später: Während Borden keiner neuen Straftat angeklagt worden war, saß Prater wieder im Gefängnis. Der einzige, doch entscheidende Unterschied? Borden ist schwarz, Prater weiß. Zu dem Ergebnis kam zumindest der US-amerikanische Non-Profit-Newsdesk für investigativen Journalismus, ProPublica, der die Statistiken des Algorithmus analysierte.1 Obwohl die Merkmale einer Person wie Hautfarbe oder Geschlecht nicht spezifisch offengelegt werden, stellen Algorithmen Korrelationen auf der Grundlage anderer Merkmale wie Schule oder Wohnort sowie historischer Daten her, die wahrscheinlich bereits menschliche Vorurteile enthalten. Aber wer ist in einem solchen Fall für ungenaue Prognosen oder Vorurteile verantwortlich?

Wen sollte man zur Rechenschaft ziehen?

Wer einen Moment innehält und darüber nachdenkt, stellt sich viele Fragen. Wenn Entscheidungen von Maschinen mit künstlicher Intelligenz getroffen werden bzw. von Menschen, deren Entscheidungen auf den von Algorithmen erzeugten Daten basieren, wer ist dann für das Ergebnis verantwortlich? Der Algorithmus? Der Programmierer? Der Entscheidungsträger? In England wurden 2020 mehr als ein Drittel der Prüfungsergebnisse der Abschlussklassen herabgestuft. Wer war für die zerplatzten Träume der Schülerinnen und Schüler verantwortlich? Der KI-Software-Entwickler, die Prüfungsaufsichtsbehörde oder die Regierungsmitglieder, die sich für die Verwendung von KI entschieden hatten, um die Noten der Schülerinnen und Schüler zu bestimmen?2

KI hat keine Rechtspersönlichkeit. Wie können wir sie in Zukunft zur Rechenschaft ziehen? Und wenn Systeme ethische Entscheidungen treffen müssen, wessen moralischen Kompass wenden sie an? KI-Entwickler, Integratoren, Betreiber, Regulierungsbehörden und Datenanbieter müssen gemeinsam Antworten auf solche Fragen finden, um Verantwortlichkeiten und moralische Verantwortung zu definieren und einen verantwortungsvollen Umgang mit KI zu finden.

Predictive Analytics vs. moralischer Kompass

Intelligente KI-Technologien sind Vorhersagemaschinen, die mithilfe von Algorithmen riesige Datenmengen, also Big Data, analysieren und im Laufe der Zeit dazulernen, um bessere Ergebnisse zu erzielen. KI-Systeme können in kürzester Zeit eine unbegrenzte Anzahl von Dokumenten analysieren. Sie können Muster erkennen und befolgen (die möglicherweise bereits menschliche Vorurteile enthalten), Verhaltensweisen und Wahrscheinlichkeiten vorhersagen. Präzise Predictive Analytics hilft bereits bei der Diagnose von Gesundheitsproblemen und bei Behandlungsplänen. Algorithmen können Vorhersagen über Personen treffen, die Straftaten begangen haben, wie im Falle von Brisha Borden und Vernon Prater. Sie können empfehlen, ob ein Antragsteller geeignet ist, einen Kredit zu erhalten oder eine Versicherung abzuschließen. Im Falle eines Unfalls kann ein autonomes Auto wahrscheinlich schneller als ein menschlicher Fahrer „entscheiden“, wie es reagieren soll, um Leben zu schützen.

Aber wie und anhand welcher Prinzipien und wessen ethischer Regeln bemisst ein Algorithmus den Wert eines Lebens? KI ist nicht menschlich, sie imitiert menschliches Verhalten. Gegenwärtig birgt der Einsatz von KI ohne angemessene ethische Standards zum Schutz der Menschenwürde und der Menschenrechte das Risiko, dass menschliche Vorurteile, einschließlich Diskriminierung aufgrund der Herkunft oder des Geschlechts, in die automatisierte Entscheidungsfindung einfließen.3 Wenn wir maschinelles Lernen und Algorithmen verwenden, müssen wir unser menschliches Einfühlungsvermögen und unsere menschliche Ethik anwenden, um eine endgültige Entscheidung zu treffen.4 Im vorherigen Beispiel, in dem ein Algorithmus die Prüfungsergebnisse von Abschlussklassen auf der Basis früherer Ergebnisse der Schule herabgestuft hat – in vielen Fällen zum Schaden sozial benachteiligter Schülerinnen und Schüler –, wurden die Ergebnisse der KI letztendlich verworfen. Stattdessen bewerteten die Lehrkräfte die Leistung der Schülerinnen und Schüler anhand ihrer früheren Leistungen und der Gesamtleistung – basierend auf menschlicher Erfahrung, Expertise, Empathie und einem moralischen Kompass, der sich über Millionen von Jahren entwickelt hat. 

Vor dem Hintergrund zunehmend intelligenter, selbstlernender Systeme sowie des raschen Fortschritts der KI besteht ein dringendes Bedürfnis nach Werten, Regeln und Vorschriften.5 Derzeit ist menschliche Kontrolle über KI-Systeme der sicherste Schutz vor Voreingenommenheit, Verletzung der Privatsphäre und anderen ethischen Fallstricken.

„Die fortlaufende Forschung im Bereich KI führt zur Entwicklung von Methoden zur Bewertung und Verbesserung der Fairness von KI-Systemen. Es gibt jedoch viele komplexe Ursachen für Ungerechtigkeiten, einige davon sind gesellschaftlicher und einige sind technischer Natur. Es ist weder für die KI noch für den Menschen möglich, Entscheidungen vollkommen unvoreingenommen zu treffen. Das Ziel muss darin bestehen, Voreingenommenheit, soweit es möglich ist, zu vermeiden und einen Kompromiss zwischen Fairness und Effizienz zu finden“, so Dirk Wacker, Director Technology and Innovation bei G+D im Bereich Corporate Technology Office.

“Es ist weder für die KI noch für den Menschen möglich, Entscheidungen vollkommen unvoreingenommen zu treffen. Das Ziel muss darin bestehen, Voreingenommenheit, soweit es möglich ist, zu vermeiden und einen Kompromiss zwischen Fairness und Effizienz zu finden“
Dirk Wacker
Director Technology and Innovation bei G+D im Bereich Corporate Technology Office

Erweiterung der menschlichen Fähigkeiten

Derzeit macht sich KI am stärksten in der Industrie bemerkbar. Laut Statistiken von PricewaterhouseCoopers befürchten 37 Prozent der Arbeitnehmer in den USA, ihren Arbeitsplatz aufgrund technischer Fortschritte im Bereich der Automatisierung zu verlieren.6

Und das aus gutem Grund. Untersuchungen aus dem Jahr 2017 zu künftigen Arbeitsplatzverlusten aufgrund von Automatisierung zeigen, dass es deswegen vor allem in der Transport-, Lager- und Fertigungsindustrie sowie der Finanzdienstleistungsbranche zu Verlagerungen von Arbeitsplätzen kommen wird.7 In den nächsten Jahrzehnten wird KI nicht nur die Arbeitsplätze von Industriearbeitern gefährden, die manuelle Aufgaben ausführen, sondern auch viele Büroangestellte arbeitslos machen. KI-Systeme können genaue und lückenlose Verträge erstellen, Röntgenbilder und Scans analysieren, Software entwickeln, Grafiken erstellen, Texte schreiben, Nachrichten erfassen und übermitteln sowie Videos bearbeiten.

Richtig. KI kann all das und noch mehr. Aber dadurch entstehen auch Möglichkeiten für neue, spezialisiertere Jobs. Minderqualifizierte Arbeitskräfte könnten so in der Lage sein, höher qualifizierte Rollen zu übernehmen, da die Entscheidungsfindung auch in Zukunft beim Menschen liegen wird. Ein Bericht von Dun & Bradstreet ergab, dass nur acht Prozent der 100 befragten Führungskräfte angaben, aufgrund von KI Stellen abzubauen, während 40 Prozent aufgrund der Einführung von KI mehr Arbeitsplätze schaffen wollen.8 Der „Future of Jobs“-Bericht des Weltwirtschaftsforums über die Zukunft der Arbeitsplätze aus dem Jahr 2018 schätzt sogar, dass bis 2022 133 Millionen Arbeitsplätze durch KI geschaffen werden.9

“Wir sollten neue Technologien nicht als Bedrohung für die bestehenden Arbeitsplätze betrachten, sondern als Hilfsmittel, das sowohl den Prozessen als auch den Menschen zugutekommt“
Dr. Jutta Häusler
Head of Corporate Human Resources bei G+D

Indem KI sich wiederholende Routineaufgaben übernimmt, können sich Mitarbeiter auf wesentliche, kreative und sinnvolle Aufgaben konzentrieren. Künstliche Intelligenz kann Menschen zudem inspirieren und motivieren, indem sie ihnen einen klareren Blick auf den eigentlichen Zweck ihrer Tätigkeit bietet“, so Dr. Jutta Häusler, Head of Corporate Human Resources bei G+D.

Durch KI werden Maschinen sicherlich in der Lage sein, uns Menschen Arbeit abzunehmen, unsere Effizienz zu steigern, unsere Fehler zu reduzieren und unsere menschlichen Fähigkeiten zu erweitern. So werden wir letztlich mehr Freude und Erfüllung im Job finden und neue Stellen für minderqualifizierte Arbeitskräfte schaffen. So gesehen, ist KI nur ein weiteres Mittel, um unser individuelles Potenzial zu steigern und der Gesellschaft insgesamt zu nutzen. Genauso wie das Rad Bauern half, der Mikrochip die Konnektivität erhöhte oder der medizinische Scan es Ärzten ermöglichte, fundiertere Diagnosen zu stellen.

Ethische Bedenken hinsichtlich der Verwendung von Daten

Leuchtende Laserstrahlpunkte auf dem Gesicht einer Frau symbolisieren die große Vision der KI
KI-Anwendungen in Bereichen wie Biometrie müssen ein Gleichgewicht zwischen sicher und praktikabel finden

Auch im Bereich der Biometrie bietet KI enormes Potenzial. Zu den Neuentwicklungen zählen beispielsweise Systeme mit biometrischen Indikatoren für die Authentifizierung der menschlichen Identität, wie sie von Unternehmen wie Veridos für die Verwendung in Pässen und Visa, Personalausweisen und Führerscheinen entwickelt wurden. KI-gestützte Algorithmen zur Aufspürung von Spoofing und Live-Erkennung ermöglichen auch eine ausgefeiltere Betrugsprävention. Dies ist besonders hilfreich für Produkte, die Self-Service-Onboarding, automatisierte Verifizierung und Fernidentifizierung vorsehen. Unternehmen wie Veridos nutzen das Potenzial von KI im Bereich der Gesichtserkennung, um persönliche Identitäten zu schützen und dabei sowohl die Sicherheit als auch den Komfort zu gewährleisten.

„Veridos bietet Identitätslösungen mit biometrischen Technologien, die vertrauenswürdig sind und gleichzeitig die Datenschutzrechte der Verbraucher einhalten. Wir richten unseren Datenschutzstandard an dem der EU aus und halten uns strikt an unsere Lösungsentwürfe“, erklärt Dr. Silke Bargstädt-Franke, Head of Product Management bei Veridos.

Das Berliner Start-up Brighter AI nutzt künstliche Intelligenz, um die durch Videoüberwachung erfassten Daten von Privatpersonen zu anonymisieren, ohne deren Nutzen zu beeinträchtigen. G+D hat in Brighter AI investiert „als Lösungskomponente, um ein Gleichgewicht zwischen öffentlicher Sicherheit und Datenschutz für Kunden zu schaffen“, sagt Michael Hochholzer, G+D Ventures GmbH in München. Die biometrische Technologie selbst ist nicht dazu gedacht, in unsere Privatsphäre einzudringen. Dennoch wirft die Art und Weise, wie Daten gespeichert und möglicherweise mit anderen Informationen über uns verknüpft werden, also wie sie verwendet werden, unweigerlich ethische Bedenken auf.

Standards für eine sichere Zukunft

Viele Unternehmen, einschließlich G+D, beginnen nun, ihre eigene Position in Bezug auf die ethischen Aspekte hinter KI zu definieren. Es muss ein ethischer Rahmen für die künftige Regulierung geschaffen werden. Nur so können wir unsere Tradition fortsetzen, zuverlässige Lösungen zu entwickeln, die auf Sicherheit, Vertrauen und ethischen sowie rechtlichen Standards beruhen. Microsoft hat beispielsweise angekündigt, die Gesichtserkennungstechnologie erst dann an US-Polizeibehörden zu verkaufen, wenn Gesetze zur Regulierung der Technologie verabschiedet werden, die die Wahrung der Menschenrechte vorsehen.10 IBM und Amazon haben ebenfalls beide Beschränkungen für den Verkauf von Gesichtserkennung festgelegt. Brad Smith, Präsident von Microsoft, sagte kürzlich auf einer Pressekonferenz der Washington Post: „Die Regierung muss auch tätig werden, nicht nur Tech-Unternehmen.“

Wir werden in einer Welt leben, in der wichtige Entscheidungen, wie zum Beispiel, ob eine Person einen Kredit, eine Versicherung oder gar eine neue Lunge erhalten sollte, womöglich in Zukunft von Maschinen getroffen werden. Diese Maschinen imitieren die menschliche Intelligenz, haben aber selbst kein Einfühlungsvermögen. Wir müssen daher dafür sorgen, dass Unsicherheit und Angst das Potenzial und die Möglichkeiten von KI und  Machine Learning (ML) nicht überschatten. Das Future of Humanity Institute, ein interdisziplinäres Forschungszentrum der Universität Oxford, schreibt: „Es ist wichtig, dass globale Governance-Institutionen etabliert werden, um diese Transformationen in die richtige Richtung zu lenken.“11 Am Ende entscheiden wir Menschen, was die richtige Richtung ist.

Weiter lesen

 Ist KI gut für den Menschen? In einer Welt, in der Entscheidungen zunehmend von Algorithmen getroffen werden, was sind die Herausforderungen und die Chancen dieser neuen Technologie? Finden Sie es in unserer animierten Infografik heraus.

  1. "Machine bias," ProPublica, 2016

  2. "A-level results," Guardian, August 2020

  3. "Ethics guidelines for trustworthy AI," European Commission, 2019

  4. "Towards a humanistic approach," UNESCO, 2020

  5. "Vertrauenswürdiger Einsatz von Künstlicher Intelligenz," Fraunhofer IAIS, 2019

  6. "Automation and job loss statistics in 2020 – the robots are coming," Fortunly, 2020

  7. "Will robots really steal our jobs?" PwC economics, 2018

  8. "Artifical intelligence is creating jobs, Dun & Bradstreet survey finds," AI World Conference and Expo, 2019

  9. "The Future of Jobs Report 2018," World Economic Forum, 2018

  10. "Microsoft says it won't sell facial recognition technology to US police departments," CNN Business, 2020

  11. "Standards for AI governance," Future of Humanity Institute, University of Oxford, 2019

Diesen Artikel teilen

Abonnieren Sie unseren Newsletter und bleiben Sie immer auf dem Laufenden

Informieren Sie sich über aktuelle Neuigkeiten und Ideen von G+D. Abonnieren Sie unseren Newsletter und wir sicher, dass Sie neue und wichtige Infos sofort erfahren
Anmelden

Kontaktieren Sie uns

G+D ist ein weltweit tätiges Unternehmen: Wir sind immer und überall für Sie da. Wir finden die richtige Antwort auf Ihre Fragen. Füllen Sie einfach das Kontaktformular aus - wir melden uns! Wir freuen uns auf Ihre Anfrage und die gemeinsame Entwicklung von Sicherheitstechnologien und -lösungen, die Ihre Bedürfnisse erfüllen

Here should be a form, apparently your browser blocks our forms.

Do you use an adblocker? If so, please try turning it off and reload this page.

Abonnieren und G+D Artikel anhören

Sie sind unterwegs? Jetzt können Sie noch leichter auf unsere Artikel zugreifen, immer und überall. Einfach abonnieren und anhören