Eine Gespensterhand über einem komplexen Netzwerk aus Computerschaltungen in einem Bild über Hackerinnen und Hacker, Risiken und die Schattenseiten der Technologie
#Tech Innovation

Wie Cybersicherheit in Zeiten künstlicher Intelligenz gewährleistet werden kann

Insights
6 Min.

Künstliche Intelligenz und maschinelles Lernen halten Einzug in unser Leben. Während die Technologien immer mehr an Einfluss gewinnen, müssen wir entsprechende Maßnahmen ergreifen, um maximale Cybersicherheit zu gewährleisten. Einerseits müssen Daten angemessen geschützt werden, andererseits ein hohes Maß an Transparenz vorhanden sein.

Vor allem in der Fertigungsbranche setzen Unternehmen auf maschinelles Lernen und künstliche Intelligenz, um ihre Betriebsabläufe zu optimieren (in Form von Echtzeitanalysen zum Beispiel). Andere Unternehmen nutzen die Technologien, um innovative Produkte zu schaffen wie etwa das selbstfahrende Auto. In der Medizin tragen künstliche Intelligenz und maschinelles Lernen dazu bei, die Genauigkeit von Diagnosen zu verbessern. Im Digital Banking nutzen Finanzinstitutionen die Technologien, um betrügerische Transaktionen zu erfassen. Es gibt kaum eine Branche, die künstliche Intelligenz und maschinelles Lernen noch nicht erobert haben. Denn ihre Vorteile liegen auf der Hand.

Mit den Technologien lassen sich Muster und Trends in Daten schnell und frühzeitig erfassen. Unternehmen können so ihren Umsatz steigern, und das ganz ohne menschliches Eingreifen. Langfristig ermöglicht maschinelles Lernen kontinuierliche Verbesserungen und Effizienzsteigerungen. Dennoch bergen diese Technologien auch Nachteile. Die Fehleranfälligkeit ist ziemlich hoch, was weitreichende Auswirkungen haben könnte. Schon ein Fehler könnte eine Kettenreaktion auslösen. Hinzu kommt, dass Fehler unter Umständen erst spät oder gar nicht entdeckt werden. Es gilt also, diese Fehleranfälligkeit zu vermeiden.

Was bedeutet der verstärkte Einsatz von künstlicher Intelligenz und maschinellem Lernen für uns? Je mehr wir Maschinen überlassen, desto mehr Einfluss haben sie. Ihre Auswirkungen sind in der gesamten Gesellschaft zu spüren. Social-Media-Plattformen verwenden bereits Algorithmen, um die Präferenzen der Nutzerschaft zu verfolgen. Mittels maschinellen Lernens können die gezeigten Inhalte darauf abgestimmt werden. Aber die Ergebnisse können verzerrt sein: Studien zufolge werden radikale Aussagen von Algorithmen leichter aufgegriffen. Dadurch entsteht eine Echokammer, die die bestehenden Einstellungen zusätzlich verstärkt.1 Ein Bericht aus dem Jahr 2021 bestätigte zudem, dass der Videoempfehlungsalgorithmus von YouTube spaltende Inhalte gefördert und damit zur gesellschaftlichen Polarisierung beigetragen hat.2 Neben ethischen Aspekten bei der Entwicklung und Anwendung von KI-Systemen gewinnt deren Sicherheit eine immer größere Bedeutung. Beispielsweise könnte die Gesichtserkennung Hackerangriffen zum Opfer fallen oder aber Datenspeicher könnten falsch konfiguriert sein und einen Zugriff auf persönliche Daten ermöglichen.3

Ein verantwortungsvoller Umgang mit diesen aufkommenden Technologien ist daher zwingend erforderlich. Dies kann teilweise durch die Implementierung von Cybersicherheitslösungen und Maßnahmen zur Bedrohungserkennung erreicht werden, um das Risiko von Angriffen zu verringern. 

Bild einer jungen Frau, die einen durchsichtigen Computerbildschirm betrachtet und nachdenkt

Wie sehen Angriffe auf ML-Systeme aus?

Jede Art von Software hat eigene Schwachstellen, die erst im Lauf der Zeit bekannt werden. Und mit dem verstärkten Einsatz von Deep Learning, steigt das Risiko von Cyberangriffen auf KI-Systeme.

Die verschiedenen Phasen des maschinellen Lernens können Risiken bergen. Ist beispielsweise die Eingabe fehlerhaft, wird auch das Ergebnis des gelernten Modells nicht korrekt sein. Darüber hinaus lassen sich Daten so manipulieren, dass das System gezielt falsche Ergebnisse liefert. Dies war der Fall bei Microsofts Chatbot Tay, der rassistische Aussagen von sich gab, nachdem er bei einem koordinierten Angriff absichtlich mit beleidigenden Texten gefüttert worden war.4

Aber auch die Ergebnisse selbst können Angriffen zum Opfer fallen. In einem solchen Fall wird das trainierte Modell nicht direkt manipuliert. Stattdessen werden die Abfragen so lange geändert, bis das gewünschte Ergebnis erreicht ist. Es ist auch möglich, dass Hackerinnen und Hacker eine funktionsgleiche Kopie des Modells erstellen und es analysieren, um dann das KI-System anzugreifen. So könnten personenbezogene Daten missbräuchlich genutzt oder Adversarial Examples (also feindselige Datensätze) erstellt werden, die falsche Modellprognosen zur Folge haben.

Abwehr von Cyberbedrohungen und Datenschutzverletzungen

Es versteht sich von selbst, dass herkömmliche Datenverschlüsselung und Schutz für die Datenintegrität neben sicheren Datenspeichern und Computern [siehe Produkte und Lösungen unten] ein Muss sind, um das Risiko von Angriffen zu mindern. Damit Systeme stets vor neu aufkommenden Bedrohungen geschützt sind, müssen die umfassenden Cybersicherheitsmaßnahmen auch auf dem neuesten Stand gehalten werden. Darüber hinaus müssen spezifische Maßnahmen für den Schutz der KI-Systeme ergriffen werden, wie zum Beispiel, dass Trainingsdaten mit Adversarial Examples erweitert werden.

Das Bewusstsein für dieses Thema wird zunehmend höher. ENISA, die Agentur der Europäischen Union für Cybersicherheit, veröffentlichte 2021 einen umfassenden Bericht, in dem die Bedrohungen für ML-Systeme analysiert werden.5
Es wird viel unternommen, um die Sicherheit der KI-Systeme zu erhöhen. Die Systeme werden gehärtet, Datensätze werden überwacht, um Anomalien zu erkennen. Die Robustheit der trainierten Modelle wird erhöht; unausgewogene Trainingsdaten und Modellausgaben werden erkannt. KI-Systeme werden überwacht, um Angreifer auszubremsen, wenn z. B. intensive Nutzung für Model-Extraction-Angriffe oder Adversarial Examples erkannt werden.

“KI-Systeme erfordern spezifische Schutzmaßnahmen zur Risikominimierung, wie z. B. die Erweiterung von Trainingsdaten um manipulierte Datensätze (Adversarial Examples), welche Fehler hervorrufen könnten“
Dirk Wacker
Director of Technology and Innovation in Corporate Technology Office, G+D

Wie, was und XAI? Sicherheit und Datenschutz

XAI ist von hoher Bedeutung, um nachzuvollziehen, wie die Ausgaben der KI-Modelle zustande kommen und ob sie Sinn ergeben. Transparenz ist entscheidend für das Vertrauen in die Ergebnisse von KI und ML. Andererseits ist der Schutz personenbezogener Daten und vertraulicher Informationen von größter Bedeutung.

Dirk Wacker, Director of Technology and Innovation bei G+D, sagt dazu: „Differential Privacy ist eine mathematische Definition für den Schutz personenbezogener Daten. Dies umfasst eine Reihe von Techniken, mit denen Datenschutzverletzungen verhindert werden können. Enthalten Trainingsdaten persönliche Informationen, kann so verhindert werden, dass Modellparameter oder Modellausgaben auf diese persönlichen Informationen schließen lassen. Eine weitere Möglichkeit, den Datenschutz zu verbessern, ist föderiertes Lernen/kollaboratives Lernen“, so Wacker. „Trainierte Modelle werden mit Partnern geteilt, um ein gemeinsames Modell zu erstellen. Die Trainingsdaten verbleiben dagegen vor Ort, um maximale Sicherheit zu gewährleisten.“

Bei einer Anwendung im Internet der Dinge können SIM-Karten für mehr Sicherheit eingesetzt werden. Die sichere Übertragung von Informationen kann gewährleistet werden und die Autorisierung von Anfragen an die Modelle kann geprüft werden.

Um es auf den Punkt zu bringen: Der Schutz vor Angriffen erfordert eine Vielzahl an Maßnahmen. Einerseits muss gewährleistet werden, dass die Eingabedaten, Algorithmen und Modelle zuverlässig sind. Andererseits müssen die Systeme mittels einer Vielzahl geeigneter Sicherheitsmaßnahmen geschützt werden. „Produktivität und Effizienz stehen oft im Vordergrund, bei künstlicher Intelligenz sind Sicherheit und Transparenz allerdings genauso wichtig“, fasst Dirk Wacker zusammen.

  1. Are algorithms a threat to democracy? The rise of intermediaries: a challenge for public discourse, Algorithm Watch, 2020

  2. YouTube Regrets, A crowdsourced investigation into YouTube’s recommendation algorithm, Mozilla Foundation, 2021

  3. Case Studies Page, Github, 2020

  4. Tay: Microsoft issues apology over racist chatbot fiasco, BBC, 2016

  5. Securing Machine Learning Algorithms, enisa, 2021

Veröffentlicht: 08.03.2022

Diesen Artikel teilen

Abonnieren Sie unseren Newsletter

Verpassen Sie nicht die neusten Artikel von G+D SPOTLIGHT: Wenn Sie unseren Newsletter abonnieren, bleiben Sie immer auf dem Laufenden über aktuelle Trends, Ideen und technische Innovationen – jeden Monat direkt in Ihr Postfach.

Bitte geben Sie Ihre Daten an: