30. Januar 2020

«Die Verantwortlichen müssen die Funktionalitäten und Wirkungsweisen von AI-Technologien offenlegen, soweit diese auf die Privatsphäre einwirken»

Blog 2_Titelbild

Die AI-Technologie wirft unter datenschutzrecht­lichen Gesichtspunkten Fragen auf.
Der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte Adrian Lobsiger erklärt im Interview, worauf Firmen bei der Implementierung von AI-Technologien achten müssen.

ti&m: Wie lassen sich Datenschutz und der Datenhunger der AI miteinander vereinbaren?
Adrian Lobsiger: Maschinen haben keine Bedürfnisse und verspüren auch keinen Hunger nach Daten. Wenn Maschinen über Schnittstellen zum Internet oder über akustische und visuelle Sensoren Daten beschaffen, tun sie es nach Massgabe menschlicher Programmvorgaben.
Zielt ein Programm auf die Beschaffung ständig wachsender Datenmengen ab, um eine bestimmte Funktionalität zu verbessern, steht dem das Datenschutzrecht nichts entgegen. Lassen die Programmierer die Funktionalität und die darauf gestützten personenrechtlichen Folgen einer automatisierten Datenbearbeitung indessen offen, handeln sie gefährlich. Solche Applikationen verstossen gegen die datenschutzrechtlichen Prinzipien der Zweckbindung und der Verhältnismässigkeit.

In Zukunft könnten AI-Algorithmen entscheiden, ob wir einen Job oder vielleicht sogar eine medizinische Behandlung bekommen. Welche Probleme sehen Sie dabei aus datenschutzrechtlicher Sicht?
«Entscheide» sind ein kulturelles Werk. Ob das Ergebnis einer maschinellen Berechnung als «Entscheid» gilt, hängt allein davon ab, ob es die Menschen so bestimmen. Menschen haben leider einen Hang, ihre Entscheide zu verklären. Archaische Kulturen deuteten das Wetter oder das Verhalten von Tieren, um Entscheide über Krieg und Frieden zu begründen. Im digitalen Zeitalter ist der Mensch der Versuchung ausgesetzt, Entscheide mit der angeblichen Autonomie von Algorithmen zu erklären. 
Wer eine Personenbearbeitung zwecks automatisierter Entscheidung einsetzt, muss diese Bearbeitung gegenüber den potentiell betroffenen Menschen transparent machen. Das ist oft keine banale Aufgabe. Systeme, die von Menschen erledigte Aufgaben übernehmen sollen, werden meist mit Trainingsdaten versorgt, die von menschlicher Urteilskraft geprägt sind. Wurden in der Vergangenheit z. B. Frauen statistisch selten berücksichtigt, wird ein Programm, das lernt, Bewerbungsunterlagen zu sortieren, dieses Muster fortsetzen. Vor diesem Hintergrund verlangt das Datenschutzrecht, dass die Verantwortlichen entsprechender Systeme deren Risiken erheben und dokumentieren sowie die nötigen Gegenmassnahmen ergreifen, ehe sie die Applikation einsetzen. 

Was raten Sie Firmen, wenn sie ein AI-Projekt bei sich implementieren wollen? 
Hersteller und Anwender «intelligenter» Technologien müssen erstens die berechtigten Erwartungen der Kunden kennen und respektieren. Nach dem datenschutzrechtlichen Grundprinzip von Treu und Glauben, müssen ihre Applikationen Abweichungen von den Erwartungsmustern der Betroffenen rechtzeitig erkennbar machen. 
Zweitens müssen sie sich bewusst sein, dass sie für Einwirkungen auf die menschliche Privatsphäre und Persönlichkeit gegenüber den Betroffenen einstehen müssen. Sie können sich dieser Verantwortung nicht entledigen, indem sie sich auf vermeintlich «selbst» lernende oder sich «selbst» weiterentwickelnde Aspekte dieser Technologien berufen. Es verhält sich ähnlich wie beim Züchten und Halten gefährlicher Tiere wie Bienen oder Grossvieh, für deren Verhalten stets der menschliche Halter haftet. 


Was sind die drei vermeidbaren Fehler im Umgang mit Daten bei AI-Projekten?
Aus datenschutzrechtlicher Sicht gibt es drei Todsünden: Erstens, unklare Verantwortlichkeiten für Herstellung, Betrieb und Weiterentwicklung der Applikationen, die Gegenstand des Projekts sind. Zweitens, die mangelhafte Abklärung und Dokumentation der mit der App­likation einhergehenden Risiken. Drittens, fehlende Transparenz, Nachvollziehbarkeit und Erklärung der Funktionalitäten gegenüber den potentiell Betroffenen. 

Was sind Ihre Hauptbedenken bei der 
zunehmenden Verwendung von AI-Algorithmen 
in der Schweiz?

Meine berufliche Optik beschränkt sich auf das Datenschutzrecht. Dieses verlangt, dass die Verantwortlichen die Funktionalitäten und Wirkungsweisen ihrer Technologien offenlegen, soweit sie mit personenbezogenen Daten arbeiten und auf die menschliche Privatsphäre und Persönlichkeit einwirken. Inwieweit sich aus dem Datenschutzrecht ableiten lässt, dass diese Applikationen legale, legitime oder gar menschenfreundliche Zwecke erfüllen müssen, ist umstritten. In einem kürzlich ergangenen Urteil, wo es um eine App einer Krankenkasse ging, hat mir das Bundesverwaltungsgericht auf meine Klage hin beschieden, dass es nicht meine Sache sei, danach zu fragen, ob eine Bearbeitung mit dem Recht der sozialen Krankenversicherung vereinbar sei.
Aber es gibt natürlich ethische Fragestellungen im Zusammenhang mit AI, die mich weniger in meiner Tätigkeit als Datenschützer denn als Privatperson bewegen: Inwieweit dürfen AI-Programme diskriminieren oder manipulieren? Hier können andere Bereiche der Rechtsordnung wie die Gleichstellungs- oder Antirassismusge­setzgebung anwendbar sein. Falls nicht, liegt der Ball bei der Politik. 

Wie sollte die Politik darauf reagieren? 
Nehmen wir das Beispiel einer militärischen Software. Deren «Ethik» werden die Programmierer in aller Regel darauf beschränken, dass das System die zugeführten Daten nicht zum Nachteil resp. zur Vernichtung der eigenen Streit­kräfte bearbeitet. Soweit eine solche Applikation für alle erkennbar und voraussehbar arbeitet, ist sie datenschutzrechtlich nicht zu beanstanden. Ob und inwieweit AI zur Vervollkommnung der anhaltenden Vernichtung von Mensch und Umwelt entwickelt und eingesetzt werden soll, muss die Politik entscheiden.


Christoph Grau
Christoph Grau

Christoph Grau ist seit September 2018 bei ti&m tätig und verantwortet die Medienarbeit. Davor arbeitete er mehr als vier Jahre als Redaktor und später als stellvertretender Chefredaktor bei einem grossen Schweizer IT-Fachmagazin. Er studierte Chinawissenschaften und Geschichte an der Freien Universität Berlin.