OpenAI durch Microsoft GDPR-compliant?
Die Frage ob OpenAI als Teil von Microsoft Azure datenschutzkonform genutzt werden kann, soll in diesem Beitrag beantwortet werden.
Natürlich gilt auch wie bei anderen Services, dass die konkrete Bewertung der Datenschutzkonformität immer von der konkreten Ausgestaltung und der genauen Umsetzung abhängt.
Als Orientierung haben wir aber für Sie bereits die relevantesten Punkte geprüft. Hierzu werden verschiedene Aspekte des Services einzeln betrachtet und bewertet. Danach wird ein Fazit gezogen.
Die Abwägung
Microsoft hat für die Einbindung von OpenAI und chatGPT eigene Terms of Use.
- Als Teil der Preview Funktionen von Microsoft unterliegt auch OpenAI den erweiterten Nutzungsbedingungen für die Preview Funktionen
- Hier behält sich MS eine von den Standardverträgen abweichende Datenverarbeitung vor.
- Zum Beispiel: Mit der Nutzung / Implementation wird einer Datenübertragung „outside of your tenant’s geographic region, compliance boundary, or national cloud instance.“ zugestimmt.
D.h. Die Daten könnten theoretisch in jedes Drittland transferiert werden. Eine Eingrenzung welche Länder ausgeschlossen sind oder ob es sich hierbei nur um einen Transfer in die USA handelt, findet sich nicht.
Microsoft garantiert Verarbeitung nur für eng definierte Zwecke
Microsoft schließt die Verarbeitung der Daten für folgende Zwecke aus. Quelle
Die Daten
- sind NICHT für andere Kunden verfügbar.
- sind NICHT für OpenAI verfügbar.
- werden NICHT zur Verbesserung von OpenAI-Modellen verwendet.
- werden NICHT verwendet, um Produkte oder Dienste von Microsoft oder Drittanbietern zu verbessern.
- werden NICHT zur automatischen Verbesserung von Azure OpenAI-Modellen für Ihre Verwendung in Ihrer Ressource verwendet (die Modelle sind zustandslos, es sei denn, Sie nehmen eine explizite Feinabstimmung der Modelle mit Ihren Trainingsdaten vor).
Feinabgestimmte Azure OpenAI-Modelle sind ausschließlich für die eigene Nutzung verfügbar.
Microsoft verarbeitet Daten zu der Verhinderung von Missbrauch von OpenAi
Um eine missbräuchliche Nutzung zu verhindern, speichert MS die Daten 30 Tage lang in einem logisch von der Kundenressource getrennten Storage. Hier wird jeglicher Content inkl. Prompts gespeichert. Sollte der Kunde sich in der EU befinden so wird auch der separate Speicherort innerhalb der EU sein. Sollten dann durch das Monitoring System Missbräuche auftreten, dann werden Daten geflaggt und Support-Mitarbeiter aus der EU entscheiden hier über weitere Schritte. Diese erhalten dann temporären Zugriff auf den jeweiligen Datensatz. Quelle
Angemessenheitsbeschluss EU und USA
Nach Beschluss der EU-Kommission von 07/23 ist ein Datentransfer in die USA nicht mehr rechtswidrig bzw. bedarf keiner zusätzlichen Sicherheitsgarantien mehr um die Rechtmäßigkeit zu gewährleisten. Zertifizierte Unternehmen (darunter auch MS) können nun so behandelt werden, als ob sie als Unternehmen ihren Hauptsitz in der EU hätten. Dies trifft wie erwähnt auch auf die Datenverarbeitung mit / durch MS zu und eine Datenverarbeitung durch AzureOpenAI in den USA wäre durch AVV’s und geeignete Sicherheitsmaßnahmen abgedeckt.
Meinung
Was für eine Nutzung spricht?
Der Ausschluss sämtlicher alternativer Nutzungsszenarien. Das heißt die Daten, die vom Kunden durch MS OpenAi generiert werden, bleiben beim Kunden oder werden nur in Ausnahmefällen für Support-Mitarbeiter offengelegt. Das bedeutet auch: Die Daten werden nicht genutzt, um die KI zu trainieren. Mit der Nutzung von OpenAI in Azure gehen also einige Garantien einher. Dies könnte in Diskussionen mit unternehmensinternen Gremien wie Betriebsräten oder Datenschutzbereichen ein Vorteil sein.
Für die Aufdeckung von Missbrauch werden Daten nur dann Support-Mitarbeiter offengelegt, wenn ein Verdacht besteht. Support-Mitarbeiter sind auch aus der EU sofern die Azure Residency auch in der EU vom Kunden angelegt wurde. Es ist jedoch auch möglich einzustellen, welche Daten für Support-Zwecke abgerufen werden dürfen. Dafür muss sich aber in einem Formular das Unternehmen zunächst registrieren bzw. bewerben: Azure OpenAI Limited Access Review: Modified Content Filters and Abuse Monitoring (microsoft.com)
Insbesondere vor dem Hintergrund des Angemessenheitsbeschlusses fällt bei der Nutzung von MS Azure OpenAi ein Risikofaktor weg: Die Übermittlung von sensitiven Daten in ein unsicheres Drittland wie die USA.
Was gegen eine Nutzung spricht?
Unklar bleibt allerdings, ob MS die Daten in ein anderes Drittland wie in 1) beschrieben transferieren kann, welches nicht die USA ist. Dies ist unwahrscheinlich, aber wird MS hier nicht konkret genug, um eine Übermittlung nach Australien oder anderen Ländern gänzlich auszuschließen.
Die Speicherung aller durch die Nutzung von Open AI in Azure Services generierte Daten spricht jedoch deutlich gegen das Prinzip der „Datenminimierung“ und der „Zweckbindung“ der DSGVO. Zwar können unmittelbar Support-Mitarbeiter erst dann zugreifen, nachdem ein Datensatz geflaggt wurde. Allerdings scheint eine zunächst verdachtsunabhängige Speicherung sämtlichen Contents für die Dauer von 30 Tagen nicht zweckgemäß insbesondere wenn mit einbezogen wird, dass die Daten auch dupliziert werden und somit das Risiko von unbefugten Zugriffen erhöht wird.
Bedeutet konkret?
Azure OpenAI sollte nur nach sorgfältiger Abwägung von Alternativen eingesetzt werden. Erst wenn keine zielgerichteten Alternativen für den konkreten Use Case vorhanden sind, welche datensparsamer und in der Datenverarbeitung transparenter sind, ist OpenAI als Lösung in Erwägung zu ziehen. Hier könnte dann über den Ausschluss der Alternativen eine Notwendigkeit vom Einsatz von OpenAI zur Steigerung der Effizienz bspw. unternehmensinterner Support-Prozesse argumentiert werden. Neben einer Notwendigkeitsprüfung könnte dann eine Interessensabwägung sowie Datenschutzfolgeabschätzung erfolgen.
Eindeutig ist aber, dass die Einbindung von OpenAi in Azure und die durch von MS vermittelte Garantien wesentlich datenschutzkonformer sind als Standalone-Services von OpenAI bzw. die Standalone Einbindung von ChatGPT.
Abschließend
Eine Einbindung von AzureOpenAI ist also auch aus datenschutzrechtlicher Sicht möglich, wenn Abwägungen durchgeführt und Risiken, die mit der Nutzung einhergehen, innerhalb einer DPIA bewertet sowie Maßnahmen umgesetzt werden.