Inmitten wachsender Datenschutzbedenken untersucht Polen die Einhaltung der GDPR-Richtlinien durch OpenAI’s ChatGPT.
Das renommierte AI-Chatbot-System von OpenAI, ChatGPT, wird erneut auf seine Konformität mit den EU-Datenschutzgesetzen überprüft. Nach einer in Polen eingereichten Beschwerde haben die örtlichen Behörden öffentlich bestätigt, eine Untersuchung eingeleitet zu haben.
Die Vorwürfe
Das polnische Amt für den Schutz personenbezogener Daten (UODO) prüft die Beschwerde gegen ChatGPT, in der OpenAI vorgeworfen wird, Daten auf rechtswidrige und unklare Weise zu verarbeiten. Die Behörde betonte die Herausforderung, da OpenAI seinen Sitz außerhalb der EU hat und die bahnbrechende Technologie des generativen AI-Chatbots überprüft wird.
Jan Nowak, der Präsident des UODO, erklärte, dass der Fall mehrere GDPR-Bestimmungen betrifft und von OpenAI verlangt wird, eine Reihe von Fragen zu beantworten, um eine gründliche Überprüfung zu gewährleisten.
Jakub Groszkowski, stellvertretender Präsident des UODO, betonte erneut, dass Entitäten unabhängig von technologischen Fortschritten die GDPR einhalten müssen. Die Beschwerde stellt die Übereinstimmung von OpenAI mit den europäischen Datenschutzstandards in Frage.
Kernprobleme
Die von Datenschutz- und Sicherheitsforscher Lukasz Olejnik eingereichte Beschwerde konzentriert sich darauf, dass OpenAI nicht in der Lage war, fehlerhafte persönliche Daten zu korrigieren, die von ChatGPT über ihn erstellt wurden. Außerdem behauptet er, dass OpenAI seine Datenzugriffsanfrage nicht zufriedenstellend beantwortet hat und vage und widersprüchliche Antworten gegeben hat.
Die zugrundeliegende Technologie von ChatGPT, ein sogenanntes großes Sprachmodell (LLM), wurde mit einer Vielzahl von Daten trainiert, manchmal ohne Zustimmung. Diese Art der Datensammlung und die gelegentliche Erzeugung von falschen Informationen über Einzelpersonen haben ChatGPT in Konflikt mit den EU-Regelungen gebracht.
Der größere Kontext
Diese Untersuchung ist ein weiteres Kapitel in der wachsenden Liste von regulatorischen Herausforderungen, denen sich OpenAI in der EU gegenübersieht. Zuvor hatte die italienische Datenschutzbehörde (DPA) ChatGPT vorübergehend ausgesetzt, und die spanische DPA hat eine Untersuchung eingeleitet. Darüber hinaus untersucht eine über den Europäischen Datenschutzausschuss eingerichtete Taskforce AI-Chatbot-Technologien, die den Weg für einen einheitlichen Ansatz zur Regulierung solcher Technologien in der gesamten EU ebnen könnte.
Trotz dieser Herausforderungen versucht OpenAI, sich durch das komplexe regulatorische Umfeld der EU zu navigieren. Das Unternehmen hat kürzlich ein Büro in Dublin eröffnet, möglicherweise um seine regulatorischen Interaktionen im Bereich Datenschutz zu optimieren. Da die Entscheidungsfindung jedoch weiterhin in der US-Zentrale erfolgt, haben die DPAs in der gesamten EU weiterhin die Zuständigkeit, Probleme mit ChatGPT in ihren Gebieten zu untersuchen.
Maciej Gawronski von GP Partners, der Olejnik vertritt, äußerte die Hoffnung auf einen konstruktiven Dialog mit OpenAI hinsichtlich der GDPR-Konformität von ChatGPT. OpenAI hat jedoch noch nicht zu der laufenden Untersuchung Stellung genommen.
Schlusswort
Die sich entwickelnde Landschaft der KI und ihre Interaktionen mit Datenschutzgesetzen betonen die Notwendigkeit von Klarheit und Anpassung auf beiden Seiten. Die Erfahrungen von OpenAI in der EU könnten wertvolle Lektionen für die gesamte Technologiebranche liefern, um Innovation mit Datenschutz in Einklang zu bringen.