Auslegungssache 109: Das KI-DSGVO-Dilemma

Die DSGVO verlangt, dass Betroffene Daten in KI-Modellen ändern lassen können. Doch wie soll das gehen? Die Anwendung von Recht stößt nun an technische Grenzen.

In Pocket speichern vorlesen Druckansicht 55 Kommentare lesen
Videokonferenz mit c't-Redakteur Jo Bager (links), Joerg Heidrich (rechts) und Holger Bleich (unten)

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 2 Min.
Von
  • Holger Bleich

Die Datenschutzkonferenz, also das gemeinsame Gremium der deutschen Datenschutzbehörden, hat endlich eine "Orientierungshilfe" zum Umgang mit generativer KI veröffentlicht. Doch was Unternehmen und Behörden helfen soll, bleibt schwammig, und könnte sie an mancher Stelle sogar vor unlösbare Probleme stellen.

In vielen Punkten bleibt die Orientierungshilfe allgemein und dürfte Verantwortlichen wenig dabei helfen, "DSGVO-Compliance" herstellen zu können. Vor allem aber zeigt das Papier wohl ungewollt auf, wo die kaum auflösbaren Widersprüche zwischen den Anforderungen der DSGVO und den technischen Besonderheiten von KI-Sprachmodellen (Large Language Models, LLMs) liegen.

(Bild: c't-Redakteur Jo Bager beim Podcasten in der Auslegungssache)

Im c't-Datenschutzpodcast Auslegungssache Folge 109 beschäftigen sich Redakteur Holger Bleich und heise-Verlagsjustiziar Joerg Heidrich mit der Orientierungshilfe und beschreiben das nahezu unauflösbare Dilemma, vor dem die Datenschutzaufsicht steht. Zur Seite steht ihnen Jo Bager. Der Informatiker arbeitet seit fast 30 Jahren in der c't-Redaktion und begleitet die KI-Evolution von Anfang an. Bager hilft, die juristischen Einschätzungen der DSK technisch einzuordnen.

Besonders kontrovers: In Punkt 11.1. ihrer Orientierungshilfe fordert die DSK von Verantwortlichen, dass "betroffene Personen ihre Rechte auf Berichtigung gemäß Art. 16 DSGVO und Löschung gemäß Art. 17 DSGVO ausüben können" müssen. Die DSK pocht hier auf den datenschutzrechtlichen Grundsatz der Richtigkeit personenbezogener Daten. Doch das geht an der technischen Realität vorbei: Ein LLM ist nun einmal keine Datenbank, in der sich Informationen austauschen lassen.

In dieselbe Kerbe schlug auch der österreichische Datenschutzaktivist Max Schrems mit seiner Non-Profit-Organisation noyb: Ende April hat noyb für eine betroffene Person Beschwerde gegen Open AI bei der österreichischen Datenschutzbehörde eingereicht. Obwohl das von ChatGPT angegebene Geburtsdatum des Beschwerdeführers falsch sei, habe OpenAI seinen Antrag auf Berichtigung oder Löschung abgelehnt, lautet die Begründung.

Open AI habe angegeben, dass eine Korrektur der Daten nicht möglich sei. "Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, darf es nicht zur Erstellung von Personendaten verwendet werden. Die Technologie muss den rechtlichen Anforderungen folgen, nicht umgekehrt", erklärte Maartje de Graaf, Datenschutzjuristin bei noyb.

Episode 109:

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Hier geht es zu allen bisherigen Folgen:

(hob)