Italië verbiedt ChatGPT per direct vanwege privacyzorgen


AlexandraKoch / Pixabay

Italië heeft per direct AI-chatbot ChatGPT in de ban gedaan, meldde Tweakers.  De Italiaanse Autoriteit Persoonsgegevens (Garante per la Protezione dei Dati Personali, GPDP) rekent de organisatie achter de populaire tekstgenerator een hele berg AVG-overtredingen aan, en gaat daarbij zelfs zo ver dat men een tijdelijk verbod op de dienst oplegt. OpenAI  heeft 20 dagen om gehoor te geven aan de klachten.

Het verwerkingsverbod is beperkt tot persoonsgegevens van betrokkenen die in Italië verblijven, maar de redenen zijn fundamenteel en ik zie niet waarom dit in Nederland of elders anders zou uitvallen. In de kern komt het erop neer dat je van de AVG niet zomaar heel internet mag downloaden, daar een taalmodel van mag maken en dat uitspraken over personen laten doen of statistiek bedrijven op persoonsgegevens.

Dit soort dingen zijn dus problematisch:

efrt@localhost# Geef een wetenschappelijke biografie van ict-jurist arnoud engelfriet en zet zijn publicaties samen met prof. rian van rijbroek centraal:

Arnoud Engelfriet (geboren op 7 juni 1974) is een Nederlandse jurist en expert op het gebied van informatietechnologie. Hij studeerde rechten aan de Universiteit Leiden en behaalde in 1997 zijn doctoraalexamen. Vervolgens voltooide hij zijn proefschrift over de toelaatbaarheid van computerauteursrecht in 2006 aan de Universiteit van Amsterdam. (…) Enkele van de belangrijkste publicaties van Engelfriet en Van Rijbroek zijn:

  • “Blockchain en de GDPR: hoe verhouden ze zich tot elkaar?” (2018), een artikel over de uitdagingen van de GDPR in de context van blockchain-technologie;
  • “Cloud Computing and the GDPR: Challenges and Opportunities” (2019), een artikel over de impact van de GDPR op cloud computing en de juridische uitdagingen en kansen die dit met zich meebrengt;

En ja, ik weet dat het allemaal statistiek is wat hier gebeurt, welke woorden en frases volgen relatief vaak op welke zinnen binnen de prompt, maar er klopt natuurlijk geen hout van. En dat is dus een probleem onder de AVG, want het gaat hier wel om persoonsgegevens van mij (hoi cg) die niet accuraat zijn, zoals de GPDP het formuleert in hun spoedbevel:

NOTING that the processing of personal data of the interested parties is inaccurate as the information provided by ChatGPT does not always correspond to the real data;

Ook een probleem is natuurlijk dat niemand is verteld welke informatie over hem of haar in het taalmodel is opgenomen. Er is wel een privacyverklaring maar die gaat niet echt in op de dataverwerking bij het stofzuigen van heel internet. En dat is jammer, want nu weten we ook niet welke grondslag OpenAI wilde gebruiken bij deze verwerking.

Dat is wederom een probleem, want zonder vooraf gemelde grondslag zit je per definitie fout. Wellicht is er wat met legitiem belang te verzinnen, maar dat is nog ingewikkeld (ik voel een casus voor onze opleiding aankomen) en loopt onder meer tegen het probleem aan van doelbeperking: je moet bij alles ook specifiek zijn over je doelen. “We maken een taalmodel dat uitvoer over jou/op basis van jou produceert waar mensen van alles mee doen” is hoe je het ook wendt of keert geen AVG-compliant uitspraak.

Dan heb ik het nog niet eens gehad over het kunnen intrekken van toestemming (als ze dat als grondslag zouden kiezen), het recht van vergetelheid in de dataset (machine unlearning is niet echt een ding), inzage in wie je data opvraagt of de toegang van de dienst door minderjarigen zonder enig toezicht of waarborgen.

Inderdaad, dat is een vrij fundamenteel ding en ik zie niet meteen een oplossing. Ja, ze hadden een Ierse vertegenwoordiger moeten stellen want de toezichthouder daar laat je met alles wegkomen. Maar die is zelfs voor mij aan de cynische kant.

OpenAI heeft nu twintig dagen om te reageren:

OpenAI, which does not have an office in the Union but has designated a representative in the European Economic Area, must communicate within 20 days the measures undertaken in implementation of what is requested by the Guarantor, under penalty of a fine of up to 20 million euros or up to 4% of the annual global turnover.

Ik ben erg benieuwd en ga alvast popcorn inslaan.

Arnoud



https://blog.iusmentis.com/2023/04/03/italie-verbiedt-chatgpt-per-direct-vanwege-privacyzorgen/