De Europese privacywaakhond ondervraagt ​​Google over gegevens die worden gebruikt om AI te trainen

Een groot Google-logo in de vorm van een letter
Toename / De Google-stand op de Integrated Systems Europe-conferentie op 31 januari 2023 in Barcelona, ​​Spanje.

Getty-afbeeldingen | Cesc Maymo

Google wordt onderzocht door de Europese privacywaakhond over de verwerking van persoonlijke gegevens bij de ontwikkeling van een van zijn kunstmatige-intelligentiemodellen, terwijl toezichthouders hun greep op de ambities van Big Tech verstevigen.

De Ierse Data Protection Commission, die verantwoordelijk is voor de handhaving van de Algemene Verordening Gegevensbescherming van de EU, zei dat ze een juridisch onderzoek is gestart naar Pathways Language Model 2, oftewel PaLM 2, van de technologiegigant.

PaLM 2 werd gelanceerd in mei 2023 en ging vooraf aan de nieuwste Google Gemini-modellen, die de AI-producten aandrijven. Gemini werd gelanceerd in december van hetzelfde jaar en is nu het kernmodel achter zijn aanbod voor het genereren van tekst en afbeeldingen.

Bij het onderzoek zal worden beoordeeld of het bedrijf zijn verplichtingen onder de AVG met betrekking tot de verwerking van persoonsgegevens van burgers van de EU en de Europese Economische Ruimte heeft geschonden.

In dit raamwerk moeten bedrijven een gegevensbeschermingseffectbeoordeling uitvoeren voordat zij met dergelijke informatie omgaan, wanneer de aard van het gebruik ervan waarschijnlijk een hoog risico voor de rechten en vrijheden van individuen met zich meebrengt.

Dit gold vooral voor nieuwe technologieën en was “cruciaal om ervoor te zorgen dat de fundamentele rechten en vrijheden van individuen op adequate wijze worden overwogen en beschermd”, aldus de toezichthouder in een verklaring.

De beoordeling wordt onderzocht.

Een woordvoerder van Google zei: “We nemen onze verplichtingen onder de AVG serieus en zullen constructief samenwerken met de DPC om hun vragen te beantwoorden.”

Dit is de laatste in een reeks acties van de DPC tegen Big Tech-groepen die grote taalmodellen bouwen.

In juni heeft Meta zijn plannen stopgezet om zijn Llama-model te trainen op openbare inhoud die door volwassenen op Facebook en Instagram in heel Europa wordt gedeeld, na gesprekken met de Ierse toezichthouder. Meta beperkte vervolgens de beschikbaarheid van sommige van zijn AI-producten voor gebruikers in de regio.

Een maand later onthulden X-gebruikers dat ze “ervoor hadden gekozen” dat hun berichten op de site zouden worden gebruikt om het systeem te trainen om de xAI van Elon Musk te gebruiken.

Het platform heeft de verwerking van Europese gebruikersgegevens die zijn verzameld om zijn Grok AI-model te trainen, wekenlang opgeschort, na juridische stappen van de DPC. Het was de eerste keer dat de toezichthouder zijn bevoegdheden gebruikte om dergelijke actie tegen een technologiebedrijf te ondernemen.

© 2024 The Financial Times Ltd. Alle rechten voorbehouden. Ze mogen op geen enkele manier worden herverdeeld, gekopieerd of gewijzigd.