Juridische kwesties waarmee rekening moet worden gehouden bij de adoptie van AI

U wilt dus dat uw bedrijf kunstmatige intelligentie gaat gebruiken. Voordat u overhaast AI gaat adopteren, moet u rekening houden met de potentiële risico’s, waaronder juridische kwesties met betrekking tot gegevensbescherming, intellectueel eigendom en aansprakelijkheid. Via een raamwerk voor strategisch risicobeheer kunnen bedrijven grote compliancerisico’s beperken en het vertrouwen van klanten behouden, terwijl ze gebruik maken van recente AI-ontwikkelingen.

Controleer je trainingsgegevens

Beoordeel eerst of de gegevens die worden gebruikt om uw AI-model te trainen, voldoen aan de toepasselijke wetten, zoals die van India uit 2023. Wet bescherming digitale persoonsgegevens en de Europese Unie Algemene Verordening Gegevensbescherming, omgaan met gegevenseigendom, toestemming en naleving. Een tijdige juridische beoordeling die bepaalt of verzamelde gegevens rechtmatig kunnen worden gebruikt voor machine learning-doeleinden kan regelgevende en juridische problemen later voorkomen.

Die juridische beoordeling omvat een diepgaande duik in de bestaande servicevoorwaarden, privacybeleidsverklaringen en andere klantgerelateerde contractvoorwaarden van uw bedrijf om te bepalen welke eventuele toestemmingen zijn verkregen van de gebruiker of gebruikers. De volgende stap is om te bepalen of dergelijke machtigingen voldoende zullen zijn om een ​​AI-model te trainen. Als dit niet het geval is, is waarschijnlijk aanvullende kennisgeving of toestemming van de gebruiker vereist.

Verschillende soorten gegevens brengen verschillende problemen met betrekking tot toestemming en aansprakelijkheid met zich mee. Bedenk bijvoorbeeld of uw gegevens persoonlijke gegevens, synthetische inhoud (meestal gegenereerd door een ander AI-systeem) of het intellectuele eigendom van iemand anders zijn. Het minimaliseren van data – waarbij je alleen gebruikt wat je nodig hebt – is een goed principe om in deze fase toe te passen.

Let op hoe u aan de gegevens komt. OpenAI werd aangeklaagd voor het schrapen van persoonlijke gegevens om zijn algoritmen te trainen. En, zoals hieronder besproken, kan het schrapen van gegevens problemen met betrekking tot inbreuk op het auteursrecht veroorzaken. Bovendien kunnen Amerikaanse wetten op het gebied van civiele actie van toepassing zijn, omdat dit mogelijk is de gebruiksvoorwaarden van de website schenden. Amerikaanse veiligheidsgerichte wetten zoals Wet op computerfraude en -misbruik men kan stellen dat het buiten het grondgebied van het land kan worden toegepast om buitenlandse entiteiten te vervolgen die naar verluidt gegevens uit beveiligde systemen hebben gestolen.

Pas op voor problemen met intellectueel eigendom

De New York Times onlangs aangeklaagd door OpenAI voor het gebruik van kranteninhoud voor trainingsdoeleinden, waarbij hij zijn argumenten baseert op claims van inbreuk op het auteursrecht en verwatering van handelsmerken. De rechtszaak heeft een belangrijke les voor alle AI-bedrijven: wees voorzichtig met het gebruik van auteursrechtelijk beschermde inhoud voor trainingsmodellen, vooral als het mogelijk is om dergelijke inhoud van de eigenaar in licentie te geven. Appel en andere bedrijven hebben dat ook gedaan licentiemogelijkheden overwogendie waarschijnlijk naar voren zal komen als de beste manier om potentiële claims wegens inbreuk op het auteursrecht te beperken.

Om zorgen over auteursrechten te verminderen, Microsoft aangeboden aan staat achter de resultaten van zijn AI-assistenten, waarin wordt beloofd klanten te verdedigen tegen mogelijke claims wegens inbreuk op het auteursrecht. Een dergelijke bescherming van intellectueel eigendom zou een industriestandaard kunnen worden.

Bedrijven moeten ook rekening houden met de mogelijkheid van onbedoelde lekkage vertrouwelijke en bedrijfsgeheime informatie door AI-producten. Als u medewerkers toestaat technologieën intern te gebruiken, zoals ChatGPT (voor tekst) ik Github-copiloot (om code te genereren), moeten bedrijven er rekening mee houden dat dergelijke generatieve AI-tools vaak voorkomen neem gebruikersquery’s en -uitvoer op als trainingsgegevens om uw modellen verder te verbeteren. Gelukkig bieden generatieve AI-bedrijven doorgaans veiligere diensten en de mogelijkheid om zich af te melden voor modeltraining.

Pas op voor hallucinaties

Claims over inbreuk op het auteursrecht en problemen met gegevensbescherming doen zich ook voor wanneer generatieve AI-modellen trainingsgegevens als output uitspugen.

Dit is vaak het resultaat “overmatige” modellen, in wezen een trainingsfout waarbij het model specifieke trainingsgegevens onthoudt in plaats van algemene regels te leren over het beantwoorden van vragen. Geheugen kan ervoor zorgen dat het AI-model trainingsgegevens als output retourneert – wat een ramp zou kunnen zijn vanuit het perspectief van auteursrecht of gegevensbescherming.

Geheugen kan ook leiden tot onnauwkeurigheden in de uitvoer, ook wel “hallucinaties” genoemd. In een interessant geval, a De New York Times de verslaggever was experimenteren met de Bing AI-chatbot Sydney toen hij zijn liefde voor de journalist bekende. Het virale incident heeft het debat aangewakkerd over de noodzaak om te monitoren hoe dergelijke tools worden gebruikt, vooral onder jongere gebruikers, die eerder menselijke kenmerken aan AI toeschrijven.

Hallucinaties hebben ook in de professionele domeinen voor problemen gezorgd. Twee advocaten kregen bijvoorbeeld een boete nadat ze een juridische brief hadden ingediend, geschreven door ChatGPT, waarin niet-bestaande jurisprudentie werd aangehaald.

Dergelijke hallucinaties laten zien waarom bedrijven AI-producten moeten testen en valideren om niet alleen juridische risico’s maar ook reputatieschade te voorkomen. Veel bedrijven beschikken over speciale technische middelen ontwikkeling van inhoudsfilters die de nauwkeurigheid verbeteren en de kans verkleinen dat het resultaat aanstootgevend, aanstootgevend, ongepast of lasterlijk zal zijn.

Gegevens bijhouden

Als u toegang heeft tot de persoonsgegevens van gebruikers, is het van groot belang dat u daar veilig mee omgaat. U moet er ook voor zorgen dat u gegevens kunt verwijderen en het gebruik ervan voor machine learning-doeleinden kunt voorkomen als reactie op gebruikersverzoeken of instructies van toezichthouders of rechtbanken. Het onderhouden van gegevensbronnen en het garanderen van een robuuste infrastructuur is van het grootste belang voor alle AI-engineeringteams.

“Via een strategisch raamwerk voor risicobeheer kunnen bedrijven grote compliancerisico’s beperken en het vertrouwen van klanten behouden, terwijl ze gebruik maken van recente AI-ontwikkelingen.”

Aan deze technische vereisten zijn juridische risico’s verbonden. In de Verenigde Staten zijn onder meer toezichthouders Federale Handelscommissie hebben vertrouwd algoritmische uitbraak, strafmaatregel. Als een bedrijf de toepasselijke wetten heeft overtreden bij het verzamelen van trainingsgegevens, moet het niet alleen de gegevens verwijderen, maar ook de modellen die op basis van de besmette gegevens zijn getraind. Het is raadzaam om nauwkeurig bij te houden welke datasets zijn gebruikt om de verschillende modellen te trainen.

Pas op voor vooringenomenheid in AI-algoritmen

Een van de belangrijkste uitdagingen van AI is het potentieel voor schadelijke vooroordelen, die in algoritmen kunnen worden ingebed. Als vooroordelen niet vóór de productlancering worden weggenomen, kunnen apps bestaande discriminatie in stand houden of zelfs verergeren.

Er is bijvoorbeeld aangetoond dat voorspellende politie-algoritmen die door de Amerikaanse politie worden gebruikt, de heersende vooroordelen versterken. Zwart en Latino gemeenschappen worden onevenredig doelwit.

Wanneer gebruikt voor goedkeuringen van leningen of werkgelegenheid voor werkbevooroordeelde algoritmen kunnen tot discriminerende uitkomsten leiden.

Experts en beleidsmakers zeggen dat het belangrijk is dat bedrijven streven naar eerlijkheid op het gebied van AI. Algoritmische vooringenomenheid kan een tastbare, problematische impact hebben op burgerlijke vrijheden en mensenrechten.

Wees transparant

Veel bedrijven hebben ethische beoordelingsraden opgericht om ervoor te zorgen dat hun bedrijfspraktijken in overeenstemming zijn met de principes van transparantie en verantwoording. Best practices zijn onder meer transparant zijn over datagebruik en accuraat zijn in het vertellen van klanten over de mogelijkheden van AI-producten.

Amerikaanse toezichthouders kijken bedrijven fronsend aan AI-mogelijkheden te veel beloven in hun marketingmateriaal. Regelgevers hebben dat ook gedaan waarschuwde bedrijven tegen het stilletjes en eenzijdig wijzigen van de datalicentievoorwaarden in hun contracten als een manier om de reikwijdte van hun toegang tot klantgegevens uit te breiden.

Kies voor een mondiale, op risico gebaseerde aanpak

Veel AI-managementexperts bevelen dit aan een risicogebaseerde aanpak hanteren aan de ontwikkeling van AI. De strategie omvat het in kaart brengen van AI-projecten in uw bedrijf, het beoordelen ervan op risicoschaal en het implementeren van mitigatiemaatregelen. Veel bedrijven nemen risicobeoordelingen op in bestaande processen die de privacy-impact van voorgestelde functies meten.

Bij het vaststellen van AI-beleid is het belangrijk ervoor te zorgen dat de regels en richtlijnen die u overweegt adequaat zijn om de risico’s wereldwijd te beperken, rekening houdend met de nieuwste internationale wetten.

Een geregionaliseerde aanpak voor het beheer van AI kan duur en foutgevoelig zijn. De Europese Unie is onlangs aangenomen Wet op de kunstmatige intelligentie bevat een gedetailleerde reeks vereisten voor bedrijven die AI ontwikkelen en gebruiken, en soortgelijke wetten zijn dat ook zal waarschijnlijk binnenkort in Azië verschijnen.

Ga door met juridische en ethische beoordelingen

Juridische en ethische beoordelingen zijn belangrijk gedurende de hele levenscyclus van een AI-product: modeltraining, testen en ontwikkelen, lancering en zelfs daarna. Bedrijven moeten proactief nadenken over hoe ze AI kunnen implementeren om inefficiënties weg te nemen en tegelijkertijd de vertrouwelijkheid van bedrijfs- en klantgegevens te behouden.

Voor veel mensen is AI nieuw terrein. Bedrijven moeten investeren in trainingsprogramma’s om hun personeel te helpen begrijpen hoe ze de nieuwe tools het beste kunnen gebruiken en hoe ze deze kunnen gebruiken om hun bedrijf te stimuleren.