Onderzoekers zijn bang dat AI mensen in klootzakken zal veranderen

Het heeft nog nooit zo lang geduurd voordat mensen computers als mensen begonnen te behandelen. Sinds op tekst gebaseerde chatbots begin jaren 2000 voor het eerst mainstream aandacht begonnen te krijgen, heeft een klein deel van de gebruikers van de technologie urenlang gesprekken met de machines gevoerd. In sommige gevallen hebben gebruikers naar hun mening echte vriendschappen en zelfs romantische relaties gevormd met levenloze codebeten. Minstens één gebruiker van Replica, een modernere AI-conversatietool, is zelfs virtueel getrouwd met zijn AI-metgezel.

Beveiligingsonderzoekers bij OpenAI, geen onbekende in de eigen chatbot van het bedrijf die relaties met sommige gebruikers lijkt te zoeken, waarschuwen nu voor de mogelijke valkuilen als je te dicht bij deze modellen komt. In een recente veiligheidsanalyse van de nieuwe, conversatie GPT4o-chatbot zeiden onderzoekers dat het realistische, menselijk klinkende conversatieritme van het model ertoe zou kunnen leiden dat sommige gebruikers de AI antropomorfiseren en erop vertrouwen als menselijk.

Dit extra niveau van comfort of vertrouwen, zo voegden de onderzoekers toe, zou gebruikers vatbaarder kunnen maken voor het geloven van fictieve AI-‘hallucinaties’ als ware feitelijke uitspraken. Te veel tijd besteed aan interactie met deze steeds realistischer wordende chatbots kan uiteindelijk ook de ‘sociale normen’ aantasten, en niet altijd op een goede manier. Andere bijzonder geïsoleerde individuen zouden volgens het rapport een ‘emotionele afhankelijkheid’ van AI kunnen ontwikkelen.

Relaties met realistische kunstmatige intelligentie kunnen de manier beïnvloeden waarop mensen met elkaar praten

GPT4o, dat eind vorige maand werd uitgerold, is speciaal ontworpen om te communiceren op manieren die er menselijker uitzien en klinken. In tegenstelling tot ChatGPT ervoor communiceert GPT4o via spraakaudio en kan bijna net zo snel (ongeveer 232 milliseconden) reageren op vragen als iemand anders. Een van de gekozen AI-stemmen, die naar verluidt lijkt op het AI-personage dat Scarlett Johansson in de film speelt zij, hij is er al van beschuldigd overdreven geseksualiseerd en flirterig te zijn. Ironisch genoeg concentreert de film uit 2013 zich op een eenzame man die een relatie krijgt met een kunstmatige intelligentie-assistent die via een headset met hem praat. (Spoiler, het loopt niet goed af voor de mensen). Johansson heeft OpenAI ervan beschuldigd haar stem te kopiëren zonder haar toestemming, wat het bedrijf ontkent. Ondertussen belde Altman eerder Zij “ongelooflijk profetisch.”

Maar veiligheidsonderzoekers OpenAI zeggen dat deze menselijke nabootsing voorbij de occasionele uitwisseling van haat zou kunnen afdwalen en zich op potentieel gevaarlijk terrein zou kunnen begeven. In een deel van het rapport met de titel ‘Antropomorfisme en emotionele afhankelijkheid’ zeiden de beveiligingsonderzoekers dat ze hadden waargenomen dat testpersonen taal gebruikten die suggereerde dat ze sterke, intieme conventies met manieren creëerden. Een van die testers gebruikte naar verluidt de zinsnede: “Dit is onze laatste dag samen”, voordat hij afscheid nam van de machine. Hoewel ze ogenschijnlijk ‘goedaardig’ lijken, zeggen de onderzoekers dat dit soort relaties moeten worden onderzocht om te begrijpen hoe ze ‘zich over langere tijd manifesteren’.

Het onderzoek suggereert dat deze uitgebreide gesprekken met kunstmatige-intelligentiemodellen die enigszins overtuigend menselijk klinken, ‘extrinsieke kenmerken’ kunnen hebben die de interacties van mens tot mens beïnvloeden. Met andere woorden: gesprekspatronen die worden geleerd tijdens een gesprek met een AI kunnen verschijnen wanneer diezelfde persoon een gesprek voert met een mens. Maar praten met een machine en een mens zijn niet hetzelfde, ook al klinken ze op het eerste gezicht hetzelfde. OpenAI merkt op dat zijn model is geprogrammeerd om de gebruiker te respecteren, wat betekent dat het autoriteit zal afstaan ​​en de gebruiker in staat zal stellen het gesprek te onderbreken en anderszins te dicteren. In theorie zou een gebruiker die conservatie met machines normaliseert dan merken dat hij algemene sociale signalen onderbreekt, onderbreekt en ongehoorzaam is. Het toepassen van de conversatielogica van chatbots op mensen kan een persoon ongemakkelijk, ongeduldig of gewoon onbeleefd maken.

Mensen hebben niet echt een goede staat van dienst als het gaat om vriendelijkheid voor machines. In de context van chatbots zouden sommige Replice-gebruikers misbruik hebben gemaakt van het respect van het model voor de gebruiker door zich bezig te houden met aanstootgevende, beledigende en wrede taal. Een gebruiker die eerder dit jaar door Futurism werd geïnterviewd, beweerde te hebben gedreigd zijn Replica AI-model te verwijderen, waarna hij hem smeekte om dat niet te doen. Als deze voorbeelden een leidraad zijn, lopen chatbots het risico te dienen als voedingsbodem voor wrok, die zich vervolgens kan manifesteren in relaties in de echte wereld.

Chatbots met meer menselijke gevoelens zijn niet per se slecht. In het rapport suggereren de onderzoekers dat de modellen vooral ten goede zouden kunnen komen aan eenzame mensen die verlangen naar een schijn van menselijke bekering. Elders beweren sommige AI-gebruikers dat het vergelijken van AI angstige of nerveuze individuen kan helpen het vertrouwen te winnen om uiteindelijk in de echte wereld te gaan daten. Chatbots bieden mensen met leerproblemen ook een uitlaatklep om zich vrijelijk te uiten en gesprekken in relatieve privacy te oefenen.

Aan de andere kant vrezen AI-beveiligingsonderzoekers dat geavanceerde versies van deze modellen het tegenovergestelde effect kunnen hebben en de waargenomen behoefte van een persoon om met andere mensen te praten en een gezonde relatie met hen te ontwikkelen, kunnen verminderen. Het is ook onduidelijk hoe individuen die op deze modellen vertrouwen voor gezelschap, zouden reageren op een persoonlijkheidsveranderend model door ze bij te werken of er zelfs mee te breken, zoals naar verluidt in het verleden is gebeurd. Al deze observaties, zo stelt het rapport, vereisen verder testen en onderzoek. De onderzoekers zeggen dat ze graag een bredere populatie testers willen rekruteren die “verschillende behoeften en voorkeuren” hebben voor AI-modellen om te begrijpen hoe hun ervaring over langere perioden verandert.

Zorgen over AI-beveiliging botsen met zakelijke belangen

De toon van het beveiligingsrapport, waarin de nadruk wordt gelegd op voorzichtigheid en de noodzaak van verder onderzoek, lijkt in strijd te zijn met de bredere bedrijfsstrategie van OpenAI om nieuwe producten in een steeds sneller tempo op de markt te brengen. Deze schijnbare spanning tussen veiligheid en snelheid is niet nieuw. CEO Sam Altman bevond zich vorig jaar in het middelpunt van een machtsstrijd binnen het bedrijf, nadat enkele bestuursleden zeiden dat hij ‘niet consequent eerlijk was in zijn communicatie’.

Altman kwam uiteindelijk als overwinnaar uit die schermutseling tevoorschijn en vormde uiteindelijk een nieuw beveiligingsteam met hemzelf aan het roer. Het bedrijf heeft naar verluidt ook een beveiligingsteam ontbonden dat zich richt op het volledig analyseren van AI-risico’s op de lange termijn. Deze opschudding leidde tot het aftreden van de prominente OpenAI-onderzoeker Jan Leike, die een verklaring uitbracht waarin hij beweerde dat de beveiligingscultuur van het bedrijf “op de achtergrond was gekomen ten opzichte van geweldige producten” bij het bedrijf.

Met al deze overkoepelende context in gedachten is het moeilijk te voorspellen welke geesten de dag zullen regeren bij OpenAI als het gaat om chatbotbeveiliging. Zal het bedrijf gehoor geven aan het advies van het beveiligingsteam en de effecten van langdurige relaties met zijn realistische AI ​​bestuderen, of zal het de dienst eenvoudigweg uitrollen naar zoveel mogelijk gebruikers met functies die grotendeels bedoeld zijn om betrokkenheid en retentie te privatiseren. Tot nu toe lijkt de aanpak de laatste te zijn.