Oprah had net een AI-special met Sam Altman en Bill Gates – hier zijn de hoogtepunten

Donderdagavond laat zond Oprah Winfrey een special over AI uit, toepasselijk getiteld ‘AI and the Future of Us’. Gasten waren onder meer OpenAI CEO Sam Altman, tech influencer Marques Brownlee en huidig ​​FBI-directeur Christopher Wray.

De dominante toon was scepticisme – en voorzichtigheid.

Oprah merkte in haar voorbereide opmerkingen op dat de AI-geest uit de fles is, ten goede of ten kwade, en dat de mensheid zal moeten leren leven met de gevolgen.

“AI ligt nog steeds buiten onze controle en voor een groot deel… ons begrip”, zei ze. “Maar hij is hier, en we zullen leven met een technologie die onze bondgenoot kan zijn, maar ook onze rivaal… Wij zijn de meest flexibele wezens op deze planeet. Wij zullen het opnieuw aanpassen. Maar pas op voor wat echt is. De inzet kan niet hoger zijn.”

Altman zelf belooft te veel

Altman, Oprah’s eerste interview van de avond, vroeg zich af of de hedendaagse AI concepten leert binnen de gegevens waarop het is getraind.

“We laten het systeem duizend woorden achter elkaar zien en vragen het te voorspellen wat er daarna komt”, zei Oprah. “Het systeem leert voorspellen, en leert vervolgens intern basisconcepten.”

Veel experts zijn het daar niet mee eens.

AI-systemen als ChatGPT en o1, die OpenAI donderdag onthulde, voorspellen inderdaad de meest waarschijnlijke volgende woorden in een zin. Maar het zijn gewoon statistische machines: ze leren patronen in data. Ze hebben geen bedoeling; ze raden alleen maar.

Hoewel Altman waarschijnlijk de mogelijkheden van de hedendaagse AI-systemen heeft overschat, onderstreepte hij het belang van het vinden van manieren om diezelfde systemen op de veiligheid te testen.

“Een van de eerste dingen die we moeten doen – en dat gebeurt nu – is ervoor zorgen dat de overheid gaat uitzoeken hoe we deze systemen kunnen testen, zoals we dat doen voor vliegtuigen of nieuwe medicijnen”, zei hij. “Persoonlijk spreek ik waarschijnlijk elke paar dagen iemand van de regering.”

Altmans drang om te reguleren kan uit eigenbelang voortkomen. OpenAI heeft zich verzet tegen de Californische AI-beveiligingswet, bekend als SB 1047, en zegt dat deze ‘innovatie zal onderdrukken’. Voormalige medewerkers van OpenAI en deskundigen op het gebied van kunstmatige intelligentie, zoals Geoffrey Hinton, steunden het ontwerp echter, met het argument dat het de noodzakelijke waarborgen zou opleggen aan de ontwikkeling van AI.

Oprah moedigde Altman ook aan over zijn rol als leider van OpenAI. Ze vroeg waarom mensen hem zouden moeten vertrouwen, maar hij ontweek de vraag grotendeels en zei dat zijn bedrijf in de loop van de tijd vertrouwen probeert op te bouwen.

In het verleden heeft Altman heel direct gezegd dat mensen hem of wie dan ook niet moeten vertrouwen om ervoor te zorgen dat AI de wereld ten goede komt.

De CEO van OpenAI zei later dat het vreemd was om Oprah te horen vragen of hij “de machtigste en gevaarlijkste man ter wereld” was, zoals de nieuwskop suggereerde. Hij was het daar niet mee eens, maar zei dat hij de verantwoordelijkheid voelde om AI in een positieve richting voor de mensheid te duwen.

Oprah over deepfakes

Zoals onvermijdelijk zou gebeuren in een AI-special, kwam het onderwerp deepfakes ter sprake.

Om te demonstreren hoe overtuigend synthetische media kunnen worden, vergeleek Brownlee voorbeeldbeelden van Sora, de AI-aangedreven videogenerator van OpenAI, met door AI gegenereerde beelden van een maanden oud AI-systeem. Het Sora-monster lag mijlenver voor, wat de snelle vooruitgang op dit gebied illustreert.

“Nu kun je nog steeds naar delen hiervan kijken en zien dat er iets mis is”, zei Brownlee over de beelden van Sora. Oprah zei dat het voor haar echt voelde.

De deepfakes-showcase diende als vervolg op een interview met Wray, die vertelde over het moment waarop hij voor het eerst kennis maakte met AI-deepfake-technologie.

“Ik was in de vergaderruimte en in de menigte [FBI] mensen kwamen samen om mij te laten zien hoe AI-ondersteunde deepfakes kunnen worden gemaakt”, aldus Wray. “En ze hebben een video gemaakt waarin ik dingen zeg die ik nog nooit eerder heb gezegd en ook nooit zal zeggen.”

Wray sprak over de toenemende prevalentie van seksuele afpersing met behulp van kunstmatige intelligentie. Volgens cybersecuritybedrijf ESET zal er tussen 2022 en 2023 sprake zijn van een toename van 178 procent in gevallen van seksuele afpersing, mede dankzij kunstmatige intelligentietechnologie.

‘Iemand doet zich voor als een leeftijdsgenoot van een tienerdoelwit,’ zei Wray, ‘en dan gebruiken ze [AI-generated] compromitterende foto’s om het kind ervan te overtuigen echte foto’s terug te sturen. Eigenlijk is het een man achter een toetsenbord in Nigeria, en als ze de foto’s krijgen, dreigen ze het kind te chanteren en te zeggen: als je niet betaalt, delen we deze foto’s die je leven zullen ruïneren. ”

Wray ging ook in op de desinformatie rond de komende Amerikaanse presidentsverkiezingen. Met het argument dat het “geen tijd is voor paniek”, benadrukte hij dat “iedereen in Amerika” de plicht heeft om “een verhoogd gevoel van focus en waakzaamheid te brengen” bij het gebruik van AI en zich ervan bewust is dat AI “kan worden gebruikt door de slechteriken tegen ons allemaal.”

“Al te vaak zien we dat iets op sociale media dat lijkt op Bill uit Topeka of Mary uit Dayton eigenlijk een Russische of Chinese inlichtingenagent is in de buitenwijken van Peking of Moskou,” zei Wray.

Uit een Statista-enquête bleek dat eind 2023 meer dan een derde van de Amerikaanse respondenten verkeerde informatie opmerkte – of waarvan zij vermoedden dat het verkeerde informatie was – over belangrijke kwesties. Dit jaar verschenen misleidende beelden van vice-presidentskandidaat Kamala Harris en de voormalige president gecreëerd door kunstmatige intelligentie Donald Trump heeft miljoenen views verzameld op sociale netwerken, waaronder X.

Bill Gates over AI-verstoring

Voor een techno-optimistische verandering van tempo interviewde Oprah Microsoft-oprichter Bill Gates, die de hoop uitsprak dat kunstmatige intelligentie de gebieden van onderwijs en geneeskunde zal inhalen.

“AI is als een derde persoon die zit [a medical appointment,] het doet de transcriptie, suggereert het recept, ‘zei Gates. “En dus in plaats van dat de dokter voor een computerscherm zit, hebben ze met jou te maken, en de software zorgt ervoor dat er een echt goed transcript is.”

Gates negeerde echter de mogelijkheid van vooringenomenheid als gevolg van slechte AI-training.

Uit een recent onderzoek is gebleken dat spraakherkenningssystemen van toonaangevende technologiebedrijven twee keer zoveel kans hebben om audio uit zwarte luidsprekers verkeerd te transcriberen dan uit witte luidsprekers. Ander onderzoek heeft aangetoond dat AI-systemen de lang gekoesterde, valse overtuiging versterken dat er biologische verschillen bestaan ​​tussen zwarte en blanke mensen – onwaarheden die ertoe leiden dat artsen gezondheidsproblemen verkeerd diagnosticeren.

In de klas, zegt Gates, kan AI ‘altijd beschikbaar’ zijn en ‘begrijpen hoe ze je moeten motiveren … ongeacht je vaardigheidsniveau’.

Dat is niet precies hoeveel klaslokalen het zien.

Afgelopen zomer haastten scholen en hogescholen zich om ChatGPT te verbieden uit angst voor plagiaat en verkeerde informatie. Sommigen hebben sindsdien hun verbod ongedaan gemaakt. Maar niet iedereen is overtuigd van het goede potentieel van GenAI, wat wijst op enquêtes zoals het Britse Centre for a Safer Internet, waaruit bleek dat meer dan de helft van de kinderen meldt dat mensen van hun eigen leeftijd GenAI op een negatieve manier gebruiken, bijvoorbeeld door overtuigende nepproducten te creëren. informatie of het gebruik van afbeeldingen maakt iemand van streek.

Eind vorig jaar vroeg de VN-organisatie voor onderwijs, wetenschap en cultuur (UNESCO) regeringen om het gebruik van GenAI in het onderwijs te reguleren, inclusief het invoeren van leeftijdsbeperkingen voor gebruikers en het beschermen van de gegevens en privacy van gebruikers.