Deze week in AI: Hoe Kamala Harris AI zou kunnen reguleren

Hallo allemaal, welkom bij de reguliere AI-nieuwsbrief van TechCrunch.

Afgelopen zondag kondigde president Joe Biden aan dat hij niet langer van plan is zich herkiesbaar te stellen, maar in plaats daarvan zijn “volledige steun” aan te bieden aan vice-president Kamala Harris om de Democratische kandidaat te worden; in de daaropvolgende dagen kreeg Harris de steun van de meerderheid van de Democratische afgevaardigden.

Harris was openhartig over technologie en AI-beleid; als zij het presidentschap zou winnen, wat zou dat dan betekenen voor de Amerikaanse regulering van kunstmatige intelligentie?

Mijn collega Anthony Ha schreef er dit weekend een paar woorden over. Harris en president Biden zeiden eerder dat ze “de valse keuze verwerpen die suggereert dat we óf het publiek kunnen beschermen óf innovatie kunnen bevorderen.” Destijds vaardigde Biden een uitvoerend bevel uit waarin hij er bij bedrijven op aandrong nieuwe normen te stellen rond de ontwikkeling van AI. Harris zei dat de vrijwillige toezeggingen “een eerste stap waren in de richting van een veiligere AI-toekomst met meer in het verschiet” omdat “bij gebrek aan regelgeving en krachtig overheidstoezicht sommige technologiebedrijven ervoor kiezen om winst te laten prevaleren boven het welzijn van hun klanten. veiligheid van onze gemeenschappen en de stabiliteit van onze democratie.”

Ik heb ook met AI-beleidsexperts gesproken om hun mening te horen. Ze zeiden vooral dat ze consistentie verwachten van een regering-Harris, in tegenstelling tot de ontmanteling van het huidige AI-beleid en de algemene deregulering waar het Donald Trump-kamp op heeft aangedrongen.

Lee Tiedrich, een consultant op het gebied van kunstmatige intelligentie bij het Global Partnership for Artificial Intelligence, vertelde TechCrunch dat Biden’s goedkeuring van Harris “de kansen op handhaving van de continuïteit” in het Amerikaanse kunstmatige-intelligentiebeleid zou kunnen vergroten. “[This is] omkaderd door de AI Executive Order uit 2023 en ook gekenmerkt door multilateralisme via de Verenigde Naties, de G7, de OESO en andere organisaties”, zei ze. “Het uitvoeringsbesluit en de daarmee samenhangende acties vereisen ook meer overheidstoezicht op AI, onder meer door meer handhaving, strengere regels en beleidsmaatregelen voor AI-agentschappen, een focus op veiligheid en bepaalde verplichte tests en openbaarmakingen voor sommige grote AI-systemen.”

Sarah Kreps, een regeringsprofessor aan Cornell met een bijzondere interesse in kunstmatige intelligentie, merkte op dat er in bepaalde segmenten van de technologie-industrie de perceptie bestaat dat de regering-Biden te agressief in de richting van regulering heeft geleund en dat het AI-uitvoerend bevel “ te veel om te micromanagen.” Ze verwacht niet dat Harris een van de AI-veiligheidsprotocollen zal intrekken die onder Biden zijn ingevoerd, maar vraagt ​​zich af of de regering-Harris misschien een minder regelgevende, top-down benadering zou hanteren om critici te sussen.

Krystal Kauffman, onderzoeker bij het Distributed AI Research Institute, is het met Kreps en Tiedrich eens dat Harris Biden’s werk hoogstwaarschijnlijk zal voortzetten om de risico’s die gepaard gaan met het gebruik van AI aan te pakken en de transparantie rond AI te vergroten. Ze hoopt echter dat als Harris het presidentschap wint, ze een breder net voor belanghebbenden zal inzetten bij het formuleren van beleid – een net dat gegevens bevat van werknemers wier benarde situatie (slechte lonen, slechte arbeidsomstandigheden en geestelijke gezondheidsproblemen) vaak niet wordt onderkend.

“Harris moet de stemmen betrekken van datawerkers die helpen bij het programmeren van AI in deze belangrijke gesprekken in de toekomst”, aldus Kauffman. “We kunnen niet blijven kijken naar besloten bijeenkomsten met technische CEO’s als instrument voor beleidsvorming. Als dit zo doorgaat, zal dit ons absoluut op het verkeerde pad brengen.”

Nieuws

Meta brengt nieuwe modellen uit: Deze week heeft Meta Llama 3.1 405B uitgebracht, een tekstgeneratie- en analysemodel met 405 miljard parameters. Het grootste ‘open’ model tot nu toe, de Llama 3.1 405B, maakt gebruik van verschillende Meta-platforms en applicaties, waaronder de Meta AI-ervaring op Facebook, Instagram en Messenger.

Adobe vernieuwt Firefly: Adobe heeft dinsdag nieuwe Firefly-tools voor Photoshop en Illustrator uitgebracht, waardoor grafisch ontwerpers meer manieren krijgen om de interne AI-modellen van het bedrijf te gebruiken.

Gezichtsherkenning op schoolEen Engelse taalschool heeft een formele berisping gekregen van de Britse toezichthouder voor gegevensbescherming, nadat zij gezichtsherkenningstechnologie had gebruikt zonder specifieke toestemming van leerlingen te hebben verkregen om hun gezichtsscans te verwerken.

Cohere haalt een half miljard op: Cohere, een generatieve AI-startup mede opgericht door voormalige Google-onderzoekers, heeft $500 miljoen aan nieuw geld opgehaald bij investeerders, waaronder Cisco en AMD. In tegenstelling tot veel van zijn generatieve AI-startup-rivalen, past Cohere AI-modellen aan voor grote ondernemingen – een sleutelfactor voor het succes ervan.

Interview met AI-directeur van de CIA: Als onderdeel van TechCrunch’s lopende Women in AI-serie interviewde ondergetekende Lakshmi Raman, directeur AI bij de CIA. We spraken over haar traject tot directeur, het gebruik van kunstmatige intelligentie door de CIA en het evenwicht dat moet worden gevonden tussen het omarmen van nieuwe technologie en het verantwoord inzetten ervan.

Onderzoeksartikel van de week

Heeft u ooit van een transformator gehoord? Het is de AI-modelarchitectuur bij uitstek voor complexe redeneringstaken, waarbij modellen worden uitgevoerd zoals OpenAI GPT-4o, Claude van Anthropic en vele anderen. Maar hoe krachtig transformatoren ook zijn, ze hebben hun gebreken. En dus onderzoeken onderzoekers mogelijke alternatieven.

Een van de meest veelbelovende kandidaten zijn state space models (SSM), die de kwaliteiten van verschillende oudere typen AI-modellen combineren, zoals terugkerende neurale netwerken en convolutionele neurale netwerken, om een ​​computationeel efficiëntere architectuur te creëren die in staat is lange datasets op te nemen. (Ik bedoel romans en films). En een van de sterkste incarnaties van de SSM tot nu toe, Mamba-2, wordt deze maand beschreven in een artikel van wetenschappers Tri Dao (professor aan Princeton) en Albert Gu (Carnegie Mellon).

Net als zijn voorganger Mamba kan Mamba-2 grotere hoeveelheden invoergegevens verwerken dan op transformatoren gebaseerde equivalenten, terwijl hij qua prestaties concurrerend blijft met op transformatoren gebaseerde modellen voor bepaalde taalgeneratietaken. Dao en Gu impliceren dat als SSM’s blijven verbeteren, ze op een dag op gewone hardware zullen draaien – en krachtigere generatieve AI-toepassingen zullen leveren dan mogelijk zijn met de huidige transformatoren.

Model van de week

In een andere recente architecturale ontwikkeling heeft een team van onderzoekers een nieuw type generatief AI-model ontwikkeld waarvan zij beweren dat het beide sterkste Transformers kan evenaren (of verslaan). En Mamba in termen van efficiëntie.

Volgens de onderzoekers wordt de architectuur training-time-to-test-modellen (TTT-modellen) genoemd, en kan de architectuur nadenken over miljoenen tokens, die in toekomstige, verfijnde ontwerpen mogelijk kunnen worden opgeschaald naar miljarden tokens. (In generatieve AI zijn ‘tokens’ hapklare brokken ruwe tekst en andere stukjes data.) Omdat TTT-modellen veel meer tokens kunnen verwerken dan conventionele modellen en dit doen zonder hardwarebronnen te overbelasten, zijn ze zeer geschikt voor macht. De onderzoekers geloven dat dit de volgende generatie generatieve AI-toepassingen is.

Bekijk onze recente functie voor een diepere duik in TTT-modellen.

Pak de tas

Stability AI, de generatieve AI-startup waar investeerders, waaronder mede-oprichter van Napster, Sean Parker, onlangs in zijn gestapt om te redden van een financiële ondergang, heeft veel controverse veroorzaakt over de restrictieve gebruiksvoorwaarden voor nieuwe producten en het licentiebeleid.

Om het nieuwste open AI-beeldvormingsmodel, Stable Diffusion 3, commercieel te kunnen gebruiken, moesten organisaties die minder dan $ 1 miljoen per jaar verdienden tot voor kort een ‘creator’-licentie aanvragen die het totale aantal afbeeldingen dat ze konden genereren beperkte tot 6.000 per maand. Een groter probleem voor veel klanten waren echter de restrictieve verfijningsvoorwaarden van Stability, die de Stability AI het recht gaven (of op zijn minst leken te geven) om vergoedingen te innen en controle uit te oefenen over elk model dat was getraind op afbeeldingen gegenereerd door Stable Diffusion 3 .

De harde aanpak van AI-stabiliteit heeft ertoe geleid dat CivitAI, een van de grootste hosts van beeldgeneratiemodellen, een tijdelijk verbod heeft opgelegd op modellen die zijn gebaseerd of getraind op afbeeldingen uit Stable Diffusion 3, terwijl ze juridisch advies zocht over de nieuwe licentie.

“De zorg is dat, volgens ons huidige inzicht, deze licentie de stabiliteits-AI te veel macht geeft over het gebruik van niet alleen modellen die zijn afgestemd op Stable Diffusion 3, maar ook alle andere modellen die Stable Diffusion 3-beelden in hun datasets bevatten. ”, schreef CivitAI in een blogpost.

Als reactie op de tegenreactie zei Stability AI eerder deze maand dat het de licentievoorwaarden voor Stable Diffusion 3 zou aanpassen om een ​​liberaler commercieel gebruik mogelijk te maken. “Zolang je het niet gebruikt voor activiteiten die illegaal zijn, of duidelijk in strijd zijn met ons licentie- of acceptabel gebruiksbeleid, zal Stability AI je nooit vragen om de resulterende afbeeldingen, verfijningen of andere afgeleide producten te verwijderen – zelfs als je nooit betaal Stability AI”, legt Stabilnost uit op de blog.

De saga belicht de juridische valkuilen die generatieve AI blijven teisteren – en, bij uitbreiding, de mate waarin ‘open’ open blijft voor interpretatie. Noem mij een pessimist, maar het groeiende aantal controversieel beperkende licenties doet mij vermoeden dat de AI-industrie niet snel een consensus – of een stap in de richting van duidelijkheid – zal bereiken.