Slack-gebruikers zijn geschokt als ze ontdekken dat berichten worden gebruikt om AI te trainen

Slack-gebruikers zijn geschokt als ze ontdekken dat berichten worden gebruikt om AI te trainen

Na de lancering van Slack AI in februari lijkt Slack zijn hakken in het zand te zetten en zijn vage beleid te verdedigen dat standaard klantgegevens (inclusief berichten, inhoud en bestanden) overhevelt om de wereldwijde AI-modellen van Slack te trainen.

Volgens Slack-ingenieur Aaron Maurer legde Slack in een blogpost uit dat de chatdienst van Salesforce zijn grootschalige taalmodellen (LLM) niet traint op basis van klantgegevens. Maar het beleid van Slack moet mogelijk worden bijgewerkt “om zorgvuldiger uit te leggen hoe deze privacyprincipes zich uiten in Slack AI”, schreef Maurer op Threads, deels omdat het beleid “oorspronkelijk was geschreven over het zoek- en aanbevelingswerk dat we jaren vóór Slack AI deden.”

Maurer reageerde op een Threads-post van ingenieur en schrijver Gergely Orosz, die er bij bedrijven op aandrong te wachten met het delen van gegevens totdat het beleid is verduidelijkt, niet via een blog, maar in daadwerkelijke beleidstaal.

“ML-ingenieur bij Slack zegt dat ze geen berichten gebruiken om LLM-modellen te trainen”, schreef Orosz. “Mijn antwoord is dat de huidige omstandigheden dit toelaten. Ik geloof dat het beleid is als het beleid is. Een blogpost is geen privacybeleid: elk serieus bedrijf weet dat.”

De spanning voor gebruikers wordt duidelijker als je de privacyprincipes van Slack vergelijkt met de manier waarop het bedrijf reclame maakt voor Slack AI.

Het privacybeleid van Slack stelt specifiek dat “Machine learning (ML) en kunstmatige intelligentie (AI) nuttige hulpmiddelen zijn die we op beperkte manieren gebruiken om onze productmissie te verbeteren. Om AI/ML-modellen te ontwikkelen, analyseren onze systemen klantgegevens (bijvoorbeeld berichten, inhoud en bestanden) die naar Slack zijn verzonden, evenals andere informatie (inclusief gebruiksinformatie) zoals gedefinieerd in ons privacybeleid en in uw gebruikersovereenkomst.”

Ondertussen zegt de Slack AI-pagina: “Werk zonder zorgen. Uw gegevens zijn uw gegevens. We gebruiken ze niet om Slack AI te trainen.”

Vanwege deze discrepantie hebben gebruikers Slack opgeroepen om zijn privacyprincipes bij te werken om duidelijk te maken hoe gegevens worden gebruikt voor Slack AI of toekomstige AI-updates. Volgens een woordvoerder van Salesforce was het bedrijf het ermee eens dat de update nodig was.

“Gisteren vroegen enkele leden van de Slack-gemeenschap om meer duidelijkheid over onze privacyprincipes”, vertelde een woordvoerder van Salesforce aan Ars. “Vandaag updaten we deze principes om de relatie tussen gebruikersgegevens en generatieve AI in Slack beter uit te leggen.”

Een woordvoerder vertelde Ars dat de beleidsupdate zal verduidelijken dat Slack “geen LLM’s of andere generatieve modellen ontwikkelt met behulp van gebruikersgegevens”, “gebruikersgegevens gebruikt om LLM’s van derden te trainen”, of “deze modellen op zo’n manier bouwt of traint dat ze konden klantgegevens leren, onthouden of reproduceren.” De update zal ook verduidelijken dat “Slack AI kant-en-klare LLM’s gebruikt waarbij modellen geen klantgegevens bewaren”, waardoor “klantgegevens nooit de vertrouwensgrenzen van Slack verlaten en LLM-aanbieders nooit toegang hebben tot klantgegevens.”

Deze wijzigingen lijken echter niet tegemoet te komen aan een belangrijk probleem van gebruikers die nooit uitdrukkelijk hebben ingestemd met het delen van chats en andere Slack-inhoud voor gebruik in AI-training.

Gebruikers die zich afmelden voor het delen van gesprekken met Slack

Dit controversiële beleid is niet nieuw. Wired waarschuwde er in april voor, en TechCrunch meldde dat het beleid tot tenminste september 2023 van kracht is.

Maar er ontstond gisteravond een wijdverbreide reactie op Hacker News, waar Slack-gebruikers de chatservice opriepen omdat ze gebruikers schijnbaar niet op de hoogte hadden gesteld van de beleidswijziging, maar deze in plaats daarvan stilletjes standaard hadden ingeschakeld. Voor critici leek het weinig voordeel te hebben iemand anders dan Slack te kiezen.

Van daaruit verspreidde de reactie zich naar de sociale media, waar SlackHQ snel de voorwaarden van Slack verduidelijkte met uitleg die niet alle kritiek leek te adresseren.

“Het spijt me Slack, wat doe je in vredesnaam met gebruikers-DM’s, berichten, bestanden, enz.?” Corey Quinn, hoofd cloud-econoom voor een onkostenbeheerbedrijf genaamd Duckbill Group, schreef op X. “Ik weet zeker dat ik dit niet goed lees.”

SlackHQ reageerde op Quinn nadat de econoom had verklaard: “Ik haat dit zo erg” en bevestigde dat hij was gestopt met het delen van gegevens in zijn betaalde werkruimte.

“Ter verduidelijking: Slack heeft machine learning-modellen op platformniveau voor zaken als kanaal- en emoji-aanbevelingen en zoekresultaten”, kondigde SlackHQ aan. “En ja, klanten kunnen zich afmelden voor het helpen trainen van deze (niet-generatieve) ML-modellen met hun gegevens. Klantgegevens behoren tot Slack AI, onze generatieve AI-ervaring die standaard in Slack is ingebouwd.[and] is een afzonderlijk aangeschafte plug-in die gebruik maakt van grote taalmodellen (LLM’s), maar die LLM’s niet traint op basis van klantgegevens.”