Het bestrijden van AI-risico: uw reputatie staat op het spel

Risico heeft alles te maken met context

Risico heeft alles te maken met context. Een van de grootste risico’s is dat je niet wordt herkend of begrepen de jouwe context: Daarom moet je daarmee beginnen als je risico’s inschat.

Dit is vooral belangrijk als het om de reputatie gaat. Denk bijvoorbeeld aan uw klanten en hun verwachtingen. Hoe zouden ze denken over de interactie met een AI-chatbot? Hoe schadelijk kan het zijn om hen valse of misleidende informatie te verstrekken? Misschien is een klein ongemak voor de klant iets waar u mee om kunt gaan, maar wat als het aanzienlijke gezondheids- of financiële gevolgen heeft?

Zelfs als het implementeren van AI zinvol lijkt, zijn er duidelijk enkele reputatierisico’s waarmee rekening moet worden gehouden. We praten al jaren over het belang van gebruikerservaring en klantgerichtheid: AI kan ons hier weliswaar helpen, maar kan die zaken ook ondermijnen.

Een soortgelijke vraag zou over uw teams moeten worden gesteld. AI heeft misschien het vermogen om de efficiëntie te vergroten en het werk van mensen gemakkelijker te maken, maar als het op de verkeerde manier wordt gebruikt, kan het de bestaande manieren van werken ernstig ontwrichten. De industrie heeft de laatste tijd veel gesproken over de ervaring van ontwikkelaars – iets waar ik voor deze publicatie over heb geschreven – en de beslissingen die organisaties nemen over AI moeten de ervaringen van teams verbeteren en niet in gevaar brengen.

In de nieuwste editie van de Thoughtworks Technology Radar – een twee jaar durende momentopname van de software-industrie gebaseerd op onze ervaringen met klanten over de hele wereld – gaan we op dit punt in. We noemen AI-teamassistenten een van de meest opwindende gebieden in softwareontwikkeling, maar we merken ook op dat de focus moet liggen op het mogelijk maken van teams, en niet op individuen. “Je zou moeten kijken naar manieren om AI-teamassistenten te creëren om een ​​’10x team’ te helpen creëren, in tegenstelling tot een stel 10x AI-ondersteunde ingenieurs”, zeggen we in het laatste rapport.

Het niet respecteren van de werkcontext van uw teams kan aanzienlijke reputatieschade veroorzaken. Sommige bullish organisaties zien dit misschien als onderdeel van de innovatie, maar dat is niet zo. Het laat potentiële werknemers – vooral zeer technische werknemers – zien dat u het werk dat ze doen niet echt begrijpt of erom geeft.

Risico’s bestrijden door slimmere technologie-implementatie

Er zijn veel instrumenten die gebruikt kunnen worden om risico’s te beheersen. Thoughtworks hielp bij het samenstellen van het Responsible Technology Handbook, een verzameling tools en technieken die organisaties kunnen gebruiken om verantwoordere beslissingen te nemen over technologie (niet alleen over AI).

Het is echter belangrijk op te merken dat het beheersen van risico’s – vooral die welke verband houden met reputatie – echte aandacht vereist voor de specifieke kenmerken van de technologie-implementatie. Dit kwam vooral duidelijk naar voren in het werk dat we deden met een reeks maatschappelijke organisaties in India, waarbij we een welzijnschatbot ontwikkelden waarmee burgers in hun moedertaal konden communiceren. De risico’s hier waren niet anders dan de eerder besproken risico’s: de context waarin de chatbot werd gebruikt (om de toegang tot vitale diensten te ondersteunen) betekende dat onnauwkeurige of ‘gehallucineerde’ informatie ervoor kon zorgen dat mensen niet de middelen kregen waarvan ze afhankelijk waren.