vertrouwen ai 7 20
 AI-chatbots worden steeds krachtiger, maar hoe weet u of ze in uw belang werken? 

Als je Alexa, het AI-systeem met stemassistent van Amazon, vraagt ​​of Amazon een monopolie heeft, antwoordt het met zeggen dat hij het niet weet. Er is niet veel voor nodig om het te maken pesten de andere techreuzen, maar het zwijgt over de wandaden van zijn eigen moedermaatschappij.

Wanneer Alexa op deze manier reageert, is het duidelijk dat het de belangen van zijn ontwikkelaar boven die van jou stelt. Meestal is het echter niet zo duidelijk voor wie een AI-systeem dient. Om te voorkomen dat ze door deze systemen worden uitgebuit, zullen mensen moeten leren om AI sceptisch te benaderen. Dat betekent bewust bouwen aan de input die je geeft en kritisch nadenken over de output.

Nieuwere generaties AI-modellen, met hun meer geavanceerde en minder uit het hoofd geschreven reacties, maken het moeilijker om te zeggen wie er baat bij heeft als ze spreken. Dat internetbedrijven manipuleren wat u ziet om hun eigen belangen te dienen, is niets nieuws. De zoekresultaten van Google en uw Facebook-feed zijn gevuld met betaalde vermeldingen. Facebook, TikTok en anderen manipuleren uw feeds om de tijd die u op het platform doorbrengt te maximaliseren, wat meer advertentieweergaven betekent dan uw welzijn.

Wat AI-systemen onderscheidt van deze andere internetdiensten, is hoe interactief ze zijn en hoe deze interacties steeds meer op relaties gaan lijken. Er is niet veel extrapolatie nodig van de huidige technologieën om je AI's voor te stellen die reizen voor je plannen, namens je onderhandelen of optreden als therapeuten en levenscoaches.


innerlijk abonneren grafisch


Ze zijn waarschijnlijk 24/7 bij u, kennen u intiem en kunnen anticiperen op uw behoeften. Dit soort gespreksinterface voor het uitgebreide netwerk van services en bronnen op internet valt binnen de mogelijkheden van bestaande generatieve AI's zoals ChatGPT. Ze zijn op weg om te worden gepersonaliseerde digitale assistenten.

Als beveiligingsexpert en data scientist, geloven we dat mensen die op deze AI's gaan vertrouwen, ze impliciet zullen moeten vertrouwen om door het dagelijks leven te navigeren. Dat betekent dat ze er zeker van moeten zijn dat de AI's niet in het geheim voor iemand anders werken. Op internet werken apparaten en services die voor u lijken te werken, in het geheim al tegen u. Smart-tv's je bespioneren. Telefoon-apps uw gegevens verzamelen en verkopen. Veel apps en websites je manipuleren door middel van donkere patronen, ontwerpelementen die bezoekers van de website opzettelijk misleiden, dwingen of bedriegen. Dit is toezicht kapitalisme, en AI maakt zich op om daar deel van uit te maken. AI speelt een rol in het surveillancekapitalisme, wat neerkomt op u bespioneren om geld aan u te verdienen.

In het donker

Het is heel goed mogelijk dat het veel erger zou kunnen zijn met AI. Wil die digitale AI-assistent echt nuttig zijn, dan moet hij je echt kennen. Beter dan je telefoon je kent. Beter dan Google Search jou kent. Misschien beter dan je goede vrienden, intieme partners en therapeut je kennen.

U hebt geen reden om de toonaangevende generatieve AI-tools van vandaag te vertrouwen. Laat de hallucinaties, de verzonnen 'feiten' die GPT en andere grote taalmodellen produceren. We verwachten dat die grotendeels zullen worden opgeschoond naarmate de technologie de komende jaren verbetert.

Maar je weet niet hoe de AI's zijn geconfigureerd: hoe ze zijn getraind, welke informatie ze hebben gekregen en welke instructies ze hebben gekregen om op te volgen. Bijvoorbeeld onderzoekers ontdekte de geheime regels die het gedrag van de Microsoft Bing-chatbot bepalen. Ze zijn grotendeels goedaardig, maar kunnen op elk moment veranderen.

Geld verdienen

Veel van deze AI's worden tegen enorme kosten gemaakt en getraind door enkele van de grootste technologiemonopolies. Ze worden gratis of tegen zeer lage kosten aan mensen aangeboden. Deze bedrijven zullen er op de een of andere manier geld mee moeten verdienen. En, net als bij de rest van het internet, omvat dat op de een of andere manier waarschijnlijk toezicht en manipulatie.

Stel je voor dat je je chatbot vraagt ​​om je volgende vakantie te plannen. Heeft het een bepaalde luchtvaartmaatschappij of hotelketen of restaurant gekozen omdat het het beste voor u was of omdat de maker smeergeld kreeg van de bedrijven? Net als bij betaalde resultaten in Google Zoeken, newsfeed-advertenties op Facebook en betaalde plaatsingen bij Amazon-query's, zullen deze betaalde invloeden in de loop van de tijd waarschijnlijk heimelijker worden.

Als u uw chatbot om politieke informatie vraagt, zijn de resultaten dan vertekend door de politiek van het bedrijf dat eigenaar is van de chatbot? Of de kandidaat die het meeste geld heeft betaald? Of zelfs de opvattingen van de demografie van de mensen van wie de gegevens zijn gebruikt bij het trainen van het model? Is jouw AI-agent in het geheim een ​​dubbelagent? Op dit moment is er geen manier om het te weten.

Betrouwbaar volgens de wet

Wij zijn van mening dat mensen meer van de technologie mogen verwachten en dat technologiebedrijven en AI's betrouwbaarder kunnen worden. De Europese Unie is voorgesteld AI-wet neemt een aantal belangrijke stappen en vereist transparantie over de gegevens die worden gebruikt om AI-modellen te trainen, beperking van mogelijke vooringenomenheid, openbaarmaking van voorzienbare risico's en rapportage over industriestandaardtests. De Europese Unie gaat door met AI-regelgeving.

De meeste bestaande AI's niet voldoen met dit opkomende Europese mandaat, en ondanks recente aansporing van senaatsleider Chuck Schumer, lopen de VS ver achter met dergelijke regelgeving.

De AI's van de toekomst moeten betrouwbaar zijn. Tenzij en totdat de overheid robuuste consumentenbescherming voor AI-producten biedt, zullen mensen zelf moeten raden naar de potentiële risico's en vooroordelen van AI, en de ergste effecten ervan op de ervaringen van mensen ermee moeten verzachten.

Dus als je een reisadvies of politieke informatie krijgt van een AI-tool, benader het dan met dezelfde sceptische blik als een reclamebord of een campagnevrijwilliger. Ondanks al zijn technologische tovenarij is de AI-tool misschien niet meer dan hetzelfde.The Conversation

Over de auteur

Bruce Schneier, adjunct-docent openbaar beleid, Harvard Kennedy School en Nathan Sanders, Affiliate, Berkman Klein Centrum voor Internet & Maatschappij, Harvard University

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.