gevaar van ai 7 11
AI zal de mensheid waarschijnlijk niet tot slaaf maken, maar het zou veel aspecten van ons leven kunnen overnemen. elenabs/iStock via Getty Images

De opkomst van ChatGPT en vergelijkbare systemen voor kunstmatige intelligentie ging gepaard met een scherpe stijging toenemende angst voor AI. De afgelopen maanden hebben leidinggevenden en AI-veiligheidsonderzoekers voorspellingen gedaan, genaamd "P(ondergang)”, over de waarschijnlijkheid dat AI een grootschalige catastrofe zal veroorzaken.

De zorgen bereikten een hoogtepunt in mei 2023 toen de non-profitorganisatie voor onderzoek en belangenbehartiging Center for AI Safety uitkwam een verklaring van één zin: "Het verkleinen van het risico van uitsterven door AI zou een wereldwijde prioriteit moeten zijn naast andere risico's op maatschappelijke schaal, zoals pandemieën en een nucleaire oorlog." De verklaring werd ondertekend door veel belangrijke spelers in het veld, waaronder de leiders van OpenAI, Google en Anthropic, evenals twee van de zogenaamde "peetvaders" van AI: Jeffrey Hinton en Yoshua Bengio.

Je zou je kunnen afvragen hoe zulke existentiële angsten zouden moeten uitpakken. Een bekend scenario is de “maximalisatie van paperclips' gedachte-experiment verwoord door de filosoof uit Oxford Nick Bostrom. Het idee is dat een AI-systeem dat is belast met het produceren van zoveel mogelijk paperclips, buitengewoon veel moeite zou kunnen doen om grondstoffen te vinden, zoals het vernielen van fabrieken en het veroorzaken van auto-ongelukken.

A minder resource-intensieve variatie heeft een AI die is belast met het verkrijgen van een reservering voor een populair restaurant, waarbij mobiele netwerken en verkeerslichten worden afgesloten om te voorkomen dat andere klanten een tafel krijgen.


innerlijk abonneren grafisch


Kantoorbenodigdheden of diner, het basisidee is hetzelfde: AI is hard op weg een buitenaardse intelligentie te worden, goed in het bereiken van doelen, maar gevaarlijk omdat het niet noodzakelijkerwijs overeenkomt met de morele waarden van de makers. En, in zijn meest extreme versie, verandert dit argument in expliciete zorgen over AI's het menselijk ras tot slaaf maken of vernietigen.

Een AI die paperclips maakt, is een variant van het AI-apocalypsscenario.

 

Daadwerkelijke schade

De afgelopen jaren zijn mijn collega's en ik bij UMass Boston's centrum voor toegepaste ethiek hebben de impact van betrokkenheid bij AI op het begrip van mensen over zichzelf bestudeerd, en ik geloof dat deze catastrofale angsten overdreven en verkeerd geadresseerd.

Ja, het vermogen van AI om overtuigende deep-fake video en audio te creëren is beangstigend en kan worden misbruikt door mensen met kwade bedoelingen. Dat gebeurt in feite al: Russische agenten hebben waarschijnlijk geprobeerd Kremlin-criticus in verlegenheid te brengen Bill Browder door hem te verstrikken in een gesprek met een avatar van de voormalige Oekraïense president Petro Poroshenko. Cybercriminelen gebruiken AI-spraakklonen voor een verscheidenheid aan misdaden – van hightech overvallen naar gewone oplichting.

AI-besluitvormingssystemen die leninggoedkeuring en aanwervingsaanbevelingen bieden brengen het risico met zich mee van algoritmische vooringenomenheid, aangezien de trainingsgegevens en beslissingsmodellen waarop ze draaien oude sociale vooroordelen weerspiegelen.

Dit zijn grote problemen en ze vragen de aandacht van beleidsmakers. Maar ze bestaan ​​al een tijdje en ze zijn nauwelijks catastrofaal.

Niet in dezelfde competitie

In de verklaring van het Center for AI Safety werd AI op één hoop gegooid met pandemieën en kernwapens als een groot risico voor de beschaving. Er zijn problemen met die vergelijking. COVID-19 resulteerde in bijna 7 miljoen doden wereldwijd, bracht een enorme en aanhoudende geestelijke gezondheidscrisis en gemaakt economische uitdagingen, waaronder chronische tekorten in de toeleveringsketen en op hol geslagen inflatie.

Kernwapens waarschijnlijk gedood meer dan 200,000 mensen in Hiroshima en Nagasaki in 1945, eisten in de jaren die volgden nog veel meer levens aan kanker, veroorzaakten decennia van diepe angst tijdens de Koude Oorlog en brachten de wereld op de rand van vernietiging tijdens de Cubaanse rakettencrisis in 1962. Ze hebben ook veranderde de berekeningen van nationale leiders over hoe te reageren op internationale agressie, zoals die zich momenteel afspeelt met de Russische invasie van Oekraïne.

AI is gewoon nog lang niet in staat om dit soort schade aan te richten. Het paperclipscenario en soortgelijke scenario's zijn sciencefiction. Bestaande AI-toepassingen voeren specifieke taken uit in plaats van brede oordelen te vellen. De technologie is verre van in staat zijn om te beslissen en vervolgens te plannen de doelen en ondergeschikte doelen die nodig zijn om het verkeer stil te leggen om je een zitplaats in een restaurant te bezorgen, of om een ​​autofabriek op te blazen om je honger naar paperclips te stillen.

Niet alleen mist de technologie de gecompliceerde capaciteit voor meerlagige beoordeling die bij deze scenario's betrokken is, het heeft ook geen autonome toegang tot voldoende delen van onze kritieke infrastructuur om dat soort schade aan te richten.

Wat het betekent om mens te zijn

Eigenlijk is er een existentieel gevaar inherent aan het gebruik van AI, maar dat risico is eerder existentieel in filosofische dan in apocalyptische zin. AI in zijn huidige vorm kan de manier veranderen waarop mensen naar zichzelf kijken. Het kan vermogens en ervaringen aantasten die mensen als essentieel beschouwen om mens te zijn.

Mensen zijn bijvoorbeeld oordeelvormende wezens. Mensen wegen rationeel bijzonderheden af ​​en maken dagelijks afwegingen op het werk en in hun vrije tijd over wie ze moeten inhuren, wie een lening moet krijgen, wat ze moeten kijken, enzovoort. Maar meer en meer van deze oordelen zijn geautomatiseerd en uitbesteed aan algoritmen. Als dat gebeurt, vergaat de wereld niet. Maar mensen zullen geleidelijk aan het vermogen verliezen om zelf deze oordelen te vellen. Hoe minder mensen er van maken, hoe slechter ze waarschijnlijk zullen worden in het maken ervan.

Of denk aan de rol van toeval in het leven van mensen. Mensen waarderen toevallige ontmoetingen: per ongeluk een plaats, persoon of activiteit tegenkomen, erin worden getrokken en achteraf de rol waarderen die het ongeluk speelde bij deze betekenisvolle vondsten. Maar de rol van algoritmische aanbevelingsengines is om verminderen dat soort serendipiteit en vervang het door planning en voorspelling.

Overweeg ten slotte de schrijfmogelijkheden van ChatGPT. De technologie is bezig de rol van schrijfopdrachten in het hoger onderwijs te elimineren. Als dat zo is, verliezen docenten een belangrijk instrument om studenten les te geven hoe kritisch te denken.

Niet dood maar verminderd

Dus nee, AI zal de wereld niet opblazen. Maar de steeds kritieklozere omarming ervan, in een verscheidenheid aan bekrompen contexten, betekent de geleidelijke erosie van enkele van de belangrijkste vaardigheden van de mens. Algoritmen ondermijnen nu al het vermogen van mensen om oordelen te vellen, te genieten van toevallige ontmoetingen en kritisch denken aan te scherpen.

De menselijke soort zal dergelijke verliezen overleven. Maar onze manier van bestaan ​​zal in het proces verarmen. De fantastische angsten rond de komende AI-ramp, singulariteit, Skynet, of hoe je het ook bedenkt, verdoezelen deze meer subtiele kosten. Denk aan de beroemde slotregels van TS Eliot van "De holle mannen”: “Dit is de manier waarop de wereld eindigt”, schreef hij, “niet met een knal maar een gejammer.”The Conversation

Over de auteur

Nir Eisikovits, hoogleraar filosofie en directeur van het centrum voor toegepaste ethiek, UMass Boston

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.