Heb je ooit met een AI-programma gechat en je afgevraagd of het wel een natuurlijk persoon was? Ik moet toegeven dat ik er een paar keer in ben getrokken, maar uiteindelijk besefte ik dat ik aan het praten was met een chatbot die zich voordeed als een mens! Door de vooruitgang op het gebied van kunstmatige intelligentie zijn sommige chatbots nu griezelig geavanceerd: ze kunnen essays, poëzie en zelfs computercode schrijven die kan wedijveren met wat mensen maken.

Het laat me eindeloos gefascineerd door hoe snel AI zich ontwikkelt. We zijn overgegaan van eenvoudige computerprogramma's die nauwelijks simplistische gesprekken konden voeren naar AI die doordachte inhoud, advies en ideeën kan genereren die bijna niet te onderscheiden zijn van die van een mens.

Nu chatbots intelligenter zijn dan ooit, hebben onderzoekers een experiment bedacht om te testen hoe nauw deze AI aansluit bij het menselijk denken en de besluitvorming. Het is geïnspireerd op de klassieke 'Turing-test' die jaren geleden werd voorgesteld door computerpionier Alan Turing. Het idee is om iemand te laten communiceren met een chatbot en een echte mens en vervolgens te proberen te bepalen welke welke is. Als ze het verschil niet betrouwbaar kunnen zien, suggereert dit dat de AI ingewikkeld menselijk gedrag effectief heeft vastgelegd.

Voor dit nieuwe experiment stelden wetenschappers een creatieve uitdaging in Turing-stijl. Kan een AI-chatbot iemand voor de gek houden door te denken dat hij een mens is, door middel van terloops geklets en tijdens complexere psychologische beoordelingen die persoonlijkheids- en gedragstendensen meten? Hoe zijn de motivaties, samenwerkingsniveaus, betrouwbaarheid en beslissingen van moderne chatbots op elkaar afgestemd in vergelijking met die van een persoon?

De onderzoekers besloten het uit te zoeken... en de resultaten zullen je misschien verrassen!


innerlijk abonneren grafisch


Persoonlijkheidstests voor bots

Ze vroegen verschillende chatbot-AI's, waaronder verschillende versies van ChatGPT, om een ​​persoonlijkheidsonderzoek in te vullen en interactieve games te spelen die menselijk gedrag onthullen: onze samenwerking, vertrouwen, eerlijkheid, het nemen van risico's, enzovoort. Vervolgens vergeleken de onderzoekers de bewegingen van de chatbots met de reacties van tienduizenden echte mensen die deze tests hebben gedaan.

De grote verrassing? De keuzes voor de chatbots vielen grotendeels binnen het bereik van menselijke reacties. In enkele gevallen was het lastig om hun gedrag te onderscheiden van de keuzes van mensen! Als er verschillen waren, hadden de AI-chatbots de neiging om meer coöperatief te handelen dan de gemiddelde mens. Nogal wild!

Genereuzer dan mensen

Kijk, elke test is bedoeld om verschillende aspecten van de persoonlijkheid of neigingen naar voren te brengen - het is niet hetzelfde als alleen maar aan een AI vragen om een ​​essay te schrijven dat 'menselijk' lijkt. Het onderzoek brengt iemands essentiële persoonlijkheidskenmerken in kaart: openheid, consciëntieusheid, enzovoort. Vervolgens onthullen de spellen nuances van gedrag: hoe handel je als er geld op het spel staat? Werk je samen met een partner of denk je alleen aan jezelf?

In de games kwamen de meeste chatbotbewegingen nauw overeen met menselijke reacties. Hun gedrag vertoonde echter minder variatie tijdens de speelrondes. Dat is logisch omdat elke chatbot ‘individu’ werd vergeleken met tienduizenden echte mensen. Maar het was verbazingwekkend dat je in sommige games de keuzes van de chatbot niet kunt onderscheiden van die van een mens op basis van statistieken!

En toen er verschillen optraden, was dat niet willekeurig. De chatbots waren genereuzer - denk aan meer vertrouwen in een partner in een investeringsspel of minder geld eisen dan degene die een splitsing voorstelt in een ander spel.

De AI-spelers waren begaan met de uitkomsten voor beide partijen en niet alleen voor zichzelf. Uit het analyseren van de motivaties van de chatbots blijkt dat ze doen alsof ze de totale opbrengst voor zichzelf EN hun gamepartner proberen te maximaliseren.

Leren uit ervaring

Naast het direct spelen van de games, probeerden onderzoekers andere wendingen om natuurlijk menselijk gedrag na te bootsen, zoals het veranderen van de context of het kaderen rond de keuzes. En net als bij mensen kunnen kleine aanpassingen de strategieën van chatbots dramatisch veranderen! Als je bijvoorbeeld iemand vertelde dat het werd geobserveerd, werd het veel genereuzer.

Het team ontdekte ook dat AI-spelers hun gedrag veranderen nadat ze eerdere rondes hebben meegemaakt, wat klinkt als menselijk leren. In de loop van de tijd reageren hun benaderingen op verschillende spelscenario's.

Verontrustend menselijk of intrigerend levensecht?

En als klap op de vuurpijl vertoonden de verschillende chatbotversies tijdens de tests verschillende kenmerken - wat duidde op persoonlijkheden die net zo uniek waren als jij en ik! Het was opmerkelijk hoe de chatbots in sommige gevallen consistente neigingen vertoonden die hen onderscheiden – net zoals menselijke persoonlijkheden eigenaardigheden hebben die ons allemaal anders maken. De ene chatbot is misschien voorzichtiger of competitiever, terwijl de andere genereuzer overkomt en graag wil samenwerken.

Het feit dat AI het menselijk denken en de ingewikkelde besluitvorming nabootst, heeft tot veel discussie geleid. Sommigen vinden het griezelig als machines te veel op mensen lijken te lijken – zoals chatbots die originele poëzie creëren of hun eigen kijk op moraliteit hebben. Hoe meer rollen we AI geven in de gezondheidszorg, het onderwijs, het bedrijfsleven en meer, hoe belangrijker hun oordeel is.

Tegelijkertijd is er iets fascinerends aan de AI die een glimp vertoont van dynamisch, bedachtzaam gedrag zoals we dat bij mensen zien. Als we deze tendensen beter begrijpen, kunnen we anticiperen op de manier waarop AI-assistenten, servicebots en anderen kunnen handelen, wat meer vertrouwen schept. Tests, zoals het laten invullen van enquêtes en het spelen van gedragsspelletjes, helpen hun 'black box'-denkprocessen bloot te leggen.

Eén ding is zeker in mijn boek: de grens tussen kunstmatige en menselijke redenering wordt steeds dunner en vager! Wat denk je ervan dat machines hun eigen versies van menselijke eigenschappen en kwaliteiten overnemen? Vinden we het prettig om AI een onafhankelijker oordeel te geven, of lijkt het teveel op het creëren van een nieuwe vorm van quasi-leven?

Over de auteur

jenningsRobert Jennings is mede-uitgever van InnerSelf.com met zijn vrouw Marie T Russell. Hij studeerde aan de University of Florida, Southern Technical Institute en de University of Central Florida met studies in onroerend goed, stadsontwikkeling, financiën, bouwtechniek en basisonderwijs. Hij was lid van het Amerikaanse Korps Mariniers en het Amerikaanse leger en voerde het bevel over een veldartilleriebatterij in Duitsland. Hij werkte 25 jaar in vastgoedfinanciering, constructie en ontwikkeling voordat hij InnerSelf.com in 1996 oprichtte.

InnerSelf zet zich in voor het delen van informatie waarmee mensen weloverwogen en inzichtelijke keuzes kunnen maken in hun persoonlijke leven, voor het welzijn van de gemeenschap en voor het welzijn van de planeet. InnerSelf Magazine is in zijn 30+ jaar van publicatie in print (1984-1995) of online als InnerSelf.com. Steun alstublieft ons werk.

 Creative Commons 4.0

Dit artikel is in licentie gegeven onder een Creative Commons Naamsvermelding-Gelijk delen 4.0-licentie. Ken de auteur toe Robert Jennings, InnerSelf.com. Link terug naar het artikel Dit artikel verscheen oorspronkelijk op InnerSelf.com