Zal kunstmatige intelligentie ooit menselijke emoties begrijpen?

Hoe zou je het vinden om therapie te krijgen van een robot? Emotioneel intelligente machines zijn misschien niet zo ver weg als het lijkt. In de afgelopen paar decennia is kunstmatige intelligentie (AI) steeds beter in het lezen van emotionele reacties bij mensen.

Maar lezen is niet hetzelfde als begrip. Als AI zelf geen emoties kan ervaren, kunnen ze ons dan echt begrijpen? En, zo niet, bestaat het risico dat we robots eigenschappen toeschrijven die ze niet hebben?

De nieuwste generatie AI's is tot stand gekomen dankzij een toename van gegevens die beschikbaar zijn voor computers om van te leren, evenals hun verbeterde verwerkingskracht. Deze machines concurreren steeds meer in taken die altijd als menselijk worden gezien.

AI kan nu, onder andere, gezichten herkennen, gezichtschetsen omzetten in foto's, spraak herkennen en speel Go.

Misdadigers identificeren

Onlangs hebben onderzoekers een AI ontwikkeld die in staat is om te zien of een persoon een crimineel is, gewoon door naar hun gelaatstrekken te kijken. Het systeem is geëvalueerd met behulp van een database met Chinese ID-foto's en de resultaten zijn overweldigend. De AI heeft ten onrechte onschuldigen als criminelen gecategoriseerd in slechts ongeveer 6% van de gevallen, terwijl het in staat was om rond 83% van de criminelen met succes te identificeren. Dit leidt tot een verbluffende algehele nauwkeurigheid van bijna 90%.

Het systeem is gebaseerd op een aanpak die "diep leren" wordt genoemd en die succesvol is geweest in opmerkzame taken zoals gezichtsherkenning. Hier laat diepgaand leren in combinatie met een "model met gezichtsrotatie" de AI toe om te verifiëren of twee gezichtsfoto's dezelfde persoon vertegenwoordigen, zelfs als de belichting of hoek tussen de foto's verandert.


innerlijk abonneren grafisch


Diepe leer bouwt een "neuraal netwerk" op, losjes gemodelleerd naar het menselijk brein. Dit bestaat uit honderdduizenden neuronen die in verschillende lagen zijn georganiseerd. Elke laag transformeert de invoer, bijvoorbeeld een gezichtsafbeelding, naar een hoger niveau van abstractie, zoals een reeks randen bij bepaalde oriëntaties en locaties. Dit benadrukt automatisch de functies die het meest relevant zijn voor het uitvoeren van een bepaalde taak.

Gezien het succes van deep learning, is het niet verrassend dat kunstmatige neurale netwerken criminelen van niet-criminelen kunnen onderscheiden - als er echt gezichtskenmerken zijn die tussen hen kunnen discrimineren. Het onderzoek suggereert dat er drie zijn. Een daarvan is de hoek tussen de punt van de neus en de mondhoeken, die gemiddeld 19.6% kleiner was voor criminelen. De kromming van de bovenlip was ook gemiddeld 23.4% groter voor criminelen, terwijl de afstand tussen de binnenhoeken van de ogen gemiddeld 5.6% smaller was.

Op het eerste gezicht lijkt deze analyse dat te suggereren verouderde opvattingen dat criminelen kunnen worden geïdentificeerd door fysieke kenmerken zijn niet helemaal verkeerd. Het is echter mogelijk niet het volledige verhaal. Het is interessant dat twee van de meest relevante functies verband houden met de lippen, die onze meest expressieve gelaatstrekken zijn. ID-foto's, zoals degene die in de studie worden gebruikt, moeten neutrale gezichtsuitdrukking hebben, maar het kan zijn dat de AI erin slaagde om verborgen emoties op die foto's te vinden. Deze kunnen zo klein zijn dat mensen moeite hadden om ze op te merken.

Het is moeilijk om de verleiding te weerstaan ​​om naar de voorbeeldfoto's te kijken die in de krant worden getoond, die nog door vakgenoten moet worden beoordeeld. Inderdaad, een zorgvuldige blik onthult een lichte glimlach op de foto's van niet-criminelen - kijk zelf maar. Er zijn echter maar een paar voorbeeldfoto's beschikbaar, zodat we onze conclusies niet kunnen generaliseren naar de hele database.

De kracht van affectieve computing

Dit zou niet de eerste keer zijn dat een computer menselijke emoties kon herkennen. Het zogenaamde veld van "affectief computergebruik"Bestaat al een aantal jaar. Er wordt beargumenteerd dat, als we comfortabel willen leven en interactie met robots hebben, deze machines in staat moeten zijn om te begrijpen en adequaat te reageren op menselijke emoties. Er is veel werk in de omgeving en de mogelijkheden zijn enorm.

Onderzoekers hebben bijvoorbeeld gezichtsanalyse gebruikt spot worstelende studenten in computer tutoring-sessies. De AI was getraind om verschillende niveaus van betrokkenheid en frustratie te herkennen, zodat het systeem kon weten wanneer de studenten het werk te gemakkelijk of te moeilijk vonden. Deze technologie kan nuttig zijn om de leerervaring op online platforms te verbeteren.

AI is ook gewend aan detecteer emoties op basis van het geluid van onze stem door een bedrijf genaamd BeyondVerbal. Ze hebben software geproduceerd die stemmodulatie analyseert en specifieke patronen zoekt in de manier waarop mensen praten. Het bedrijf beweert emoties correct te kunnen identificeren met 80% nauwkeurigheid. In de toekomst kan dit type technologie bijvoorbeeld autistische personen helpen emoties te identificeren.

Sony probeert zelfs een robot te ontwikkelen in staat om emotionele banden te vormen met mensen. Er is niet veel informatie over hoe ze dat willen bereiken of wat de robot precies gaat doen. Ze vermelden echter dat ze proberen om "hardware en services integreren om emotioneel aantrekkelijke ervaringen te bieden'.

Een emotioneel intelligente AI heeft verschillende potentiële voordelen, of het nu gaat om iemand een partner te geven of om ons te helpen bepaalde taken uit te voeren, variërend van criminele ondervraging tot praattherapie.

Maar er zijn ook ethische problemen en risico's verbonden. Is het goed om een ​​patiënt met dementie op een AI-partner te laten vertrouwen en te geloven dat hij een emotioneel leven heeft als dat niet het geval is? En kun je iemand veroordelen op basis van een AI die ze als schuldig classificeert? Duidelijk niet. In plaats daarvan, zodra een dergelijk systeem verder is verbeterd en volledig is geëvalueerd, kan een minder schadelijk en mogelijk nuttig gebruik leiden tot verdere controles van personen die door de AI als "verdacht" worden beschouwd.

Dus wat moeten we verwachten van AI in de toekomst? Subjectieve onderwerpen zoals emoties en sentimenten zijn nog steeds moeilijk voor AI om te leren, deels omdat de AI mogelijk geen toegang heeft tot voldoende goede gegevens om ze objectief te analyseren. Zou AI ooit sarcasme kunnen begrijpen? Een gegeven zin kan sarcastisch zijn wanneer ze in de ene context wordt uitgesproken, maar niet in een andere.

Toch blijft de hoeveelheid gegevens en verwerkingskracht toenemen. Dus, op een paar uitzonderingen na, is AI misschien in staat om mensen te matchen bij het herkennen van verschillende soorten emoties in de komende decennia. Maar of een AI ooit emoties zou kunnen ervaren, is een controversieel onderwerp. Zelfs als ze dat zouden kunnen, kunnen er zeker emoties zijn die ze nooit zouden kunnen ervaren - waardoor het moeilijk wordt om ze ooit echt te begrijpen.

The Conversation

Over de auteur

Leandro Minku, docent informatica, Universiteit van Leicester

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Related Books:

at InnerSelf Market en Amazon