Vertrouwen en begrip vinden in autonome technologieën

Vertrouwen en begrip vinden in autonome technologieënFoto door: Norbert Aepli, Zwitserland (Gebruiker: Noebu)

In 2016 werden zelfrijdende auto's mainstream. Uber's autonome voertuigen werd alomtegenwoordig in buurten waar ik in Pittsburgh woon, en kort in San Francisco. Het Amerikaanse Department of Transportation uitgegeven nieuwe wettelijke richtlijnen voor hen. ontelbaar papieren en kolommen besproken hoe zelfrijdende auto's moeten oplossen ethische dilemma's als er dingen fout gaan. En helaas zag 2016 ook de eerste dodelijk ongeval met een autonoom voertuig.

Autonome technologieën verspreiden zich snel voorbij de transportsector, in gezondheidszorg, geavanceerde cyberdefense en zelfs autonome wapens. In 2017 moeten we beslissen of we deze technologieën kunnen vertrouwen. Dat gaat veel moeilijker zijn dan we zouden verwachten.

Vertrouwen is complex en gevarieerd, maar ook een belangrijk onderdeel van ons leven. We vertrouwen vaak op technologie gebaseerd op voorspelbaarheid: Ik vertrouw iets als ik weet wat het in een bepaalde situatie gaat doen, zelfs als ik niet weet waarom. Ik vertrouw bijvoorbeeld op mijn computer omdat ik weet hoe deze zal werken, ook wanneer deze kapot gaat. Ik stop met vertrouwen als het zich anders of verrassend gaat gedragen.

Daarentegen is mijn vertrouwen in mijn vrouw gebaseerd op haar overtuigingen, waarden en persoonlijkheid begrijpen. Meer in het algemeen houdt interpersoonlijk vertrouwen niet in dat je precies weet wat de ander gaat doen - mijn vrouw verbaast me zeker soms! - maar waarom ze handelen zoals ze doen. En natuurlijk kunnen we iemand (of iets) op beide manieren vertrouwen, als we weten wat ze zullen doen en waarom.

Ik heb mogelijke basissen voor ons vertrouwen in zelfrijdende auto's en andere autonome technologie onderzocht vanuit zowel ethische als psychologische perspectieven. Dit zijn apparaten, dus voorspelbaarheid lijkt misschien de sleutel. Vanwege hun autonomie moeten we echter het belang en de waarde - en de uitdaging - van het leren vertrouwen op hen beschouwen in de manier waarop we andere mensen vertrouwen.

Autonomie en voorspelbaarheid

We willen dat onze technologieën, inclusief zelfrijdende auto's, zich gedragen op manieren die we kunnen voorspellen en verwachten. Natuurlijk kunnen deze systemen nogal gevoelig zijn voor de context, inclusief andere voertuigen, voetgangers, weersomstandigheden, enzovoort. Over het algemeen mogen we echter verwachten dat een zelfrijdende auto die herhaaldelijk in dezelfde omgeving wordt geplaatst, zich vermoedelijk elke keer op dezelfde manier zou gedragen. Maar in welke zin zouden deze zeer voorspelbare auto's autonoom zijn in plaats van alleen maar automatisch?

Er zijn geweest veel verschillend pogingen naar bepalen autonomie, maar ze hebben dit allemaal gemeen: autonome systemen kunnen hun eigen (inhoudelijke) beslissingen en plannen maken en kunnen daardoor anders handelen dan verwacht.


Haal het laatste uit InnerSelf


In feite is een reden om autonomie te hanteren (in tegenstelling tot automatisering) juist dat die systemen onverwachte en verrassende, hoewel te rechtvaardigen, handelwijzen kunnen nastreven. Bijvoorbeeld, DeepMind's AlphaGo won de tweede wedstrijd van zijn recente Go-serie tegen Lee Sedol mede vanwege een beweging die geen enkele menselijke speler ooit zou kunnen maken, maar desalniettemin de juiste zet was. Maar diezelfde verrassingen maken het moeilijk om op voorspelbaarheid gebaseerd vertrouwen te vestigen. Een sterk vertrouwen dat alleen gebaseerd is op voorspelbaarheid is aantoonbaar alleen mogelijk voor geautomatiseerde of automatische systemen, juist omdat ze voorspelbaar zijn (ervan uitgaande dat het systeem normaal functioneert).

Verrassingen omarmen

Natuurlijk verrassen anderen ons vaak, en toch kunnen we hen op een opmerkelijke manier vertrouwen, en zelfs hun leven-en-dood-macht over onszelf geven. Soldaten vertrouwen hun kameraden in complexe, vijandige omgevingen; een patiënt vertrouwt erop dat haar chirurg een tumor verwijdert; en in een meer alledaagse geest, vertrouwt mijn vrouw me om veilig te rijden. Dit interpersoonlijke vertrouwen stelt ons in staat om de verrassingen te omarmen, dus misschien kunnen we iets als interpersoonlijk vertrouwen ontwikkelen in zelfrijdende auto's?

In het algemeen vereist interpersoonlijk vertrouwen dat iemand begrijpt waarom iemand op een bepaalde manier heeft gehandeld, zelfs als je de exacte beslissing niet kunt voorspellen. Mijn vrouw weet misschien niet precies hoe ik zal rijden, maar zij weet welke redeneringen ik gebruik tijdens het rijden. En het is eigenlijk betrekkelijk eenvoudig te begrijpen waarom iemand anders iets doet, juist omdat we allemaal ongeveer hetzelfde denken en redeneren, hoewel met verschillende "ruwe ingrediënten" - onze overtuigingen, verlangens en ervaringen.

In feite doen we voortdurend en onbewust uitspraken over de overtuigingen en verlangens van andere mensen op basis van hun acties, grotendeels door aan te nemen dat ze denken, redeneren en beslissen zoals we doen. Al deze gevolgtrekkingen en redeneringen op basis van onze gedeelde (menselijke) kennis stellen ons in staat de redenen van iemand anders te begrijpen en daardoor interpersoonlijk vertrouwen op te bouwen in de loop van de tijd.

Denk je aan mensen?

Autonome technologieën - met name zelfrijdende auto's - denk en beslis niet zoals mensen. Er zijn inspanningen geweest, beide verleden en recent, om computersystemen te ontwikkelen die denken en redeneren als mensen. Eén consistent thema van machine learning in de afgelopen twee decennia is echter de enorme winst die precies is geboekt door onze kunstmatige intelligentiesystemen niet op mensachtige manieren te laten werken. In plaats daarvan zijn algoritmen voor het leren van machines en systemen zoals AlphaGo vaak in staat geweest beter presteren dan menselijke experts door je te richten op specifieke, lokale problemen en ze dan op een heel andere manier op te lossen dan mensen.

Als gevolg hiervan kunnen pogingen om een ​​autonome technologie te interpreteren in termen van mensachtige overtuigingen en verlangens spectaculair mis gaan. Wanneer een menselijke bestuurder een bal op de weg ziet, vertragen de meesten van ons automatisch aanzienlijk, om te voorkomen dat ze een kind raken dat er misschien achteraan zit. Als we in een autonome auto rijden en een bal op straat zien rollen, verwachten we dat de auto het zal herkennen en bereid zijn om te stoppen om kinderen te laten rennen. De auto kan echter alleen een obstakel zien dat moet worden vermeden. Als het schommelt zonder te vertragen, kunnen de mensen aan boord gealarmeerd zijn - en een kind kan in gevaar zijn.

Onze gevolgtrekkingen over de 'overtuigingen' en 'verlangens' van een zelfrijdende auto zullen vrijwel zeker op belangrijke manieren onjuist zijn, juist omdat de auto geen mensachtige overtuigingen of verlangens heeft. We kunnen geen interpersoonlijk vertrouwen ontwikkelen in een zelfrijdende auto, simpelweg door hem te bekijken, omdat we niet de juiste reden voor zijn acties zullen afleiden.

Klanten van de samenleving of de markt kunnen natuurlijk massaal aandringen dat zelfrijdende auto's mensachtige (psychologische) kenmerken hebben, juist zodat we het interpersoonlijke vertrouwen in hen kunnen begrijpen en ontwikkelen. Deze strategie zou een hele nieuwe betekenis geven aan "mensgericht ontwerp, "Omdat de systemen specifiek zouden worden ontworpen zodat hun acties door mensen interpreteerbaar zijn. Maar het zou ook het opnemen van een roman vereisen algoritmen en technieken in de zelfrijdende auto, die allemaal een enorme verandering zouden betekenen ten opzichte van de huidige onderzoeks- en ontwikkelingsstrategieën voor zelfrijdende auto's en andere autonome technologieën.

Zelfrijdende auto's hebben het potentieel om onze transportinfrastructuur radicaal te hervormen op vele voordelige manieren, maar alleen als we ze voldoende kunnen vertrouwen om ze daadwerkelijk te gebruiken. En ironisch genoeg is juist de functie die zelfrijdende auto's waardevol maakt - hun flexibele, autonome besluitvorming over verschillende situaties - juist wat het moeilijk maakt om ze te vertrouwen.

The Conversation

authirhere

David Danks, hoogleraar filosofie en psychologie, Carnegie Mellon University

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Related Books:

{amazonWS: searchindex = Boeken; trefwoorden = zelfrijdende auto's; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

volg InnerSelf op

facebook-icontwitter-iconrss-icoon

Ontvang de nieuwste via e-mail

{Emailcloak = off}