Hoe Understanding Animals ons kan helpen om het meeste te halen uit kunstmatige intelligentieAutonome auto's zijn niet slimmer dan dit. X positief

Elke dag verschijnen er talloze krantenkoppen uit talloze bronnen over de hele wereld, beide waarschuwing voor ernstige gevolgen en veelbelovende utopische toekomsten – allemaal dankzij kunstmatige intelligentie. AI "transformeert de werkplek", schrijft de Wall Street Journalterwijl Fortuin magazine vertelt ons dat we te maken hebben met een "AI-revolutie" die "ons leven zal veranderen". Maar we begrijpen niet echt hoe de interactie met AI zal zijn – of hoe het zou moeten zijn. The Conversation

Het blijkt echter dat we al een concept hebben dat we kunnen gebruiken als we aan AI denken: het is hoe we over dieren denken. Als voormalig dierentrainer (zij het kort) die nu bestudeert hoe mensen AI gebruiken, weet ik dat dieren en dierentraining ons heel veel kunnen leren over hoe we nu en in de toekomst moeten nadenken over, omgaan met en omgaan met kunstmatige intelligentie.

Dierlijke analogieën gebruiken kan gewone mensen helpen veel van de complexe aspecten van kunstmatige intelligentie te begrijpen. Het kan ons ook helpen nadenken over hoe we deze systemen het beste nieuwe vaardigheden kunnen aanleren en, misschien wel het belangrijkste, hoe we hun beperkingen goed kunnen begrijpen, zelfs als we de nieuwe mogelijkheden van AI vieren.

Kijken naar beperkingen

Als AI-expert Maggie Boden legt uit, "Kunstmatige intelligentie probeert computers het soort dingen te laten doen dat geesten kunnen doen." AI-onderzoekers werken eraan computers te leren redeneren, waarnemen, plannen, verplaatsen en associaties maken. AI kan patronen in grote datasets zien, de waarschijnlijkheid van een gebeurtenis voorspellen, een route plannen, iemands vergaderschema beheren en zelfs oorlogsscenario's spelen.

Veel van deze mogelijkheden zijn op zich niet verrassend: natuurlijk kan een robot door een ruimte rollen zonder ergens tegenaan te botsen. Maar op de een of andere manier lijkt AI meer magisch wanneer de computer deze vaardigheden begint samen te voegen om taken uit te voeren.


innerlijk abonneren grafisch


Neem bijvoorbeeld zelfrijdende auto's. De oorsprong van de zelfrijdende auto ligt in een project van het Defense Advanced Research Project Agency uit de jaren 1980, genaamd de Autonoom landvoertuig. De doelstellingen van het project waren het stimuleren van onderzoek naar computervisie, perceptie, planning en robotbesturing. In 2004 werd de ALV-inspanning de eerste Grand Challenge voor zelfrijdende auto's. Nu, meer dan 30 jaar na het begin van de inspanning, staan ​​we aan de vooravond van autonome of zelfrijdende auto's op de civiele markt. In de beginjaren dachten maar weinig mensen dat zo'n prestatie onmogelijk was: computers konden niet rijden!

De DARPA Grand Challenge heeft de ontwikkeling van autonome voertuigen gestimuleerd.

{youtube}M2AcMnfzpNg{/youtube}

Toch, zoals we hebben gezien, ze kunnen. De mogelijkheden van autonome auto's zijn voor ons relatief eenvoudig te begrijpen. Maar we worstelen om hun beperkingen te begrijpen. Na de Dodelijke Tesla-crash in 2015, waar de automatische pilootfunctie van de auto er niet in slaagde een tractor-oplegger die zijn rijstrook binnenkwam te detecteren, lijken maar weinigen nog steeds de ernst te begrijpen van hoe beperkt de automatische piloot van Tesla werkelijk is. Terwijl het bedrijf en zijn software dat wel waren vrijgesproken van nalatigheid door de National Highway Traffic Safety Administration blijft het onduidelijk of klanten echt begrijpen wat de auto wel en niet kan.

Wat als Tesla-eigenaren niet werd verteld dat ze dat wel waren het besturen van een "beta" -versie van een automatische piloot maar eerder een semi-autonome auto met de mentale gelijkwaardigheid van een worm? De zogenaamde "intelligentie" die zorgt voor "volledig zelfrijdend vermogen” is echt een gigantische computer die behoorlijk goed is in het detecteren en ontwijken van objecten, het herkennen van items in afbeeldingen en beperkte planning. Dat zou het perspectief van eigenaren kunnen veranderen over hoeveel de auto echt zou kunnen doen zonder menselijke input of toezicht.

Wat is het?

Technologen proberen AI vaak uit te leggen in termen van hoe het is gebouwd. Neem bijvoorbeeld de vorderingen die zijn gemaakt in diepgaand leren. Dit is een techniek die gebruikt wordt meerlaagse netwerken om te leren hoe je een taak moet uitvoeren. De netwerken moeten enorme hoeveelheden informatie verwerken. Maar vanwege de hoeveelheid gegevens die ze nodig hebben, de complexiteit van de associaties en algoritmen in de netwerken, is het voor mensen vaak onduidelijk hoe ze leren wat ze doen. Deze systemen kunnen heel goed worden in een bepaalde taak, maar we begrijpen ze niet echt.

In plaats van na te denken over AI als iets bovenmenselijks of buitenaards, is het gemakkelijker om ze te vergelijken met dieren, intelligente niet-mensen die we hebben getraind.

Bijvoorbeeld als ik zou gebruiken versterking van leren om een ​​hond te leren zitten, zou ik de hond prijzen en hem iets lekkers geven als hij op commando zit. Na verloop van tijd zou hij leren het commando te associëren met het gedrag met het lekkers.

Een hond leren zitten lijkt veel op het trainen van een kunstmatige intelligentie.

{youtube}5-MA-rGbt9k{/youtube}

Het trainen van een AI-systeem kan vrijwel hetzelfde zijn. In versterking van diep leren, zetten menselijke ontwerpers een systeem op, stellen zich voor wat ze willen dat het leert, geven het informatie, kijken naar de acties en geven het feedback (zoals lof) wanneer ze zien wat ze willen. In wezen kunnen we het AI-systeem behandelen zoals we dieren behandelen die we trainen.

De analogie werkt ook op een dieper niveau. Ik verwacht niet dat de zittende hond complexe concepten als 'liefde' of 'goed' begrijpt. Ik verwacht dat hij een gedrag aanleert. Net zoals we honden kunnen laten zitten, blijven en omrollen, kunnen we AI-systemen auto's laten verplaatsen op de openbare weg. Maar het is te veel om te verwachten dat de auto "oplossen" de ethische problemen die zich kunnen voordoen bij het besturen van noodsituaties.

Ook onderzoekers helpen

Denken aan AI als een trainbaar dier is niet alleen nuttig om het aan het grote publiek uit te leggen. Het is ook nuttig voor de onderzoekers en ingenieurs die de technologie bouwen. Als een AI-wetenschapper een systeem een ​​nieuwe vaardigheid probeert aan te leren, kan het denken aan het proces vanuit het perspectief van een dierentrainer helpen bij het identificeren van mogelijke problemen of complicaties.

Als ik bijvoorbeeld mijn hond probeer te leren zitten, en elke keer als ik "zit" zeg, gaat de zoemer van de oven af, dan zal mijn hond zitten niet alleen gaan associëren met mijn commando, maar ook met het geluid van de zoemer van de oven. In wezen wordt de zoemer een ander signaal dat de hond vertelt om te gaan zitten, wat een "toevallige versterking" wordt genoemd. Als we op zoek gaan naar toevallige versterkingen of signalen in AI-systemen die niet goed werken, dan weten we niet alleen beter wat er misgaat, maar ook welke specifieke omscholing het meest effectief is.

Dit vereist dat we begrijpen welke berichten we geven tijdens AI-training, en ook wat de AI in de omgeving waarneemt. De ovenzoemer is een eenvoudig voorbeeld; in de echte wereld zal het veel ingewikkelder zijn.

Voordat we onze AI-overheersers verwelkomen en ons leven en onze banen aan robots overdragen, moeten we even stilstaan ​​bij het soort intelligentie dat we creëren. Ze zullen erg goed zijn in het uitvoeren van bepaalde acties of taken, maar ze kunnen concepten niet begrijpen en weten niets. Dus als je aan het nadenken bent duizenden beschieten onthoud voor een nieuwe Tesla-auto dat de automatische pilootfunctie eigenlijk gewoon een heel snelle en sexy worm is. Wil je echt de controle over je leven en het leven van je dierbaren aan een worm geven? Waarschijnlijk niet, dus houd je handen aan het stuur en val niet in slaap.

Over de auteur

Heather Roff, Senior Research Fellow, Afdeling Politiek & Internationale Betrekkingen, Universiteit van Oxford; Onderzoeker, Global Security Initiative, Arizona State University

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Verwante Boeken

at InnerSelf Market en Amazon