Shutterstock/Valentyn640

In 1956, tijdens een reis van een jaar naar Londen, toen hij begin twintig was, bezocht de wiskundige en theoretisch bioloog Jack D. Cowan Wilfred Taylor en zijn vreemde nieuwe ‘leermachine”. Bij zijn aankomst was hij verbijsterd door de ‘enorme verzameling apparaten’ waarmee hij werd geconfronteerd. Cowan kon alleen maar toekijken hoe “de machine zijn ding deed”. Wat het leek te doen, was het uitvoeren van een ‘associatief geheugenschema’ – het leek in staat te zijn om verbindingen te vinden en gegevens op te halen.

Het zag er misschien uit als onhandige schakelblokken, met de hand aan elkaar gesoldeerd in een massa draden en dozen, maar waar Cowan getuige van was, was een vroege analoge vorm van een neuraal netwerk – een voorloper van de meest geavanceerde kunstmatige intelligentie van vandaag, inclusief de veel besproken ChatGPT met zijn vermogen om geschreven inhoud te genereren als reactie op vrijwel elk commando. De onderliggende technologie van ChatGPT is een neuraal netwerk.

Terwijl Cowan en Taylor stonden te kijken naar de machine die aan het werk was, hadden ze werkelijk geen idee hoe deze deze taak precies kon uitvoeren. Het antwoord op het mysterieuze machinebrein van Taylor kan ergens in de 'analoge neuronen' worden gevonden, in de associaties die door het machinegeheugen worden gemaakt en, belangrijker nog, in het feit dat het geautomatiseerde functioneren ervan niet echt volledig kan worden verklaard. Het zou tientallen jaren duren voordat deze systemen hun doel zouden vinden en voordat die kracht zou worden ontsloten.

De term neuraal netwerk omvat een breed scala aan systemen, maar centraal: volgens IBMDeze “neurale netwerken – ook bekend als kunstmatige neurale netwerken (ANN’s) of gesimuleerde neurale netwerken (SNN’s) – vormen een subset van machine learning en vormen de kern van deep learning-algoritmen”. Cruciaal is dat de term zelf en hun vorm en “structuur geïnspireerd zijn door het menselijk brein, en de manier nabootsen waarop biologische neuronen naar elkaar signaleren”.

In de beginfase was er misschien enige twijfel over de waarde ervan, maar naarmate de jaren verstreken, is de AI-mode stevig in de richting van neurale netwerken gegaan. Ze worden nu vaak gezien als de toekomst van AI. Ze hebben grote gevolgen voor ons en voor wat het betekent om mens te zijn. We hebben gehoord echo van deze zorgen van de laatste tijd met oproepen om nieuwe AI-ontwikkelingen gedurende een periode van zes maanden te onderbreken om vertrouwen in de implicaties ervan te verzekeren.


innerlijk abonneren grafisch


Het zou zeker een vergissing zijn om het neurale netwerk af te doen als louter een kwestie van glanzende, opvallende nieuwe gadgets. Ze zijn al goed ingeburgerd in ons leven. Sommige zijn krachtig in hun praktische bruikbaarheid. Al in 1989 gebruikte een team onder leiding van Yann LeCun van AT&T Bell Laboratories back-propagatietechnieken om een ​​systeem te trainen handgeschreven postcodes herkennen. De recente aankondiging door Microsoft dat Bing-zoekopdrachten zullen worden aangedreven door AI, waardoor het uw ‘copiloot voor het web’ wordt, illustreert hoe de dingen die we ontdekken en hoe we ze begrijpen in toenemende mate een product zullen zijn van dit soort automatisering.

Op basis van enorme gegevens om patronen te vinden, kan AI op dezelfde manier worden getraind om zaken als beeldherkenning snel te doen, wat ertoe kan leiden dat deze worden opgenomen in gezichtsherkenning, bijvoorbeeld. Dit vermogen om patronen te identificeren heeft geleid tot vele andere toepassingen, zoals aandelenmarkten voorspellen.

Neurale netwerken veranderen ook de manier waarop we interpreteren en communiceren. Ontwikkeld door de interessant getitelde Google Brainteam, Google Vertalen is een andere prominente toepassing van een neuraal netwerk.

Je zou er ook niet mee willen schaken of shogi spelen. Hun begrip van regels en hun herinnering aan strategieën en alle geregistreerde zetten betekent dat ze uitzonderlijk goed zijn in games (hoewel ChatGPT dat lijkt te doen). strijd met Wordle). De systemen waar menselijke Go-spelers (Go is een notoir lastig strategisch bordspel) en schaakgrootmeesters last van hebben, zijn gemaakt van neurale netwerken.

Maar hun bereik reikt veel verder dan deze gevallen en blijft zich uitbreiden. Een zoektocht naar patenten die alleen beperkt zijn tot vermeldingen van de exacte term ‘neurale netwerken’ levert 135,828 resultaten op. Met deze snelle en voortgaande expansie wordt de kans dat we de invloed van AI volledig kunnen verklaren steeds kleiner. Dit zijn de vragen die ik heb onderzocht in mijn onderzoek en mijn nieuwe boek over algoritmisch denken.

Mysterieuze lagen van 'onkenbaarheid'

Terugkijkend op de geschiedenis van neurale netwerken vertelt ons iets belangrijks over de geautomatiseerde beslissingen die ons heden bepalen of de beslissingen die in de toekomst een mogelijk diepgaandere impact zullen hebben. Hun aanwezigheid vertelt ons ook dat we de beslissingen en de impact van AI in de loop van de tijd waarschijnlijk nog minder zullen begrijpen. Deze systemen zijn niet simpelweg zwarte dozen, het zijn niet slechts verborgen stukjes van een systeem die niet gezien of begrepen kunnen worden.

Het is iets anders, iets dat geworteld is in de doelstellingen en het ontwerp van deze systemen zelf. Er is een langdurige zoektocht naar het onverklaarbare. Hoe ondoorzichtiger, hoe authentieker en geavanceerder het systeem wordt geacht te zijn. Het gaat niet alleen om het steeds complexer worden van de systemen of om de controle op intellectueel eigendom die de toegang beperkt (hoewel dit er wel deel van uitmaakt). In plaats daarvan wil ik zeggen dat het ethos dat hen drijft een bijzondere en ingebedde interesse heeft in ‘onkenbaarheid’. Het mysterie is zelfs gecodeerd in de vorm en het discours van het neurale netwerk. Ze worden geleverd met diepgestapelde lagen – vandaar de term deep learning – en binnen die diepten bevinden zich de nog mysterieuzer klinkende ‘verborgen lagen’. De mysteries van deze systemen liggen diep onder de oppervlakte.

De kans is groot dat hoe groter de impact van kunstmatige intelligentie op ons leven is, hoe minder we zullen begrijpen hoe en waarom. Tegenwoordig is er een sterke drang naar AI die verklaarbaar is. We willen weten hoe het werkt en hoe het tot beslissingen en resultaten komt. De EU is zo bezorgd over de potentieel “onaanvaardbare risico’s” en zelfs “gevaarlijke” toepassingen dat zij momenteel vooruitgang boekt een nieuwe AI-wet bedoeld om een ​​“wereldwijde standaard” te stellen voor “de ontwikkeling van veilige, betrouwbare en ethische kunstmatige intelligentie”.

Deze nieuwe wetten zullen gebaseerd zijn op de behoefte aan uitlegbaarheid, eisen dat “Voor AI-systemen met een hoog risico zijn de vereisten van hoogwaardige gegevens, documentatie en traceerbaarheid, transparantie, menselijk toezicht, nauwkeurigheid en robuustheid strikt noodzakelijk om de risico’s voor de fundamentele rechten en veiligheid die AI met zich meebrengt te beperken.” Dit gaat niet alleen over zaken als zelfrijdende auto’s (hoewel systemen die de veiligheid garanderen in de EU-categorie van AI met een hoog risico vallen), het is ook een zorg dat er in de toekomst systemen zullen ontstaan ​​die gevolgen zullen hebben voor de mensenrechten.

Dit maakt deel uit van een bredere roep om transparantie op het gebied van AI, zodat de activiteiten ervan kunnen worden gecontroleerd, gecontroleerd en beoordeeld. Een ander voorbeeld is dat van de Royal Society beleidsbriefing over verklaarbare AI waarin ze erop wijzen dat “in beleidsdebatten over de hele wereld steeds vaker wordt opgeroepen tot een vorm van AI-verklaarbaarheid, als onderdeel van de inspanningen om ethische principes te verankeren in het ontwerp en de inzet van AI-ondersteunde systemen”.

Maar het verhaal van neurale netwerken vertelt ons dat we in de toekomst waarschijnlijk verder van dat doel verwijderd zullen raken, in plaats van dichterbij.

Geïnspireerd door het menselijk brein

Deze neurale netwerken kunnen complexe systemen zijn, maar toch hebben ze enkele kernprincipes. Geïnspireerd door het menselijk brein proberen ze vormen van biologisch en menselijk denken te kopiëren of te simuleren. Qua structuur en ontwerp zijn ze zo IBM legt het ook uit, bestaande uit “knooppuntlagen, die een invoerlaag, een of meer verborgen lagen en een uitvoerlaag bevatten”. Hierbinnen maakt “elk knooppunt, of kunstneuron, verbinding met een ander”. Omdat ze input en informatie nodig hebben om output te creëren, “vertrouwen ze op trainingsgegevens om te leren en hun nauwkeurigheid in de loop van de tijd te verbeteren”. Deze technische details zijn van belang, maar dat geldt ook voor de wens om deze systemen te modelleren naar de complexiteit van het menselijk brein.

Het begrijpen van de ambitie achter deze systemen is van cruciaal belang om te begrijpen wat deze technische details in de praktijk zijn gaan betekenen. In een 1993 interview, concludeerde de neurale netwerkwetenschapper Teuvo Kohonen dat een ‘zelforganiserend’ systeem ‘mijn droom is’, dat werkt ‘zoiets als wat ons zenuwstelsel instinctief doet’. Kohonen stelde zich bijvoorbeeld voor hoe een ‘zelforganiserend’ systeem, een systeem dat zichzelf bewaakte en beheerde, ‘gebruikt kon worden als een controlepaneel voor elke machine … in elk vliegtuig, straalvliegtuig, of elke kerncentrale, of elke auto". Dit, dacht hij, zou betekenen dat je in de toekomst “onmiddellijk zou kunnen zien in welke toestand het systeem zich bevindt”.

Het overkoepelende doel was om een ​​systeem te hebben dat zich aan zijn omgeving kan aanpassen. Het zou onmiddellijk en autonoom zijn, werkend in de stijl van het zenuwstelsel. Dat was de droom: systemen hebben die zichzelf aankunnen zonder dat er veel menselijk ingrijpen nodig is. De complexiteit en onbekendheid van de hersenen, het zenuwstelsel en de echte wereld zouden spoedig een rol gaan spelen bij de ontwikkeling en het ontwerp van neurale netwerken.

'Er zit iets raars in'

Maar toen we teruggingen naar 1956 en die vreemde leermachine, was het de praktische aanpak die Taylor had gevolgd bij de bouw ervan die onmiddellijk de aandacht van Cowan trok. Hij had duidelijk gezweet over het in elkaar zetten van de stukjes en beetjes. Taylor, Cowan merkte op tijdens een interview waarin hij zelf deelnam aan het verhaal van deze systemen, "deed hij het niet op basis van theorie, en hij deed het ook niet op een computer". In plaats daarvan bouwde hij, met het gereedschap in de hand, ‘daadwerkelijk de hardware’. Het was iets materieels, een combinatie van onderdelen, misschien zelfs een ding. En het werd “allemaal gedaan met analoge circuits”, waarbij Taylor, zo merkt Cowan op, “een aantal jaren nodig had om het te bouwen en ermee te spelen”. Een geval van vallen en opstaan.

Het is begrijpelijk dat Cowan grip wilde krijgen op wat hij zag. Hij probeerde Taylor zover te krijgen dat hij hem deze leermachine uitlegde. De ophelderingen bleven uit. Cowan kon Taylor niet zover krijgen dat hij hem uitlegde hoe het ding werkte. De analoge neuronen bleven een mysterie. Het meer verrassende probleem, dacht Cowan, was dat Taylor “zelf niet echt begreep wat er aan de hand was”. Dit was niet alleen een tijdelijke storing in de communicatie tussen de twee wetenschappers met verschillende specialismen, het was meer dan dat.

In een interview uit het midden van de jaren negentigTerugdenkend aan Taylor's machine onthulde Cowan dat "je tot op de dag van vandaag in gepubliceerde artikelen niet helemaal kunt begrijpen hoe het werkt". Deze conclusie doet vermoeden dat het onbekende diep ingebed is in neurale netwerken. De onverklaarbaarheid van deze neurale systemen is al aanwezig vanaf de fundamentele en ontwikkelingsstadia die bijna zeventig jaar teruggaan.

Dit mysterie bestaat nog steeds en is terug te vinden in de voortschrijdende vormen van AI. De ondoorgrondelijkheid van het functioneren van de associaties die door Taylor's machine werden gemaakt, bracht Cowan ertoe zich af te vragen of er “iets verdachts aan was”.

Lange en verwarde wortels

Cowan herinnerde zich aan zijn korte bezoek aan Taylor toen hem enkele jaren later werd gevraagd naar de ontvangst van zijn eigen werk. Tot in de jaren zestig waren mensen, zo bedacht Cowan, “een beetje traag om het nut van een analoog neuraal netwerk in te zien”. Dit ondanks het feit, zo herinnert Cowan zich, dat Taylors werk uit de jaren vijftig over 'associatief geheugen' gebaseerd was op 'analoge neuronen'. De Nobelprijswinnende expert op het gebied van neurale systemen, Leon N. Cooper, concludeerde dat de ontwikkelingen rond de toepassing van het hersenmodel in de jaren zestig als “tot de diepe mysteries” werden beschouwd. Vanwege deze onzekerheid bleef er scepsis bestaan ​​over wat een neuraal netwerk zou kunnen bereiken. Maar de dingen begonnen langzaam te veranderen.

Zo’n dertig jaar geleden werd de neurowetenschapper Walter J. Freeman verrast door de “opmerkelijkDe reeks toepassingen die voor neurale netwerken waren gevonden, gaf al commentaar op het feit dat hij ze niet als “een fundamenteel nieuw soort machine” zag. Ze kwamen langzaam op gang, waarbij de technologie eerst kwam en daarna werden er toepassingen voor gevonden. Dit kostte tijd. Om de wortels van de neurale netwerktechnologie te vinden, zouden we zelfs nog verder terug kunnen gaan dan Cowans bezoek aan Taylors mysterieuze machine.

De neurale netwetenschapper James Anderson en de wetenschapsjournalist Edward Rosenfeld hebben opgemerkt dat de achtergrond van neurale netwerken teruggaat tot de jaren veertig en enkele vroege pogingen om, zoals zij beschrijven, “de menselijke zenuwstelsels te begrijpen en kunstmatige systemen te bouwen die handelen zoals wij dat doen, althans een klein beetje”. En zo werden de mysteries van het menselijk zenuwstelsel in de jaren veertig ook de mysteries van computationeel denken en kunstmatige intelligentie.

Om dit lange verhaal samen te vatten, de computerwetenschapper Larry Hardesty heeft erop gewezen dat deep learning in de vorm van neurale netwerken “al meer dan 70 jaar in en uit de mode is”. Meer specifiek, voegt hij eraan toe, werden deze “neurale netwerken voor het eerst voorgesteld in 1944 door Warren McCulloch en Walter Pitts, twee onderzoekers van de Universiteit van Chicago die in 1952 naar het MIT verhuisden als stichtende leden van wat soms de eerste afdeling cognitieve wetenschappen wordt genoemd”.

Elders, 1943 is soms de opgegeven datum als het eerste jaar voor de technologie. Hoe het ook zij, de afgelopen zeventig jaar blijkt uit verslagen dat neurale netwerken in en uit de mode zijn geraakt, vaak verwaarloosd, maar soms vaste voet hebben gekregen en zich hebben ontwikkeld tot meer reguliere toepassingen en debatten. De onzekerheid bleef bestaan. Deze vroege ontwikkelaars beschrijven vaak dat het belang van hun onderzoek over het hoofd werd gezien, totdat het vaak jaren en soms tientallen jaren later zijn doel vond.

Vanaf de jaren zestig tot eind jaren zeventig kunnen we nog meer verhalen vinden over de onbekende eigenschappen van deze systemen. Zelfs toen, na dertig jaar, moest het neurale netwerk nog steeds een doel vinden. David Rumelhart, die een achtergrond in de psychologie had en co-auteur was van een reeks boeken die in 1960 werden gepubliceerd en die later de aandacht weer zouden vestigen op neurale netwerken, merkte dat hij meewerkte aan de ontwikkeling van neurale netwerken. met zijn collega Jay McClelland.

Behalve dat ze collega's waren, hadden ze elkaar onlangs ook ontmoet op een conferentie in Minnesota, waar Rumelharts lezing over 'verhaal begrijpen' enige discussie onder de afgevaardigden had uitgelokt.

Na die conferentie kwam McClelland terug met een gedachte over hoe een neuraal netwerk te ontwikkelen dat modellen zou kunnen combineren om interactiever te zijn. Waar het hier om gaat is Rumelharts herinnering van de “uren en uren en uren sleutelen aan de computer”.

We gingen zitten en deden dit allemaal in de computer en bouwden deze computermodellen, maar we begrepen ze gewoon niet. We begrepen niet waarom ze werkten of waarom ze niet werkten, of wat er kritisch aan was.

Net als Taylor merkte Rumelhart dat hij aan het systeem sleutelde. Ook zij creëerden een functionerend neuraal netwerk en, cruciaal, ze wisten ook niet zeker hoe of waarom het werkte op de manier waarop het werkte, schijnbaar lerend van gegevens en het vinden van associaties.

Het nabootsen van de hersenen - laag na laag

Het is je misschien al opgevallen dat bij het bespreken van de oorsprong van neurale netwerken het beeld van het brein en de complexiteit die dit oproept nooit ver weg is. Het menselijk brein fungeerde als een soort sjabloon voor deze systemen. Vooral in de vroege stadia werden de hersenen – nog steeds een van de grote onbekenden – een model voor de manier waarop het neurale netwerk zou kunnen functioneren.

Deze experimentele nieuwe systemen waren dus gemodelleerd naar iets waarvan de werking zelf grotendeels onbekend was. De neurocomputeringenieur Carver Mead heeft onthullend gesproken van de conceptie van een ‘cognitieve ijsberg’ die hij bijzonder aantrekkelijk had gevonden. Het is slechts het topje van de ijsberg van het bewustzijn waarvan we ons bewust zijn en dat zichtbaar is. De schaal en vorm van de rest blijft onder de oppervlakte onbekend.

In 1998, James Anderson, die al een tijdje aan neurale netwerken werkte, merkte op dat als het om onderzoek naar de hersenen ging, “onze belangrijkste ontdekking het besef lijkt te zijn dat we echt niet weten wat er aan de hand is”.

In een gedetailleerd verslag in de Financiële Tijden in 2018Technologiejournalist Richard Waters merkte op hoe neurale netwerken “gemodelleerd zijn naar een theorie over hoe het menselijk brein werkt, waarbij gegevens door lagen van kunstmatige neuronen worden doorgegeven totdat er een identificeerbaar patroon ontstaat”. Dit creëert een dominoprobleem, zo stelde Waters, omdat “in tegenstelling tot de logische circuits die in een traditioneel softwareprogramma worden gebruikt, er geen manier is om dit proces te volgen om precies te identificeren waarom een ​​computer met een bepaald antwoord komt”. De conclusie van Waters is dat deze uitkomsten niet ongedaan kunnen worden gemaakt. De toepassing van dit type hersenmodel, waarbij de gegevens door vele lagen heen worden geleid, betekent dat het antwoord niet gemakkelijk kan worden achterhaald. De meervoudige gelaagdheid is hiervoor een groot deel van de reden.

Hardesty Ook werd opgemerkt dat deze systemen “losjes gemodelleerd zijn naar het menselijk brein”. Dit brengt een gretigheid met zich mee om steeds meer verwerkingscomplexiteit in te bouwen om te proberen op één lijn te komen met de hersenen. Het resultaat van dit doel is een neuraal netwerk dat “bestaat uit duizenden of zelfs miljoenen eenvoudige verwerkingsknooppunten die nauw met elkaar verbonden zijn”. Gegevens bewegen door deze knooppunten slechts in één richting. Hardesty merkte op dat een “individueel knooppunt verbonden kan zijn met verschillende knooppunten in de laag eronder, vanwaar het gegevens ontvangt, en met verschillende knooppunten in de laag erboven, waarnaar het gegevens verzendt”.

Modellen van het menselijk brein maakten vanaf het begin deel uit van de manier waarop deze neurale netwerken werden bedacht en ontworpen. Dit is vooral interessant als we bedenken dat de hersenen zelf een mysterie van die tijd waren (en dat in veel opzichten nog steeds zijn).

'Aanpassing is het hele spel'

Wetenschappers als Mead en Kohonen wilden een systeem creëren dat zich werkelijk kon aanpassen aan de wereld waarin het zich bevond. Het zou reageren op zijn omstandigheden. Mead was duidelijk dat de waarde van neurale netwerken was dat ze dit soort aanpassingen konden faciliteren. Toen ik terugkeek op deze ambitie, Mede toegevoegd dat het produceren van aanpassing “het hele spel is”. Deze aanpassing is nodig, dacht hij, “vanwege de aard van de echte wereld”, waarvan hij concludeerde dat deze “te veranderlijk is om iets absoluuts te doen”.

Met dit probleem moest rekening worden gehouden, vooral omdat dit, zo dacht hij, iets was “dat het zenuwstelsel al lang geleden had ontdekt”. Deze vernieuwers werkten niet alleen met een beeld van het brein en zijn onbekenden, ze combineerden dit ook met een visie op de ‘echte wereld’ en de onzekerheden, onbekenden en variabiliteit die dit met zich meebrengt. De systemen, vond Mead, moesten kunnen reageren en zich aanpassen aan de omstandigheden zonder instructie.

Rond dezelfde tijd in de jaren negentig stelde Stephen Grossberg – een expert in cognitieve systemen die werkzaam zijn op het gebied van wiskunde, psychologie en bio-medische technologie – betoogde dat ook Aanpassing zou de belangrijke stap op de langere termijn zijn. Terwijl Grossberg zich bezighield met het modelleren van neurale netwerken, dacht hij bij zichzelf dat het allemaal “gaat over hoe biologische meet- en controlesystemen zijn ontworpen om zich in realtime snel en stabiel aan te passen aan een snel fluctuerende wereld”. Zoals we eerder zagen bij Kohonens 'droom' van een 'zelforganiserend' systeem, wordt een notie van de 'echte wereld' de context waarin respons en aanpassing in deze systemen worden gecodeerd. Hoe die echte wereld wordt begrepen en voorgesteld, bepaalt ongetwijfeld hoe deze systemen zijn ontworpen om zich aan te passen.

Verborgen lagen

Terwijl de lagen zich vermenigvuldigden, bereikte deep learning nieuwe diepten. Het neurale netwerk wordt getraind met behulp van trainingsgegevens die, Moeilijkheid uitgelegd, “wordt naar de onderste laag gevoerd – de invoerlaag – en gaat door de daaropvolgende lagen, wordt op complexe manieren vermenigvuldigd en opgeteld, totdat het uiteindelijk, radicaal getransformeerd, aankomt op de uitvoerlaag”. Hoe meer lagen, hoe groter de transformatie en hoe groter de afstand van input tot output. De ontwikkeling van Graphics Processing Units (GPU’s), bijvoorbeeld in gaming, zo voegde Hardesty eraan toe, “zorgde ervoor dat de eenlaagsnetwerken van de jaren zestig en de twee- tot drielaagsnetwerken van de jaren tachtig konden uitgroeien tot de tien, vijftien of zelfs vijftig jaar. laagnetwerken van vandaag”.

Neurale netwerken worden dieper. Volgens Hardesty is het deze toevoeging van lagen “waar het 'deep' in 'deep learning' naar verwijst”. Dit is van belang, stelt hij, omdat “deep learning momenteel verantwoordelijk is voor de best presterende systemen op vrijwel elk gebied van onderzoek naar kunstmatige intelligentie”.

Maar het mysterie wordt nog dieper. Naarmate de lagen van neurale netwerken hoger zijn opgestapeld, is hun complexiteit toegenomen. Het heeft ook geleid tot de groei van zogenaamde ‘verborgen lagen’ in deze diepten. De discussie over het optimale aantal verborgen lagen in een neuraal netwerk is nog steeds gaande. De mediatheoreticus Beatrice Fazi heeft geschreven dat “vanwege de manier waarop een diep neuraal netwerk werkt, vertrouwend op verborgen neurale lagen ingeklemd tussen de eerste laag neuronen (de invoerlaag) en de laatste laag (de uitvoerlaag), diepgaande leertechnieken vaak ondoorzichtig of onleesbaar zijn, zelfs voor de programmeurs die ze oorspronkelijk hebben opgezet”.

Naarmate de lagen groter worden (inclusief de verborgen lagen) worden ze zelfs nog minder verklaarbaar – zelfs, zo blijkt opnieuw, voor degenen die ze hebben gemaakt. De prominente en interdisciplinaire nieuwemediadenker Katherine Hayles maakt een soortgelijk punt ook opgemerkt dat er grenzen zijn aan “hoeveel we kunnen weten over het systeem, een resultaat dat relevant is voor de ‘verborgen laag’ in neurale netwerken en deep learning-algoritmen”.

Het onverklaarbare nastreven

Alles bij elkaar genomen maken deze lange ontwikkelingen deel uit van wat de socioloog van de technologie zegt Taina Bucher heeft de “problematiek van het onbekende” genoemd. Harry Collins breidt zijn invloedrijke onderzoek naar wetenschappelijke kennis uit naar het gebied van AI heeft daarop gewezen het doel van neurale netten is dat ze weliswaar in eerste instantie door een mens kunnen worden geproduceerd, maar dat “eenmaal geschreven, het programma als het ware zijn eigen leven leidt; zonder grote inspanningen kan de manier waarop het programma precies werkt mysterieus blijven”. Dit heeft echo's van die lang gekoesterde dromen van een zelforganiserend systeem.

Ik zou hieraan willen toevoegen dat het onbekende en misschien zelfs het onkenbare vanaf hun vroegste stadia als een fundamenteel onderdeel van deze systemen is nagestreefd. De kans is groot dat hoe groter de impact van kunstmatige intelligentie op ons leven is, hoe minder we zullen begrijpen hoe en waarom.

Maar dat valt bij velen vandaag de dag niet in goede aarde. We willen weten hoe AI werkt en hoe het komt tot de beslissingen en resultaten die van invloed zijn op ons. Naarmate de ontwikkelingen op het gebied van AI onze kennis en ons begrip van de wereld blijven bepalen, wat we ontdekken, hoe we worden behandeld, hoe we leren, consumeren en met elkaar omgaan, zal deze drang om te begrijpen toenemen. Als het om verklaarbare en transparante AI gaat, vertelt het verhaal van neurale netwerken ons dat we in de toekomst waarschijnlijk verder van dat doel verwijderd zullen raken, in plaats van dichterbij.

David Bier, Hoogleraar Sociologie, Universiteit van York

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.