De algoritmen van YouTube kunnen mensen radicaliseren - maar het echte probleem is dat we geen idee hebben hoe ze werken Mijnheer Tempter / Shutterstock

Creëert YouTube extremisten? EEN recente studie veroorzaakte argumenten onder wetenschappers door te beweren dat de algoritmen die de site voeden, mensen niet helpen radicaliseren door steeds extremere video's aan te bevelen, omdat is gesuggereerd in de afgelopen jaren.

De paper, voorgelegd aan open access tijdschrift First Monday maar nog formeel peer-reviewed, analyseerde video-aanbevelingen ontvangen door verschillende soorten kanalen. Het beweerde dat het algoritme van YouTube de voorkeur geeft aan reguliere mediakanalen boven onafhankelijke inhoud, en concludeert dat radicalisering meer te maken heeft met de mensen die schadelijke inhoud maken dan het algoritme van de site.

Specialisten in het veld waren snel aanwezig reageren op de studie, met wat kritiek de methoden van het papier en anderen argumenteerden dat het algoritme er een van was verschillende belangrijke factoren en die data science alleen zal ons het antwoord niet geven.

Het probleem met deze discussie is dat we de vraag niet kunnen beantwoorden welke rol het algoritme van YouTube speelt bij het radicaliseren van mensen, omdat we niet begrijpen hoe het werkt. En dit is slechts een symptoom van een veel breder probleem. Deze algoritmen spelen een steeds grotere rol in ons dagelijks leven, maar missen enige vorm van transparantie.

Het is moeilijk te beweren dat YouTube geen rol speelt bij radicalisering. Dit werd voor het eerst opgemerkt door technologie-socioloog Zeynep Tufekci, die illustreerde hoe aanbevolen video's gebruikers geleidelijk aanzetten naar meer extreme inhoud. In de woorden van Tufekci leiden video's over joggen tot video's over het uitvoeren van ultramarathons, video's over vaccins leiden tot samenzweringstheorieën en video's over politiek leiden tot "holocaustontkenningen en andere verontrustende inhoud".


innerlijk abonneren grafisch


Hier is ook over geschreven grondig door ex-YouTube-medewerker Guillaume Chaslot die werkte aan het aanbeveling-algoritme van de site. Sinds het verlaten van het bedrijf is Chaslot blijven proberen die aanbevelingen te doen transparanter. Hij zegt dat YouTube-aanbevelingen bevooroordeeld zijn complottheorieën en feitelijk onnauwkeurige video's, waardoor mensen toch meer tijd op de site kunnen doorbrengen.

Eigenlijk, watchtijd maximaliseren is het hele punt van de algoritmen van YouTube en dit moedigt videomakers aan om op elke mogelijke manier om aandacht te vechten. Het bedrijf is puur gebrek aan transparantie over hoe dit precies werkt, maakt het bijna onmogelijk om radicalisering op de site te bestrijden. Zonder transparantie is het immers moeilijk om te weten wat er kan worden veranderd om de situatie te verbeteren.

De algoritmen van YouTube kunnen mensen radicaliseren - maar het echte probleem is dat we geen idee hebben hoe ze werken Hoe het algoritme van YouTube werkt, blijft een raadsel. Wie is Danny / Shutterstock

Maar YouTube is in dit opzicht niet ongebruikelijk. Een gebrek aan transparantie over hoe algoritmen werken, is meestal het geval wanneer ze in grote systemen worden gebruikt, hetzij door particuliere bedrijven, hetzij door openbare instanties. Naast het bepalen van welke video u vervolgens wilt laten zien, zijn machine learning-algoritmen nu ook gewend kinderen op school plaatsen, beslissen over gevangenis straffen, bepalen kredietscores en verzekeringstarieven, evenals het lot van immigranten, sollicitanten en universitaire aanvragers. En meestal begrijpen we niet hoe deze systemen hun beslissingen nemen.

Onderzoekers hebben creatieve manieren gevonden om de impact van deze algoritmen op de samenleving te laten zien, hetzij door de opkomst van het reactionaire recht of de verspreiding van complottheorieën op YouTube, of door te laten zien hoe zoekmachines weerspiegelen de racistische vooroordelen van de mensen die ze maken.

Machine learning-systemen zijn meestal groot, complex en ondoorzichtig. Passend worden ze vaak beschreven als zwarte dozen, waar informatie naar binnen gaat en informatie of acties naar buiten komen, maar niemand kan zien wat er tussendoor gebeurt. Dit betekent dat, omdat we niet precies weten hoe algoritmen zoals het YouTube-aanbevelingssysteem werken, proberen uit te werken hoe de site werkt, hetzelfde zou zijn als proberen een auto te begrijpen zonder de motorkap te openen.

Dit betekent op zijn beurt dat het proberen om wetten te schrijven om te regelen wat algoritmen wel of niet moeten doen, een blind proces of vallen en opstaan ​​wordt. Dit is wat er gebeurt met YouTube en met zoveel andere algoritmen voor machine learning. We proberen inspraak te krijgen in hun resultaten, zonder echt inzicht te hebben in hoe ze echt werken. We moeten deze gepatenteerde technologieën openstellen, of op zijn minst transparant genoeg maken zodat we ze kunnen reguleren.

Uitleg en testen

Een manier om dit te doen zou zijn om algoritmen te bieden contrafeitelijke verklaringen samen met hun beslissingen. Dit betekent het uitwerken van de minimale voorwaarden die nodig zijn voor het algoritme om een ​​andere beslissing te nemen, zonder de volledige logica te beschrijven. Een algoritme dat beslissingen neemt over bankleningen, kan bijvoorbeeld een output produceren die zegt dat "als u ouder was dan 18 en geen eerdere schulden had, uw banklening zou worden geaccepteerd". Maar dit kan moeilijk zijn om te doen met YouTube en andere sites die aanbevelingenalgoritmen gebruiken, omdat in theorie elke video op het platform op elk moment kan worden aanbevolen.

Een ander krachtig hulpmiddel is het testen en controleren van algoritmen, wat bijzonder nuttig is geweest bij het diagnosticeren van bevooroordeelde algoritmen. In een recent geval ontdekte een professioneel cv-bedrijf dat zijn algoritme dat was prioriteit geven aan twee factoren als beste voorspellers van werkprestaties: of de naam van de kandidaat Jared was en of ze lacrosse speelden op de middelbare school. Dit is wat er gebeurt wanneer de machine zonder toezicht werkt.

In dit geval had het cv-screening-algoritme opgemerkt dat blanke mannen een grotere kans hadden om aangenomen te worden, en hadden ze correlerende proxy-kenmerken (zoals Jared genoemd of lacrosse spelen) gevonden in de kandidaten die werden aangenomen. Met YouTube kan algoritmecontrole helpen te begrijpen welke soorten video's prioriteit krijgen voor aanbeveling - en misschien helpen om de discussie op gang te brengen of YouTube-aanbevelingen bijdragen aan radicalisering of niet.

Het introduceren van contrafeitelijke verklaringen of het gebruik van algoritme-audit is een moeilijk, kostbaar proces. Maar het is belangrijk, omdat het alternatief erger is. Als algoritmen ongecontroleerd en niet-gereguleerd blijven, zouden we een geleidelijke kruip van samenzweringstheoretici en extremisten in onze media kunnen zien, en onze aandacht gecontroleerd door degene die de meest winstgevende inhoud kan produceren.The Conversation

Over de auteur

Chico Q. Camargo, postdoctoraal onderzoeker in data science, Universiteit van Oxford

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.