Het probleem van Facebook is meer gecompliceerd dan nepnieuws

Het probleem van Facebook is meer gecompliceerd dan nepnieuws

In het kielzog van de onverwachte overwinning van Donald Trump, veel vragen zijn opgekomen over de rol van Facebook in het promoten van onnauwkeurige en zeer partijdige informatie tijdens de presidentiële race en of dit nepnieuws de uitkomst van de verkiezingen beïnvloedde.

Enkelen hebben gebagatelliseerd De impact van Facebook, waaronder CEO Mark Zuckerberg, die zei dat het zo is "uiterst onwaarschijnlijk" dat valse nieuws had de verkiezingen kunnen beïnvloeden. Maar vragen over de politieke betekenis van het sociale netwerk verdienen meer dan de aandacht trekken.

Doe op Facebook filteralgoritmen leg uit waarom zoveel liberalen het vertrouwen in een overwinning van Clinton verloren hadden (in navolging van de fout van Romney-voorstanders in 2012)? En is het valse nieuws wordt verspreid op Facebook de reden dat zoveel supporters van Trump aantoonbaar valse verklaringen van hun kandidaat hebben onderschreven?

De populaire bewering dat "filter bubbels" de reden zijn waarom nepnieuws op Facebook gedijt, is vrijwel zeker verkeerd. Als het netwerk mensen aanmoedigt om onwaarheden te geloven - en dat is een grote als - ligt het probleem waarschijnlijker in hoe het platform interageert met basale menselijke sociale neigingen. Dat is veel moeilijker te veranderen.

Een slecht geïnformeerd publiek

De rol van Facebook bij de verspreiding van politiek nieuws valt niet te ontkennen. In mei 2016, 44 procent van de Amerikanen zeiden dat ze nieuws kregen van de sociale media-site. En de prevalentie van verkeerde informatie verspreid via Facebook is ontegenzeggelijk.

Het is dus aannemelijk dat de hoeveelheid nepnieuws op een platform waar zoveel mensen hun nieuws ontvangen, kan helpen verklaren waarom zoveel Amerikanen zijn slecht geïnformeerd over de politiek.

Maar het is moeilijk te zeggen hoe waarschijnlijk dit is. Ik begon de rol van internet te bestuderen bij het promoten van valse overtuigingen tijdens de 2008-verkiezing, waarbij ik mijn aandacht richtte op sociale media in 2012. In lopend onderzoek heb ik weinig consistente bewijzen gevonden dat sociale media de acceptatie van valse claims over de kandidaten bevorderen, ondanks de prevalentie van veel onwaarheden. In plaats daarvan lijkt het erop dat in 2012, zoals in 2008, e-mail bleef een uniek krachtig kanaal voor leugens en complottheorieën. Sociale media hadden geen betrouwbaar detecteerbaar effect op de overtuigingen van mensen.

Even veronderstellen we echter dat 2016 anders was dan 2012 en 2008. (De verkiezing was zeker uniek in vele andere opzichten.)

Als Facebook een platform promoot waarin burgers minder in staat zijn de waarheid van fictie te onderscheiden, het zou een serieuze bedreiging vormen voor de Amerikaanse democratie. Maar het benoemen van het probleem is niet voldoende. Om de stroom van desinformatie via sociale media te bestrijden, is het belangrijk om te begrijpen waarom het gebeurt.

Geef de filterbellen niet de schuld

Facebook wil dat zijn gebruikers betrokken zijn, niet overweldigd, dus het maakt gebruik van bedrijfssoftware die de nieuwsfeeds van gebruikers filtert en de inhoud kiest die zal verschijnen. Het risico ligt in hoe deze afstemming is gedaan.

Er is voldoende bewijs dat mensen aangetrokken worden tot nieuws dat hun politieke standpunt bevestigt. De software van Facebook leert van eerdere acties van gebruikers; het probeert te raden welke verhalen ze waarschijnlijk zullen aanklikken of delen in de toekomst. Tot het uiterste genomen, produceert dit een filterbubbel, waarin gebruikers alleen worden blootgesteld aan inhoud die hun vooroordelen bevestigt. Het risico is dan dat filterbellen bevorderen mispercepties door de waarheid te verbergen.

De aantrekkingskracht van deze verklaring ligt voor de hand. Het is gemakkelijk te begrijpen, dus misschien is het eenvoudig te repareren. Weg met gepersonaliseerde nieuwsfeeds en filterbellen zijn er niet meer.

Het probleem met de filterbubble-metafoor is dat wordt aangenomen dat mensen perfect geïsoleerd zijn vanuit andere perspectieven. Eigenlijk, vele studies hebben getoond dat de mediadiëten van individuen bijna altijd informatie en bronnen bevatten die hun politieke houding uitdagen. En een studie van Facebook-gebruikersgegevens ontdekte dat ontmoetingen met horizontale informatie wijdverspreid zijn. Met andere woorden, het is onwaarschijnlijk dat het vasthouden aan valse overtuigingen door mensen wordt verklaard gebrek aan contact met meer accuraat nieuws.

In plaats daarvan bestaan ​​al bestaande politieke identiteiten van mensen hun overtuigingen grondig vormgeven. Dus zelfs als je met dezelfde informatie wordt geconfronteerd, of het nu gaat om een nieuwsartikel of feiten controleren, mensen met verschillende politieke oriëntaties halen vaak een dramatisch andere betekenis uit.

Een gedachte-experiment kan helpen: als u een Clinton-supporter was, wist u dan dat de zeer gerespecteerde voorspellingssite FiveThirtyEight gaf Clinton slechts een 71 procent kans om te winnen? Die kansen zijn beter dan een coin flip, maar verre van zeker. Ik vermoed dat veel democraten geschokt waren ondanks het zien van dit ongemakkelijke bewijs. Inderdaad, velen waren kritisch geweest over deze projectie in de dagen vóór de verkiezingen.

Als je op Trump hebt gestemd, heb je ooit bewijs gezien dat de bewering van Trump betwist dat kiezersfraude heel gewoon is in de VS? Feitencheckers en nieuws organisaties hebben dit onderwerp uitvoerig behandeld, en bieden krachtig bewijs dat de claim niet waar is. Een supporter van Trump kan echter onbewogen zijn: In een 2016-peiling van september, 90 procent van de Trump-supporters zei dat ze geen feitencheckers vertrouwden.

Facebook = boze partizanen?

Als isolatie van de waarheid echt de belangrijkste bron van onnauwkeurige informatie is, zou de oplossing voor de hand liggen: de waarheid zichtbaarder maken.

Helaas is het antwoord niet zo eenvoudig. Dat brengt ons terug naar de vraag van Facebook: zijn er andere aspecten van de dienst die de overtuigingen van gebruikers kunnen verstoren?

Het zal nog wel even duren voordat onderzoekers deze vraag vol vertrouwen kunnen beantwoorden, maar als iemand die heeft bestudeerd hoe de verschillende manieren waarop andere internettechnologieën mensen ertoe kunnen brengen om valse informatie te geloven, ben ik bereid om een ​​paar goede inschattingen te geven.

Er zijn twee dingen die we al weten over Facebook die de verspreiding van valse informatie zouden kunnen aanmoedigen.

Ten eerste zijn emoties besmettelijk en kunnen ze zich verspreiden op Facebook. Een grootschalig onderzoek heeft aangetoond dat kleine veranderingen in de nieuwsfeeds van Facebook-gebruikers plaatsvinden kan de emoties die ze in latere berichten uitdrukken vormgeven. In die studie waren de emotionele veranderingen klein, maar dat gold ook voor de veranderingen in de nieuwsfeed die hen veroorzaakte. Stelt u zich eens voor hoe Facebook-gebruikers reageren op wijdverspreide beschuldigingen van corruptie, criminele activiteiten en leugens van kandidaten. Het is niet verrassend dat bijna half (49 procent) van alle gebruikers beschreef de politieke discussie op sociale media als 'boos'.

Als het op politiek aankomt, is woede een krachtige emotie. Er is aangetoond dat het mensen maakt meer bereid om partijdige leugens te accepteren en waarschijnlijker om te posten en te delen politieke informatie, vermoedelijk inclusief valse nieuwsartikelen die hun overtuigingen versterken. Als Facebook-gebruik partizanen boos maakt terwijl ze ook worden blootgesteld aan partijdige onwaarheden, kan het zeker niet erg zijn of de juiste informatie beschikbaar is. Republikein of Democraat, boze mensen vertrouwen op informatie die hun kant er goed uitziet.

Ten tweede lijkt Facebook de politieke identiteit van mensen te versterken - waardoor een al groot wordt bevorderd partijdige verdeling. Facebook beschermt mensen niet tegen informatie waar ze het niet mee eens zijn, maar het maakt het zeker gemakkelijker om gelijkgestemde anderen te vinden. Onze sociale netwerken hebben de neiging om veel mensen te omvatten die onze waarden en overtuigingen delen. En dit kan een andere manier zijn waarop Facebook politiek gemotiveerde onwaarheden versterkt. Geloofsovertuigingen hebben vaak een sociale functie, waardoor mensen kunnen bepalen wie ze zijn en hoe ze in de wereld passen. Hoe gemakkelijker het voor mensen is om zichzelf in politieke termen te zien, hoe meer ze gehecht zijn aan de overtuigingen die die identiteit bevestigen.

Deze twee factoren - de manier waarop boosheid zich kan verspreiden over de sociale netwerken van Facebook en hoe die netwerken de politieke identiteit van mensen meer centraal kunnen stellen in wie ze zijn - kunnen onnauwkeurige geloofsovertuigingen van Facebook-gebruikers beter verklaren dan de zogenaamde filterbubbel.

Als dit waar is, hebben we een serieuze uitdaging voor de boeg. Facebook zal waarschijnlijk overtuigd zijn om het filteralgoritme te veranderen om prioriteit te geven aan meer accurate informatie. Google heeft het al gedaan ondernam een ​​soortgelijk streven. En recente rapporten suggereren dat Facebook mogelijk is het probleem serieuzer nemen dan de opmerkingen van Zuckerberg suggereren.

Maar dit doet niets om de onderliggende krachten aan te pakken die valse informatie propageren en versterken: emoties en de mensen in uw sociale netwerken. Het is ook niet vanzelfsprekend dat deze kenmerken van Facebook kunnen of moeten worden 'gecorrigeerd'. Een sociaal netwerk zonder emotie lijkt een tegenstrijdigheid en toezicht houden op de interactie tussen individuen is niet iets dat onze samenleving zou moeten omarmen.

Het kan zijn dat Facebook deelt sommige van de schuld voor sommige van de leugens die dit verkiezingsjaar hebben verspreid - en dat zij de loop van de verkiezingen hebben veranderd.

Als het waar is, is de uitdaging om erachter te komen wat we eraan kunnen doen.

The Conversation

Over de auteur

R. Kelly Garrett, Associate Professor of Communication, De Ohio State University

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Verwante Boeken

{amazonWS: searchindex = Boeken; trefwoorden = nepnieuws; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

volg InnerSelf op

facebook-icontwitter-iconrss-icoon

Ontvang de nieuwste via e-mail

{Emailcloak = off}