3 manieren waarop Facebook nepnieuws kan verminderen

3 manieren waarop Facebook nepnieuws kan verminderen

Het publiek krijgt er veel van nieuws en informatie van Facebook. Een deel ervan is nep. Dat levert een probleem op voor de gebruikers van de site en voor het bedrijf zelf.

Medeoprichter en voorzitter van Facebook, Mark Zuckerberg, zei dat het bedrijf manieren zal vinden om het probleem aan te pakken, hoewel hij de ernst ervan niet erkent. En zonder duidelijke ironie maakte hij deze aankondiging in a Facebook bericht omringd - althans voor sommige kijkers - door valse nieuwsitems.

Andere technologie-eerste bedrijven met vergelijkbare macht over hoe het publiek zichzelf informeert, zoals Google, hebben de afgelopen jaren hard gewerkt degradeerde informatie van lage kwaliteit in hun zoekresultaten. Maar Facebook heeft geen vergelijkbare stappen ondernomen om gebruikers te helpen.

Wat zou Facebook kunnen doen om aan zijn sociale verplichting te voldoen om feit uit fictie te scheiden voor de 70 procent van internetgebruikers wie heeft toegang tot Facebook? Als de site steeds vaker wordt gebruikt waar mensen hun nieuws ontvangen, wat zou het bedrijf dan kunnen doen zonder de mantel op te nemen om een ​​laatste scheidsrechter voor de waarheid te zijn? Mijn werk als hoogleraar informatiestudies suggereert dat er ten minste drie opties zijn.

De rol van Facebook

Facebook zegt dat het een is technologiebedrijf, geen mediabedrijf. Het primaire motief van het bedrijf is winst, in plaats van een verhevener doel zoals het produceren van informatie van hoge kwaliteit om het publiek te helpen goed te handelen in de wereld.

Niettemin worden berichten op de site en de omringende gesprekken zowel online als offline steeds vaker gebruikt betrokken bij ons publieke discours en de politieke agenda van de natie. Als gevolg hiervan heeft het bedrijf een sociale verplichting om zijn technologie te gebruiken om het algemeen welzijn te bevorderen.

Het onderscheiden van waarheid van leugens kan echter ontmoedigend zijn. Facebook is niet alleen in zorgen uiten over het vermogen ervan - en dat van andere technologiebedrijven - om de kwaliteit van nieuws te beoordelen. De directeur van FactCheck.org, een non-profit fact-checking groep gevestigd aan de Universiteit van Pennsylvania, vertelde Bloomberg News dat veel claims en verhalen zijn niet helemaal fout. Velen hebben kernels van waarheid, zelfs als ze erg misleidend zijn geformuleerd. Dus wat kan Facebook echt doen?

Optie 1: Nudging

Een optie die Facebook zou kunnen gebruiken, omvat het gebruik van bestaande lijsten die vooraf gescreend betrouwbaar en identificeren fake-nieuwssites. De site kan dan degenen waarschuwen die een lastig artikel willen delen dat de bron twijfelachtig is.


Haal het laatste uit InnerSelf


Eén ontwikkelaar heeft bijvoorbeeld een extensie voor de Chrome-browser gemaakt dat geeft aan wanneer een website je kijkt naar misschien nep. (Hij noemt het de 'BS-detector'.) In een 36-uur hackathon, een groep studenten heeft een vergelijkbare Chrome-browserextensie gemaakt Dit geeft aan of de website waar het artikel vandaan komt op een lijst met geverifieerde betrouwbare sites staat, of is in plaats daarvan niet geverifieerd.

Deze extensies presenteren hun meldingen terwijl mensen scrollen door hun nieuwsfeeds. Momenteel werkt geen van beide rechtstreeks als onderdeel van Facebook. Het integreren ervan zou een meer naadloze ervaring bieden en zou de service beschikbaar maken voor alle Facebook-gebruikers, behalve voor degenen die een van de extensies op hun eigen computer hebben geïnstalleerd.

Het bedrijf zou ook de informatie die de extensies genereren - of hun bronmateriaal - kunnen gebruiken om gebruikers te waarschuwen voordat ze onbetrouwbare informatie delen. In de wereld van softwareontwerp staat dit bekend als een "duwtje. "Het waarschuwingssysteem controleert het gedrag van gebruikers en waarschuwt mensen of geeft hen feedback om hun acties bij het gebruik van de software aan te passen.

Dit is eerder gedaan, voor andere doeleinden. Collega's van mij hier bijvoorbeeld aan de universiteit van Syracuse een nudging-applicatie gebouwd die controleert wat Facebook-gebruikers in een nieuwe post schrijven. Er verschijnt een melding als de inhoud die ze schrijven iets is waar ze spijt van kunnen krijgen, zoals een boos bericht met scheldwoorden.

De schoonheid van nudges is de zachte maar effectieve manier waarop ze mensen herinneren aan gedrag om hen te helpen dat gedrag vervolgens te veranderen. Studies die het gebruik van nudges hebben getest gezond gedrag verbeterenontdek bijvoorbeeld dat mensen meer geneigd zijn hun dieet en lichaamsbeweging te veranderen op basis van vriendelijke herinneringen en aanbevelingen. Nudges kunnen effectief zijn omdat ze mensen controle geven terwijl ze ook nuttige informatie geven. Uiteindelijk beslist de ontvanger van de knop nog steeds of de gegeven feedback wordt gebruikt. Nudges voelen zich niet dwingend; in plaats daarvan zijn ze mogelijk empowerment.

Optie 2: crowdsourcing

Facebook zou ook de kracht van crowdsourcing kunnen gebruiken om nieuwsbronnen te evalueren en aan te geven wanneer nieuws dat wordt gedeeld, is geëvalueerd en beoordeeld. Een belangrijke uitdaging met nepnieuws is dat het inspeelt op de manier waarop onze hersenen zijn verbonden. We hebben mentale snelkoppelingen, genaamd cognitieve vooroordelen, die ons helpen beslissingen te nemen als we niet voldoende informatie hebben (we doen het nooit), of genoeg tijd (wat we nooit doen). Over het algemeen werken deze snelkoppelingen goed voor ons, omdat we beslissingen nemen over alles van route tot station tot werk en welke auto te kopen. Maar af en toe falen ze ons. Vallen voor valse nieuws is een van die gevallen.

Dit kan iedereen overkomen - zelfs ik. In het primaire seizoen volgde ik een Twitter-hashtag waarop de toenmalige hoofdkandidaat Donald Trump tweette. Er verscheen een bericht dat ik een beetje schokkend vond. Ik heb het geretweet met een opmerking die zijn belediging bespotte. Een dag later besefte ik dat de tweet afkomstig was van een parodie-account die er hetzelfde uitzag als de Twitter-naam van Trump, maar één letter had veranderd.

Ik heb het gemist omdat ik gevallen was voorkeur voor bevestiging - de neiging om wat informatie over het hoofd te zien, omdat het in strijd is met mijn verwachtingen, voorspellingen of ingevingen. In dit geval had ik die kleine stem die me vertelde dat deze specifieke tweet een beetje te overdreven was voor Trump genegeerd, omdat ik geloofde dat hij in staat was om nog ongepaste berichten te produceren. Nepnieuws proeft op dezelfde manier op ons.

Een ander probleem met nepnieuws is dat het veel verder kan reizen dan enige correctie die daarna zou kunnen optreden. Dit is vergelijkbaar met de uitdagingen die altijd te maken hebben gehad met nieuwskamers wanneer zij onjuiste informatie hebben gerapporteerd. Hoewel ze correcties publiceren, hebben de mensen die oorspronkelijk aan de verkeerde informatie zijn blootgesteld, de update nooit te zien en weten daarom ook niet wat ze eerder hebben gelezen. Bovendien houden mensen vast aan de eerste informatie die ze tegenkomen; correcties kunnen zelfs averechts werken door verkeerde informatie te herhalen en de fout in de hoofden van lezers te versterken.

Als mensen informatie evalueren terwijl ze het lezen en deze beoordelingen delen, kunnen de waarheidsscores, zoals de nudges, deel uitmaken van de Facebook-toepassing. Dat kan gebruikers helpen zelf te beslissen of ze lezen, delen of gewoon negeren. Een uitdaging met crowdsourcing is dat mensen deze systemen kunnen spelen om te proberen de vooringenomen resultaten te behalen. Maar de schoonheid van crowdsourcing is dat de menigte ook de beoordelaars kan beoordelen, net zoals gebeurt op Reddit of met Amazon's reviews, om de gevolgen en het gewicht van herrieschoppers te verminderen.

Optie 3: Algorithmische sociale afstand

De derde manier waarop Facebook zou kunnen helpen zou zijn om de algoritmische vertekening die op dit moment bestaat op Facebook te verminderen. De site toont voornamelijk berichten van mensen met wie je op Facebook bent geëngageerd. Met andere woorden, het Facebook-algoritme creëert wat sommigen a hebben genoemd filterbubbel, een online nieuwsfenomeen dat dat wel heeft betrokken geleerden al decennia lang. Als je alleen wordt blootgesteld aan mensen met ideeën die lijken op die van jezelf, leidt dit tot politieke polarisatie: Liberalen worden nog extremer in hun liberalisme en conservatieven worden conservatiever.

De filterbubbel creëert een 'echo-kamer', waar gelijkaardige ideeën eindeloos rondstuiteren, maar nieuwe informatie kan moeilijk zijn weg vinden. Dit is een probleem wanneer de echokamer corrigerende of fact-controle-informatie blokkeert.

Als Facebook meer nieuws zou openen om in iemands nieuwsfeed te komen van een willekeurig stel mensen in hun sociale netwerk, zou dit de kans vergroten dat nieuwe informatie, alternatieve informatie en tegenstrijdige informatie binnen dat netwerk zouden stromen. Het gemiddelde aantal vrienden in een Facebook-gebruikersnetwerk is 338. Hoewel velen van ons vrienden en familie hebben die onze waarden en overtuigingen delen, hebben we ook kennissen en vreemden die deel uitmaken van ons Facebook-netwerk en die lijnrecht tegenover elkaar staan. Als de algoritmen van Facebook meer van die weergaven in onze netwerken zouden brengen, zou de filterbel poreuzer zijn.

Al deze opties vallen ruim binnen de mogelijkheden van de ingenieurs en onderzoekers op Facebook. Ze zouden gebruikers in staat stellen om betere beslissingen te nemen over de informatie die ze kiezen om te lezen en te delen met hun sociale netwerken. Als een toonaangevend platform voor informatieverspreiding en een generator van sociale en politieke cultuur door middel van praten en informatie delen, hoeft Facebook niet de ultieme scheidsrechter van de waarheid te zijn. Maar het kan de kracht van zijn sociale netwerken gebruiken om gebruikers te helpen de waarde te bepalen van items te midden van de stroom van inhoud waarmee ze worden geconfronteerd.

The Conversation

Over de auteur

Jennifer Stromer-Galley, hoogleraar informatiekunde, Syracuse University

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Related Books:

{amazonWS: searchindex = Books; keywords = news online; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

volg InnerSelf op

facebook-icontwitter-iconrss-icoon

Ontvang de nieuwste via e-mail

{Emailcloak = off}