Facebook se probleem is meer ingewikkeld as fake nuus

In die nasleep van Donald Trump se onverwagse oorwinning, baie vrae is opgewek oor Facebook se rol in die bevordering van onakkurate en hoogs partydige inligting tydens die presidensiële wedloop en of hierdie valse nuus die uitslag van die verkiesing beïnvloed het.

'N Paar het afgespeel Facebook se impak, insluitende uitvoerende hoof Mark Zuckerberg, wat gesê het dit is "Uiters onwaarskynlik" dat die valse nuus die verkiesing kon verower het. Maar vrae oor die sosiale netwerk se politieke betekenis verdien meer as om aandag te gee.

Doen Facebook's filter algoritmes verduidelik hoekom soveel liberale vertroue in 'n Clinton-oorwinning misplaas het (in vergelyking met die fout wat gemaak is deur Romney-ondersteuners in 2012)? En is Die vals nuus word op Facebook versprei Die rede waarom soveel Trump-ondersteuners bewysbare valse stellings wat hulle kandidaat gemaak het, onderskryf het?

Die gewilde aanspraak dat "filterborrels" hoekom fake nuus floreer op Facebook is amper seker verkeerd. As die netwerk mense aanmoedig om onwaarhede te glo - en dit is 'n groot as - lê die probleem waarskynlik meer in hoe die platform met basiese menslike sosiale tendense in wisselwerking tree. Dit is baie moeiliker om te verander.

'N Wanvoorligte publiek

Facebook se rol in die verspreiding van politieke nuus is onmiskenbaar. In Mei 2016, 44 persent van Amerikaners het gesê hulle het nuus van die sosiale media-webwerf gekry. En die voorkoms van verkeerde inligting versprei deur Facebook is onmiskenbaar.


innerself teken grafiese in


Dit is dus aannemelijk dat die hoeveelheid vals nuus op 'n platform waar so baie mense hul nuus kry, kan verduidelik hoekom so baie Amerikaners is verkeerd ingelig oor die politiek.

Maar dit is moeilik om te sê hoe waarskynlik dit is. Ek het begin met die studie van die internet se rol in die bevordering van valse oortuigings tydens die 2008-verkiesing, en my aandag op sosiale media in 2012. In voortgesette navorsing het ek min konsekwente bewyse gevind dat sosiale mediagebruik die aanvaarding van vals eise oor die kandidate bevorder het, ten spyte van die Voorkoms van baie onwaarhede. In plaas daarvan blyk dit dat in 2012, soos in 2008, e-pos het voortgegaan om 'n unieke kragtige kanaal te wees vir leuens en samesweringsteorieë. Sosiale media het geen betroubare waarneembare uitwerking op mense se oortuigings gehad nie.

Vir 'n oomblik, moet ons egter aanvaar dat 2016 verskil van 2012 en 2008. (Die verkiesing was beslis uniek in baie ander opsigte.)

As Facebook 'n platform bevorder waarin burgers minder die waarheid van fiksie kan onderskei, Dit sou 'n ernstige bedreiging vir die Amerikaanse demokrasie uitmaak. Maar die benaming van die probleem is nie genoeg nie. Om die vloei van verkeerde inligting deur sosiale media te bestry, is dit belangrik om te verstaan ​​waarom dit gebeur.

Moenie filterborrels blameer nie

Facebook wil hê sy gebruikers moet verloof wees, nie oorweldig nie, dus gebruik dit eie sagteware wat gebruikers se nuusfeeds filter en kies die inhoud wat sal verskyn. Die risiko lê in hoe hierdie maatwerk gedoen word.

Daar is genoeg bewyse dat mense getrek word op nuus wat hul politieke standpunt bevestig. Facebook se sagteware leer uit gebruikers se vorige aksies; dit probeer om te raai watter stories hulle waarskynlik sal kliek of deel in die toekoms. Geneem tot die uiterste, dit lewer 'n filter borrel, waarin gebruikers bloot blootgestel word aan inhoud wat hul vooroordeel bevestig. Die risiko is dan filterborrels bevorder wanpersepsies deur die waarheid weg te steek.

Die appèl van hierdie verduideliking is voor die hand liggend. Dit is maklik om te verstaan, so miskien sal dit maklik wees om reg te maak. Raak ontslae van gepersonaliseerde nuusfeeds, en filter borrels is nie meer nie.

Die probleem met die filterborrelmetafoor is dat dit aanneem dat mense volkome geïsoleer word vanuit ander perspektiewe. In werklikheid, talle studies het getoon dat individue se media-dieet byna altyd inligting en bronne bevat wat hul politieke houdings uitdaag. En 'n studie van Facebook gebruikers data het bevind dat ontmoetings met kruis inligting is wydverspreid. Met ander woorde, dit is onwaarskynlik dat mense vals oortuigings sal hou gebrek aan kontak met meer akkurate nuus.

In plaas daarvan, mense se vooraf bestaande politieke identiteite vorm hul oortuigings grondig. So selfs wanneer gekonfronteer word met dieselfde inligting, of dit 'n News article of met feit tjek, mense met verskillende politieke oriëntasies trek dikwels dramatiese verskillende betekenis uit.

'N Gedagte-eksperiment kan help: As jy 'n Clinton-ondersteuner was, was jy bewus daarvan dat die hoogs gerespekteerde voorspellingsite FiveThirtyEight het Clinton slegs 'n kans van 71-persentasie gegee om te wen? Die kans is beter as 'n muntstuk, maar ver van 'n sekere ding. Ek vermoed dat baie Demokrate geskok was ten spyte van die ongemaklike bewyse. Inderdaad, baie was kritiek op hierdie projeksie in die dae voor die verkiesing.

As jy vir Trump gestem het, het jy ooit bewyse gekry wat Trump se bewering betwis dat kiesersbedrog algemeen in die VSA is? Feite checkers en nuus organisasies het hierdie probleem breedvoerig gedek en sterk bewys gelewer dat die eis onwaar is. 'N Trump-ondersteuner kan egter onbewus wees: In 'n September 2016 poll, Het 90-persent van Trump-ondersteuners gesê hulle het nie feitekontroleurs vertrou nie.

Facebook = kwaad partytjies?

As isolasie uit die waarheid werklik die hoofbron van onakkurate inligting is, sal die oplossing voor die hand liggend wees: maak die waarheid sigbaarder.

Ongelukkig is die antwoord nie so eenvoudig nie. Wat bring ons terug na die vraag van Facebook: Is daar ander aspekte van die diens wat gebruikers se oortuigings kan verwring?

Dit sal tyd wees voordat navorsers hierdie vraag selfversekerd kan beantwoord, maar as iemand wat bestudeer het hoe die verskillende maniere waarop ander internet tegnologieë mense kan lei om vals inligting te glo, is ek bereid om 'n paar opgevoerde raai aan te bied.

Daar is twee dinge wat ons reeds weet oor Facebook wat die verspreiding van vals inligting kan aanmoedig.

Eerstens, emosies is aansteeklik, en hulle kan op Facebook versprei. Een grootskaalse studie het getoon dat klein veranderinge in Facebook-gebruikers se nuusfeeds kan die emosies vorm wat hulle in latere poste uitdruk. In daardie studie was die emosionele veranderinge klein, maar dit was ook die veranderinge in die nuusvoer wat hulle veroorsaak het. Dink net hoe Facebook-gebruikers reageer op wydverspreide aantygings van kandidate se korrupsie, kriminele aktiwiteite en leuens. Dit is nie verbasend nie byna die helfte (49 persent) van alle gebruikers het politieke bespreking oor sosiale media as "kwaad" beskryf.

Wat die politiek betref, is woede 'n kragtige emosie. Dit is getoon om mense te maak meer bereid om partydige leuens te aanvaar en meer geneig om te plaas en te deel politieke inligting, waarskynlik valse nuusartikels ingesluit wat hul oortuigings versterk. As Facebook gebruik maak partydiges kwaad terwyl hulle ook blootgestel word aan partydige leuens, kan dit nie veel saak maak dat die teenwoordigheid van akkurate inligting voorkom nie. Republikeinse of Demokratiese, vertroue mense het vertroue in inligting wat hul kant goed lyk.

Tweedens, Facebook lyk om mense se politieke identiteit te versterk - die bevordering van 'n reeds groot partydige verdeling. Terwyl Facebook mense nie beskerm teen inligting waaroor hulle nie saamstem nie, maak dit beslis makliker om ander te vind. Ons sosiale netwerke is geneig om baie mense in te sluit wat ons waardes en oortuigings deel. En dit kan 'n ander manier wees dat Facebook polities gemotiveerde leuens versterk. Geloof dien dikwels 'n sosiale funksie, wat mense help om te definieer wie hulle is en hoe hulle in die wêreld pas. Hoe makliker dit is vir mense om hulself politiek te sien, hoe meer aangeheg is hulle aan die oortuigings wat daardie identiteit bevestig.

Hierdie twee faktore - die manier waarop woede oor Facebook se sosiale netwerke versprei kan word, en hoe daardie netwerke individue se politieke identiteit meer sentraal kan maak tot wie hulle is - sal waarskynlik die gebruikers se onakkurate oortuigings meer effektief verklaar as die sogenaamde filterborrel.

As dit waar is, dan het ons 'n ernstige uitdaging voor ons. Facebook sal waarskynlik oortuig wees om sy filter algoritme te verander om meer akkurate inligting te prioritiseer. Google het reeds 'n soortgelyke poging aangewend. En onlangse verslae dui daarop dat Facebook dalk mag wees neem die probleem meer ernstig as Zuckerberg se kommentaar stel voor.

Maar dit doen niks om die onderliggende kragte aan te spreek wat vals inligting versprei en versterk nie: emosies en die mense in jou sosiale netwerke. Dit is ook nie duidelik dat hierdie eienskappe van Facebook reggestel kan word of behoort te word nie. 'N Sosiale netwerk sonder emosie lyk soos 'n teenstrydigheid, en polisiëring waarmee individue met mekaar kommunikeer, is nie iets wat ons samelewing moet omhels nie.

Dit mag wees dat Facebook aandele sommige van die skuld vir sommige van die leuens wat hierdie verkiesingsjaar gesirkuleer het - en dat hulle die verloop van die verkiesing verander het.

As dit waar is, sal die uitdaging wees om uit te vind wat ons daaraan kan doen.

Die gesprek

Oor Die Skrywer

R. Kelly Garrett, Medeprofessor in Kommunikasie, Die Ohio State University

Hierdie artikel is oorspronklik gepubliseer op Die gesprek. Lees die oorspronklike artikel.

verwante Boeke

at InnerSelf Market en Amazon