Algoritmes van YouTube kan mense radikaliseer - maar die werklike probleem is dat ons geen idee het hoe hulle werk nie Mnr Tempter / Shutterstock

Skep YouTube ekstremiste? A onlangse studie het argumente onder wetenskaplikes veroorsaak deur te argumenteer dat die algoritmes wat die webwerf mag nie mense help radikaliseer deur steeds meer ekstreme video's aan te beveel nie, aangesien is voorgestel in onlangse jare.

Die artikel wat voorgelê is aan die eerste-Maandag-joernaal, maar nogtans formeel deur eweknie geëvalueer is, is geanaliseer deur video-aanbevelings wat deur verskillende soorte kanale ontvang is. Daar word beweer dat YouTube se algoritme die hoofstroom-mediakanale ten gunste van onafhanklike inhoud bevoordeel, en tot die gevolgtrekking gekom dat radikalisering meer te make het met die mense wat skadelike inhoud skep as die algoritme van die webwerf.

Spesialiste in die veld was vinnig in reageer op die studie, met 'n paar kritiek die metodes van die referaat en ander wat die algoritme argumenteer, was een daarvan verskeie belangrike faktore en dat data-wetenskap alleen sal ons nie die antwoord gee nie.

Die probleem met hierdie bespreking is dat ons nie regtig die vraag kan beantwoord watter rol YouTube se algoritme speel by mense wat mense radikaliseer nie, omdat ons nie verstaan ​​hoe dit werk nie. En dit is net 'n simptoom van 'n veel breër probleem. Hierdie algoritmes speel 'n toenemende rol in ons daaglikse lewe, maar het nie 'n soort deursigtigheid nie.

Dit is moeilik om te argumenteer dat YouTube nie 'n rol speel in radikalisering nie. Die tegnologiese sosioloog Zeynep Tufekci het die eerste keer daarop gewys, wat illustreer hoe aanbevole video's gebruikers geleidelik dryf na meer ekstreme inhoud. Volgens Tufekci sê video's oor draf lei tot video's oor die bestuur van ultramarathons, video's oor entstowwe lei tot samesweringsteorieë, en video's oor politiek lei tot "ontkenning van die Holocaust en ander ontstellende inhoud".


innerself teken grafiese in


Hieroor is ook geskryf in detail deur die gewese YouTube-werknemer Guillaume Chaslot wat aan die aanbevelingalgoritme van die webwerf gewerk het. Sedert hy die maatskappy verlaat het, het Chaslot voortgegaan om die aanbevelings te maak Deursigtiger. Hy sê YouTube-aanbevelings is bevooroordeeld samesweringsteorieë en feitelik onakkurate video's, wat mense nietemin meer tyd op die webwerf spandeer.

In werklikheid, maksimale wagtyd is die hele punt van YouTube se algoritmes, en dit moedig videoskeppers aan om op enige moontlike manier om aandag te veg. Die maatskappy se pure 'n gebrek aan deursigtigheid presies hoe dit werk, maak dit byna onmoontlik om radikalisering op die webwerf te beveg. Immers, sonder deursigtigheid, is dit moeilik om te weet wat verander kan word om die situasie te verbeter.

Algoritmes van YouTube kan mense radikaliseer - maar die werklike probleem is dat ons geen idee het hoe hulle werk nie Hoe YouTube se algoritme werk, bly 'n raaisel. Wie is Danny / Shutterstock

Maar YouTube is in hierdie opsig nie ongewoon nie. 'N Gebrek aan deursigtigheid oor hoe algoritmes werk, is gewoonlik die geval wanneer dit in groot stelsels gebruik word, hetsy deur private ondernemings of openbare liggame. Die masjienleer-algoritmes is nou ook gewoond aan die keuse van watter video u volgende gaan wys plaas kinders in skole, besluit oor gevangenisstraf, bepaal kredietwaardes en versekeringsyfers, sowel as die lot van immigrante, werk kandidate en universiteitsaansoekers. En gewoonlik verstaan ​​ons nie hoe hierdie stelsels hul besluite neem nie.

Navorsers het kreatiewe maniere gevind om die impak van hierdie algoritmes op die samelewing aan te toon, hetsy deur die ondersoek na die opkoms van die reaksionêre reg of die verspreiding van samesweringsteorieë op YouTube, of deur aan te toon hoe soekenjins weerspieël die rassistiese vooroordele van die mense wat hulle skep.

Masjienleerstelsels is gewoonlik groot, kompleks en ondeursigtig. Dit word gepas beskryf as swart bokse, waar inligting ingaan en inligting of aksies uitkom, maar niemand kan sien wat tussenin gebeur nie. Dit beteken dat, aangesien ons nie presies weet hoe algoritmes soos die YouTube-aanbevelingstelsel werk nie, sal probeer om uit te werk hoe die werf werk, soos om 'n motor te probeer verstaan ​​sonder om die enjinkap oop te maak.

Op sy beurt beteken dit dat om 'n blinde proses of verhoor en fout te probeer om wette te skryf om te reguleer wat algoritmes moet doen of nie mag doen nie. Dit is wat met YouTube en met soveel ander algoritmes vir masjienleer gebeur. Ons probeer om 'n sê te hê in hul uitkomste, sonder om 'n ware begrip te hê van hoe hulle regtig werk. Ons moet hierdie gepatenteerde tegnologieë open of dit ten minste deursigtig maak sodat ons dit kan reguleer.

Uitleg en toetsing

Een manier om dit te doen, is om algoritmes te verskaf kontrafaktuele verklarings saam met hul besluite. Dit beteken dat u die minimum voorwaardes moet uitwerk wat nodig is vir die algoritme om 'n ander besluit te neem, sonder om die volledige logika te beskryf. Byvoorbeeld, 'n algoritme wat besluite neem oor banklenings kan 'n opbrengs lewer wat sê dat "as u ouer as 18 was en geen vorige skuld gehad het nie, sou u u banklening aanvaar het". Maar dit kan moeilik wees met YouTube en ander webwerwe wat aanbevelingsalgoritmes gebruik, aangesien enige video op die platform teoreties enige tyd aanbeveel kan word.

'N Ander kragtige instrument is algoritmetoetsing en -ouditering, wat veral nuttig was in die diagnosering van partydige algoritmes. In 'n onlangse geval het 'n professionele CV-onderneming ontdek dat dit 'n algoritme is twee faktore te prioritiseer as die beste voorspellers van werkprestasie: of die naam van die kandidaat Jared was, en of hulle in die hoërskool lacrosse gespeel het. Dit is wat gebeur as die masjien nie toesig hou nie.

In hierdie geval het die CV-algoritme opgemerk dat wit mans 'n groter kans het om gehuur te word, en gevind dat daar korrelerende volmagseienskappe (soos die naam Jared of die speel van lacrosse) teenwoordig is by die kandidate wat gehuur word. Met YouTube kan algoritme-ouditering help om te verstaan ​​watter soorte video's vir aanbeveling geprioritiseer word - en miskien help om die debat oor die vraag of YouTube-aanbevelings tot radikalisering bydra al dan nie, te besleg.

Dit is 'n moeilike, duur proses om teenfaktuele verduidelikings aan te bied of algoritme-ouditering te gebruik. Maar dit is belangrik, want die alternatief is erger. As algoritmes ongemerk en ongereguleerd verloop, kan ons 'n geleidelike kruip van samesweringsteoretici en ekstremiste in ons media sien, en ons aandag word beheer deur elkeen wat die winsgewendste inhoud kan lewer.Die gesprek

Oor die skrywer

Chico Q. Camargo, postdoktorale navorser in data-wetenskap, Universiteit van Oxford

Hierdie artikel is gepubliseer vanaf Die gesprek onder 'n Creative Commons lisensie. Lees die oorspronklike artikel.