Hoe navorsers hulle voorberei op die komende golf van diep-valse propaganda
AI-aangedrewe verklikkers is die beste hulpmiddel om vals video's wat deur AI gegenereer word, op te spoor.
Die Washington Post via Getty Images

'N Ondersoekende joernalis ontvang 'n video van 'n anonieme klokkenluider. Dit toon 'n kandidaat vir president wat erken dat hy onwettige aktiwiteite het. Maar is hierdie video eg? As dit die geval is, sal dit groot nuus wees - die skeep van 'n leeftyd - en kan dit die komende verkiesing heeltemal omkeer. Maar die joernalis bestuur die video deur middel van 'n gespesialiseerde instrument, wat haar vertel dat die video nie is wat dit lyk nie. In werklikheid is dit 'n “deepfake, ”'N video gemaak met kunsmatige intelligensie met diep leer.

Joernaliste regoor die wêreld kan binnekort 'n instrument soos hierdie gebruik. Oor 'n paar jaar kan 'n instrument soos hierdie selfs deur almal gebruik word om vals inhoud in hul sosiale media-feeds uit te roei.

As navorsers wat diefeksie-opsporing bestudeer het en die ontwikkeling van 'n instrument vir joernaliste, sien ons 'n toekoms vir hierdie instrumente. Hulle sal egter nie al ons probleme oplos nie, en hulle sal net een deel van die arsenaal wees in die breër stryd teen desinformasie.

Die probleem met deepfakes

Die meeste mense weet dat jy nie alles kan glo wat jy sien nie. Gedurende die afgelope paar dekades het slim nuusverbruikers gewoond geraak daaraan dat beelde met foto-redigeringsagteware gemanipuleer word. Video's is egter 'n ander verhaal. Hollywood-regisseurs kan miljoene dollars aan spesiale effekte spandeer om 'n realistiese toneel te vorm. Maar deur diepfakes te gebruik, kan amateurs met 'n paar duisend dollar rekenaartoerusting en 'n paar weke spandeer, iets amper net so lewensgetrou maak.


innerself teken grafiese in


Deepfakes maak dit moontlik om mense in filmtonele te plaas waarin hulle nooit was nie - dink Tom Cruise speel Iron Man - wat sorg vir onderhoudende video's. Ongelukkig maak dit dit ook moontlik om te skep pornografie sonder die toestemming van die mense wat uitgebeeld word. Tot dusver is daardie mense, byna alle vroue, die grootste slagoffers as diefval-tegnologie misbruik word.

Deepfakes kan ook gebruik word om video's te skep van politieke leiers wat dinge sê wat hulle nooit gesê het nie. Die Belgiese Sosialistiese Party het 'n lae-gehalte, nie-vals maar nog steeds skelm video van vrygestel President Trump beledig België, wat genoeg reaksie gekry het om die potensiële risiko's van diepgehalte van hoër gehalte aan te toon.

{vembed Y = poSd2CyDpyA}
Hany Farid, Universiteit van Kalifornië, Berkeley, verduidelik hoe diepfake gemaak word.

miskien die bangste van almal, kan dit gebruik word om te skep twyfel oor die inhoud van regte video's, deur voor te stel dat dit diefstal kan wees.

Gegewe hierdie risiko's, sal dit uiters waardevol wees om diepvalse op te spoor en dit duidelik te benoem. Dit sal verseker dat vals video's nie die publiek mislei nie, en dat regte video's as outentiek ontvang kan word.

Fakes opspoor

Dieper vervalsing as 'n navorsingsveld is 'n bietjie begin drie jaar gelede. Vroeë werk het gefokus op die opsporing van sigbare probleme in die video's, soos diep vervalsings wat nie geknip het nie. Met die tyd het die valse het beter geword om regte video's na te boots en word dit moeiliker om vir mense en opsporingsinstrumente raak te sien.

Daar is twee hoofkategorieë van ondersoek na diefsporing. Die eerste behels kyk na die gedrag van mense in die video's. Gestel jy het baie video's van iemand wat bekend is, soos president Obama. Kunsmatige intelligensie kan hierdie video gebruik om sy patrone te leer, van sy handgebare tot sy pouses in spraak. Dit kan dan kyk na 'n diep vervalsing van hom en let op waar dit nie by daardie patrone pas nie. Hierdie benadering het die voordeel dat dit moontlik kan werk, selfs al is die videokwaliteit in wese perfek.

{vembed Y = gsv1OsCEad0}
Aaron Lawson van SRI International beskryf een benadering tot die opsporing van diepvalse.

Ander navorsers, ons span insluit, is daarop gefokus verskille Wat alle diepvalse het in vergelyking met regte video's. Deepfake-video's word dikwels geskep deur individueel gegenereerde rame saam te voeg om video's te vorm. As ons dit in ag neem, haal ons span se metodes die noodsaaklike data uit die gesigte in individuele rame van 'n video en volg dit dan deur stelle gelyktydige rame. Dit stel ons in staat om teenstrydighede in die vloei van inligting van een raam na 'n ander op te spoor. Ons gebruik ook 'n soortgelyke benadering vir ons vals klankopsporingstelsel.

Hierdie subtiele besonderhede is moeilik vir mense om te sien, maar wys hoe diepfakes nie heeltemal is nie perfek nog. Opspellers soos hierdie kan vir enige persoon werk, nie net vir 'n paar wêreldleiers nie. Uiteindelik kan dit wees dat albei soorte diepvalse detektors benodig word.

Onlangse opsporingstelsels presteer baie goed op video's wat spesifiek versamel is om die gereedskap te evalueer. Ongelukkig doen selfs die beste modelle dit sleg op video's wat aanlyn gevind word. Die volgende stap is die verbetering van hierdie instrumente om robuuster en nuttiger te wees.

Wie moet diefverklikkers gebruik?

Ideaal gesproke moet 'n diepsinnige verifikasie-instrument vir almal beskikbaar wees. Hierdie tegnologie is egter in die vroeë stadiums van ontwikkeling. Navorsers moet die gereedskap verbeter en beskerm teen hackers voordat dit breedweg vrygestel word.

Terselfdertyd is die instrumente om diepfakes te maak, egter beskikbaar vir almal wat die publiek wil flous. Om langs die kantlyn te sit is nie 'n opsie nie. Vir ons span was die regte balans om met joernaliste saam te werk, want hulle is die eerste verdedigingslinie teen die verspreiding van verkeerde inligting.

Voordat berigte gepubliseer word, moet joernaliste die inligting verifieer. Hulle het reeds beproefde metodes, soos om bronne na te gaan en meer as een persoon te kry om belangrike feite te verifieer. Deur die instrument in hul hande te plaas, gee ons hulle dus meer inligting, en ons weet dat hulle nie op die tegnologie alleen sal vertrou nie, aangesien dit foute kan maak.

Kan die verklikkers die wapenwedloop wen?

Dit is bemoedigend om spanne van te sien Facebook en Microsoft belê in tegnologie om diepvalse te verstaan ​​en op te spoor. Hierdie veld het meer navorsing nodig om tred te hou met die vinnige vordering in die diepvalse tegnologie.

Joernaliste en die sosialemediaplatforms moet ook uitvind hoe om mense die beste te waarsku oor diepvalse wanneer hulle opgespoor word. Navorsing het getoon dat mense onthou die leuen, maar nie die feit dat dit 'n leuen was nie. Sal dieselfde geld vir vals video's? Om "Deepfake" in die titel te sit, is miskien nie genoeg om sommige disinformasie teë te werk nie.

Deepfakes is hier om te bly. Die bestuur van disinformasie en die beskerming van die publiek sal meer uitdagend wees as ooit, aangesien kunsmatige intelligensie kragtiger word. Ons is deel van 'n groeiende navorsingsgemeenskap wat hierdie bedreiging aanvat, waarin opsporing net die eerste stap is.Die gesprek

Oor die outeurs

John Sohrawardi, doktorale student in rekenaar- en informatiewe wetenskappe, Rochester Instituut van Tegnologie en Matthew Wright, professor in rekenaarsekuriteit, Rochester Instituut van Tegnologie

Hierdie artikel is gepubliseer vanaf Die gesprek onder 'n Creative Commons lisensie. Lees die oorspronklike artikel.