KI-foto's gegenereer?

Selfs as jy dink jy is goed met die ontleding van gesigte, navorsing toon baie mense kan nie betroubaar onderskei tussen foto's van regte gesigte en beelde wat rekenaargegenereer is nie. Dit is veral problematies noudat rekenaarstelsels realistiese foto's kan skep van mense wat nie bestaan ​​nie.

Onlangs het 'n vals LinkedIn-profiel met 'n rekenaargegenereerde profielfoto die nuus gehaal omdat dit suksesvol verbind met Amerikaanse amptenare en ander invloedryke individue op die netwerkplatform, byvoorbeeld. Teen-intelligensie-kundiges sê selfs dat spioene gereeld fantoomprofiele skep met sulke prente om tuiskom op buitelandse teikens oor sosiale media.

Hierdie diep namaaksels word wydverspreid in die alledaagse kultuur, wat beteken dat mense meer bewus moet wees van hoe dit in bemarking, advertensies en sosiale media gebruik word. Die beelde word ook vir kwaadwillige doeleindes gebruik, soos politieke propaganda, spioenasie en inligtingsoorlogvoering.

Om hulle te maak, behels iets wat 'n diep neurale netwerk genoem word, 'n rekenaarstelsel wat die manier waarop die brein leer, naboots. Dit word "opgelei" deur dit bloot te stel aan toenemende groot datastelle van regte gesigte.

Trouens, twee diep neurale netwerke is teen mekaar gestel, wat meeding om die mees realistiese beelde te produseer. Gevolglik word die eindprodukte GAN-beelde gedoop, waar GAN staan ​​vir Generative Adversarial Networks. Die proses genereer nuwe beelde wat statisties nie van die opleidingsbeelde onderskei kan word nie.


innerself teken grafiese in


In ons studie gepubliseer in iScience, het ons gewys dat 'n versuim om hierdie kunsmatige gesigte van die regte ding te onderskei implikasies vir ons aanlyn gedrag het. Ons navorsing dui daarop dat die vals beelde ons vertroue in ander kan erodeer en die manier waarop ons aanlyn kommunikeer ingrypend kan verander.

Ek en my kollegas het gevind dat mense GAN-gesigte beskou het as selfs meer werklik lyk as opregte foto's van werklike mense se gesigte. Alhoewel dit nog nie duidelik is hoekom dit is nie, is hierdie bevinding wel onlangse vooruitgang in die tegnologie beklemtoon gebruik om kunsmatige beelde te genereer.

En ons het ook 'n interessante skakel na aantreklikheid gevind: gesigte wat as minder aantreklik beoordeel is, is ook as meer werklik beoordeel. Minder aantreklike gesigte kan as meer tipies beskou word en die tipiese gesig kan as verwysing gebruik word waarteen alle gesigte geëvalueer word. Daarom sal hierdie GAN-gesigte meer eg lyk omdat hulle meer soortgelyk is aan geestelike sjablone wat mense uit die alledaagse lewe gebou het.

Maar om hierdie kunsmatige gesigte as outentiek te sien, kan ook gevolge hê vir die algemene vlakke van vertroue wat ons uitbrei na 'n kring van onbekende mense - 'n konsep wat bekend staan ​​as "sosiale vertroue".

Ons lees dikwels te veel in die gesigte wat ons sien, en die eerste indrukke wat ons vorm rig ons sosiale interaksies. In 'n tweede eksperiment wat deel uitgemaak het van ons jongste studie, het ons gesien dat mense meer geneig is om inligting te vertrou wat oorgedra word deur gesigte wat hulle voorheen as eg beskou het, selfs al is dit kunsmatig gegenereer.

Dit is nie verbasend dat mense meer vertroue stel in gesigte wat hulle glo werklik is nie. Maar ons het gevind dat vertroue geërodeer is sodra mense ingelig is oor die moontlike teenwoordigheid van kunsmatige gesigte in aanlyn interaksies. Hulle het toe laer vlakke van vertroue getoon, in die algemeen - onafhanklik van of die gesigte eg was of nie.

Hierdie uitkoms kan op sekere maniere as nuttig beskou word, omdat dit mense meer agterdogtig gemaak het in 'n omgewing waar vals gebruikers kan werk. Vanuit 'n ander perspektief kan dit egter die aard van hoe ons kommunikeer geleidelik erodeer.

Oor die algemeen is ons geneig om voort te gaan 'n verstek aanname dat ander mense basies waarheid en betroubaar is. Die groei in vals profiele en ander kunsmatige aanlyninhoud laat die vraag ontstaan ​​hoeveel hul teenwoordigheid en ons kennis daaroor hierdie “waarheidsstandaard”-toestand kan verander, wat uiteindelik sosiale vertroue kan erodeer.

Verander ons verstekke

Die oorgang na 'n wêreld waar dit wat werklik is nie onderskeibaar is van wat nie is nie, kan ook die kulturele landskap verskuif van primêr waarheid na primêr kunsmatig en bedrieglik.

As ons gereeld die waarheid van wat ons aanlyn ervaar bevraagteken, sal dit dalk vereis dat ons ons verstandelike inspanning van die verwerking van die boodskappe self na die verwerking van die boodskapper se identiteit herontplooi. Met ander woorde, die wydverspreide gebruik van hoogs realistiese, dog kunsmatige, aanlyn inhoud kan van ons vereis om anders te dink – op maniere wat ons nie verwag het nie.

In sielkunde gebruik ons ​​'n term genaamd "realiteitsmonitering" vir hoe ons korrek identifiseer of iets van die eksterne wêreld of van binne ons brein af kom. Die vooruitgang van tegnologieë wat vals, dog hoogs realistiese, gesigte, beelde en video-oproepe kan produseer, beteken werklikheidsmonitering moet op ander inligting as ons eie oordeel gebaseer word. Dit vra ook vir 'n breër bespreking van die vraag of die mensdom dit nog kan bekostig om na die waarheid te oortree.

Dit is van kardinale belang vir mense om meer krities te wees wanneer hulle digitale gesigte evalueer. Dit kan die gebruik van omgekeerde beeldsoektogte insluit om te kyk of foto's eg is, om versigtig te wees vir sosiale media-profiele met min persoonlike inligting of 'n groot aantal volgelinge, en om bewus te wees van die potensiaal dat diepvervalste tegnologie vir onheilspellende doeleindes gebruik kan word.

Die volgende grens vir hierdie gebied moet verbeterde algoritmes wees om vals digitale gesigte op te spoor. Dit kan dan in sosiale media-platforms ingebed word om ons te help om die regte van die nep te onderskei wanneer dit by nuwe verbindings se gesigte kom.

Oor Die Skrywer

Manos Tsakiris, Professor in Sielkunde, Direkteur van die Sentrum vir die Politiek van Gevoelens, Royal Holloway Universiteit van Londen

Hierdie artikel is gepubliseer vanaf Die gesprek onder 'n Creative Commons lisensie. Lees die oorspronklike artikel.