Kunsmatige intelligensie kan nou menslike gedrag emulgeer en binnekort sal dit gevaarlik goed weesIs hierdie gesig net 'n samestelling van rekenaarbitte? PHOTOCREO Michal Bednarek / Shutterstock.com

Wanneer kunsmatige intelligensie stelsels begin om kreatief te word, kan hulle groot dinge skep - en scary ones. Neem byvoorbeeld 'n AI-program wat laat webgebruikers maak musiek saam saam met 'n virtuele Johann Sebastian Bach deur notas in 'n program in te voer wat Bach-agtige harmonieë genereer om hulle te pas.

Bestuur deur Google, die app Drew groot lof vir baanbrekers en pret om mee te speel. Dit het ook gelok kritiek, en het kommer uitgespreek oor AI se gevare.

My studie van hoe opkomende tegnologie beïnvloed mense se lewens het my geleer dat die probleme verder gaan as die welbekende groot kommer oor of algoritmes kan regtig skep musiek of kuns in die algemeen. Sommige klagtes was klein, maar regtig was dit nie, soos waarnemings wat Google se AI was nie breek basiese reëls van musiek samestelling.

Trouens, pogings om rekenaars te laat naboots, kan die gedrag van werklike mense verwarrend en moontlik skadelik wees.


innerself teken grafiese in


Verpersoonlikingstegnologieë

Google se program ontleed die aantekeninge in 306 van Bach se musiekwerke, vind verhoudings tussen die melodie en die notas wat die harmonie verskaf het. Omdat Bach streng reëls van samestelling gevolg het, het die program daardie reëls effektief geleer, sodat dit hulle kon toepas wanneer gebruikers hul eie aantekeninge verskaf het.

 Die Google Doodle-span verduidelik die Bach-program.

{youtube}XBfYPp6KF2g{/youtube}

Die Bach app self is nuut, maar die onderliggende tegnologie is nie. Algoritmes opgelei na patrone herken en maak probabilistiese besluite bestaan ​​al vir 'n lang tyd. Sommige van hierdie algoritmes is so kompleks dat mense verstaan ​​nie altyd nie hoe hulle besluite neem of 'n bepaalde uitkoms lewer.

AI stelsels is nie perfek nie - baie vertrou op data wat nie verteenwoordigend is nie van die hele bevolking, of dit is beïnvloed deur menslike vooroordele. Dit is nie heeltemal duidelik nie wie kan wettiglik verantwoordelik wees wanneer 'n AI-stelsel 'n fout maak of 'n probleem veroorsaak.

Nou word kunsmatige intelligensie tegnologie egter gevorderd genoeg om individue se skryf- of praatstyl, en selfs gesigsuitdrukkings, te benader. Dit is nie altyd sleg nie: 'n Redelik eenvoudige AI het Stephen Hawking die vermoë om te kommunikeer meer doeltreffend met ander deur die woorde wat hy die meeste sou gebruik, te voorspel.

Meer komplekse programme wat menslike stemme naboots mense met gestremdhede te help - maar kan ook gebruik word om luisteraars te mislei. Byvoorbeeld, die makers van tipe voëls, 'n stem-nabootsende program, het 'n gesimuleerde gesprek tussen Barack Obama, Donald Trump en Hillary Clinton. Dit mag dalk eintlik klink, maar die uitruiling het nooit gebeur nie.

Van goed tot sleg

In Februarie 2019 het die nie-winsgewende maatskappy OpenAI 'n program geskep wat tekste genereer feitlik ononderskeibaar van teks geskryf deur mense. Dit kan 'n toespraak skryf in die styl van John F. Kennedy, JRR Tolkien in "Die Here van die Rings"Of 'n student skryf 'n skoolopdrag oor die Amerikaanse Burgeroorlog.

Die teks wat deur OpenAI se sagteware gegenereer word, is so geloofwaardig dat die maatskappy gekies het om nie vry te laat nie die program self.

Soortgelyke tegnologie kan foto's en video's simuleer. In die vroeë 2018, byvoorbeeld, het akteur en rolprentmaker Jordan Peele 'n video geskep wat voorgekom het om voormalige Amerikaanse president Barack Obama te vertel. dinge wat Obama nooit eintlik gesê het nie om die publiek te waarsku oor die gevare van hierdie tegnologieë.

Wees versigtig vir watter video's jy glo.

{youtube}cQ54GDm1eL0{/youtube}

In die vroeë 2019, a valse naakfoto van die Amerikaanse Rep. Alexandria Ocasio-Cortez aanlyn versprei. Vervaardigde video's, dikwels genoem "deepfakes, "Word verwag om te wees toenemend gebruik in verkiesingsveldtogte.

Lede van die Kongres het begin om hierdie kwessie te ondersoek voor die 2020 verkiesing. Die Amerikaanse departement van verdediging leer die publiek hoe om video's wat getoets is, te sien en klank. Nuus organisasies soos Reuters is besig om joernaliste op te lei om diepgevalle te ondersoek.

Maar na my mening bly 'n nog groter besorgdheid: Gebruikers kan dalk nie vinnig genoeg leer om nep inhoud te onderskei nie, aangesien AI-tegnologie meer gesofistikeerd word. Byvoorbeeld, as die publiek begin om bewus te raak van diepgevalle, word AI reeds gebruik vir selfs meer gevorderde misleidings. Daar is nou programme wat kan genereer valse gesigte en vals digitale vingerafdrukke, effektief die inligting skep wat nodig is om 'n hele persoon te vervaardig - ten minste in korporatiewe of regeringsrekords.

Masjiene bly leer

Op die oomblik is daar genoeg potensiële foute in hierdie tegnologie om mense 'n kans te gee om digitale vervaardigings op te spoor. Google se Bach-komponis het foute gemaak 'n kenner kan opspoor. Byvoorbeeld, toe ek dit probeer het, het die program my toegelaat om in te gaan parallel vyfdes, 'n musiekinterval wat Bach nierig vermy. Die app ook het musikale reëls verbreek van die teenpunt deur die harmonisering van melodieë in die verkeerde sleutel. Net so het OpenAI se teksgenererende program soms afdrukke soos "brande wat onder water plaasvind"Dit maak nie sin in hul kontekste nie.

Soos ontwikkelaars werk op hul skeppings, sal hierdie foute selder word. Effektief sal AI-tegnologieë ontwikkel en leer. Die verbeterde prestasie het die potensiaal om baie sosiale voordele te bring - insluitend beter gesondheidsorg, aangesien AI-programme help Demokrateer die praktyk van medisyne.

Om navorsers en maatskappye vry te stel om te verken, om hierdie positiewe prestasies van AI-stelsels te soek, beteken die risiko om meer gevorderde maniere te ontwikkel om misleiding en ander sosiale probleme te skep. Ernstige beperkende AI-navorsing kan bekamp die vordering. Maar gee voordelige tegnologie kamer om te groei kom teen geen koste nie - en die potensiaal vir misbruik, om onakkurate "Bach-like" musiek te maak of om miljoene te mislei, sal waarskynlik groei op 'n manier waarop mense nog nie kan verwag nie.Die gesprek

Oor Die Skrywer

Ana Santos Rutschman, Assistent Professor in die Reg, Saint Louis Universiteit

Hierdie artikel is gepubliseer vanaf Die gesprek onder 'n Creative Commons lisensie. Lees die oorspronklike artikel.

verwante Boeke

at InnerSelf Market en Amazon