Sal kunsmatige intelligensie ooit menslike emosies verstaan?

Hoe sal jy voel oor die terapie van 'n robot? Emosioneel intelligente masjiene mag nie so ver wees as wat dit lyk nie. Oor die afgelope paar dekades het kunsmatige intelligensie (AI) al hoe meer goed geword om emosionele reaksies by mense te lees.

Maar lees is nie dieselfde as begrip nie. As AI nie emosies self kan ervaar nie, kan hulle ons ooit werklik verstaan? En, indien nie, is daar 'n risiko dat ons robotte eiendomme wat hulle nie het nie, toeskryf?

Die nuutste generasie AI's het ontstaan ​​as gevolg van 'n toename in data beskikbaar vir rekenaars om van te leer, sowel as hul verbeterde verwerkingskrag. Hierdie masjiene word toenemend mededingend in take wat nog altyd as mens beskou is.

Ek kan nou, onder andere, gesigte herken, draai gesigsketse in foto's, spraak herken en speel gaan.

Identifisering van misdadigers

Onlangs het navorsers 'n AI ontwikkel wat kan sê of 'n persoon 'n misdadiger is, net deur na hul gesigstrekke te kyk. Die stelsel is geëvalueer met behulp van 'n databasis van Chinese ID foto's en die resultate val die kakebeen. Die AI het onskuldiges as misdadigers verkeerdelik in slegs sowat 6% van die gevalle gekategoriseer, terwyl dit ongeveer 83% van die misdadigers kon identifiseer. Dit lei tot 'n verbysterende algehele akkuraatheid van byna 90%.

Die stelsel is gebaseer op 'n benadering genaamd 'diep leer', wat suksesvol was in perseptiewe take soos gesigherkenning. Hierdeur, deur diep leer gekombineer met 'n "gesigrotasiemodel", kan die AI verifieer of twee gesigsfoto's dieselfde individu verteenwoordig, selfs al verander die beligting of hoek tussen die foto's.


innerself teken grafiese in


Diep leer bou 'n "neurale netwerk", losweg gemodelleer op die menslike brein. Dit bestaan ​​uit honderde duisende neurone wat in verskillende lae georganiseer is. Elke laag verander die insette, byvoorbeeld 'n gesigbeeld, in 'n hoër vlak van abstraksie, soos 'n stel rande by sekere oriëntasies en plekke. Dit beklemtoon outomaties die eienskappe wat die mees relevante is vir die uitvoering van 'n gegewe taak.

Gegewe die sukses van diepgaande leer, is dit nie verbasend dat kunsmatige neurale netwerke misdadigers van nie-misdadigers kan onderskei nie - as daar werklik gesigstrekke is wat tussen hulle kan diskrimineer. Die navorsing dui daarop dat daar drie is. Een is die hoek tussen die punt van die neus en die hoeke van die mond, wat gemiddeld 19.6% kleiner is vir misdadigers. Die bo-lipkromming was ook gemiddeld 23.4% groter vir misdadigers terwyl die afstand tussen die binnehoeke van die oë gemiddeld 5.6% smaller was.

Op die eerste oogopslag lyk dit asof hierdie analise dit voorstel verouderde uitsig dat misdadigers geïdentifiseer kan word deur fisiese eienskappe is nie heeltemal verkeerd nie. Dit mag egter nie die volle verhaal wees nie. Dit is interessant dat twee van die mees relevante eienskappe verband hou met die lippe, wat ons mees ekspressiewe gesigstrekke is. ID foto's soos dié wat in die studie gebruik word, moet neutrale gesigsuitdrukking hê, maar dit kan wees dat die AI daarin geslaag het om verborge emosies in daardie foto's te vind. Dit mag so min wees dat mense dalk gesukkel het om hulle te sien.

Dit is moeilik om die versoeking te weerstaan ​​om na die steekproeffoto's wat in die vraestel verskyn, te kyk, wat nog nie eweknie beoordeel word nie. Inderdaad, 'n versigtige blik onthul 'n effense glimlag in die foto's van nie-misdadigers - kyk vir jouself. Maar net 'n paar voorbeeldfoto's is beskikbaar sodat ons ons gevolgtrekkings nie vir die hele databasis kan veralgemeen nie.

Die krag van affektiewe rekenaar

Dit sou nie die eerste keer wees dat 'n rekenaar menslike emosies kon herken nie. Die sogenaamde veld van "affektiewe rekenaar"Is al vir 'n paar jaar. Daar word geargumenteer dat, as ons gemaklik leef en met robots moet kommunikeer, hierdie masjiene moet kan verstaan ​​en toepaslik reageer op menslike emosies. Daar is baie werk in die omgewing, en die moontlikhede is groot.

Byvoorbeeld, navorsers gebruik gesigsanalise aan plek sukkelende studente in rekenaaronderrig sessies. Die AI is opgelei om verskillende vlakke van betrokkenheid en frustrasie te herken, sodat die stelsel kon weet wanneer die studente die werk te maklik of te moeilik vind. Hierdie tegnologie kan nuttig wees om die leerervaring in aanlynplatforms te verbeter.

AI is ook gewoond aan ontdek emosies gebaseer op die geluid van ons stem deur 'n maatskappy genaamd BeyondVerbal. Hulle het sagteware vervaardig wat stemmodulasie analiseer en spesifieke patrone soek in die manier waarop mense praat. Die maatskappy beweer dat emosies korrek kan identifiseer met 80% akkuraatheid. In die toekoms kan hierdie tipe tegnologie byvoorbeeld help om outistiese individue emosies te identifiseer.

Sony probeer selfs 'n robot te ontwikkel Emosionele bande kan vorm met mense. Daar is nie veel inligting oor hoe hulle beoog om dit te bereik nie, of wat presies die robot sal doen. Hulle noem egter dat hulle probeer om "integreer hardeware en dienste om emosionele dwingende ervarings te verskaf".

'N Emosionele intelligente AI het verskeie potensiële voordele, dit wil sê om iemand 'n metgesel te gee of om ons te help om sekere take te verrig - van kriminele ondervraging tot praatterapie.

Maar daar is ook etiese probleme en risiko's betrokke. Is dit reg om 'n pasiënt met demensie te laat staatmaak op 'n AI-metgesel en glo dit het 'n emosionele lewe wanneer dit nie doen nie? En kan jy 'n persoon skuldig bevind op grond van 'n AI wat hulle as skuldig beskou? Dit is duidelik nie. In plaas daarvan, sodra 'n stelsel soos hierdie verder verbeter en volledig geëvalueer word, kan 'n minder skadelike en potensieel behulpsaam gebruik moontlik wees om verdere ondersoeke te plaas op individue wat as 'n verdagte beskou word deur die AI.

So, wat moet ons van AI verwag? Subjektiewe onderwerpe soos emosies en sentiment is steeds moeilik vir AI om te leer, deels omdat die AI nie toegang het tot genoeg goeie data om hulle objektief te analiseer nie. Byvoorbeeld, kan AI ooit sarkasme verstaan? 'N Gesegde sin kan sarkasties wees wanneer dit in een konteks gepraat word, maar nie in 'n ander nie.

Tog bly die hoeveelheid data en verwerkingskrag groei. Dus, met 'n paar uitsonderings, kan AI die mens in die volgende paar dekades goed ooreenstem met die herkenning van verskillende tipes emosies. Maar of 'n AI ooit emosies kan ervaar, is a omstrede onderwerp. Selfs as hulle kan, kan daar beslis emosies wees wat hulle nooit kan ervaar nie - dit maak dit moeilik om hulle ooit te verstaan.

Die gesprek

Oor Die Skrywer

Leandro Minku, dosent in Rekenaarwetenskap, Universiteit van Leicester

Hierdie artikel is oorspronklik gepubliseer op Die gesprek. Lees die oorspronklike artikel.

Verwante Boeke:

at InnerSelf Market en Amazon