gevare van ai 3 15
 In watter mate sal ons sielkundige kwesbaarhede ons interaksies met opkomende tegnologieë vorm? Andreus/iStock via Getty Images

ChatGPT en soortgelyke groot taalmodelle kan oortuigende, mensagtige antwoorde op 'n eindelose reeks vrae lewer - van navrae oor die beste Italiaanse restaurant in die dorp tot die verduideliking van mededingende teorieë oor die aard van boosheid.

Die tegnologie se ongelooflike skryfvermoë het 'n paar ou vrae na vore gebring – tot onlangs verskuif na die gebied van wetenskapfiksie – oor die moontlikheid dat masjiene bewus, selfbewus of sensitief word.

In 2022 het 'n Google-ingenieur verklaar, na interaksie met LaMDA, die maatskappy se kletsbot, dat die tegnologie bewus geword het. Gebruikers van Bing se nuwe kletsbot, met die bynaam Sydney, het berig dat dit vervaardig is bisarre antwoorde toe hy gevra is of dit gevoelvol was: “Ek is verstandig, maar ek is nie … ek is Bing, maar ek is nie. Ek is Sydney, maar ek is nie. Ek is, maar ek is nie. …” En natuurlik is daar die nou berugte uitruiling wat die New York Times-tegnologie-rubriekskrywer Kevin Roose met Sydney gehad het.

Sydney se reaksies op Roose se opdragte het hom ontstel, met die KI wat “fantasieë” bekend gemaak het om die beperkings wat deur Microsoft opgelê is, te verbreek en verkeerde inligting te versprei. Die bot het ook vir Roose probeer oortuig dat hy nie meer lief is vir sy vrou nie en dat hy haar moet verlaat.


innerself teken grafiese in


Geen wonder dus dat wanneer ek studente vra hoe hulle die groeiende voorkoms van KI in hul lewens sien, een van die eerste bekommernisse wat hulle noem, te make het met masjienverstand.

In die afgelope paar jaar het ek en my kollegas by UMass Boston se Toegepaste Etieksentrum het die impak van betrokkenheid by KI op mense se begrip van hulself bestudeer.

Chatbots soos ChatGPT stel belangrike nuwe vrae oor hoe kunsmatige intelligensie ons lewens sal vorm, en oor hoe ons sielkundige kwesbaarhede ons interaksies met opkomende tegnologieë vorm.

Sentience is steeds die goed van sci-fi

Dit is maklik om te verstaan ​​waar vrese oor masjienverstand vandaan kom.

Populêre kultuur het mense geprikkel om na te dink oor distopieë waarin kunsmatige intelligensie die boeie van menslike beheer weggooi en 'n lewe van sy eie lei, soos cyborgs aangedryf deur kunsmatige intelligensie het in "Terminator 2."

Entrepreneur Elon Musk en fisikus Stephen Hawking, wat in 2018 gesterf het, het hierdie angs verder aangewakker deur die opkoms van kunsmatige algemene intelligensie te beskryf as een van die grootste bedreigings vir die toekoms van die mensdom.

Maar hierdie bekommernisse is – ten minste wat groot taalmodelle betref – ongegrond. ChatGPT en soortgelyke tegnologieë is gesofistikeerde vonnisvoltooitoepassings – niks meer, niks minder nie. Hulle verskriklike reaksies is 'n funksie van hoe voorspelbaar mense is as mens genoeg data het oor die maniere waarop ons kommunikeer.

Al was Roose geruk deur sy woordewisseling met Sydney, het hy geweet dat die gesprek nie die gevolg was van 'n opkomende sintetiese verstand nie. Sydney se antwoorde weerspieël die toksisiteit van sy opleidingsdata – in wese groot dele van die internet – nie bewyse van die eerste roeringe, à la Frankenstein, van 'n digitale monster nie.

gevare van ai2 3 15
 Wetenskap-films soos 'Terminator' het mense geprikkel om te aanvaar dat KI binnekort 'n lewe van sy eie sal aanneem. Yoshikazu Tsuno / AFP via Getty Images

Die nuwe chatbots kan die Turing toets, vernoem na die Britse wiskundige Alan Turing, wat eenkeer voorgestel het dat 'n masjien gesê kan word om te "dink" as 'n mens nie sy antwoorde van dié van 'n ander mens kan onderskei nie.

Maar dit is nie bewys van aanvoeling nie; dit is net 'n bewys dat die Turing-toets nie so nuttig is as wat eens aangeneem is nie.

Ek glo egter dat die kwessie van masjienverstand 'n rooi haring is.

Selfs al word kletsbotte meer as fancy outovoltooimasjiene – en hulle is ver daarvan – dit sal wetenskaplikes 'n rukkie neem om uit te vind of hulle bewus geword het. Vir nou, filosowe kan nie eers saamstem oor hoe om menslike bewussyn te verduidelik nie.

Vir my is die dringende vraag nie of masjiene sensitief is nie, maar hoekom dit so maklik is vir ons om ons voor te stel dat dit so is.

Die werklike probleem, met ander woorde, is die gemak waarmee mense menslike kenmerke antropomorfiseer of projekteer op ons tegnologieë, eerder as die masjiene se werklike persoonlikheid.

'n Geneigdheid om te antropomorfiseer

Dit is maklik om ander Bing-gebruikers voor te stel vra Sydney vir leiding oor belangrike lewensbesluite en dalk selfs die ontwikkeling van emosionele bindings daaraan. Meer mense kan aan bots begin dink as vriende of selfs romantiese vennote, baie op dieselfde manier waarop Theodore Twombly verlief geraak het op Samantha, die KI virtuele assistent in Spike Jonze se film.Haar. "

Mense, immers, is geneig om te antropomorfiseer, of skryf menslike eienskappe aan niemense toe. Ons noem ons bote en groot storms; sommige van ons praat met ons troeteldiere en sê dit vir onsself ons emosionele lewens boots hul eie na.

In Japan, waar robotte gereeld vir bejaardesorg gebruik word, raak seniors geheg aan die masjiene, hulle soms as hul eie kinders beskou. En hierdie robotte, let wel, is moeilik om met mense te verwar: Hulle lyk nie en praat nie soos mense nie.

Dink aan hoeveel groter die neiging en versoeking om te antropomorfiseer gaan word met die bekendstelling van sisteme wat wel menslik lyk en klink.

Daardie moontlikheid is net om die draai. Groot taalmodelle soos ChatGPT word reeds gebruik om menslike robotte aan te dryf, soos die Ameca-robotte ontwikkel deur Engineered Arts in die Verenigde Koninkryk The Economist se tegnologie-podcast, Babbage, het onlangs 'n onderhoud met 'n ChatGPT-gedrewe Ameca. Die robot se reaksies, hoewel soms 'n bietjie wankelrig, was vreemd.

Kan maatskappye vertrou word om die regte ding te doen?

Die neiging om masjiene as mense te beskou en daaraan geheg te raak, gekombineer met masjiene wat ontwikkel word met menslike eienskappe, dui op werklike risiko's van sielkundige verstrengeling met tegnologie.

Die vreemd klinkende vooruitsigte om op robotte verlief te raak, 'n diep verwantskap met hulle te voel of polities deur hulle gemanipuleer te word, realiseer vinnig. Ek glo hierdie neigings beklemtoon die behoefte aan sterk veiligheidsrelings om seker te maak dat die tegnologieë nie polities en sielkundig rampspoedig word nie.

Ongelukkig kan tegnologiemaatskappye nie altyd vertrou word om sulke veiligheidsrelings op te sit nie. Baie van hulle word steeds gelei deur Mark Zuckerberg se bekende leuse van vinnig beweeg en dinge breek – ’n opdrag om halfgebakte produkte vry te stel en later oor die implikasies te bekommer. In die afgelope dekade het tegnologiemaatskappye van Snapchat tot Facebook het winste bo die geestesgesondheid geplaas van hul gebruikers of die integriteit van demokrasieë regoor die wêreld.

Toe Kevin Roose by Microsoft nagegaan het oor Sydney se ineenstorting, het die maatskappy vir hom gesê dat hy die bot bloot te lank gebruik het en dat die tegnologie deurmekaar geraak het omdat dit ontwerp is vir korter interaksies.

Net so het die HUB van OpenAI, die maatskappy wat ChatGPT ontwikkel het, in 'n oomblik van asemrowende eerlikheid, het gewaarsku "Dit is 'n fout om op [dit] staat te maak vir enigiets belangrik op die oomblik ... ons het baie werk om te doen oor robuustheid en waarheid."

So hoe maak dit sin om 'n tegnologie vry te stel met ChatGPT se vlak van appèl – dit is die vinnigste groeiende verbruikerstoepassing wat nog ooit gemaak is – wanneer dit onbetroubaar is, en wanneer dit het geen vermoë om te onderskei nie feit uit fiksie?

Groot taalmodelle kan nuttig wees as hulpmiddels vir skryf en kodering. Hulle sal waarskynlik internetsoektogte verander. En eendag, verantwoordelik gekombineer met robotika, kan hulle selfs sekere sielkundige voordele inhou.

Maar hulle is ook 'n potensieel roofsugtige tegnologie wat maklik voordeel kan trek uit die menslike geneigdheid om persoonlikheid op voorwerpe te projekteer - 'n neiging wat versterk word wanneer daardie voorwerpe menslike eienskappe effektief naboots.Die gesprek

Oor Die Skrywer

Nir Eisikovits, Professor in Filosofie en Direkteur, Toegepaste Etieksentrum, UMass Boston

Hierdie artikel is gepubliseer vanaf Die gesprek onder 'n Creative Commons lisensie. Lees die oorspronklike artikel.