danger of ai 7 11
KI sal waarskynlik nie die mensdom verslaaf nie, maar dit kan baie aspekte van ons lewens oorneem. elenabs/iStock via Getty Images

Die opkoms van ChatGPT en soortgelyke kunsmatige intelligensie-stelsels het gepaard gegaan met 'n skerp toename in angs oor KI. Die afgelope paar maande het bestuurders en KI-veiligheidsnavorsers voorspellings aangebied, gedoop "P(doem),” oor die waarskynlikheid dat KI ’n grootskaalse katastrofe sal meebring.

Bekommernisse het in Mei 2023 'n hoogtepunt bereik toe die nie-winsgewende navorsings- en voorspraakorganisasie Sentrum vir KI-veiligheid vrygestel is 'n verklaring van een sin: "Om die risiko van uitwissing van KI te versag, behoort 'n wêreldwye prioriteit te wees saam met ander risiko's op maatskaplike skaal, soos pandemies en kernoorlog." Die verklaring is onderteken deur baie sleutelspelers in die veld, insluitend die leiers van OpenAI, Google en Anthropic, sowel as twee van die sogenaamde "peetvaders" van KI: Geoffrey Hinton en Yoshua Bengio.

Jy kan dalk vra hoe sulke eksistensiële vrese veronderstel is om uit te speel. Een bekende scenario is die "skuifspeldmaksimeerder” gedagte-eksperiment verwoord deur Oxford-filosoof Nick Bostrom. Die idee is dat 'n KI-stelsel wat getaak is om soveel skuifspelde as moontlik te vervaardig, buitengewone lengtes kan gaan om grondstowwe te vind, soos om fabrieke te vernietig en motorongelukke te veroorsaak.

A minder hulpbron-intensiewe variasie het 'n KI wat getaak is om 'n bespreking aan 'n gewilde restaurant te bekom wat sellulêre netwerke en verkeersligte afskakel om te verhoed dat ander kliënte 'n tafel kry.


innerself subscribe graphic


Kantoorbenodigdhede of aandete, die basiese idee is dieselfde: KI is vinnig besig om 'n uitheemse intelligensie te word, goed om doelwitte te bereik, maar gevaarlik omdat dit nie noodwendig ooreenstem met die morele waardes van sy skeppers nie. En in sy mees ekstreme weergawe verander hierdie argument in eksplisiete angs oor KI's die mensdom te verslaaf of te vernietig.

'n Papierknippie wat KI maak, loop amok, is een variant van die KI-apokalips-scenario.

 

Werklike skade

In die afgelope paar jaar het ek en my kollegas by UMass Boston se Toegepaste Etieksentrum het die impak van betrokkenheid by KI op mense se begrip van hulself bestudeer, en ek glo hierdie katastrofiese angs is oorgewaai en verkeerd gerig.

Ja, KI se vermoë om oortuigende diep-vals video en klank te skep, is skrikwekkend, en dit kan misbruik word deur mense met slegte bedoelings. Trouens, dit gebeur reeds: Russiese agente het waarskynlik probeer om die Kremlin-kritikus in die verleentheid te stel Bill Browder deur hom te verstrik in 'n gesprek met 'n avatar vir die voormalige Oekraïense president Petro Poroshenko. Kubermisdadigers gebruik KI-stemkloning vir 'n verskeidenheid misdade - van hoë-tegnologie rooftogte om gewone swendelary.

KI besluitneming stelsels wat leningsgoedkeuring en huuraanbevelings bied dra die risiko van algoritmiese vooroordeel, aangesien die opleidingsdata en besluitmodelle waarop hulle gebruik, langdurige sosiale vooroordele weerspieël.

Dit is groot probleme, en dit verg die aandag van beleidmakers. Maar hulle bestaan ​​al 'n rukkie, en hulle is skaars rampspoedig.

Nie in dieselfde liga nie

Die verklaring van die Sentrum vir KI-veiligheid het KI saamgevat met pandemies en kernwapens as 'n groot risiko vir die beskawing. Daar is probleme met daardie vergelyking. COVID-19 het byna tot gevolg gehad 7 miljoen sterftes wêreldwyd, op 'n gebring massiewe en voortdurende geestesgesondheidskrisis en geskep ekonomiese uitdagings, insluitend chroniese voorsieningskettingtekorte en wegholinflasie.

Kernwapens waarskynlik doodgemaak meer as 200,000 mense in Hiroshima en Nagasaki in 1945, het in die daaropvolgende jare baie meer lewens weens kanker geëis, dekades van diepgaande angs tydens die Koue Oorlog veroorsaak en die wêreld op die rand van uitwissing gebring tydens die Kubaanse missielkrisis in 1962. Hulle het ook het die berekeninge van nasionale leiers verander oor hoe om te reageer op internasionale aggressie, soos tans afspeel met Rusland se inval in die Oekraïne.

KI is eenvoudig nie naastenby om die vermoë te kry om hierdie soort skade aan te rig nie. Die skuifspeld scenario en ander soos dit is wetenskapfiksie. Bestaande KI-toepassings voer spesifieke take uit eerder as om breë oordele te maak. Die tegnologie is ver daarvan om oor te kan besluit en dan uit te beplan die doelwitte en ondergeskikte doelwitte wat nodig is om die verkeer te stop om vir jou 'n sitplek in 'n restaurant te kry, of om 'n motorfabriek op te blaas om jou jeuk vir skuifspelde te bevredig.

Die tegnologie het nie net die ingewikkelde kapasiteit vir veelvlakkige oordeel wat by hierdie scenario's betrokke is nie, dit het ook nie outonome toegang tot voldoende dele van ons kritieke infrastruktuur om daardie soort skade te begin veroorsaak nie.

Wat dit beteken om mens te wees

Eintlik is daar 'n eksistensiële gevaar inherent aan die gebruik van KI, maar daardie risiko is eksistensieel in die filosofiese eerder as apokaliptiese sin. KI in sy huidige vorm kan die manier waarop mense hulself sien, verander. Dit kan vermoëns en ervarings afbreek wat mense as noodsaaklik beskou om mens te wees.

Mense is byvoorbeeld wesens wat oordeel. Mense weeg besonderhede rasioneel op en maak daaglikse oordeelsoproepe by die werk en tydens vryetyd oor wie om te huur, wie 'n lening moet kry, waarna om te kyk ensovoorts. Maar meer en meer van hierdie oordele is word geoutomatiseer en uitgeboer na algoritmes. Soos dit gebeur, sal die wêreld nie eindig nie. Maar mense sal geleidelik die vermoë verloor om self hierdie oordeel te vel. Hoe minder mense van hulle maak, hoe slegter sal hulle waarskynlik word om dit te maak.

Of oorweeg die rol van toeval in mense se lewens. Mense waardeer serendipite ontmoetings: om per ongeluk 'n plek, persoon of aktiwiteit teë te kom, daarby ingetrek te word en terugwerkend waardering vir die rol wat ongeluk in hierdie betekenisvolle vondste gespeel het. Maar die rol van algoritmiese aanbevelingenjins is om verminder daardie soort serendipiteit en vervang dit met beplanning en voorspelling.

Ten slotte, oorweeg ChatGPT se skryfvermoë. Die tegnologie is besig om die rol van skryfwerkopdragte in hoër onderwys uit te skakel. As dit wel gebeur, sal opvoeders 'n sleutelinstrument vir die onderrig van studente verloor hoe om krities te dink.

Nie dood nie, maar verminder

So, nee, KI sal nie die wêreld opblaas nie. Maar die toenemend onkritiese omhelsing daarvan, in 'n verskeidenheid eng kontekste, beteken die geleidelike erosie van sommige van die mens se belangrikste vaardighede. Algoritmes ondermyn reeds mense se vermoë om uitsprake te vel, snaakse ontmoetings te geniet en kritiese denke te slyp.

Die menslike spesie sal sulke verliese oorleef. Maar ons manier van bestaan ​​sal in die proses verarm. Die fantastiese angs rondom die komende KI-ramp, singulariteit, Skynet, of hoe jy ook al daaraan dink, verberg hierdie meer subtiele koste. Onthou TS Eliot se beroemde slotreëls van “Die hol mans": "Dit is hoe die wêreld eindig," het hy geskryf, "nie met 'n knal nie, maar 'n tjank."The Conversation

Oor Die Skrywer

Nir Eisikovits, Professor in Filosofie en Direkteur, Toegepaste Etieksentrum, UMass Boston

Hierdie artikel is gepubliseer vanaf Die gesprek onder 'n Creative Commons lisensie. Lees die oorspronklike artikel.