4rupi02z

R. Classen / Shutterstock

KI-kletsbotte word reeds wyd deur besighede gebruik om kliënte te groet en hul vrae te beantwoord – hetsy oor die telefoon of op webwerwe. Sommige maatskappye het gevind dat hulle tot 'n mate mense kan vervang met masjiene in oproepsentrumrolle.

Die beskikbare bewyse dui egter daarop dat daar sektore is – soos gesondheidsorg en menslike hulpbronne – waar uiterste sorg geneem moet word met betrekking tot die gebruik van hierdie frontlinie-instrumente, en etiese toesig mag nodig wees.

'n Onlangse, en hoogs gepubliseerde voorbeeld is dié van 'n chatbot genaamd Tessa, wat gebruik is deur die Nasionale Eetversteuringsvereniging (NEDA) in die VSA. Die organisasie het aanvanklik 'n hulplyn in stand gehou wat deur 'n kombinasie van salarisse werknemers en vrywilligers bedryf word. Dit het die uitdruklike doel gehad om kwesbare mense wat aan eetversteurings ly, by te staan.

Hierdie jaar het die organisasie egter sy hulplynpersoneel ontbind, wat aankondig dat dit hulle met die Tessa-kletsbot sal vervang. Die redes hiervoor word betwis. Voormalige werkers beweer dat die skof gevolg het op 'n besluit deur hulplynpersoneel om te vakbond. Die vise-president van NEDA aangehaal 'n groter aantal oproepe en wagtye, sowel as wetlike aanspreeklikhede rondom die gebruik van vrywillige personeel.

Hoe dit ook al sy, na 'n baie kort tydperk van operasie, is Tessa vanlyn geneem oor berigte dat die kletsbot problematiese advies uitgereik het wat die simptome van mense wat hulp soek vir eetversteurings kon vererger het.


innerself teken grafiese in


Daar is ook berig dat Dr Ellen Fitzsimmons-Craft en Dr C Barr Taylor, twee hoogs gekwalifiseerde navorsers wat gehelp het met die skepping van Tessa, het bepaal dat die kletsbot nooit bedoel was as 'n plaasvervanger vir 'n bestaande hulplyn of om onmiddellike hulp te verleen aan diegene wat intense eetversteuringsimptome ervaar nie.

Beduidende opgradering

So waarvoor is Tessa ontwerp? Die navorsers, saam met kollegas, het 'n waarnemingsstudie beklemtoon die uitdagings wat hulle in die gesig gestaar het in die ontwerp van 'n reël-gebaseerde kletsbot om interaksie te hê met gebruikers wat bekommerd is oor eetversteurings. Dit is nogal 'n fassinerende leeswerk, wat ontwerpkeuses, bewerkings, slaggate en wysigings illustreer.

Die oorspronklike weergawe van Tessa was 'n tradisionele, reël-gebaseerde kletsbot, alhoewel 'n hoogs verfynde een, wat een is wat 'n vooraf gedefinieerde struktuur volg gebaseer op logika. Dit kon nie afwyk van die gestandaardiseerde vooraf geprogrammeerde antwoorde wat deur sy skeppers gekalibreer is nie.

Hul gevolgtrekking het die volgende punt ingesluit: "Reëlgebaseerde kletsbotte het die potensiaal om groot bevolkings teen lae koste te bereik om inligting en eenvoudige interaksies te verskaf, maar is beperk in die begrip en toepaslik reageer op onverwagte gebruikersreaksies."

Dit kan blykbaar die gebruike waarvoor Tessa geskik was, beperk. So hoe het dit uiteindelik die hulplyn vervang wat voorheen deur NEDA gebruik is? Die presiese ketting van gebeure is onder bespreking te midde van verskillende rekeninge, maar volgens NPR het die gasheermaatskappy van die kletsbot Tessa verander van 'n reël-gebaseerde kletsbot met vooraf geprogrammeerde antwoorde na een met 'n "Verbeterde vrae en antwoorde kenmerk".

Die latere weergawe van Tessa was een wat generatiewe KI gebruik het, baie soos ChatGPT en soortgelyke produkte. Hierdie gevorderde KI-kletsbotte is ontwerp om menslike gesprekspatrone te simuleer met die doel om meer realistiese en bruikbare antwoorde te gee. Die generering van hierdie pasgemaakte antwoorde maak staat op groot databasisse van inligting, wat die KI-modelle opgelei is om deur 'n verskeidenheid tegnologiese prosesse te "verstaan": machine learning, diep leer en natuurlike taalverwerking.

Leer lesse

Uiteindelik het die kletsbot gegenereer wat beskryf is as potensieel skadelike antwoorde op sommige gebruikers se vrae. Daaropvolgende gesprekke het die skuld van een instelling na 'n ander verskuif. Die punt bly egter dat die daaropvolgende omstandighede moontlik vermy kon word as daar 'n liggaam was wat etiese toesig, 'n "mens in die lus" en 'n nakoming van die duidelike doel van Tessa se oorspronklike ontwerp verskaf het.

Dit is belangrik om lesse uit gevalle soos hierdie te leer teen die agtergrond van 'n haas na die integrasie van KI in 'n verskeidenheid stelsels. En hoewel hierdie gebeure in die VSA plaasgevind het, bevat dit lesse vir diegene wat dieselfde in ander lande wil doen.

Dit lyk asof die VK 'n ietwat gefragmenteerde benadering tot hierdie kwessie het. Die adviesraad vir die Sentrum vir Data-etiek en -innovasie (CDEI) is onlangs ontbind en sy sitplek aan die tafel is ingeneem deur die nuutgestigte Frontier AI Taskforce. Daar is ook berigte dat KI-stelsels reeds in Londen getoets word as hulpmiddels om werkers te help - hoewel nie as 'n plaasvervanger vir 'n hulplyn nie.

Beide hierdie voorbeelde beklemtoon 'n potensiële spanning tussen etiese oorwegings en sakebelange. Ons moet hoop dat die twee uiteindelik in lyn sal kom en die welstand van individue sal balanseer met die doeltreffendheid en voordele wat KI kan bied.

In sommige gebiede waar organisasies met die publiek interaksie het, kan KI-gegenereerde reaksies en gesimuleerde empatie egter nooit genoeg wees om opregte menslikheid en deernis te vervang nie – veral op die gebied van medisyne en geestesgesondheid.Die gesprek

Mark Tsagas, Dosent, Strafreg, Universiteit van Oos-Londen

Hierdie artikel is gepubliseer vanaf Die gesprek onder 'n Creative Commons lisensie. Lees die oorspronklike artikel.