mans - en lande - in oorlog
Napoleon kon uit die verlede geleer het. skildery deur Adolph Northen/wikipedia

Dit is 'n cliché dat om die geskiedenis nie te ken nie, 'n mens dit laat herhaal. Soos baie mense ook al uitgewys het, is die enigste ding wat ons uit die geskiedenis leer dat ons selde iets uit die geskiedenis leer. Mense betrek grondoorloë in Asië oor en oor. Hulle herhaal ook dieselfde dating foute, weer en weer. Maar hoekom gebeur dit? En sal tegnologie 'n einde daaraan maak?

Een kwessie is vergeetagtigheid en "miopie”: ons sien nie hoe gebeure uit die verlede relevant is vir huidige nie, met die uitsig oor die ontvouende patroon. Napoleon moes die ooreenkomste tussen sy opmars na Moskou en die Sweedse koning opgemerk het Karel XII se mislukte poging om dieselfde te doen sowat 'n eeu voor hom.

Ons is ook sleg om te leer wanneer dinge verkeerd loop. In plaas daarvan om vas te stel hoekom 'n besluit verkeerd was en hoe om te verhoed dat dit ooit weer gebeur, probeer ons dikwels om die verleentheid van gebeure te ignoreer. Dit beteken dat die volgende keer as 'n soortgelyke situasie voorkom, ons nie die ooreenkoms sien nie - en herhaal die fout.

Albei openbaar probleme met inligting. In die eerste geval versuim ons om persoonlike of historiese inligting te onthou. In die tweede versuim ons om inligting te enkodeer wanneer dit beskikbaar is.


innerself teken grafiese in


Dit gesê, ons maak ook foute wanneer ons nie doeltreffend kan aflei wat gaan gebeur nie. Miskien is die situasie te kompleks of te tydrowend om oor na te dink. Of ons is bevooroordeeld om verkeerd te interpreteer wat aangaan.

Die irriterende krag van tegnologie

Maar tegnologie kan ons tog help? Ons kan nou inligting buite ons brein stoor en rekenaars gebruik om dit te herwin. Dit behoort leer en onthou maklik te maak, reg?

Die stoor van inligting is nuttig wanneer dit goed herwin kan word. Maar om te onthou is nie dieselfde ding as om 'n lêer van 'n bekende plek of datum af te haal nie. Onthou behels om ooreenkomste raak te sien en dinge in gedagte te bring.

’n Kunsmatige intelligensie (KI) moet ook spontaan ooreenkomste in ons gedagtes kan bring – dikwels onwelkome ooreenkomste. Maar as dit goed is om moontlike ooreenkomste op te let (dit kan immers al die internet en al ons persoonlike data deursoek), sal dit ook dikwels vals ooreenkomste opmerk.

Vir mislukte datums kan dit daarop let dat hulle almal aandete betrek het. Maar dit was nooit die eetplek wat die probleem was nie. En dit was 'n blote toeval dat daar tulpe op die tafel was - geen rede om dit te vermy nie. Ons herhaal dikwels dateerfoute. 

Dit beteken dit sal ons waarsku oor dinge waarvoor ons nie omgee nie, moontlik op 'n irriterende manier. Om sy sensitiwiteit af te stel, beteken dat die risiko verhoog word om nie 'n waarskuwing te kry wanneer dit nodig is nie.

Dit is 'n fundamentele probleem en is net so van toepassing op enige adviseur: die versigtige adviseur sal te dikwels wolf huil, die optimistiese adviseur sal risiko's mis.

'n Goeie adviseur is iemand wat ons vertrou. Hulle het omtrent dieselfde vlak van versigtigheid as ons, en ons weet hulle weet wat ons wil hê. Dit is moeilik om in 'n menslike adviseur te vind, en nog meer in 'n KI.

Waar keer tegnologie foute? Idioot-proofing werk. Snymasjiene vereis dat jy knoppies ingedruk hou en jou hande weghou van die lemme. 'n "Doodmanskakelaar" stop 'n masjien as die operateur onbevoeg raak.

Mikrogolfoonde skakel die bestraling af wanneer die deur oopgemaak word. Om missiele te lanseer, moet twee mense gelyktydig sleutels oor 'n kamer draai. Hier maak noukeurige ontwerp foute moeilik om te maak. Maar ons gee nie genoeg om oor minder belangrike situasies nie, wat die ontwerp daar baie minder idiootbestand maak.

Wanneer tegnologie goed werk, vertrou ons dit dikwels te veel. Lugdiensvlieëniers het vandag minder ware vliegure as in die verlede as gevolg van die ongelooflike doeltreffendheid van autopilot-stelsels. Dit is slegte nuus wanneer die autopilot misluk, en die vlieënier het minder ondervinding om voort te gaan om die situasie reg te stel.

Die eerste van 'n nuwe ras olieplatform (Sleipnir A) het gesink omdat ingenieurs die sagteware-berekening van die kragte wat daarop inwerk, vertrou het. Die model was verkeerd, maar dit het die resultate op so 'n oortuigende manier aangebied dat dit betroubaar gelyk het.

Baie van ons tegnologie is ongelooflik betroubaar. Ons merk byvoorbeeld nie op hoe verlore pakkies data op die internet voortdurend agter die skerms gevind word nie, hoe foutregstellende kodes geraas verwyder of hoe versmeltings en oortolligheid toestelle veilig maak nie.

Maar wanneer ons op vlak na vlak van kompleksiteit stapel, lyk dit baie onbetroubaar. Ons merk wel op wanneer die Zoom-video agterbly, die KI-program verkeerd antwoord of die rekenaar ineenstort. Vra tog enigiemand wat 'n rekenaar of motor 50 jaar gelede gebruik het hoe hulle werklik gewerk het, en jy sal opmerk dat hulle beide minder bekwaam en minder betroubaar was.

Ons maak tegnologie meer kompleks totdat dit te irriterend of onveilig word om te gebruik. Namate die onderdele beter en meer betroubaar word, kies ons dikwels om nuwe opwindende en nuttige kenmerke by te voeg eerder as om by te bly by wat werk. Dit maak die tegnologie uiteindelik minder betroubaar as wat dit kan wees.

Foute sal gemaak word

Dit is ook hoekom KI 'n tweesnydende swaard is om foute te vermy. Outomatisering maak dinge dikwels veiliger en doeltreffender wanneer dit werk, maar as dit misluk, maak dit die moeilikheid baie groter. Outonomie beteken dat slim sagteware ons denke kan aanvul en ons kan aflaai, maar wanneer dit nie dink soos ons dit wil hê nie, kan dit wangedra.

Hoe meer kompleks dit is, hoe meer fantasties kan die foute wees. Enigiemand wat met hoogs intelligente geleerdes te doen gehad het, weet hoe goed hulle dinge met groot vernuf kan deurmekaar krap wanneer hul gesonde verstand hulle in die steek laat – en KI het baie min menslike gesonde verstand.

Dit is ook 'n grondige rede om bekommerd te wees oor KI wat besluitneming lei: hulle maak nuwe soorte foute. Ons mense ken menslike foute, wat beteken dat ons daarvoor kan oppas. Maar slim masjiene kan foute maak wat ons nooit kon dink nie.

Wat meer is, KI-stelsels word deur mense geprogrammeer en opgelei. En daar is baie voorbeelde van sulke stelsels bevooroordeeld en selfs grootmoedig raak. Hulle boots die vooroordele na en herhaal die foute van die mensewêreld, selfs wanneer die betrokke mense dit uitdruklik probeer vermy.

Op die ou end sal foute aanhou gebeur. Daar is fundamentele redes waarom ons verkeerd is oor die wêreld, hoekom ons nie alles onthou wat ons behoort te onthou nie, en hoekom ons tegnologie ons nie perfek kan help om moeilikheid te vermy nie.

Maar ons kan werk om die gevolge van foute te verminder. Die ontdoen-knoppie en outostoor het talle dokumente op ons rekenaars gestoor. Die monument in Londen, tsoenami klippe in Japan en ander monumente tree op om ons te herinner aan sekere risiko's. Goeie ontwerppraktyke maak ons ​​lewens veiliger.

Uiteindelik is dit moontlik om iets uit die geskiedenis te leer. Ons doel moet wees om te oorleef en uit ons foute te leer, nie te verhoed dat dit ooit gebeur nie. Tegnologie kan ons hiermee help, maar ons moet mooi dink oor wat ons eintlik daarvan wil hê – en daarvolgens ontwerp.

Oor Die Skrywer

Anders Sandberg, James Martin Navorsingsgenoot, Future of Humanity Institute en Oxford Martin School, Universiteit van Oxford

Hierdie artikel is gepubliseer vanaf Die gesprek onder 'n Creative Commons lisensie. Lees die oorspronklike artikel.