Shutterstock/Valentyn640

In 1956, tydens 'n jaar lange reis na Londen en in sy vroeë 20's, het die wiskundige en teoretiese bioloog Jack D. Cowan vir Wilfred Taylor en sy vreemde nuwe "leermasjien”. Met sy aankoms was hy verbysterd deur die "groot bank van apparaat" wat hom gekonfronteer het. Cowan kon net staan ​​en kyk hoe “die masjien sy ding doen”. Die ding wat dit blyk te doen, was om 'n "assosiatiewe geheueskema" uit te voer - dit het gelyk of dit in staat was om te leer hoe om verbindings te vind en data te herwin.

Dit het dalk soos lomp blokke van stroombane gelyk, met die hand aanmekaar gesoldeer in 'n massa drade en bokse, maar wat Cowan aanskou was 'n vroeë analoog vorm van 'n neurale netwerk - 'n voorloper van die mees gevorderde kunsmatige intelligensie van vandag, insluitend die baie bespreek Klets GPT met sy vermoë om geskrewe inhoud te genereer in reaksie op byna enige opdrag. ChatGPT se onderliggende tegnologie is 'n neurale netwerk.

Terwyl Cowan en Taylor staan ​​en kyk hoe die masjien werk, het hulle regtig geen idee gehad presies hoe dit reggekry het om hierdie taak uit te voer nie. Die antwoord op Taylor se raaiselmasjienbrein kan iewers gevind word in sy "analoog neurone", in die assosiasies wat deur sy masjiengeheue gemaak word en, bowenal, in die feit dat sy outomatiese funksionering nie regtig volledig verklaar kon word nie. Dit sal dekades neem vir hierdie stelsels om hul doel te vind en vir daardie krag om ontsluit te word.

Die term neurale netwerk bevat 'n wye reeks stelsels, maar sentraal, volgens IBM, hierdie "neurale netwerke - ook bekend as kunsmatige neurale netwerke (ANN'e) of gesimuleerde neurale netwerke (SNN's) - is 'n subset van masjienleer en is die kern van diepleeralgoritmes". Dit is belangrik dat die term self en hul vorm en "struktuur deur die menslike brein geïnspireer is, wat die manier naboots waarop biologiese neurone aan mekaar sein".

Daar was dalk 'n mate van twyfel oor hul waarde in die aanvanklike stadiums daarvan, maar soos die jare verby is, het KI-modes stewig na neurale netwerke geswaai. Daar word nou dikwels verstaan ​​dat hulle die toekoms van KI is. Hulle het groot implikasies vir ons en vir wat dit beteken om mens te wees. Ons het gehoor eggo's van hierdie bekommernisse onlangs met oproepe om nuwe KI-ontwikkelings vir 'n tydperk van ses maande te onderbreek om vertroue in die implikasies daarvan te verseker.


innerself teken grafiese in


Dit sal beslis 'n fout wees om die neurale netwerk af te maak as net oor blink, opvallende nuwe toestelle. Hulle is reeds goed gevestig in ons lewens. Sommige is kragtig in hul praktiese toepassing. So ver terug as 1989 het 'n span onder leiding van Yann LeCun by AT&T Bell Laboratories terugverspreidingstegnieke gebruik om 'n stelsel op te lei om herken handgeskrewe poskodes. Die onlangse aankondiging deur Microsoft dat Bing-soektogte deur KI aangedryf sal word, wat dit jou "copilot vir die web" maak, illustreer hoe die dinge wat ons ontdek en hoe ons dit verstaan, toenemend 'n produk van hierdie tipe outomatisering sal wees.

Deur groot data te gebruik om patrone te vind, kan KI op soortgelyke wyse opgelei word om dinge soos beeldherkenning teen spoed te doen - wat daartoe lei dat hulle ingesluit word in gesig erkenning, byvoorbeeld. Hierdie vermoë om patrone te identifiseer het gelei tot baie ander toepassings, soos aandelemarkte te voorspel.

Neurale netwerke verander ook hoe ons interpreteer en kommunikeer. Ontwikkel deur die interessante titel Google-breinspan, Google Translate is nog 'n prominente toepassing van 'n neurale netwerk.

Jy sal ook nie met een skaak of Shogi wil speel nie. Hul begrip van reëls en hul herroeping van strategieë en alle aangetekende bewegings beteken dat hulle buitengewoon goed is in speletjies (alhoewel ChatGPT blykbaar sukkel met Wordle). Die stelsels wat menslike Go-spelers pla (Go is 'n berugte moeilike strategiebordspeletjie) en skaakgrootmeesters, is gemaak van neurale netwerke.

Maar hul bereik strek veel verder as hierdie gevalle en gaan steeds uit. 'n Soektog na patente wat slegs beperk is tot vermelding van die presiese frase "neurale netwerke" lewer 135,828 XNUMX resultate op. Met hierdie vinnige en voortdurende uitbreiding kan die kanse dat ons die invloed van KI volledig kan verduidelik, al hoe dunner word. Dit is die vrae wat ek in my navorsing ondersoek het en my nuwe boek oor algoritmiese denke.

Geheimsinnige lae van 'onkenbaarheid'

Om terug te kyk na die geskiedenis van neurale netwerke vertel ons iets belangrik oor die outomatiese besluite wat ons hede definieer of dié wat 'n moontlik meer diepgaande impak in die toekoms sal hê. Hul teenwoordigheid vertel ons ook dat ons waarskynlik die besluite en impak van KI mettertyd nog minder sal verstaan. Hierdie stelsels is nie bloot swart bokse nie, dit is nie net versteekte stukkies van 'n stelsel wat nie gesien of verstaan ​​kan word nie.

Dit is iets anders, iets wat gewortel is in die doelwitte en ontwerp van hierdie stelsels self. Daar is 'n langdurige strewe na die onverklaarbare. Hoe meer ondeursigtig, hoe meer outentiek en gevorderd word die stelsel gedink. Dit gaan nie net oor die stelsels wat meer kompleks word of die beheer van intellektuele eiendom wat toegang beperk nie (hoewel dit deel daarvan is). Dit is eerder om te sê dat die etos wat hulle dryf 'n besondere en ingebedde belangstelling in "onkenbaarheid" het. Die raaisel word selfs in die vorm en diskoers van die neurale netwerk gekodeer. Hulle kom met diep opgestapelde lae - vandaar die frase deep learning - en binne daardie dieptes is die selfs meer geheimsinnig klinkende "verborge lae". Die geheimenisse van hierdie stelsels is diep onder die oppervlak.

Daar is 'n goeie kans dat hoe groter die impak wat kunsmatige intelligensie in ons lewens het, hoe minder sal ons verstaan ​​hoe of hoekom. Vandag is daar 'n sterk druk vir KI wat verklaarbaar is. Ons wil weet hoe dit werk en hoe dit by besluite en uitkomste uitkom. Die EU is so bekommerd oor die potensieel "onaanvaarbare risiko's" en selfs "gevaarlike" aansoeke dat dit tans vorder 'n nuwe KI-wet bedoel om 'n "globale standaard" te stel vir "die ontwikkeling van veilige, betroubare en etiese kunsmatige intelligensie".

Daardie nuwe wette sal gebaseer wees op 'n behoefte aan verduidelikbaarheid, wat dit eis "Vir hoërisiko-KI-stelsels is die vereistes van hoë gehalte data, dokumentasie en naspeurbaarheid, deursigtigheid, menslike toesig, akkuraatheid en robuustheid, streng nodig om die risiko's vir fundamentele regte en veiligheid wat KI inhou, te versag." Dit gaan nie net oor dinge soos selfbesturende motors nie (hoewel stelsels wat veiligheid verseker in die EU se kategorie van hoërisiko-KI val), dit is ook 'n bekommernis dat stelsels in die toekoms sal ontstaan ​​wat implikasies vir menseregte sal hê.

Dit is deel van groter oproepe vir deursigtigheid in KI sodat die aktiwiteite daarvan nagegaan, geoudit en geassesseer kan word. Nog 'n voorbeeld sou die Royal Society s'n wees beleidinligting oor verklaarbare KI waarin hulle daarop wys dat “beleidsdebatte regoor die wêreld toenemend oproepe sien vir een of ander vorm van KI-verduidelikbaarheid, as deel van pogings om etiese beginsels in te sluit in die ontwerp en ontplooiing van KI-geaktiveerde stelsels”.

Maar die verhaal van neurale netwerke vertel ons dat ons waarskynlik in die toekoms verder van daardie doelwit sal wegkom, eerder as nader daaraan.

Geïnspireer deur die menslike brein

Hierdie neurale netwerke kan komplekse stelsels wees, maar hulle het 'n paar kernbeginsels. Geïnspireer deur die menslike brein, poog hulle om vorme van biologiese en menslike denke te kopieer of te simuleer. In terme van struktuur en ontwerp is hulle, soos IBM verduidelik ook, wat bestaan ​​uit "noduslae, wat 'n invoerlaag, een of meer versteekte lae en 'n uitvoerlaag bevat". Hierin verbind "elke nodus, of kunsmatige neuron, met 'n ander". Omdat hulle insette en inligting benodig om uitsette te skep, maak hulle staat op opleidingsdata om hul akkuraatheid oor tyd te leer en te verbeter. Hierdie tegniese besonderhede maak saak, maar so ook die wens om hierdie stelsels te modelleer op die kompleksiteite van die menslike brein.

Om die ambisie agter hierdie stelsels te begryp, is noodsaaklik om te verstaan ​​wat hierdie tegniese besonderhede in die praktyk beteken het. In 'n 1993 onderhoud, het die neurale netwerkwetenskaplike Teuvo Kohonen tot die gevolgtrekking gekom dat 'n "selforganiserende" stelsel "my droom is", wat "iets soos wat ons senuweestelsel instinktief doen" werk. As voorbeeld het Kohonen voorgestel hoe 'n "selforganiserende" stelsel, 'n stelsel wat homself gemonitor en bestuur het, "as 'n moniteringspaneel vir enige masjien gebruik kan word ... in elke vliegtuig, straalvliegtuig of elke kernkragstasie, of elke voertuig". Dit, het hy gedink, sou beteken dat jy in die toekoms “onmiddellik kan sien in watter toestand die stelsel is”.

Die oorkoepelende doelwit was om 'n stelsel te hê wat by sy omgewing kan aanpas. Dit sou onmiddellik en outonoom wees, in die styl van die senuweestelsel. Dit was die droom, om stelsels te hê wat hulself kon hanteer sonder dat baie menslike ingryping nodig was. Die kompleksiteite en onbekendes van die brein, die senuweestelsel en die werklike wêreld sou binnekort die ontwikkeling en ontwerp van neurale netwerke inlig.

'Iets vies daaraan'

Maar om terug te spring na 1956 en daardie vreemde leermasjien, was dit die praktiese benadering wat Taylor geneem het toe hy dit gebou het wat dadelik Cowan se aandag getrek het. Hy het duidelik gesweet oor die samestelling van die stukkies. Taylor, Cowan waargeneem tydens 'n onderhoud op sy eie aandeel in die verhaal van hierdie stelsels, "het dit nie volgens teorie gedoen nie, en hy het dit nie op 'n rekenaar gedoen nie". In plaas daarvan, met gereedskap in die hand, het hy "eintlik die hardeware gebou". Dit was 'n materiële ding, 'n kombinasie van onderdele, miskien selfs 'n kontrepsie. En dit was "alles gedoen met analoog stroombane" wat Taylor, sê Cowan, 'n paar jaar geneem het om dit te bou en daarmee te speel. 'n Geval van beproewing en fout.

Verstaanbaar wou Cowan verstaan ​​wat hy sien. Hy het probeer om Taylor te kry om hierdie leermasjien aan hom te verduidelik. Die verduidelikings het nie gekom nie. Cowan kon Taylor nie kry om vir hom te beskryf hoe die ding werk nie. Die analoog neurone het 'n raaisel gebly. Die meer verrassende probleem, het Cowan gedink, was dat Taylor “nie regtig self verstaan ​​het wat aangaan nie”. Dit was nie net 'n kortstondige onderbreking in kommunikasie tussen die twee wetenskaplikes met verskillende spesialiteite nie, dit was meer as dit.

In 'n onderhoud uit die middel-1990's, terwyl hy terugdink aan Taylor se masjien, het Cowan onthul dat "tot vandag toe in gepubliseerde koerante jy nie heeltemal kan verstaan ​​hoe dit werk nie". Hierdie gevolgtrekking dui op hoe die onbekende diep ingebed is in neurale netwerke. Die onverklaarbaarheid van hierdie neurale stelsels was teenwoordig selfs vanaf die fundamentele en ontwikkelingsfases wat byna sewe dekades terug dateer.

Hierdie raaisel bly vandag en is te vinde in vooruitstrewende vorme van KI. Die onpeilbaarheid van die funksionering van die assosiasies wat deur Taylor se masjien gemaak word, het Cowan laat wonder of daar “iets viesliks daaraan” is.

Lang en deurmekaar wortels

Cowan het terugverwys na sy kort besoek aan Taylor toe hy 'n paar jaar later gevra is oor die ontvangs van sy eie werk. In die 1960's was mense, het Cowan weerspieël, "'n bietjie stadig om die punt van 'n analoog neurale netwerk te sien". Dit was ondanks, onthou Cowan, Taylor se 1950's werk oor "assosiatiewe geheue" wat gebaseer is op "analoog neurone". Die Nobelprys-bekroonde neurale stelseldeskundige, Leon N. Cooper, afgesluit dat ontwikkelings rondom die toepassing van die breinmodel in die 1960's, as onder die diep raaisels beskou is. As gevolg van hierdie onsekerheid was daar 'n skeptisisme oor wat 'n neurale netwerk kan bereik. Maar dinge het stadigaan begin verander.

Sowat 30 jaar gelede het die neurowetenskaplike Walter J. Freeman, wat verras was deur die “merkwaardige” reeks toepassings wat vir neurale netwerke gevind is, het reeds kommentaar gelewer op die feit dat hy dit nie as “’n fundamenteel nuwe soort masjien” beskou nie. Hulle was 'n stadige verbranding, met die tegnologie wat eerste gekom het en toe daaropvolgende toepassings daarvoor gevind is. Dit het tyd geneem. Om die wortels van neurale netwerktegnologie te vind, kan ons selfs verder teruggaan as Cowan se besoek aan Taylor se geheimsinnige masjien.

Die neurale net-wetenskaplike James Anderson en die wetenskapjoernalis Edward Rosenfeld het kennis geneem dat die agtergrond van neurale netwerke teruggaan na die 1940's en 'n paar vroeë pogings om, soos hulle beskryf, "die menslike senuweestelsels te verstaan ​​en om kunsmatige stelsels te bou wat optree soos ons doen, ten minste 'n bietjie". En so het die raaisels van die menslike senuweestelsel in die 1940's ook die raaisels van rekenaardenke en kunsmatige intelligensie geword.

Opsomming van hierdie lang storie, die rekenaarwetenskapskrywer Larry Hardesty uitgewys het dat diep leer in die vorm van neurale netwerke “vir meer as 70 jaar in en uit die mode gaan”. Meer spesifiek, voeg hy by, hierdie "neurale netwerke is die eerste keer in 1944 voorgestel deur Warren McCulloch en Walter Pitts, twee navorsers van die Universiteit van Chicago wat in 1952 na MIT verhuis het as stigterslede van wat soms die eerste kognitiewe wetenskap-afdeling genoem word".

elders, 1943 is soms die gegewe datum as die eerste jaar vir die tegnologie. Hoe dit ook al sy, vir ongeveer 70 jaar dui rekeninge daarop dat neurale netwerke in en uit die mode beweeg het, dikwels verwaarloos, maar dan soms posgevat en na meer hoofstroomtoepassings en debatte beweeg. Die onsekerheid het voortgeduur. Daardie vroeë ontwikkelaars beskryf dikwels die belangrikheid van hul navorsing as oorgesien, totdat dit dikwels jare en soms dekades later sy doel gevind het.

As ons van die 1960's na die laat 1970's beweeg, kan ons verdere verhale vind van die onbekende eienskappe van hierdie stelsels. Selfs toe, na drie dekades, was die neurale netwerk nog besig om 'n sin van doel te vind. David Rumelhart, wat 'n agtergrond in sielkunde gehad het en 'n mede-outeur was van 'n stel boeke wat in 1986 gepubliseer is wat later die aandag weer na neurale netwerke sou terugdryf, het gevind dat hy saamwerk aan die ontwikkeling van neurale netwerke saam met sy kollega Jay McClelland.

Behalwe dat hulle kollegas was, het hulle mekaar ook onlangs by 'n konferensie in Minnesota teëgekom waar Rumelhart se toespraak oor "storiebegrip" 'n mate van bespreking onder die afgevaardigdes uitgelok het.

Na daardie konferensie het McClelland teruggekeer met 'n gedagte oor hoe om 'n neurale netwerk te ontwikkel wat modelle kan kombineer om meer interaktief te wees. Wat hier saak maak, is Rumelhart se herinnering van die “ure en ure en ure se gepeuter op die rekenaar”.

Ons het gaan sit en dit alles in die rekenaar gedoen en hierdie rekenaarmodelle gebou, en ons het hulle net nie verstaan ​​nie. Ons het nie verstaan ​​hoekom hulle gewerk het of hoekom hulle nie gewerk het nie of wat krities oor hulle was nie.

Soos Taylor, het Rumelhart gevind dat hy met die stelsel gepeuter het. Hulle het ook 'n funksionerende neurale netwerk geskep en, baie belangrik, was hulle ook nie seker hoe of hoekom dit gewerk het op die manier wat dit gedoen het nie, en skynbaar uit data geleer en assosiasies gevind.

Nabootsing van die brein - laag na laag

Jy het dalk al opgemerk dat wanneer die oorsprong van neurale netwerke bespreek word, die beeld van die brein en die kompleksiteit wat dit oproep, nooit ver weg is nie. Die menslike brein het as 'n soort sjabloon vir hierdie stelsels opgetree. Veral in die vroeë stadiums het die brein – steeds een van die groot onbekendes – 'n model geword vir hoe die neurale netwerk kan funksioneer.

Hierdie eksperimentele nuwe stelsels is dus geskoei op iets waarvan die funksionering self grootliks onbekend was. Die neurorekenaaringenieur Carver Mead het onthullend gepraat van die konsepsie van 'n "kognitiewe ysberg" wat hy veral aanloklik gevind het. Dit is slegs die punt van die ysberg van bewussyn waarvan ons bewus is en wat sigbaar is. Die skaal en vorm van die res bly onbekend onder die oppervlak.

In 1998, James anderson, wat al 'n geruime tyd aan neurale netwerke gewerk het, het opgemerk dat wanneer dit by navorsing oor die brein kom, "blyk ons ​​groot ontdekking 'n bewustheid dat ons regtig nie weet wat aangaan nie".

In 'n gedetailleerde rekening in die Financial Times in 2018, tegnologie-joernalis Richard Waters het opgemerk hoe neurale netwerke "geskoei is op 'n teorie oor hoe die menslike brein werk, wat data deur lae kunsmatige neurone stuur totdat 'n identifiseerbare patroon na vore kom". Dit skep 'n groot probleem, het Waters voorgestel, aangesien "anders as die logiese stroombane wat in 'n tradisionele sagtewareprogram gebruik word, daar geen manier is om hierdie proses na te spoor om presies te identifiseer hoekom 'n rekenaar met 'n spesifieke antwoord vorendag kom nie". Waters se gevolgtrekking is dat hierdie uitkomste nie ontkies kan word nie. Die toepassing van hierdie tipe model van die brein, wat die data deur baie lae neem, beteken dat die antwoord nie geredelik teruggespoor kan word nie. Die veelvuldige lae is 'n goeie deel van die rede hiervoor.

Hardheid het ook waargeneem dat hierdie stelsels "losweg op die menslike brein gemodelleer is". Dit bring 'n gretigheid om steeds meer verwerkingskompleksiteit in te bou om te probeer om by die brein aan te pas. Die resultaat van hierdie doelwit is 'n neurale net wat "bestaan ​​uit duisende of selfs miljoene eenvoudige verwerkingsnodusse wat dig onderling verbind is". Data beweeg deur hierdie nodusse in slegs een rigting. Hardesty het opgemerk dat 'n "individuele nodus gekoppel kan wees aan verskeie nodusse in die laag daaronder, waarvandaan dit data ontvang, en verskeie nodusse in die laag daarbo, waarheen dit data stuur".

Modelle van die menslike brein was deel van hoe hierdie neurale netwerke uit die staanspoor bedink en ontwerp is. Dit is veral interessant as ons in ag neem dat die brein self 'n raaisel van die tyd was (en in baie opsigte steeds is).

'Aanpassing is die hele spel'

Wetenskaplikes soos Mead en Kohonen wou 'n stelsel skep wat werklik kan aanpas by die wêreld waarin dit hom bevind. Dit sou op sy voorwaardes reageer. Mead was duidelik dat die waarde in neurale netwerke is dat hulle hierdie tipe aanpassing kan fasiliteer. Destyds, en reflekteer oor hierdie ambisie, Mead bygevoeg dat die vervaardiging van aanpassing "die hele spel is". Hierdie aanpassing is nodig, het hy gedink, "vanweë die aard van die werklike wêreld", wat hy tot die gevolgtrekking gekom het "te veranderlik is om enigiets absoluut te doen".

Daar moet met hierdie probleem rekening gehou word, veral omdat, het hy gedink, dit is iets wat "die senuweestelsel lank gelede uitgepluis het". Hierdie innoveerders het nie net gewerk met 'n beeld van die brein en sy onbekendes nie, hulle het dit gekombineer met 'n visie van die "regte wêreld" en die onsekerhede, onbekendes en veranderlikheid wat dit meebring. Die stelsels, het Mead gedink, moes in staat wees om te reageer en by omstandighede aan te pas sonder instruksie.

Ongeveer dieselfde tyd in die 1990's, Stephen Grossberg - 'n kenner in kognitiewe stelsels wat oor wiskunde, sielkunde en bio-mediese ingenieurswese werk - het ook aangevoer dat aanpassing gaan die belangrike stap op die langer termyn wees. Grossberg, terwyl hy weggewerk het aan neurale netwerkmodellering, het by homself gedink dat dit alles gaan "oor hoe biologiese meet- en beheerstelsels ontwerp is om vinnig en stabiel in reële tyd aan te pas by 'n vinnig wisselende wêreld". Soos ons vroeër gesien het met Kohonen se "droom" van 'n "self-organiserende" stelsel, word 'n begrip van die "regte wêreld" die konteks waarin reaksie en aanpassing in hierdie sisteme gekodeer word. Hoe daardie werklike wêreld verstaan ​​en verbeeld word, vorm ongetwyfeld hoe hierdie stelsels ontwerp is om aan te pas.

Versteekte lae

Soos die lae vermenigvuldig het, het diep leer nuwe dieptes geloods. Die neurale netwerk word opgelei met behulp van opleidingsdata wat, Hardesty verduidelik, "word na die onderste laag - die invoerlaag - gevoer en dit gaan deur die opeenvolgende lae, word vermenigvuldig en op komplekse maniere bymekaargetel totdat dit uiteindelik, radikaal getransformeer, by die uitsetlaag aankom". Hoe meer lae, hoe groter is die transformasie en hoe groter is die afstand van inset na uitset. Die ontwikkeling van grafiese verwerkingseenhede (GPU's), byvoorbeeld in speletjies, het Hardesty bygevoeg, "het die eenlaagnetwerke van die 1960's en die twee- tot drielaagnetwerke van die 1980's in staat gestel om in die tien, 15 of selfs 50 te blom. -laagnetwerke van vandag”.

Neurale netwerke word dieper. Trouens, dit is hierdie byvoeging van lae, volgens Hardesty, dit is "waarna die 'diep' in 'diep leer' verwys". Dit maak saak, stel hy voor, want “tans is diep leer verantwoordelik vir die stelsels wat die beste presteer in byna elke gebied van kunsmatige intelligensie-navorsing”.

Maar die misterie raak nog dieper. Namate die lae neurale netwerke hoër opgestapel het, het hul kompleksiteit gegroei. Dit het ook gelei tot die groei in wat na verwys word as "verborge lae" binne hierdie dieptes. Die bespreking van die optimum aantal versteekte lae in 'n neurale netwerk is aan die gang. Die mediateoretikus Beatrice Fazi geskryf het dat “as gevolg van hoe 'n diep neurale netwerk funksioneer, wat staatmaak op verborge neurale lae wat tussen die eerste laag neurone (die insetlaag) en die laaste laag (die uitsetlaag) vasgeklem is, diepleertegnieke dikwels ondeursigtig of onleesbaar is, selfs vir die programmeerders wat hulle oorspronklik opgestel het”.

Soos die lae toeneem (insluitend daardie verborge lae) word hulle selfs minder verklaarbaar – selfs, soos dit weer blyk, vir diegene wat dit skep. Om 'n soortgelyke punt te maak, die prominente en interdissiplinêre nuwe media-denker Katherine Hayles ook opgemerk dat daar perke is aan "hoeveel ons van die stelsel kan weet, 'n resultaat wat relevant is tot die 'verborge laag' in neurale net- en diepleeralgoritmes".

Die onverklaarbare najaag

Saam saam is hierdie lang ontwikkelings deel van wat die sosioloog van tegnologie Taina Bucher het die "problematiek van die onbekende" genoem. Die uitbreiding van sy invloedryke navorsing oor wetenskaplike kennis na die veld van KI, Harry Collins daarop gewys het die doelwit met neurale nette is dat dit aanvanklik ten minste deur 'n mens geproduseer kan word, maar "sodra dit geskryf is, leef die program as 't ware sy eie lewe; sonder groot moeite kan presies hoe die program werk geheimsinnig bly”. Dit het eggo's van daardie jarelange drome van 'n selforganiserende stelsel.

Ek wil hierby voeg dat die onbekende en miskien selfs die onkenbare as 'n fundamentele deel van hierdie stelsels vanaf hul vroegste stadiums nagestreef is. Daar is 'n goeie kans dat hoe groter die impak wat kunsmatige intelligensie in ons lewens het, hoe minder sal ons verstaan ​​hoe of hoekom.

Maar dit pas vandag nie goed by baie nie. Ons wil weet hoe KI werk en hoe dit uitkom by die besluite en uitkomste wat ons beïnvloed. Soos ontwikkelings in KI steeds ons kennis en begrip van die wêreld vorm, wat ons ontdek, hoe ons behandel word, hoe ons leer, verbruik en interaksie het, sal hierdie impuls om te verstaan ​​groei. Wanneer dit kom by verklaarbare en deursigtige KI, vertel die storie van neurale netwerke vir ons dat ons waarskynlik in die toekoms verder van daardie doelwit sal wegkom, eerder as nader daaraan.

David Beer, Professor in sosiologie, Universiteit van York

Hierdie artikel is gepubliseer vanaf Die gesprek onder 'n Creative Commons lisensie. Lees die oorspronklike artikel.