Outonome motors is nie slimmer as hierdie. X posid
Elke dag word albei van ontelbare bronne oor die hele wêreld voortgekom waarskuwing van ernstige gevolge en belowende utopiese toekoms - alles danksy kunsmatige intelligensie. AI "is die transformasie van die werkplek," skryf die Wall Street Journal, Terwyl Fortune tydskrif vertel ons dat ons 'n "AI-rewolusie" in die gesig staar wat ons lewens sal verander. Maar ons verstaan nie regtig wat interaksie met AI sal wees nie - of hoe dit moet wees.
Dit blyk egter dat ons reeds 'n konsep het wat ons kan gebruik as ons dink aan AI: Dit is hoe ons aan diere dink. As 'n voormalige diere-afrigter (hoewel kortliks) wat nou ondersoek hoe mense AI gebruik, weet ek dat diere- en dieropleiding ons baie kan leer oor hoe ons moet dink, benader en interaksie met kunsmatige intelligensie, nou sowel as in die toekoms.
Gebruik dierlike analogieë kan help om gereelde mense baie van die komplekse aspekte van kunsmatige intelligensie te verstaan. Dit kan ons ook help om te dink oor hoe om hierdie stelsels die beste te leer nuwe vaardighede en, miskien die belangrikste, hoe ons hul beperkinge behoorlik kan begryp, selfs al vier ons AI se nuwe moontlikhede.
Kyk na beperkinge
As AI deskundige Maggie Boden verduidelik, "Kunsmatige intelligensie beoog om rekenaars te laat doen wat allerhande dinge kan doen." AI navorsers werk aan die onderrig van rekenaars om te redeneer, waarneem, beplan, beweeg en verenigings maak. AI kan patrone in groot datastelle sien, voorspel die waarskynlikheid van 'n gebeurtenis wat voorkom, 'n roete beplan, 'n persoon se byeenkomsskedule bestuur en selfs oorlogsscenario's speel.
Baie van hierdie vermoëns is op sigself onopvallend. Natuurlik kan 'n robot 'n ruimte rondrol en nie bots met iets nie. Maar een of ander manier lyk AI meer magies wanneer die rekenaar begin om hierdie vaardighede saam te voeg om take te bereik.
Neem byvoorbeeld outonome motors. Die oorsprong van die bestuurderlose motor is in 'n 1980s-era Outonome landvoertuig. Die projek se doelwitte was om navorsing oor rekenaarvisie, persepsie, beplanning en robotbeheer aan te moedig. In 2004 het die ALV-poging die eerste geword Groot Uitdaging vir motorvoertuie. Nou, meer as 30 jaar sedert die poging begin het, is ons op die afgrond van outonome of selfbestuurse motors in die burgerlike mark. In die vroeë jare het min mense gedink so 'n ding was onmoontlik: Rekenaars kon nie ry nie!
{youtube}M2AcMnfzpNg{/youtube}
Tog, soos ons gesien het, hulle kan. Outonome motors se vermoëns is relatief maklik vir ons om te verstaan. Maar ons sukkel om hul beperkings te begryp. Na die 2015 dodelike Tesla-ongeluk, waar die motor se autopilot-funksie nie 'n trekker-sleepwa het wat in sy baan kruis nie, voel, lyk min die swaartekrag van hoe beperkte Tesla se motorpilot regtig is. Terwyl die maatskappy en sy sagteware was skoon van nalatigheid deur die National Highway Traffic Safety Administration, bly dit onduidelik of kliënte regtig verstaan wat die motor kan en kan nie.
Wat as Tesla-eienaars nie vertel is dat hulle dit was nie 'n "beta" -uitgawe van 'n autopilot bestuur maar eerder 'n semi-outonome motor met die geestelike ekwivalensie van 'n wurm? Die sogenaamde "intelligensie" wat "volle selfry vermoë"Is regtig 'n reuse rekenaar wat redelik goed is om waarnemings te bespeur en dit te vermy, om items in beelde en beperkte beplanning te herken. Dit kan eienaars se perspektiewe verander oor hoeveel die motor werklik kan doen sonder menslike insette of toesig.
Wat is dit?
Tegnoloë probeer dikwels AI verduidelik in terme van hoe dit gebou word. Neem byvoorbeeld vordering gemaak in diep leer. Dit is 'n tegniek wat gebruik multi-lae netwerke om te leer hoe om 'n taak te doen. Die netwerke moet groot hoeveelhede inligting verwerk. Maar as gevolg van die hoeveelheid data wat hulle benodig, die kompleksiteit van die assosiasies en algoritmes in die netwerke, is dit dikwels onduidelik aan mense hoe hulle leer wat hulle doen. Hierdie stelsels kan baie goed op 'n bepaalde taak word, maar ons verstaan hulle nie regtig nie.
In plaas daarvan om te dink aan AI as iets supermenslike of vreemdeling, is dit makliker om hulle te analiseer aan diere, intelligente nie-mense wat ons ondervinding het.
Byvoorbeeld, as ek sou gebruik versterkingsleer Om 'n hond op te lei om te sit, sou ek die hond prys en hom behandel wanneer hy op bevel sit. Met verloop van tyd het hy geleer om die bevel met die gedrag met die verhandeling te assosieer.
{youtube}5-MA-rGbt9k{/youtube}
Opleiding van 'n AI-stelsel kan baie dieselfde wees. in versterking diep leer, menslike ontwerpers stel 'n stelsel op, stel vas wat hulle wil hê dit moet leer, gee dit inligting, kyk na sy aksies en gee dit terugvoer (soos lof) as hulle sien wat hulle wil. In wese kan ons die AI-stelsel behandel soos ons diere behandel wat ons oplei.
Die analogie werk ook op 'n dieper vlak. Ek verwag nie die sithond om komplekse konsepte soos "liefde" of "goed" te verstaan nie. Ek verwag van hom om 'n gedrag te leer. Net soos ons honde kan sit, bly en oorrol, kan ons AI-stelsels kry om motors op openbare paaie te skuif. Maar dit is te veel om te verwag dat die motor "los" die etiese probleme wat kan ontstaan in noodgevalle.
Ook navorsers help
Dink aan AI as 'n treinbare dier, is dit nie net nuttig om dit aan die algemene publiek te verduidelik nie. Dit is ook nuttig vir die navorsers en ingenieurs wat die tegnologie bou. As 'n AI-wetenskaplike probeer om 'n stelsel 'n nuwe vaardigheid te onderrig, kan die denkproses vanuit die oogpunt van 'n dier afrigter help om potensiële probleme of komplikasies te identifiseer.
As ek byvoorbeeld probeer om my hond op te lei om te sit, en elke keer as ek sê "sit", gaan die sander na die oond af, dan begin my hond om nie alleen met my bevel te sit nie, maar ook met die geluid van die oond se sander. In wese word die sondaar 'n ander sein wat die hond vertel om te sit, wat 'n "toevallige versterking" genoem word. As ons kyk na toevallige versterkings of seine in AI stelsels wat nie behoorlik werk nie, sal ons beter weet, nie net wat gaan nie verkeerd, maar ook watter spesifieke heropleiding die doeltreffendste sal wees.
Dit vereis dat ons verstaan watter boodskappe ons tydens AI-opleiding gee, asook wat die AI in die omliggende omgewing kan waarneem. Die oond sondaar is 'n eenvoudige voorbeeld; In die werklike wêreld sal dit baie ingewikkelder wees.
Voordat ons ons AI-owerste verwelkom en ons lewens en werk aan robotte oorhandig, moet ons die soort intelligensies wat ons skep, breek en dink. Hulle sal baie goed wees om spesifieke aksies of take te doen, maar hulle kan nie begrippe verstaan nie en niks weet nie. So wanneer jy dink duisende skel uit Vir 'n nuwe Tesla-motor, onthou die outo-pilootfunksie is regtig net 'n baie vinnige en sexy wurm. Wil jy regtig beheer gee oor jou lewe en jou geliefdes se lewens aan 'n wurm? Waarskynlik nie, hou dus jou hande op die wiel en raak nie aan die slaap nie.
Oor Die Skrywer
Heather Roff, senior navorsingsgenoot, Departement Politiek en Internasionale Betrekkinge, Universiteit van Oxford; Navorsingswetenskaplike, Global Security Initiative, Arizona State University
Hierdie artikel is oorspronklik gepubliseer op Die gesprek. Lees die oorspronklike artikel.
verwante Boeke
at InnerSelf Market en Amazon