Dit is tyd om te skyn 'n lig op die algoritmes wat Power Big Brother

Sorteer volgens algoritmes stel ons in bokse. Hoe weet ons hulle is die regte mense? gegenereer, CC BYSorteer volgens algoritmes stel ons in bokse. Hoe weet ons hulle is die regte mense? gegenereer, CC BY

Die samelewing lyk op 'n kursus tot 'n punt waar ons lewens onderhewig is aan die ondersoek van rekenaaralgoritmes. Die data wat ons genereer word verdeel en ontleed, hetsy deur regerings vir nasionale sekuriteit of maatskappye vir wins, en dit sal waarskynlik nie verander nie. Die krag en appèl van data-ontleding, wat een keer gevind is, sal nie maklik opgegee word nie.

Maar in die waarheid wonder ek of ek meer bekommerd is dat ons data versamel word of deur die feit dat ons niks weet van die algoritmes wat oordeel oor ons uitspreek nie.

Die vlak van detail oor ons lewens en gewoontes wat ontbloot kan word van die data wat ons agterlaat, is voorheen bespreek en word 'n vars lug as deel van die debat oor die VK se konsep Onderzoekings Powers Bill. Ons weet ten minste iets oor watter data ingesamel word en hoe lank dit gestoor word, waarvan sommige onder die Britse en Europese reg regeer.

In die teks van die konseprekening, byvoorbeeld, ons weet dat die Britse regering slegs "onnodige" toegang tot kommunikasiemetadata, die opskrifte en vakke van e-posse, en telefoonoproeprekords sal eis. Maar ons weet ook net hoe onthullende metadata alleen kan wees: kyk na die MIT Media Lab se Immersion projek vir 'n kragtige voorbeeld van hoeveel besonderhede daaruit bepaal kan word. Dit is beslis glad nie vergelykbaar met 'n gespesifiseerde telefoon rekening, soos beweer.

Dus, beter of slegter, ons, die publiek, het 'n bietjie idee oor wat aangeteken word. Maar ons het absoluut geen idee watter analitiese gereedskap en tegnieke op hierdie data toegepas word nie - en die betekenis hiervan moet nie onderskat word nie.

Wat knars die getalle?

Ons kan opgevoerde raai maak. Nasionale veiligheidsagentskappe gebruik waarskynlik ons ​​metadata om sosiale netwerke tussen mense en plekke te genereer, onder andere om ons saam te verbind. Hierdie verhoudingsnetwerke sal dan ontleed word om vas te stel of ons 'n belanghebbende is, bepaal deur hoe u vergelyk met ander persone van belang en hoe u met bestaande persone van belang of met hulle verband hou.

Navorsers wat hierdie tegnieke gebruik, begryp hul beperkings en dat die algoritmes wat hulle dryf, foute of onderliggende aannames bevat wat 'n groot invloed op hul uitset het. In hierdie geval kan dit beteken dat jy 'n terroris is of nie, of jy kwalifiseer vir 'n lening of verband.

Dit is ook nie heeltemal duidelik waar in die vaag grensgebiede die bestaan ​​van die verhouding gedefinieer word nie. As jy net dieselfde webwerf besoek as 'n terroris, gedeelde waardes impliseer, of elke dag dieselfde busroete ry, stel jy gereeld kontak met terroriste? Dit is baie moontlik om besoekers te besoek wat deur bekende terroriste besoek word, om baie wettige redes. As jy jou nuus van dieselfde webwerwe as terroriste kry, is jy meer geneig om 'n terroris te wees? Diskriminasie en vooroordeel kan ingestel word op die punt van data-insameling, en dan weer wanneer besluite geneem word oor hoe om daardie data te analiseer. Algoritmes kan ook diskrimineer.

Onduidelike grense

Die moontlikheid dat algoritmes ongewenste vooroordeel stel, is 'n baie regte een. Byvoorbeeld, diegene wat deur die sekuriteitsdienste gebruik word, word opgelei op datastelle van bekende terroriste en bekende nie-terroriste. Beteken dit dat, soos bekendste terroriste is mans van 20-30, is jy meer geneig om geklassifiseer te word as 'n terroris vir net mans en ouderdomme ongeveer 20-30, ongeag jou ander eienskappe ?. Indien wel, het dit 'n beduidende uitwerking op hoe die data gebruik word?

Die probleem spruit voort uit die feit dat ek en ander akademiese navorsers wat komplekse netwerkontleding, masjienleer, patroonbypassing of kunsmatige intelligensie tegnieke gebruik, gebruik maak van die tegnieke wat deur die publiek gereageer word om die sterkte van die tegnieke en die geldigheid van die gevolgtrekkings te bepaal. Staatsveiligheidsdienste en privaatsektororganisasies doen nie. Ons het geen idee van die kwaliteit van hul metodes en hoe hulle hulle ontplooi nie. Is daar 'n oplossing hiervoor?

Diegene uit 'n ander veiligheidsgebied, kriptografie, het lank gelede geleer dat die beste manier om die gehalte en dus sekuriteit van die algoritmes te verbeter, is om hulle bekend te maak. Kriptografiese implementerings en ciphers word gepubliseer, en navorsers aangemoedig om foute of foute te probeer vind om sodoende sekuriteit te verbeter vir almal wat dit gebruik. Daarbenewens is enige implementering van geslote bron (nie-publieke) kriptogafiese algoritmes oor die algemeen met agterdog bejeën. As hulle lewensveranderende oordele oor ons uitdruk - of ons as terroriste of finansieel onwaardig beskou word - moet dieselfde model op sekuriteitsalgoritmes toegepas word.

'N Argument teen so 'n stap is dat oop en deursigtige algoritmes terroriste kan lei om hul werklike gedrag te verander om te voorkom dat dit opgespoor word. Dit sou beteken dat dinge soos hul interaksies, verenigings, blaai gewoontes en moontlike bewegings verander. Maar as die algoritmes behoorlik werk, beteken dit dat hulle in wese ophou om soos terroriste op te tree. As ons toekomstige veiligheid, vryheid en veiligheid van hierdie algoritmes afhanklik sal wees, moet ons verseker wees presies hoe - en dit - hulle werk.

Oor Die SkrywerDie gesprek

Philip Garnett, Dosent, Universiteit van York.

Hierdie artikel is oorspronklik gepubliseer op Die gesprek. Lees die oorspronklike artikel.

Verwante Book:

{AmazonWS: searchindex = Books; sleutelwoorde = 0393244814; maxresults = 1}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

volg InnerSelf op

Facebook-ikoonTwitter-ikoonrss-ikoon

Kry die nuutste per e-pos

Emailcloak = {af}