Ons moet die algoritmes ken Die regering gebruik om besluite oor ons te maak

Ons moet die algoritmes ken Die regering gebruik om besluite oor ons te maak

In kriminele regstelsel, kredietmarkte, indiensnemingsareas, toelatingsprosesse vir hoër onderwys en selfs sosiale media netwerke, data-gedrewe algoritmes maak nou besluitneming op maniere wat ons ekonomiese, sosiale en burgerlike lewens raak. Hierdie sagteware stelsels rangskik, klassifiseer, assosieer of filter inligting, met behulp van mensgemaakte of data-geïnduceerde reëls wat voorsiening maak vir konsekwente behandeling oor groot populasies.

Maar hoewel daar doeltreffendheidsvoordeel van hierdie tegnieke kan wees, kan hulle ook hawe vooroordeel teen benadeelde groepe or versterk strukturele diskriminasie. Wat byvoorbeeld strafregtigheid betref, is dit regverdig om oordele oor 'n individu se parool te maak, gebaseer op statistiese tendense wat oor 'n wye groep mense gemeet word? Kan diskriminasie voortspruit uit die toepassing van 'n statistiese model ontwikkel vir een staat se bevolking na 'n ander, demografies verskillende bevolking?

Die publiek moet die vooroordeel en krag van algoritmes wat in die openbare sfeer gebruik word, insluitend deur regeringsagentskappe, verstaan. 'N Poging waarmee ek betrokke is, genaamd algoritmiese aanspreeklikheid, poog om die invloede van sulke stelsels duideliker te maak en wyer te verstaan.

Bestaande deursigtigheidstegnieke, wanneer toegepas op algoritmes, kan mense in staat stel om te monitor, te kontroleer en te kritiseer hoe die stelsels funksioneer - of nie, na gelang van die geval. Ongelukkig lyk regeringsagentskappe onvoorbereid vir navrae oor algoritmes en hul gebruike in besluite wat beide individue en die publiek in die algemeen aansienlik affekteer.

Openingsalgoritmes vir openbare ondersoek

Verlede jaar het die federale regering het begin studeer die voor- en nadele van die gebruik van gerekenariseerde data-analise om te help om die gevangenis se gevangenes se waarskynlikheid om weer op vrylating te plaas. Om individue as lae-, medium- of hoërisiko te bepaal, kan help met behuisings- en behandelingsbesluite, wat mense identifiseer wat veilig na 'n minimum sekuriteitsgevangenis of selfs 'n halfpadhuis gestuur kan word, of wat sal baat by 'n spesifieke soort sielkundige sorg.

Hierdie inligting kan die regsproses meer doeltreffend en goedkoper maak, en selfs die gevangenisvervolging verminder. Behandeling van laerrisiko oortreders soos hoërisiko oortreders is getoon in sommige studies om te lei tot die internalisering van 'n "siek" misdadiger en behandeling van hul afwykende gedrag. Om hulle te skei kan dus die ontwikkeling van negatiewe gedrag verminder wat tot herlewing sal lei.

Data en algoritmes vir die telling van gevangenes se reoffending risiko is reeds wyd gebruik deur state vir die bestuur van voorlopige aanhouding, proef, parool en selfs vonnisoplegging. Maar dit is maklik vir hulle om ongemerk te gaan - hulle lyk dikwels soos onnodige burokratiese papierwerk.


Kry die nuutste van InnerSelf


Tipies word die algoritmes gekook na vereenvoudigde tellingvelle wat deur staatsamptenare ingevul word, met min begrip van die onderliggende berekeninge. Byvoorbeeld, 'n saakwerker kan 'n gevangene evalueer deur 'n vorm te gebruik waar die saakwerker naspeur dat die gevangene skuldig bevind is aan 'n geweldsmisdaad, was jonk tydens die eerste inhegtenisneming, en nie van die hoërskool afgestudeer het of 'n GED. Die faktore en ander eienskappe van die persoon en die misdaad lei tot 'n telling wat aandui of die gevangene in aanmerking kom vir parooloorsig.

Die vorm self, sowel as sy puntestelsel, openbaar dikwels sleutelkenmerke oor die algoritme, soos die veranderlikes onder bespreking en hoe hulle saamkom om 'n algehele risikotelling te vorm. Maar wat ook belangrik is vir algoritmiese deursigtigheid is om te weet hoe sulke vorms ontwerp, ontwikkel en geëvalueer is. Eers dan kan die publiek weet of die faktore en berekeninge wat betrokke is by die bereiking van die telling billik en redelik is, of oningelig en bevooroordeeld is.

Gebruik die Wet op die Vryheid van Inligting

Ons primêre instrument om ons hande op hierdie vorms te kry, en hul ondersteunende materiaal, is die wet, en spesifiek die vryheid van inligtingswette. Hulle is een van die mees kragtige meganismes wat die publiek beskik om die deursigtigheid in die regering te verseker. Op federale vlak, die Wet op die Vryheid van Inligting (FOIA) kan die publiek formeel versoek - en verwag om in ruil daarvoor te ontvang - dokumente van die federale regering. Analoog statute bestaan vir elke staat.

Uitgevind in 1966, is FOIA geskep voor die wydverspreide gebruik van rekenaarwerk, en voor groot hoeveelhede data is gereeld gebruik in sagteware stelsels om individue te bestuur en voorspellings te maak. Daar was 'n paar aanvanklike navorsing in of FOIA in staat is om die bekendmaking van sagteware bronkode te fasiliteer. Maar 'n vraag bly of die huidige wette reageer op die behoeftes van die 21-eeuse publiek: kan ons FOIA-algoritmes?

'N Gevallestudie in algoritme deursigtigheid

Ek het uiteengesit om hierdie vraag te beantwoord by die Philip Merrill Kollege van Joernalistiek by die Universiteit van Maryland, waar ek 'n assistent professor is. In die herfs van 2015, wat saam met my kollegas Sandy Banisky se media-regsklas gewerk het, het ons studente gelei om FOIA-versoeke aan elkeen van die 50-state voor te lê. Ons het gevra vir dokumente, wiskundige beskrywings, data, validering assesserings, kontrakte en bronkode wat verband hou met algoritmes wat gebruik word in strafregtigheid, soos vir parool- en proef-, borgtog- of vonnisbesluite.

As 'n semesterlange projek was die poging noodwendig beperk deur die tyd, met baie hekkies en relatief min suksesse. Soos met baie joernaliste se ondersoeke, selfs om uit te vind wie om te vra - en hoe - was 'n uitdaging. Verskillende agentskappe kan verantwoordelik wees vir verskillende areas van die strafregstelsel (vonnisoplegging kan deur die howe gedoen word, maar paroolbestuur deur 'n departement van regstellings gedoen).

Selfs nadat die regte persoon geïdentifiseer is, het studente gevind dat staatsamptenare verskillende terminologieë gebruik het wat dit moeilik gemaak het om te kommunikeer watter inligting hulle wou hê. Soms moes studente hard werk om "strafregtelike algoritmes" te verduidelik aan 'n nie-so-data-vaardige staatsamptenaar. In retrospektus was dit dalk meer doeltreffend om te vra vir "risiko-assesseringsinstrumente", aangesien dit 'n term wat dikwels deur staatsregerings gebruik word.

Hanteer die antwoorde

Sommige state, soos Colorado, het ons versoek ontken en gesê dat die algoritmes in sagteware vervat is, wat nie as 'n "dokument" beskou word nie. Verskillende state het verskillende reëls oor die openbaarmaking van sagtewaregebruik. Dit het soms in die howe voorgekom, soos 'n 2004 pak teen die stad Detroit oor of die formule vir die berekening van waterfooie wat aan 'n aangrensende stad gehef word, openbaar gemaak moet word.

In ons eie pogings het ons net een wiskundige beskrywing van 'n strafregtelike algoritme ontvang: Oregon openbaar die 16 veranderlikes en hul gewigte in 'n model wat gebruik word om herhaling te voorspel. Die staat Noord-Dakota het 'n Excel-sigblad vrygestel wat die vergelyking vir die bepaling van datums toon wanneer gevangenes in aanmerking kom om vir parool oorweeg te word. Van Idaho en New Mexico ontvang ons dokumente met 'n paar beskrywings van die herhalende risiko-aanslae wat die state gebruik het, maar geen besonderhede oor hoe dit ontwikkel of gevalideer is nie.

Nege state het hul weiering gegrond om besonderhede oor hul strafregtelike algoritmes bekend te maak oor die eis dat die inligting regtig deur 'n maatskappy besit word. Hierdie implikasie is dat die vrystelling van die algoritme die firma wat dit ontwikkel het, sal benadeel. 'N Algemene herhalingsrisiko-vraelys, die LSI-R genoem, blyk 'n kommersiële produk te wees, beskerm deur kopiereg. State soos Hawaii en Maine beweer dat dit openbaarmaking aan die publiek verhoed het.

Louisiana het gesê sy kontrak met die ontwikkelaar van 'n nuwe risikobepalingstegniek het die vrystelling van die gevraagde inligting vir ses maande verbied. Die staat Kentucky noem sy kontrak met a filantropiese fondament as die rede waarom dit nie meer besonderhede kon openbaar nie. Bekommernisse oor eiendomsinligting mag wettig wees, maar aangesien die regering gereeld met private maatskappye kontrakteer, hoe balanseer ons die bekommernisse teen 'n verklaarbare en regmatig regstelsel?

Verbeterings

Baie nodig FOIA hervorming is tans onder bespreking deur die kongres. Dit bied 'n geleentheid vir die modernisering van die wet, maar die voorgestelde veranderinge doen nog steeds min om die toenemende gebruik van algoritmes in die regering te akkommodeer. Algoritmiese deursigtigheidsinligting kan gekodifiseer word in verslae wat die regering genereer en openbaar maak op 'n gereelde basis, as deel van besigheid soos gewoonlik.

As 'n samelewing moet ons vereis dat openbare inligtingsbeamptes opgelei word, sodat hulle geletterd en inderdaad vloeiend is in die terminologie wat hulle kan ondervind wanneer die publiek vir algoritmes vra. Die federale regering kan selfs 'n nuwe posisie skep vir 'n "algoritmes-tsaar", 'n ombudsman wie se taak dit sou wees om oor te kommunikeer en veldnavrae oor regeringsautomasie.

Nie een van die dokumente wat ons in ons navorsing ontvang het, het ons vertel hoe kriminele regsrisiko-assesseringsvorms ontwikkel of geëvalueer is nie. Aangesien algoritmes meer en meer van ons lewens regeer, het burgers nodig - en moet eis - meer deursigtigheid.

Oor Die Skrywer

diakopoulos nicholasNicholas Diakopoulos, Tow Fellow, Tow Center vir Digitale Joernalistiek aan die Columbia Universiteit; Assistent Professor in Joernalistiek, Universiteit van Maryland. Sy navorsing is in rekenaar- en data-joernalistiek, met die klem op algoritmiese aanspreeklikheid, verhalende data visualisering en sosiale rekenkunde in die nuus.

Hierdie artikel is oorspronklik gepubliseer op Die gesprek. Lees die oorspronklike artikel.

verwante Boeke

{amazonWS: search index = Boeke; sleutelwoorde = digitale privaatheid; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

volg InnerSelf op

Facebook-ikoonTwitter-ikoonrss-ikoon

Kry die nuutste per e-pos

Emailcloak = {af}