Storbritanniens polis måste sätta bromsarna på ansiktsigenkänning

Storbritanniens polis måste sätta bromsarna på ansiktsigenkänning

Storbritannien har en nära relation med säkerhetskameror. Bara London har en av de högsta förhållandena för övervakningskameror per medborgare i den utvecklade världen. Uppskattningar från 2002 sätter antalet övervakningskameror i Greater London till mer än 500 000; cirka 110 används av polisen i London, enligt uppgifter som erhållits genom en begäran om frihet från 2018.

√Ösikter

Att spela in √§r tydligen inte tillr√§ckligt; Londons Metropolitan Police Service har testat anv√§ndningen av ansiktsigenk√§nningskameror, och anstr√§ngningen har st√∂d fr√•n inrikesminister Sajid Javid – som √∂vervakar invandring, medborgarskap, polisen och s√§kerhetstj√§nsten. “Jag tycker att det √§r r√§tt att de tittar p√• det”, sa han, enligt BBC.

√Ąven om det kommande valet kommer att avg√∂ra den nya ledaren f√∂r konservativa partiet, som ocks√• kommer att bli premi√§rminister, √§r det osannolikt att regeringens attityder till ansiktsigenk√§nning kommer att f√∂r√§ndras. Javid kanske flyttar till en annan del av regeringen, men den medborgerliga libertarian sidan av det konservativa partiet har varit relativt tyst p√• sent.

Problemet är att ansiktsigenkänning Рsom den för närvarande ser ut Рofta är felaktig. Londons polis har använt ansiktsigenkänning sedan 2016, men en oberoende rapport som avslöjades förra veckan visade att fyra av fem personer som genom ansiktsigenkänning identifierades som möjliga misstänkta faktiskt var oskyldiga Рen tydlig misslyckande i maskininlärningen som används för att träna systemet.

Professor Pete Fussey och Dr. Daragh Murray, från University of Essex, analyserade noggrannheten i sex av tio polisförsök. Av 42 matcher var bara åtta korrekta och fyra av dessa 42 identifierades aldrig på grund av trängsel.

√Ąnd√• ser Metropolitan Police r√§tteg√•ngarna som en framg√•ng och var “besviken √∂ver den negativa och obalanserade tonen i denna rapport”, sa en bitr√§dande bitr√§dande kommission√§r till Sky News. Met m√§ter noggrannheten genom att j√§mf√∂ra framg√•ngsrika och misslyckade matchningar med det totala antalet behandlade ansikten. enligt denna rubrik var felfrekvensen bara 0,1 procent.

Det var dock inte det enda felet. Databasen som polisen anv√§nde var inte aktuell och identifierade d√§rf√∂r personer vars √§renden redan hade avslutats. Det finns ocks√• “betydande tvetydighet” √∂ver kriterierna kring vad som s√§tter en person p√• √∂vervakningslistan, s√§ger rapporten.

Metropolitan Police informerade medborgarna om r√§tteg√•ngarna genom att dela ut broschyrer och twittra, men rapporten anser att detta √§r otillr√§ckligt. “Informationen gav transparens ang√•ende tid och plats f√∂r [live facial recognition] testdistributioner √§nd√• var det mindre tydlighet √∂ver syftet med utplaceringen, som sannolikt skulle bli f√∂rem√•l f√∂r √∂vervakning, och hur ytterligare information kunde fastst√§llas, “s√§ger rapporterna. Dessutom behandlas de som f√∂rs√∂kte undvika kameror” som misst√§nkta. ..underminerar f√∂ruts√§ttningen f√∂r informerat samtycke. “

Rapporten drar slutsatsen att det √§r “mycket m√∂jligt [the trial] skulle h√•llas olagligt om de ifr√•gas√§tts vid domstolarna. “Den implicita r√§ttsliga myndigheten” i kombination med avsaknaden av allm√§nt tillg√§nglig, tydlig, online-v√§gledning √§r sannolikt otillr√§cklig “j√§mf√∂rt med m√§nskliga r√§ttigheter, vilket kr√§ver att ingripande i individers m√§nskliga r√§ttigheter √§r” i enlighet med lagen str√§va efter ett legitimt m√•l och vara ‘n√∂dv√§ndigt i ett demokratiskt samh√§lle’. “

Kontrovers över dammen

Storbritannien √§r inte det enda landet som k√§mpar med detta problem. I USA har algoritmer f√∂r ansiktsigenk√§nning kritiserats efter att forskning fr√•n Government Accountability Office fann att de system som FBI anv√§nde var felaktiga 14 procent av tiden. Dessutom tar detta nummer inte h√§nsyn till “den medf√∂ljande falsk-positiva frekvensen ger en ofullst√§ndig bild av systemets noggrannhet”, vilket kan p√•verka minoriteter negativt p√• grund av systemisk bias.

Microsoft avvisade ocks√• en beg√§ran fr√•n Kaliforniens brottsbek√§mpande myndighet om att anv√§nda sitt ansiktsigenk√§nningssystem i polisbilar och kroppskameror, p√• grund av oro f√∂r att dess algoritm inte var tillr√§ckligt sofistikerad. “Varje g√•ng de drog n√•gon √∂ver, ville de k√∂ra en ansiktsskanning”, sa Microsofts president Brad Smith. “Vi sa att den h√§r tekniken inte √§r ditt svar.”

Ett antal st√§der har avvisat det; San Francisco f√∂rbjudna ansiktsigenk√§nningstekniker f√∂r statligt bruk, och Somerville, Massachusetts, r√∂stade enh√§lligt f√∂r att anta antil ansiktsigenk√§nningslagstiftning p√• grund av dess potential att “kyla” skyddad yttrandefrihet.

Och även om Storbritanniens regering kan vara mycket mer kompatibel med potentiellt opressiv teknik Рfrån internetreglering för att stoppa skadligt innehåll på sociala medier till ett nästan förbud mot pornografi Рbör dess medborgare vara försiktiga med att låta det propagera.

√Ąven om dess noggrannhet f√∂rb√§ttras betyder sv√•righeten att veta n√§r, var och hur ansiktsigenk√§nningsprogramvara anv√§nds att det √§r sv√•rt f√∂r medborgarna att ge adekvat samtycke till att st√§ndigt spelas in och identifieras. Det finns f√∂r m√•nga ber√§ttigade farh√•gor om de data som algoritmen utbildas p√•, de utrymmen som √∂vervakas och den effekt det kommer att ha p√• v√•ra medborgerliga friheter f√∂r m√§nniskor som l√•ter ansiktsigenk√§nning st√∂ra deras r√§tt till ett privatliv.