ÖVERVAKNINGSSAMHÄLLET. Tidigare i år fälldes polismyndigheten för brott mot brottsdatalagen efter att i smyg använt ansiktsigenkänningsprogrammet Clearview AI. Nu tar man helt öppet ett liknade program i bruk.

Medan debatten om ansiktsigenkänning rasar hårt på många håll i hela västvärlden och användandet av tekniken med hänvisning till medborgares integritet förbjudits på många ställen, är det ganska tyst i Sverige när polisen nu om några veckor helt öppet tar denna metod i bruk.

Nordfront har tidigare skrivit om hur ansiktsigenkänning förbjudits i vissa städer i USA, några gånger efter omfattande folkliga protester.

För svensk polis är bruket av ansiktsigenkänning inget nytt. När Integritetskyddsmyndigheten (IMY), tidigare i år undersökte polismyndigheten fann man att myndigheten genom sitt nyttjande av programmet Clearview AI bröt mot brottsdatalagen. För detta dömdes polismyndigheten till 2,5 miljoner kronor i böter.

Programmet som nu ska tas i bruk av polisen är framtaget av Nationellt Forensiskt Centrum.

Motståndet mot tekniken växer i både USA och Europa
Protester mot massövervakning med ansiktsigenkänning blir allt vanligare även i Europa och krav på ett generellt förbud ställs allt oftare.

Ella Jakubowska på organisationen European Digital Rights kräver att EU ska olagligförklara massövervakning med ansiktsigenkänning. Så här beskriver hon denna typ av övervakning:

— Vi behandlas alla som vandrande streckkoder och inte som människor. Även om det bara är en person de är ute efter så skannas ansiktena på alla av.

Det är framför allt för sitt bidrag till den förbättrade statistiken över korrekt identifiering av individer på övervakningsfilmer – som denna teknik kommit att uppskattas så mycket av amerikanska poliser.

Men samtidigt har tekniken det senaste året i ett flertal fall lett till att oskyldiga gripits.

En ”rasistisk” och ”sexistisk” teknik
Ett problem med tekniken, som ett antal gånger åberopats när den förbjudits lokalt i USA, är det faktum att den har högre felkvot för svarta personer än för vita samt för kvinnor än för män.

Enligt en undersökning har till exempel algoritmerna för vita män en felfrekvens på mindre än en procent – medan samma frekvens för svarta kvinnor ligger på 34 procent.

Niclas Appleby, bildanalytiker vid Nationellt forensiskt centrum, där alltså den svenska polisens ansiktsigenkänningsverktyg utarbetats, betonar att man där är väl förtrogna med felmarginalen hos resultaten som denna teknik levererar.

— Systemet fattar inga automatiska beslut och ska heller inte användas för att fastställa identitet, utan det får utredningen göra på andra sätt, kommenterar han.


  • Publicerad:
    2021-03-16 14:30