DATAOVERVÅGNING

Leder

Baggrund

Pol-Intel: Et supervåben mod kriminalitet eller en sprængfarlig bombe af diskrimination?

Ny algoritme skal forudsige mistrivsel hos børn

På vej mod Digital Totalitarisme?

Når din chef er en app

Hvad en gammel sovjetisk roman kan lære os om nutidens overvågningssamfund

Kan civilsamfundet lede os ud af algoritmernes favntag?

Pol-Intel: Et supervåben mod kriminalitet eller en sprængfarlig bombe af diskrimination?
IT-systemet Pol-intel gør politiets arbejde nemmere, men risikerer samtidig at forstærke overvågningen af landets borgere og at ramme socialt skævt.

Artikel

7. juni 2020
Af Sally Jensen
Illustration af Eva Kragh Petersen

I 2017 spenderede dansk politi et trecifret millionbeløb på et spritnyt IT-system: Analyseplatformen Pol-Intel. Pol-intel, kaldes af nyhedsmedier for et datavåben, et cybervåben og endda et supervåben. Politiet selv hylder det, mens andre stiller sig kritiske over for dets muligheder. Nogen mener, våbnet rammer alle borgere og er en trussel mod den personlige frihed. Andre frygter, at våbnet sigter mod én bestemt befolkningsgruppe og forstærker diskrimination. Måske gør det begge dele på en og samme tid. Under alle omstændigheder har våbnet skudt et paradigmeskifte i gang hos dansk politi.

Paradigmeskiftet kredser om predictive policing, altså forudsigende politiarbejde. Med forudsigende politiarbejde er hensigten at forudsige og forhindre kriminelle handlinger i at blive udført. Det afviger fra opklarende politiarbejde, der er den form, vi bedst kender til, og som tager udgangspunkt i en kriminel handling, der allerede er blevet begået, og som skal optrevles for at finde gerningspersonen.

At være i stand til at forudsige kriminalitet og standse den, før den sker, lyder som en evne, der kun er superhelte forundt. Medmindre man altså har et supervåben som Pol-intel. Respons tager et nærmere kig på våbnets mekanikker.

Våbnet lades med data om befolkningen

Pol-intel er en digital platform, der ved hjælp af algoritmer analyserer politiets data. Dataen kan være alt fra personoplysninger til informationer om hvor, hvornår og af hvem, forskellige typer af kriminalitet er blevet begået. Jo mere data, politiet fodrer Pol-intel med, des større grundlag har algoritmerne for at sammenholde de forskellige oplysninger. Mange oplysninger giver altså et stærkt supervåben, og på baggrund af oplysningerne er det meningen, at Pol-intel skal kunne forudsige kriminalitet.

Politiet kan anmode Facebook om at få udleveret oplysninger om brugere: Deres vennelister, billeder, grupper eller andet.

Pol-Intel kan sammenkøre data, der før lå i flere forskellige registre, og på den måde gøre politiets arbejde lettere. Udover de registre, politiet allerede selv ligger inde med, som eksempelvis personregister, våbenregister og kriminalregistret, kan politiet indsamle oplysninger fra folkeregistret, hvor de kan tilgå information om en given persons adresse, familiære forhold, civilstatus og medlemskab af folkekirken. Endelig kan de tilgå skatteregistret, socialregistret, sundhedsregistret og andre offentlige registre – i nogle tilfælde efter forespørgsel, i andre uden.

Udover de oplysninger, offentlige instanser udleverer til politiet, kan de også indhente oplysninger gennem digital overvågning fra både offentlige og private virksomheder. Eksempelvis kan politiet anmode Facebook om at få udleveret oplysninger om brugere: Deres vennelister, billeder, grupper eller andet. I første halvdel af 2019 anmodede politiet om sådanne oplysninger fra Facebook 109 gange, og i cirka halvdelen af gangene fik de udleveret den data, de søgte. Udover Facebook er det blevet påvist, at politiet siden 2018 har fået udleveret massive mængder data fra Telenor om teleselskabets kunder – og at de stadig får det, på trods af, at det er ulovligt for Telenor at udlevere dataen. Teledataen kan bruges til at se, hvem Telenors kunder har ringet og sms’et til hvornår, og hvor de har opholdt sig på bestemte tidspunkter ud fra hvilke telemaster, der har videresendt telefonsignalerne. En metode, der er blevet skarpt kritiseret for sin unøjagtighed og for indgriben i privatlivet flere steder i verden.

Hot spots i sigtekornet

Præcis hvilken og hvor megen data, politiet selv lægger ind i Pol-intel, er uvist. Politiet selv kalder den ekstra data for ‘ad hoc data’, men præciserer ikke, hvad begrebet dækker over. På baggrund af den data, politiet lægger ind i Pol-intel, udpeger Pol-intel såkaldte hot spots: Fysiske steder i landet, hvor algoritmerne vurderer, at der er størst risiko for, at en kriminel handling i fremtiden vil blive begået. Stederne kan fastsættes, når politiet vil igangsætte en skærpet indsats over for en bestemt type af kriminalitet. Hvis politiet for eksempel beslutter sig for at målrette en indsats mod indbrud, kan Pol-intel på baggrund af tidligere erfaringer forudsige, hvor der er størst sandsynlighed for, at det næste indbrud vil blive begået: Et hot spot.

En kritik af hot spots kan være såkaldte ‘feedback loops’. I det ligger, at hvis en algoritme forudsiger, at der foregår meget af en bestemt type kriminalitet på et givent sted, for eksempel i Mjølnerparken, så vil mere politi patruljere i området.” – Jesper Lund, formand for IT-politisk forening

Umiddelbart virker det smart og effektivt at målrette politiets indsats til bestemte områder, der er i højrisiko for kriminalitet. Problemet med hot spots er dog, at man risikerer, at Pol-intels analyse rammer socialt skævt, fortæller Jesper Lund, der er formand for IT-politisk forening:

“En kritik af hot spots kan være såkaldte ‘feedback loops’. I det ligger, at hvis en algoritme forudsiger, at der foregår meget af en bestemt type kriminalitet på et givent sted, for eksempel i Mjølnerparken, så vil mere politi patruljere i området. De vil så givetvis opdage langt mere kriminalitet, end de ellers ville have gjort. Det vil de fortælle systemet, som så forudsiger endnu mere kriminalitet, som styrker politi-indsatsen. Og så havner man i en ond cirkel.”

Det onde ved cirklen er ikke, at kriminalitet bliver standset. Det onde er, at der ikke nødvendigvis foregår så meget mere kriminalitet i Mjølnerparken som ethvert andet sted, som politiets algoritme ville ende med at tro, forklarer Jesper Lund. Politiet opdager ikke kun den type kriminalitet, de er sendt ud for at holde øje med, men også andre lovovertrædelser, som bliver oplyst til Pol-Intel. Fordi politiet ikke er lige så massivt til stede i ethvert andet område, bliver den kriminalitet, der uundgåeligt også bliver begået der, dog ikke indberettet. I og med at de koncentrerer sig om bestemte områder, opdager de altså i højere grad lovovertrædelserne i nogle udvalgte områder frem for andre, der bliver indberettet til systemet.

“Jeg kunne forestille mig, at visse etniske grupper ville få politiets opmærksomhed i højere grad end andre. Et vist etnisk bias hos Københavns politi er ikke fuldstændig ukendt.” – Jesper Lund, formand for IT-politisk forening.

Pol-intels algoritmer har, som alle andre algoritmer, den centrale svaghed, at systemet nedarver de fordomme, der ligger implicit i den data, som mennesker fodrer systemet med. Sådan set er det ikke bare en svaghed ved algoritmer, men ved hele konceptet forudsigende politiarbejde. Af den årsag er der en overhængende fare for, at Pol-intel vil komme til at diskriminere bestemte befolkningsgrupper, siger Jesper Lund:

“Jeg kunne forestille mig, at visse etniske grupper ville få politiets opmærksomhed i højere grad end andre. Et vist etnisk bias hos Københavns politi er ikke fuldstændig ukendt – og algoritmer afspejler altid den bias og den diskrimination, der eksisterer i samfundet.”

I 2018 påviste DR med hjælp fra Danmarks Statistik, at danskere med en anden hudfarve end hvid oftere stoppes af politiets, sigtes og anholdes end hvide danskere, uden at der efterfølgende falder nogen dom i sagerne. DR2-dokumentaren Mørk og mistænkt viste, at der i 2014 var cirka 87% større risiko for at blive anholdt uden efterfølgende at blive dømt, hvis man var indvandrer eller efterkommer fra et ikke-vestligt land, end hvis man var etnisk dansk.

I begrebet hot persons ligger, at algoritmer ikke bare udregner, hvor den næste kriminelle handling bliver begået men også af hvem.

Hot persons diskrimineres

Det forudsigende, algoritmebaserede politiarbejde blev skudt i gang i USA inden det nåede til Danmark. I USA arbejder politikredse i flere stater ikke kun med hot spots, men også med hot persons. I begrebet hot persons ligger, at algoritmer ikke bare udregner, hvor den næste kriminelle handling bliver begået, men også af hvem. Ud fra oplysninger om adresse, alder, køn, uddannelsesniveau, sygdomshistorie, familiær baggrund, vennekreds, kriminel historik og sågar enkeltindividers humør og moralske overbevisninger indhentet fra spørgeskemaer, udpeger det amerikanske politis datavåben “risikable personer”, hot persons. Hot persons bliver en slags prototype på, hvem der med størst sandsynlighed vil begå kriminalitet i fremtiden.

På baggrund af algoritmernes analyser kan politiet målrettet opsøge personer, som stemmer overens med algoritmens prototype på en potentielt kriminel. Amerikanske politikredses arbejde med hot persons er af fagfolk og organisationer blevet kritiseret for at være diskriminerende. Den amerikanske sociolog Sarah Brayne har studeret Los Angeles’ politikreds, LAPD, og deres algoritmebaserede forudsigende politiarbejde. LAPD’s datasystem er udviklet af Palantir Technologies. Virksomheden leverer dataovervågning til CIA, FBI og NSA – og så er det selvsamme virksomhed, der står bag Pol-intel.

Gennem sine undersøgelser har Sarah Brayne fundet ud af, at det ikke kun er folk, der har begået en kriminel handling, der registreres i LAPD’s system som hot persons. Det er nemlig blevet et mål i sig selv at få registreret så mange mennesker i systemet, som overhovedet muligt, eftersom mere data gør cybervåbnets forudsigelser mere præcise. Derfor bliver alle de personer, politiet stopper på gaden og udspørger om deres gøren og identitet, oprettet i politiets system – hvad end de har gjort noget ulovligt eller ej. Systemet kategoriserer derefter alle personerne som nogen, der har været i kontakt med politiet, og dermed som hot persons, som fremover bør overvåges mere end den gennemsnitlige borger. På den måde giver systemet anledning til en bredere overvågning. Nok giver mere overvågning mere præcist forudsigende politiarbejde, men den stigende overvågning er også er på kant med borgeres rettigheder, og man risikerer, at datavåbnet utilsigtet rammer uskyldige mennesker, mener Sarah Brayne.

I Danmark findes der ikke en racismelovgivning som den i USA. Her ville det derfor være muligt for politiet at klassificere borgere efter etnicitet.

Dertil kommer, at forudsigende politiarbejde i flere amerikanske stater i praksis har vist sig at opbygge racistiske tendenser. Algoritmerne har ikke adgang til information om personers etniske rødder eller hudfarve, da det ville stride imod amerikansk racismelovgivning. Men alene det, at personers privatadresse indgår som parameter for algoritmernes udregning, er en racistisk faldgrube, påpeger kritikere. Mange steder er boligområder nemlig meget etnisk homogene, hvilket vil sige, at sorte og hvide i høj grad bor side om side med andre af samme hudfarve som dem selv. Hvis algoritmerne vurderer, at en person fra et område med mange sorte beboere har større sandsynlighed for at være kriminel end en person fra et andet område, vil sorte amerikanere blive stigmatiseret som mere kriminelle end andre.

Fremtidens forudsigende politiarbejde

Som overalt i politiets arbejde er der kun begrænset gennemsigtighed i forhold til, hvordan politiet helt præcis benytter Pol-intel, hvilke oplysninger, de indhenter, og hvilke, de fodrer til supervåbnet. Om dansk politi med tiden kommer til at implementere hot persons i deres system er stadig uvist. Man ved dog, at politiet løbende arbejder på at udvide Pol-intel og den generelle overvågning af danske borgere – både digitalt og med fysisk kameraovervågning.

Ligegyldigt hvilke redskaber, der bliver tillagt politiets databaserede arbejde, kan man frygte, at eventuelle etniske fordomme hos dansk politi vil skinne igennem. I Danmark findes der ikke en racismelovgivning som den i USA. Her ville det derfor være muligt for politiet at klassificere borgere efter etnicitet. I sidste ende ville de kunne bruge oplysningerne om herkomst som en faktor i algoritmernes bedømmelser af, hvilke personer, politiet bør rette deres datavåben mod og overvåge i højere grad end andre. Etnisk herkomst bliver blandt andet benyttet til kategorisering af borgere i danske ghettoområder, som tilmed er underlagt særskilte politiindsatser og en højere grad af overvågning end andre boligområder. I og med at det forudsigende politiarbejde har vist sig at diskriminere etniske minoritetsgrupper i USA, er det langt fra utænkeligt, at det samme vil ske i Danmark – særligt når det allerede er blevet påvist, at danskere med en anden hudfarve end hvid oftere stoppes og anholdes af politiet end andre.

Allerede nu frygter eksperter som Jesper Lund, at brugen af Pol-Intel vil betyde, at nogle befolkningsgrupper og bestemte områder i landet bliver udsat for uhensigtsmæssigt mere overvågning end resten. Forstærkes politiets supervåben, risikerer man altså, at uligheden i, hvem der overvåges, og hvem der ikke gør, forstærkes.

 

Relaterede artikler

Ny algoritme skal forudsige mistrivsel hos børn

Ny algoritme skal forudsige mistrivsel hos børn

Et dansk forskningsprojekt er i gang med at udvikle en algoritme til at vurdere hvilke børn, som er i risiko for i fremtiden at være i markant mistrivsel. Forhåbningen er, at redskabet kan være en hjælp for socialrådgivere, som arbejder under et tiltagende tidspres. Men det prognostiske redskab bringer en række etiske udfordringer med sig, og jurister har sat spørgsmålstegn ved projektets lovlighed.

Når din chef er en app

Når din chef er en app

Flere og flere jobs bliver overtaget af en ny algoritme-baseret ledelsesmetode, hvor chefer erstattes af programmer, der samler og analyserer data. Det skulle give mere frihed og fleksibilitet, men uigennemsigtighed og manglende regulering gør samtidig livet mere usikkert for en voksende gruppe ufaglærte arbejdere, hvis brancher langsomt bliver overtaget af algoritmerne.