Policijske snage u Velikoj Britaniji su “superkupljanje rasizma” putem njihove upotrebe automatiziranih sistema “prediktivnih policijskih”, jer se zasnivaju na profiling ljudima ili grupama prije nego što su počinili zločin, prema Amnesty Internationalu.
Prediktivni sustavi za policiju koriste umjetnu inteligenciju (AI) i algoritme za predviđanje, profil ili procijeni vjerojatnost kriminalnog ponašanja, bilo u određenim pojedincima ili geografskim lokacijama.
U izvještaju od 120 stranica objavljeno 20. februara 2025. – pod nazivom Automatizirani rasizam – kako policijski podaci i algoritmi kodeksa diskriminacije u policiji – Amnesty je rekao da se prediktivno policijsko sredstvo koriste za više puta ciljane siromašne i rasno zajednice, jer su ove grupe povijesno bile “prekomjerno policijske” i stoga su masovno zastupljene u policijskim skupovima podataka.
To tada stvara negativne povratne petlje, gdje su ove “takozvane predviđanja” dovode do daljnjeg preinako u policiji određenih grupa i područja; Jačanje i pogoršanje prethodno postojeće diskriminacije prikupljaju se sve veće količine podataka.
“S obzirom na to da će podaci o pretrazi i inteligencijama sadržavati pristranost prema tim zajednicama i područjima, to je vrlo vjerovatno da će predviđeni izlaz predstavljati i ponoviti tu istisku diskriminaciju. Predviđaju se za daljnje pretrage i krivične posljedice, što će doprinijeti budućim predviđanjima”, rečeno je. “Ovo je povratna petlja diskriminacije.”
Amnesty je otkrila da je preko Velike Britanije najmanje 33 policijske snage rasporedile prediktivne policijske alate, sa 32 od njih koristeći sisteme za predviđanje geografskog kriminala u odnosu na 11 koji koriste alate za predviđanje kriminala koji se fokusiraju na ljude.
Rečeno je da su ovi alati “u grupiju na nacionalnoj i međunarodnoj osnovi za ljudska prava, jer se koriste na rasno profiliru, potkopavaju pretpostavku nevinosti ciljajući ljude prije nego što su čak bili uključeni u zločin i gorivo neselektivno masovno nadzor čitavih područja i zajednica.
Grupa za ljudska prava dodala je sve veću upotrebu ovih alata stvara i hladan učinak, jer su ljudi teže izbjegavajući područja ili ljudi koje znaju da ciljaju prediktivni rad na udruživanju.
Primjeri prediktivnih policijskih alata koji se navode u izvještaju uključuju metropolitsku policijsku matricu “bandi nasilja”, koja je korištena za dodjelu “rizičnih rezultata” pojedincima prije nego što ga je izbacila silom nad rasističkim utjecajima; i veća manchester policijska baza podataka, koja je slična korištena za profiliranje ljudi na osnovu “percepcije” da su uključene u aktivnost bande bez ikakvih dokaza o stvarnim uvredljivim.
Amnesty je takođe istaknuo model kriminala noža Essex policije, koji koristi podatke o “saradnicima” da kriminaliziraju ljude udruženju sa drugima i koristi probleme mentalnog zdravlja ili upotrebe droga kao markera za kriminal; i policijska alati za policiju West Midlands, koja je sama sila priznala koristi se za prediktivno precizno prediktivno prediktivno krivično djelo koje je pogrešno 80% vremena.
“Upotreba prediktivnih policijskih alata krši ljudska prava. Dokazi da nas zadrži siguran jednostavno nema dokaza da se navodi računalni rizik,”, rekao je da je sačuvano izvršitelj za rizik u Amnesty International UK, dodajući ovim sistemima “čisto” na boju njihove kože ili njihove socio-ekonomske pozadine.
“Ovi alati za” predviđaju kriminal “svima nam počne čitave zajednice kao potencijalne kriminalce, čineći društvo rasističkim i nepravednim. Velika Britanija mora zabraniti korištenje ovih tehnologija širom Engleske i Velesa, kao što bi trebalo da se preispitaju u Engleskoj i Velsu, kao što bi trebalo da se prebacite u Englesku i Velsene, kao što bi trebalo da se preispitaju u Engleskoj i Velsu.”
On je dodao da su ljudi i zajednice podložni ovom automatskom profiliranju imaju pravo znati o tome kako se alati koriste i moraju imati smislene rute naknade za osporavanje bilo kakvih odluka o policiji.
Na vrhu zabrane takvih sistema, Amnesty također poziva na veću transparentnost oko upotrebe sustava koji se koriste, uključujući javno dostupni registar s detaljima alata, kao i odgovornosti koji uključuju pravo i jasan forum za osporavanje policijskog profila i automatiziranog odlučivanja.
U intervjuu sa amnestijom, Daragh Murray – viši predavač na Londonu u Londonskoj školi koja je u 2019. godini zasnovana je na korištenju žive live-priznanja (LFR) tehnologije zasnovane na korelaciji, a ne nasuprot, a ne biti štetni i netačni kada se koriste za ciljanje pojedinaca.
“U osnovi ste stereotipizirajte ljude, a utemeljeni ste stereotipiziranje, dajete naučni cilj stereotipizu”, rekao je.
NPCC reagira na amnestiju
Računar je sedmično kontaktirao matičnu kancelariju o izvještaju amnestije, ali nije primio ne o rekordnom odgovoru. Kompjuter je takođe kontaktirao i Savet Nacionalnog šefa policije (NPCC), koji vodi upotrebu AI i algoritama u Velikoj Britaniji.
“Policiranje koristi širok spektar podataka koji će uvesti svoj odgovor na rješavanje i sprečavanje kriminala, maksimiziranje upotrebe konačnih resursa. Kao što bi javnost očekivalo, to može uključivati koncentrirajući resurse u područjima sa najviše prijavljenim kriminalom”, rekao je portparov NPCC.
“Policina i vidljive ciljane patrole su podloge policije u zajednici i efikasne odvraćajuće sredstvo u otkrivanju i sprečavanju antisocijalnog ponašanja i ozbiljnog nasilnog kriminala, kao i poboljšanje osjećaja sigurnosti.”
Dodali su da NPCC radi na poboljšanju kvalitete i dosljednosti svojih podataka kako bi se bolje obavijestio o svom odgovoru, osiguravajući da se sve informacije i nova tehnologija održava i razvijaju zakonito, etički s podacima o ovlaštenom stručnu praksu (aplikacija).
“To je naša odgovornost kao čelnici da osiguramo da se bavimo kriminalom sa izgradnjom poverenja i povjerenja u naše zajednice, dok prepoznaju štetni utjecaj koji alati poput zaustavljanja, posebno na crncem, posebno na crncem.
“Akcioni plan za nastanak policije je najznačajnija posvećenost ikad policije u Engleskoj i Velsu za rješavanje rasnoj pristranosti u svojim politikama i praksi, uključujući” objasnje ili reforme “u policijskom silu.
“Nacionalni plan radi sa lokalnim snagama i poboljšanjima vožnje u širokom rasponu policijskih ovlaštenja, od zaustavljanja i upotrebe tasera kroz oficir i na cestovni saobraćaj se zaustavljaju i na etičnoj etici podataka, što je direktno obavijestilo savjetovanje i procjenu utjecaja na jednakost za novu aplikaciju.”
Tekuće zabrinutosti
Problemi sa prediktivnim policijama istaknute su u Velikoj Britaniji i evropskim vlastima koristeći alate za više godina.
U srpnju 2024. godine, na primjer, koalicija grupa civilnog društva pozvala je tadašnje radne vlade kako bi postavilo zabranu i prediktivnog rada policije i biometrijskog nadzora u Velikoj Britaniji, na osnovu kojih su nesrazmjerno koriste za ciljanje rasnoj, radničke klase i migrantske zajednice.
U Europskoj uniji (EU) AI AI ai zabranio je korištenje prediktivnih policijskih sustava koji se mogu koristiti za ciljanje pojedinca za procjenu profiliranja ili procjene rizika, ali zabrana je samo djelomična kao što se ne proširuje na prediktivne policijske alate za prediktivne policije.
Prema izveštaju sa 161 stranica, a travanj 2022. godine, dvojica MEP-a zajedno zadužena za nadgledanje i izmene AI ACT-a, “Prediktivni rad policije krši ljudsko dostojanstvo i pretpostavku nevinosti, a stoga je ubačen u diskriminaciju.”
Prema Griff Ferrisu, tada-pravni i politički službenik na nevladinim sajmovima organizacije, vidjeli smo kako upotreba ovih sustava utječe i na kraju, zabrana ljudi također mora proširiti i da se uvrštava na prediktivne policijske sustave koji imaju isti efekat, koji imaju isti efekat. “
Mjesec dana 2022. godine, pravična suđenja, evropska prava podataka (EDRI) i 43 druge organizacije civilnog društva sa kolektivno su pozvale evropske zastupnike da bi zabranili prediktivne policijske sustave za prediktivno preduzeće, tvrdeći da nesrazmjerno ciljaju na većinu marginalizovanijih ljudi u društvu, narušavaju osnovna prava i pojačavaju strukturnu diskriminaciju.
Ista moljaca, nakon formalnog ispitivanja u korištenju algoritamskih alata policije u Velikoj Britaniji – uključujući alatima za lica i razne zločine “Alati – Losnovi kućni poslovi i pravosudni odbor (HAJC) opisali su situaciju kao” novi divlji zapad “karakterizirao nedostatak strategije, odgovornosti i transparentnosti. Rekao je remont kako je potrebno policijsko implementirati AI i algoritamske tehnologije za sprečavanje daljnje zloupotrebe.
U slučaju tehnologija “prediktivne policije”, naveo je svoju tendenciju da proizvede “začarani krug” i “unoseći prethodno postojeće obrasce diskriminacije”, jer usmjeravaju policijsku patrole sa niskim primanjima, već preveličkim policajcima.
“Zbog veće prisutnosti policije, vjerovatno je da će se otkriti veći udio zločina koji su počinjeni u tim oblastima koji nisu prezirani. Podaci će odražavati ovu povećanu stopu detekcije, što će se uložiti u alat i ugraditi se u sljedeći skup predviđanja”, rečeno je.
Međutim, u julu 2022. godine, Vlada Velike Britanije u velikoj mjeri odbacila je nalaze i preporuke Lords-a, tvrdeći da postoji već “sveobuhvatna mreža čekova i bilansa”.
Vlada je u to vrijeme rekla da su zastupnici postavili pravni okvir koji je policiji pružao svoje ovlasti i dužnosti, tada je za policiju da odrede kako najbolje koristiti nove tehnologije poput AI i prediktivnog modeliranja za zaštitu javnosti.