Gladan podataka: Unutar Europolovog tajnog AI programa

anketa.plus
Izvor: anketa.plus

Kritičari ga opisuju kao strategiju hvatanja podataka i puzanja nadzora. Europol to naziva Strateškim ciljem 1: postati “kriminalno informaciono središte” Evropske unije (EU) kroz strategiju masovnog prikupljanja podataka.

Zvaničnici Europola rijetko su skrivali želju za pristupom što većem broju podataka. U srži Europolove gladi za ličnim podacima leži rastuća ambicija za umjetnu inteligenciju (AI).

Ambicija je otvoreno navedena u strateškom dokumentu agencije od 2024. do 2026.: apsorbirati podatke o građanima EU i migrantima iz evropskih baza podataka za provođenje zakona i analizirati masu podataka koristeći AI i mašinsko učenje (ML).

Od 2021. godine, agencija EU za provođenje zakona sa sjedištem u Hagu krenula je u sve ambicioznije, ali uglavnom tajnovitu misiju razvoja automatiziranih modela koji će utjecati na to kako se policija provodi širom Evrope.

Na osnovu internih dokumenata dobijenih od Europola i analiziranih od strane stručnjaka za zaštitu podataka i AI, ova istraga postavlja ozbiljna pitanja o implikacijama AI programa agencije na privatnost ljudi. Takođe postavlja pitanja o uticaju integracije automatizovanih tehnologija u svakodnevni rad policije širom Evrope bez adekvatnog nadzora.

Odgovarajući na pitanja o priči, Europol je rekao da održava “dobre kontakte” sa nizom aktera i da održava “nepristrasan stav” prema svakom od njih kako bi ispunio svoj mandat podrške nacionalnim vlastima u borbi protiv teškog kriminala i terorizma: “Europolova strategija ‘pružanja sigurnosti u partnerstvu’ navodi da će Europol biti na čelu zakona i istraživanja.

Europol je dodao da je njegov “pristup saradnji vođen principom transparentnosti”.

Od 2021. godine, Europol je krenuo u sve ambicioznije, ali uglavnom tajnovitu misiju razvoja automatiziranih modela koji će utjecati na to kako se policija obavlja širom Evrope.

Masovni podaci dovode do novih mogućnosti

Kritična uloga Europola u tri mega-hakerske operacije koje su demontirale šifrirane komunikacione sisteme EncroChat, SkyECC i Anom 2020. i 2021. donijela je agenciji ogromne količine podataka.

Tokom ovih prekograničnih operacija, Europol je uglavnom služio kao čvorište za prenos podataka, izigravajući posrednika između policijskih vlasti koje su pribavile podatke i onih kojima su podaci bili potrebni da bi progonili kriminalce u njihovim jurisdikcijama.

Ali Europol je otišao dalje. Umjesto da se ograniči na posredničku ulogu, diskretno je kopirao skupove podataka iz tri operacije u svoja spremišta i zadužio svoje analitičare da istraže materijal.

Nemogućnost zadatka – Encrochat koji ima 60-plus miliona razmjena poruka i Anom koji ima 27-plus miliona razmijenjenih poruka – naglasila je interes agencije za obuku AI alata kako bi se ubrzao rad analitičara. Njihov motiv je bio jasan: spriječiti bijeg kriminalaca i gubitak života.

U septembru 2021., 10 inspektora iz Evropskog nadzornika za zaštitu podataka (EDPS) padobranom je palo u sjedište Europola u Hagu kako bi provjerili ono što je trebao biti prvi pokušaj Europola da obuči vlastite algoritme, što je agencija planirala učiniti s podacima prikupljenim iz EncroChata.

Prema dokumentu EDPS-a, cilj Europola je bio da „razvije sedam modela mašinskog učenja… koji bi se pokrenuli jednom preko cijelog Encrochat skupa podataka“ kako bi se analitičarima pomoglo da smanje obim poruka koje su morali provjeravati.

Međutim, razvoj ovih modela je pauziran nakon što je EDPS pokrenuo proceduru konsultacija za pregled predloženih operacija obrade podataka agencije.

Dok se Europol u početku opirao procesu konsultacija – tvrdeći da njegova upotreba mašinskog učenja „ne predstavlja novu vrstu operacije obrade koja predstavlja specifične rizike za osnovna prava i slobode“ – EDPS je jednostrano započeo proceduru konsultacija.

Ovo je primoralo agenciju da dostavi set internih dokumenata, uključujući kopije procjena uticaja na zaštitu podataka (DPIA). Inspekcija koja je uslijedila otkrila je ozbiljno nepoštivanje mjera zaštite i naglasila prečice koje je Europol bio spreman koristiti u razvoju vlastitih modela umjetne inteligencije.

Na primjer, prema dokumentu EDPS-a, “flash inspekcija” u septembru 2021. godine otkrila je da gotovo da nijedna dokumentacija za praćenje obuke nije bila “sastavljena tokom perioda u kojem su modeli razvijeni”.

Inspektori EDPS-a su takođe primetili da su „svi dokumenti koje je EDPS dobio o razvoju modela sačinjeni nakon što je razvoj zaustavljen (zbog prethodnih konsultacija poslati EDPS-u) i samo delimično odražavaju podatke i praksu razvoja AI jedinice”. EDPS je također spomenuo da „nisu uzeti u obzir rizici koji se odnose na pristrasnost u obuci i korištenju modela PN ili statističku tačnost“.

Za Europolove analitičare, međutim, izgleda da nema razloga za brigu, jer su smatrali da je rizik da mašine pogrešno umiješaju pojedinca u krivičnu istragu minimalan.

Europolovi umovi za izgradnju carstva vidjeli su novu priliku u potencijalnoj upotrebi AI za skeniranje digitalnog komunikacijskog uređaja svakog građanina EU

Iako modeli razvijeni u to vrijeme nikada nisu raspoređeni iz operativnih razloga, budući da pravni okvir agencije nije dao mandat za razvoj i primjenu AI za krivične istrage, to se promijenilo kada je mandat Europola proširen u junu 2022.

Do tada, dnevni red o AI i važnosti pristupa podacima prebačen je na pitanje onlajn materijala o seksualnom zlostavljanju djece (CSAM). Doveden u prvi plan političke agende prijedlogom Europske komisije mjesec dana ranije da se uvedu takozvani algoritmi za skeniranje na strani klijenta za otkrivanje uvredljivog materijala, pokrenuo je polarizirajuću debatu o prijetnji razbijanja end-to-end enkripcije i opasnostima masovnog nadzora.

Europolovi umovi za izgradnju carstva vidjeli su novu priliku u potencijalnoj upotrebi AI za skeniranje digitalnog komunikacijskog uređaja svakog građanina EU.

Udvostručujući tokom sastanka sa direktorom Komisije za unutrašnje poslove, Europol je predložio da se tehnologija može prenamijeniti da traži sadržaj koji nije CSAM.

Poruka agencije bila je jasna. “Svi podaci su korisni i treba ih proslijediti organima za provođenje zakona”, navodi se u zapisniku sa sastanka Europola i visokog zvaničnika iz Generalnog direktorata za unutrašnje poslove Evropske komisije 2022. “Kvalitetni podaci su bili potrebni za obuku algoritama”, rekao je zvaničnik Europola.

Zvaničnici Europola su također pozvali komisiju da osigura da sva evropska tijela za provođenje zakona „mogu koristiti AI alate za istrage“ i izbjeći ograničenja postavljena u Zakonu o AI, zakonu EU koji će tada biti nadolazeći za ograničavanje nametljive i rizične upotrebe algoritama.

U odgovoru na ovu istragu, Europol je tvrdio da njegova operativna upotreba ličnih podataka podliježe strogom nadzoru i kontroli, te da prema uredbi Europola, dokumenti koji se dijele sa EDPS-om u svrhu nadzora ne bi trebali biti javno dijeljeni.

„U skladu s tim, Europol smatra da dokumentacija DPIA ne podliježe općem javnom objelodanjivanju, uključujući i s obzirom na to da poznavanje specifičnosti navedenih u DPIA može staviti aktere kriminala u povoljniju situaciju u odnosu na interes javne sigurnosti.

U krevetu sa privatnim dnevnim redovima

Europolova zabrinutost u vezi sa restriktivnim režimom postavljenim Zakonom o umjetnoj inteligenciji odražavala je zabrinutost glavnih igrača AI. Zajednički interesi Europola i privatnih aktera u razvoju AI modela teško da su tajna. Naprotiv, često se spominje u dokumentima agencije da se održavanje bliskog kontakta sa AI programerima smatra strateškim značajem.

Jedna važna tačka kontakta bio je Thorn, američki neprofitni programer CSAM klasifikatora koji pokreće AI koji mogu primijeniti agencije za provođenje zakona kako bi otkrile nove i nepoznate slike i videozapise zlostavljanja.

Od 2022. godine, Thorn je bio na čelu kampanje zagovaranja u korist CSAM prijedloga u Briselu, zalažući se za obavezno korištenje AI klasifikatora od strane svih kompanija koje nude digitalne komunikacijske usluge u EU.

Ono što je, međutim, manje poznato je bliski kontakt ili koordinacija između Thorna i Europola. Keš razmjena e-pošte između kompanije i Europola između septembra 2022. i maja 2025., dobijena nizom zahtjeva za slobodu informacija (FOI), otkriva kako je Europolov plan da razvije klasifikator usko povezan sa savjetima kompanije.

U aprilu 2022., u očekivanju stupanja na snagu proširenog mandata Europola, koji bi agenciji omogućio direktnu razmjenu operativnih podataka s privatnim subjektima, zvaničnik Europola poslao je e-poštu Thornu „da istraži mogućnost da osoblje Europola koje radi na području CSE … dobije pristup“ u svrhu koja ostaje redigovana.

Thorn je odgovorio tako što je podijelio dokument i obavijestio Europol da su potrebne dodatne informacije za nastavak. Međutim, taj dokument nije objelodanjen, a detalji potrebnih informacija su redigovani. “Moram naglasiti da je ovaj dokument povjerljiv i nije za ponovnu distribuciju”, zaključuje se u Thornovom mejlu.

Pet mjeseci kasnije, Europol je kontaktirao Thorn za pomoć u pristupu klasifikatorima razvijenim u projektu u kojem je učestvovala neprofitna organizacija, kako bi ih agencija mogla ocijeniti.

Prema riječima stručnjaka za mašinsko učenje Nuno Moniza, razmjene postavljaju ozbiljna pitanja o odnosu između dva aktera. “Oni razgovaraju o najboljim praksama, predviđaju razmjenu informacija i resursa, u suštini tretirajući Thorn kao partnera za provođenje zakona s privilegiranim pristupom”, rekao je Moniz, koji je također vanredni profesor istraživanja na Lucy Family Institute for Data & Society na Univerzitetu Notre Dame.

Udhav Tiwari, potpredsjednik za strategiju i globalne poslove u Signalu, rekao je: “Ove interakcije ukazuju na potencijalno opasan spoj sukobljenih interesa koji bi mogao zaobići važne demokratske mjere zaštite dizajnirane da zaštite građanske slobode.”

Intimna saradnja između Europola i Thorna se nastavila od tada, sa planiranim „nadoknadom za ručkom“ u jednom slučaju, a u drugom Thorn predstavlja svoj CSAM klasifikator u sjedištu Europola.

U najnovijim razmjenama dobivenim ovom istragom, razmjena e-pošte iz maja 2025. otkriva da Thorn razgovara o svom rebrendiranom CSAM klasifikatoru s agencijom.

Iako je veći dio Europolove korespondencije s Thornom i dalje uveliko redigovan, neki e-mailovi su u potpunosti zadržani, ne obazirući se na poziv Evropskog ombudsmana da se omogući širi pristup razmjenama potaknut žalbama podnesenim u ovoj istrazi.

Europol tvrdi da neki od neotkrivenih dokumenata “sadrže strateške informacije od operativne važnosti u vezi sa Europolovim metodama rada u vezi sa upotrebom klasifikatora slika, pri čemu se konkretni takvi klasifikatori konkretno pominju i bili su predmet internih razmatranja, ali i eksternih diskusija sa Thornom”.

U odgovoru na ovu istragu, glasnogovornik Thorn-a je rekao: “S obzirom na prirodu i osjetljivost našeg rada na zaštiti djece od seksualnog zlostavljanja i eksploatacije, Thorn ne komentira interakcije s određenim agencijama za provođenje zakona. Kao što je istina za svu našu saradnju, radimo u potpunosti u skladu sa važećim zakonima i pridržavamo se zaštite podataka i najviših standarda.”

Europol je ovoj istrazi rekao da “do danas nijedan AI model iz Thorna nije razmatran za korištenje od strane Europola”, te stoga “ne postoji saradnja sa programerima Thorn za AI modele koji se koriste ili namjeravaju da ih koristi Europol”.

Dodao je da proces konsultacija EDPS-a “zahtijeva značajno vrijeme i resurse prije raspoređivanja” i da “svaki izlaz generiran pomoću AI alata podliježe kontroli ljudskih stručnjaka prije nego što se koristi u analizi ili drugim aktivnostima podrške nosti”.

Patchy scrutiny

Ne ostaju neprozirna samo razmatranja Europola s Thornom. Agencija je uporno odbijala da otkrije niz kritičnih dokumenata u vezi sa svojim programom veštačke inteligencije, od procene uticaja na zaštitu podataka i modela kartica do zapisnika sa sastanaka odbora.

Otkriveni dokumenti često ostaju jako redigovani na sumnjivim pravnim osnovama. U mnogim slučajevima, Europol je po sedmicama prekršio zakonske rokove za odgovaranje na zahtjeve.

Europol je uporno odbijao da otkrije niz kritičnih dokumenata u vezi sa svojim AI programom: od procjena uticaja na zaštitu podataka i modela kartica, do zapisnika sa sastanaka njegovog upravnog odbora

U većini slučajeva, agencija je citirala izuzeća za „javnu sigurnost“ i „interno donošenje odluka“ kako bi opravdala uskraćivanje informacija. Evropski ombudsman je, međutim, u preliminarnim nalazima više puta doveo u pitanje nejasnoće tih tvrdnji, napominjući da Europol nije uspio objasniti kako bi otkrivanje konkretno ugrozilo njegove operacije.

Pred Evropskim ombudsmanom trenutno je na čekanju pet žalbi zbog transparentnosti koje je podnijela ova istraga.

Ali očigledna averzija Europola prema transparentnosti samo je jedan aspekt neuspjele arhitekture odgovornosti koja je, na papiru, namijenjena da osigura da sve Europolove aktivnosti, uključujući uvođenje AI alata, budu u skladu sa obavezama iz osnovnih prava.

Unutar Europola, taj zadatak uglavnom pada na ramena službenika za temeljna prava agencije (FRO), internog nadzornog mjesta uvedenog s mandatom Europola 2022. kako bi se umirila zabrinutost da njegovo široko proširenje ovlasti nije imalo dovoljno jake ograde.

Uvedena 2023. godine, pozicija se nije bavila zabrinutošću zbog nedostatka snažnog nadzora.

“Službenik Europola za temeljna prava ne funkcionira kao efikasna zaštita od rizika koje predstavlja sve veća upotreba digitalnih tehnologija od strane agencije. Uloga je institucionalno slaba, nema internih ovlasti za provođenje kako bi se osiguralo da se njegove preporuke poštuju”, rekla je Bárbara Simão, stručnjak za odgovornost u Članu 19, međunarodnoj organizaciji za ljudska prava sa sjedištem u Londonu koja prati uticaj tehnologije AI za slobodu izražavanja. Simão je pregledao nekoliko „neobavezujućih“ procjena Europolovih AI alata dobijenih ovom istragom.

„Da bi ispunio svoju ulogu unutrašnjeg nadzornog mehanizma, on mora ići dalje od simboličke funkcije, propisno ispitati tehnologije koje se primjenjuju i dobiti istinski autoritet da podržava osnovna prava“, dodala je.

Mnogi od neobavezujućih izvještaja koje izdaje FRO sadrže kopirano i zalijepljeno priznanje da ovaj kapacitet za robusnu reviziju Europolovih AI alata nije uspostavljen.

“U ovom trenutku ne postoje alati za procjenu osnovnih prava alata koji koriste umjetnu inteligenciju. Metodologija procjene koju FRO koristi inspirisana je dokumentom koji je uredila Strateška grupa za etiku i tehnologiju, kao i metodologijom za rješavanje dilema”, navodi se u izvještajima.

Vanjski nadzor ne izgleda mnogo jači. Glavni mehanizam – takozvana Zajednička grupa za parlamentarni nadzor (JPSG), koja okuplja nacionalne i evropske parlamentarce za praćenje aktivnosti Europola – je tijelo koje može postavljati pitanja i zahtijevati dokumente, bez ikakvih ovlaštenja za sprovođenje.

Ironično, Europol, odgovarajući na upite Evropskog ombudsmana o upitnim praksama transparentnosti agencije, tvrdi da se njegov „legitimitet i odgovornost“ „već u velikoj mjeri i nužno ispunjava statutarnim demokratskim nadzorom koji provodi Evropski parlament zajedno sa grupom nacionalnih parlamenata SGP-a“ (Grupa za demokratske demokratske institucije).

Europolov službenik za osnovna prava ne funkcionira kao efikasna zaštita od rizika koje predstavlja sve veća upotreba digitalnih tehnologija od strane agencije. Uloga je institucionalno slaba, nedostaju joj interna ovlašćenja za sprovođenje kako bi se osiguralo da se njene preporuke poštuju
Bárbara Simão, član 19

EDPS-u je prepušteno da pomno ispita ishitreno širenje agencije sa ograničenim resursima i neadekvatnim mandatom usmjerenim na zaštitu podataka, koji ne obuhvata u potpunosti opseg povreda ljudskih prava predstavljenih Europolovim naporima AI.

‘teške posljedice’

Do ljeta 2023. razvoj vlastitog CSAM klasifikatora bio je glavni prioritet za Europolov AI program. Savjetodavni dokument na dvije stranice koji je izdao FRO agencije navodi da je cilj bio razviti “alat koji koristi umjetnu inteligenciju (AI) za klasifikaciju automatski navodnog seksualnog zlostavljanja djece (CSE) [child sexual exploitation] slike i video”.

U samo četiri reda, Europol FRO Dirk Allaerts se pozabavio pitanjem pristrasnosti, ukazujući da je izbalansirana mješavina podataka u dobi, polu i rasi neophodna „da bi se ograničio rizik da će alat prepoznati CSE samo za određene rase ili spolove“.

Faza razvoja bi se odvijala u kontrolisanom okruženju kako bi se dodatno ograničili svi rizici od kršenja zaštite podataka. Za obuku alata, projekat bi koristio i CSE i ne-CSE materijal. Iako je nejasno kako bi Europol nabavio ne-CSE materijal neophodan za obuku algoritma, CSE materijal bi uglavnom obezbjeđivao Nacionalni centar za nestalu i eksploatisanu djecu (NCMEC), neprofitna organizacija sa sjedištem u SAD-u blisko povezana sa saveznom vladom i njenim agencijama za provođenje zakona.

Iako je Europol već stavio planove za obučavanje klasifikatora do kraja 2023. godine, podaci dostavljeni od NCMEC-a uneseni su u prvi AI model agencije, koji je raspoređen u oktobru 2023. godine.

Nazvan EU Cares, model ima zadatak da automatski preuzme CSE materijal sa NCMEC-a, unakrsne ga provjerava sa Europolovim repozitorijumima, a zatim distribuira podatke u skoro realnom vremenu organima za provođenje zakona država članica.

Količina unesenog materijala – uglavnom od digitalnih divova sa sjedištem u SAD-u kao što je Meta, koji su u obavezi da prijave svaki potencijalni CSAM NCMEC-u – postala je toliko velika da ručna obrada i distribucija, koju je Europol implementirao prije implementacije AI, više nije bila izvodljiva.

Europolova vlastita procjena sistema identifikovala je rizike od “netačnih podataka koje je prijavio NCMEC” i “netačnih izvještaja o međusobnom podudaranju” koji mogu pogrešno identificirati ljude kao “distributera ili vlasnika” CSAM-a.

Ipak, prema EDPS-u, agencija “nije uspjela u potpunosti procijeniti rizike” povezane s njenom automatizacijom ovih procesa.

U mišljenju EDPS-a koje je ova istraga dobila putem zahtjeva za FOI, nadzorni organ za zaštitu podataka je podvukao “teške posljedice” koje bi netačnosti podataka mogle uzrokovati.

Zatražio je da agencija provede dodatne mjere ublažavanja kako bi se uhvatila u koštac s greškama koje mogu nastati automatizacijom procesa. Kao odgovor, Europol se obavezao da će sumnjive podatke označiti kao „nepotvrđene“, dodati „poboljšana“ upozorenja za anomalije i poboljšati svoj sistem za uklanjanje povučenih preporuka. Između ostalih mjera, agencija je rekla da će se ovim koracima riješiti zabrinutost EDPS-a u vezi s preciznošću i greškama u međusobnom podudaranju.

U februaru 2025., izvršna direktorica agencije, Catherine De Bolle, rekla je da je EU Cares „isporučio ukupno 780 hiljada preporuka sa paketima za obogaćivanje do januara 2025. godine“. Ostaje pitanje, koliko od njih je lažno pozitivnih ili suvišnih tragova? Njemačka savezna agencija, koja prima izvještaje direktno od NCMEC-a bez korištenja Europolovog sistema, rekla je ovoj istrazi da od 205.728 izvještaja primljenih 2024. godine, 99.375 (48,3%) nije bilo “relevantno prema krivičnom zakonu”.

Sljedeća granica: prepoznavanje lica

Čak i dok su regulatori privatnosti EU vršili pritisak na zaštitne mjere za EU Cares, Europol je proširio automatizaciju na još jedno osjetljivo polje: prepoznavanje lica.

Od 2016. godine agencija je testirala i kupila nekoliko komercijalnih alata. Njegova najnovija akvizicija, NeoFace Watch (NFW) od japanske softverske firme NEC, trebala je na kraju zamijeniti ili dopuniti raniji interni sistem poznat kao Face, koji je već mogao pristupiti oko milion slika lica do sredine 2020. godine.

Jako redigovana prepiska pokazuje da je do maja 2023. Europol raspravljao o korištenju NeoFace Watcha. Kada je kasnije podnio novi program na pregled, EDPS je upozorio na “rizik manje preciznosti obrade lica maloljetnika (kao oblik pristranosti)” i “nekoherentne obrade” ako stari i novi sistemi (kao što su postojeći Face i NeoFace Watch) rade paralelno.

Nakon konsultacija, Europol je odlučio da iz predostrožnosti isključi iz obrade podatke maloljetnika mlađih od 12 godina.

Nadzornik je zatražio od Europola da provede šestomjesečni pilot kako bi odredio prihvatljiv prag tačnosti i minimizirao lažne pozitivne rezultate.

Europolov podnesak EDPS-u uključivao je upućivanje na dvije studije Nacionalnog instituta za standarde i tehnologiju (NIST), tijela američke vlade. Iako su studije imale za cilj da podrže Europolov izbor NeoFace Watch-a kao svog novog sistema za pristup, NIST je u jednom izvještaju naveo da nisu koristili “divlje slike” dobivene “sa interneta niti iz video nadzora”, a to su izvori koje bi Europol koristio.

U povezanom izvještaju, NIST procjene za NEC-ov algoritam su dokumentovale da korištenje fotografija u uslovima lošeg osvjetljenja ima stopu greške u identifikaciji do 38%.

Međutim, Europol je potpisao ugovor sa NEC-om u oktobru 2024. Agencija je u ovoj istrazi potvrdila da softver koristi obučeno stručno osoblje u okviru određene CSE jedinice.

Slična implementacija NeoFace Watcha u Velikoj Britaniji suočila se sa pravnim izazovima zbog pristrasnosti i privatnosti.

U neobavezujućem savjetodavnom mišljenju iz novembra 2024. Europolov FRO opisao je sistem kao sistem koji „podiže rizik od lažnih pozitivnih rezultata koji mogu naštetiti pravu na odbranu ili pravično suđenje“. Sistem se smatra visokim rizikom prema novom zakonu EU o AI. Ipak, FRO ga je odobrio za upotrebu, samo pozivajući agenciju da prizna kada se alat koristi u prekograničnim istragama kako bi se “pojačala transparentnost i odgovornost, ključ za očuvanje povjerenja javnosti”.

EDPS je rekao ovoj istrazi da trenutno priprema izvještaj o inspekciji i da u ovoj fazi ne može dalje komunicirati o korišćenju NEC softvera od strane Europola.

NEC je takođe rekao ovoj istrazi da je NeoFace Watch rangiran kao “najpreciznije rješenje na svijetu” u posljednjem krugu testiranja NIST-a. Dodaje da je njegov proizvod “prošao opsežno nezavisno testiranje od strane Nacionalne fizičke laboratorije (NPL) i da je utvrđeno da nema lažno pozitivnih identifikacija kada se koristi uživo u tipičnim radnim uslovima”.

Visoke tačne brojke same po sebi ne čine prepoznavanje lica sigurnim niti rješavaju pravne probleme i probleme u vezi sa pravima dokumentiranim u ovom slučaju. Stručnjaci, uključujući Luca Rochera, vanrednog profesora na Oksfordskom Internet institutu, pokazali su da metodologije evaluacije prepoznavanja lica još uvijek ne uspijevaju u potpunosti obuhvatiti učinak u stvarnom svijetu, gdje faktori poput kvaliteta slike, obima populacije i demografske raznolikosti uzrokuju značajno smanjenje tačnosti, posebno za rasne manjine i mlade ljude.

Simão, stručnjak za član 19, primijetio je da isticanje tehničkih performansi „ima tendenciju umanjivanja rizika povezanih sa tehnologijama prepoznavanja lica“, uključujući pristrasnost prema maloljetnicima koju je označio EDPS i prijetnje pravima na pravično suđenje koje je identifikovao Europolov nadzorni pas.

Veća slika

Obavezujuća interna mapa puta koju je izradio Europol 2023. godine ocrtava pravu skalu Europolovih ambicija: 25 potencijalnih AI modela, u rasponu od detekcije objekata i geolokacije slike do duboko lažne identifikacije i biometrijskih ličnih karakteristika ponovna ekstrakcija. Vizija bi ovu agenciju stavila u centar automatizovanog rada policije u EU, jer bi alate koje koristi Europol mogli praktično koristiti sva tijela za provođenje zakona u cijelom bloku.

U februaru 2025., De Bole iz Europola rekao je evropskim zakonodavcima da je agencija EDPS-u dostavila 10 DPIA – sedam ažuriranja za modele koji su već razvijeni, a tri za nove.

Članovi JPSG-a zatražili su od Europola da dostavi detaljan izvještaj o svom programu AI. Kada je agencija dostavila, poslala je zakonodavcima dokument na četiri stranice sa generičkim opisima svojih internih procesa provjere, bez ikakvih suštinskih informacija o samim ΑΙ sistemima.

Zastupnica Zelenih u Evropskom parlamentu Saskia Bricmont, dio JPSG-a, rekla je ovoj istrazi da zbog toga što AI koju razvija Europol „može dovesti do veoma velikih rizika i posljedica po osnovna prava“, mora se osigurati jak i efikasan nadzor.

„Uprkos dostavljenim informacijama, i dalje je veoma složeno za članove EP da ispune svoj zadatak praćenja i u potpunosti procijene rizike povezane s korištenjem sistema zasnovanih na umjetnoj inteligenciji od strane agencije“, rekao je Bricmont.

U isto vrijeme, Evropska komisija se priprema da predstavi novu, sveobuhvatnu reformu kako bi Europol pretvorila u „istinski operativnu agenciju“.

Precizno značenje ove transformacije ostaje nejasno. Međutim, Evropska komisija je predložila da se budžet Europola za naredni finansijski rok udvostruči na 3 milijarde evra u novcu poreskih obveznika.


Ovu istragu podržali su IJ4EU i Lighthouse Reports.