Policijske i obavještajne agencije okreću se AI-u da bi provalili kroz ogromne iznose podataka za identifikaciju sigurnosnih prijetnji, potencijalnih osumnjičenih i pojedinaca koji mogu predstavljati sigurnosni rizik.
Agencije kao što su GCHQ i MI5 koriste AI tehnike za prikupljanje podataka iz više izvora, pronalaženje veze između njih i trigetaju najznačajnijih rezultata za pregled.
Njihova upotreba automatiziranih sistema za analizu ogromnih količina podataka, što bi moglo uključivati skupne podatke koji sadrže financijske evidencije ljudi, medicinske informacije i presretnute komunikacije, postavile su nove zabrinutosti od privatnosti i ljudskih prava.
Kada je upotreba AI proporcionalna, a kada ide predaleko? To je pitanje koje je nadzorno tijelo za obavještajne službe, investitorne Povjereč Povjereča (IPCO) prikuplja.
Kada je upotreba AI proporcionalna?
Muffy Calder je predsjedavajući IPCO-ovog tehničkog savjetodavnog vijeća, poznat kao slavina, mala skupina stručnjaka sa pozadinama u akademiji, ukazničkoj obavještajnoj zajednici i industriji odbrane.
Njezin je posao savjetovati istražne povjerenike (IPC), Sir Brian Leveson i IPCO-ove sudskih povjerenika – služenju ili umirovljenim sudijama – odgovornoj za potpisivanje ili odbijanje prijava za nadzor nadzornima na često složene tehničke probleme.
Članovi vijeća također prate IPCO inspektore o posjetama policiji, obavještajnim agencijama i drugim vladinim agencijama sa nadzornim ovlastima, u skladu s istražnim ovlastima.
U prvom intervjuu je IPCO dao na radu slavine, Calder kaže da je jedna od ključnih funkcija grupe savjetovati istražne ovlasti povjerenika o budućim tehnološkim trendovima.
“Apsolutno je očigledno da ćemo raditi nešto na AI”, kaže ona.
Dodir je proizveo okvir – AI pomoć za procjenu proporcionalnosti – za pomoć policiji, obavještajnim službama i preko 600 drugih vladinih agencija koji nadgledaju IPCO u razmišljanju da li je upotreba AI proporcionalna i minimizira invaziju na privatnost. Također je donijelo svoje smjernice na raspolaganju poslovnim i drugim organizacijama.
Kako se Ai može koristiti u nadzoru
Calder kaže da ne može reći ništa o razlici AI čine policiji, obavještajnim agencijama i drugim vladinim tijelima koje IPCO nadgleda. To je pitanje za tijela koja ga koriste, kaže ona.
Međutim, javno dostupno izvješće o istraživanju iz Royal United Services Instituta (RUSI), koji je naručio GCHQ, sugerira načine na koje bi se moglo koristiti. Oni uključuju identifikaciju pojedinaca iz zvuka njihovog glasa, njihovog stila pisanja ili načina na koji se upisuju na tastaturu računara.
© Ian Georgeson fotografija
“Ljudi su vrlo praveći pitanja pravednosti, transparentnosti i pristranosti, ali oni ih ne čine uvijek ne čim i pitaju šta to znači u tehničkoj postavci”
Muffy Calder, Univerzitet u Glasgowu
Međutim, najuglednu sluhu za upotrebu je da se izvrši ogromna količina podataka prikupljenih od strane obavještajnih agencija i pronalaženje relevantnih veza između podataka iz više izvora koji imaju inteligenciju. Povećani obavještajni sustavi mogu predstaviti analitičare sa najrelevantnijim informacijama iz mora za procjenu i donošenje presude.
Računalni naučnici i matematičari koji čine slavinu rade i studiraju AI dugi niz godina, kaže Calder, a oni shvataju da upotreba AI-a za analizu ličnih podataka postavlja etička pitanja.
“Ljudi vrlo prave su odgajali pitanja pravičnosti, transparentnosti i pristranosti, ali oni ih ne čine uvijek ne čim i pitaju šta to znači u tehničkoj postavci”, kaže ona.
Ravnoteža između privatnosti i upada
Okvir ima za cilj pružiti organizacijama alatima za procjenu koliko AI upada u privatnost i kako umanjiti upad. Umesto da daju odgovore, nudi set pitanja koja mogu pomoći organizacijama da razmisle o rizicima AI-ja.
“Mislim da je svima u istragama umanjivanje umanjivanja privatnosti. Dakle, moramo uvijek imati ravnotežu između svrhe istrage i upada na ljude i, na primjer, kolateralni upad [of people who are not under suspicion]”, Kaže ona.
Pomoć za proporcionalnost slavine namijenjena je ljudima koji dizajniraju, razvijaju, testiraju i komisiju AI modele i ljude koji su uključeni u osiguravanje njihovih organizacija u skladu sa zakonskim i regulatornim zahtjevima. Pruža niz pitanja koja treba razmotriti za svaku fazu u AI modelu, iz koncepta, do razvoja, do eksploatacije rezultata.
“To je okvir u kojem možemo početi pitati, radimo li ispravne stvari? Je li AI odgovarajući alat za okolnosti? Ne radi se o tome da to učinim,” kaže “, kaže ona.
Je li AI pravi alat?
Prvo pitanje je da li je AI pravi alat za posao. U nekim slučajevima, kao što su prepoznavanje lica, AI može biti jedino rješenje jer je teško riješiti taj problem, pa obuka AI sustava pokazujući primjere ima smisla.
U drugim slučajevima, gdje ljudi razumiju šta Calder se odnosi na “fiziku” problema, poput izračunavanja poreza, matematički algoritam je prikladniji.
“AI je vrlo dobar kada je analitičko rješenje ili previše teško ili ne znamo šta je analitičko rješenje. Tako je od početka, to je pitanje da pitam ovdje?” ona kaže.
Drugo pitanje koje treba uzeti u obzir je koliko često prekvalirati AI modele kako bi se osiguralo da donose odluke o najboljim, najtačnijim podacima i podacima koji su najprikladniji za aplikacije koje se model koristi.
Jedna česta greška je obučiti AI model o podacima koji se ne usklađuju sa svojom namjerom. “To je verovatno klasično. Trenirali ste ga na slikama automobila, a vi ćete ga koristiti da biste pokušali prepoznati tenkove”, kaže ona.
Kritična pitanja mogu uključivati da li AI model ima pravu ravnotežu između lažnih pozitiva i lažnih negativa u određenoj aplikaciji.
Na primjer, ako se AI koristi za identifikaciju pojedinca kroz policijsku tehnologiju priznavanja lica, previše lažnih pozitiva dovode do nevinih ljudi koji su pogrešno zaustavili i ispitivali policija. Previše lažnih negativa dovelo bi do osumnjičenih koji se ne priznaju.
Kad AI pravi greške
Što bi se dogodilo, ako se neko pogrešno stavi pod elektronički nadzor kao rezultat automatizirane odluke? Calder se slaže da je ključno pitanje.
Okvir pomaže traženjem organizacija da razmisle o tome kako reagiraju kada AI pravi greške ili halucinira.
“Odgovor može biti da moramo prekvaličiti model na precizniji ili više ažurni podaci. Mogli bi biti puno odgovora, a ključna točka je da li čak i prepoznajete da postoji problem i imate li proces za rješavanje svojih odluka?”
Da li je bila sistemska sistema? Da li je to bio korisnički unos? Da li je to zbog načina na koji je ljudski operator proizveo i rukovao rezultatom?
“Takođe biste mogli da ukrštavate da li je to rezultat toga kako je alat optimiziran. Na primjer, da li je optimiziran da bi umanjio lažne negativne negative, a ne lažne pozitivne pozitivne?” ona dodaje.
Upad tokom treninga
Ponekad može biti opravdano prihvatiti viši nivo privatnosti u provale tokom faze obuke ako to znači niži nivo upada kada je AI raspoređen. Na primjer, obuka model sa ličnim podacima velikog broja ljudi može osigurati da je model više ciljani i manje je vjerovatno da će dovesti do “kolateralnog” upada.
“Krajnji rezultat je alat koji možete koristiti na mnogo ciljaniji način u potrazi za, na primjer, kriminalne aktivnosti. Dakle, dobivate ciljaniji alat, a kada koristite samo nekoliko ljudi,” kaže samo na nekoliko privatnosti “, kaže samo na nekoliko ljudi.
Imati ljudski u petlji u AI sustavu može ublažiti potencijal za greške, ali to također donosi i druge opasnosti.
Ljudski u petlji
Računalni sustavi uvedeni u bolnice, na primjer, omogućuju kliničari da efikasnije otkucaju drogu omogućujući im da odaberu s popisa relevantnih lijekova i količina, a ne da zapisuju recepte rukom.
Pad je da je kliničari lakše “desenzitizirati” i pogriješiti odabirom pogrešnog lijeka ili pogrešne doze ili da ne razmotri odgovarajuće lijekove koji se ne mogu uključiti u prethodno odabranu listu.
AI Alati mogu dovesti do sličnog desenzitisacije, gdje se ljudi mogu odvojiti ako su potrebni da kontinuirano provjeravaju veliki broj izlaza iz AI sistema. Zadatak može postati vježba kontrolni popis, a lako je za umornom ili ometanom ljudskom recenzentu označiti pogrešnu kutiju.
“Mislim da postoji puno paralela sa korištenjem AI-a i medicine, jer se oba bave osetljivim podacima i oba imaju direktan uticaj na živote ljudi”, kaže Calder.
Pomoć za procjenu proporcionalnosti slavine vjerovatno će biti bitno čitanje za glavne službenike za informaciju i glavne digitalne službenike koji razmišljaju o raspoređivanju AI u njihovim organizacijama.
“Mislim da je velika većina ovih pitanja primjenjiva izvan istražnog konteksta”, kaže Calder.
“Gotovo svaka organizacija koja koristi tehnologiju mora razmišljati o njihovoj reputaciji i njihovoj efikasnosti. Mislim da su organizacije krenule da prave greške ili da rade nešto loše, tako da je cilj pomoći ljudima [use AI] na odgovarajući način “, kaže ona.