Samit digitalne etike 2025: Otvoreni izvor i osiguravanje AI

anketa.plus
Izvor: anketa.plus

Umjetna inteligencija otvorenog izvora (AI) može pomoći u borbi protiv koncentracija kapitala i moći koje trenutno definiraju njen razvoj, dok je praksama uvjeravanja u nastajanju potrebna regulacija kako bi se definiralo kako “dobro” izgleda.

Govoreći na devetom godišnjem samitu digitalne etike trgovinskog udruženja TechUK, panelisti su raspravljali o različitim dinamikama u razvoju AI tehnologija, uključujući nedovoljno korištenje pristupa otvorenog koda, potrebu da osiguranje umjetne inteligencije bude kontinuirano i iterativno, te o mjeri u kojoj je potrebna regulativa za informiranje o trenutnim praksama osiguranja.

Tokom prethodna dva samita – održanog u decembru 2023. i 2024. – delegati su naglasili potrebu da se dobronamjerni etički principi AI pretoče u konkretne praktične mjere i naglasili potrebu da bilo koji propis prepoznaje socio-tehničku prirodu AI koja ima potencijal da proizvede veću nejednakost i koncentraciju moći.

Glavna tema ovih prethodnih diskusija bila je ko diktira i kontroliše kako se tehnologije razvijaju i primenjuju, i ko može da vodi rasprave o tome šta se smatra „etičkim“.

Dok su se diskusije na samitu 2025. dotakle mnogih istih tačaka, razgovori ove godine bili su fokusirani na razvoj ekosistema AI osiguranja u Velikoj Britaniji i stepen do kojeg bi se dalji razvoj AI mogao demokratizirati otvorenijim pristupima.

Modeli otvorenog izvora i ekosistemi

U razgovoru o prednostima i nedostacima AI modela otvorenog u odnosu na zatvoreni izvor, govornici su primijetili da većina modela ne spada u potpunosti ni u jednu binarnu, već postoje u spektru, gdje su aspekti bilo kojeg datog modela ili otvoreni ili zatvoreni.

Međutim, oni su takođe bili jasni da postoji izuzetno malo modela i pristupa koji se razvijaju istinski otvorenog koda.

Matthew Squire, glavni tehnološki direktor i osnivač Fuzzy Labsa, na primjer, primijetio je da „mnogo od ovih navodno otvorenog koda, ono što oni zaista nude kao otvoreni su težine modela“, koje su u suštini parametri koje model koristi za transformaciju ulaznih podataka u izlazne.

Napominjući da velika većina programera modela trenutno ne otvara druge ključne aspekte modela, uključujući osnovne podatke, parametre obuke ili kod, zaključio je da većina modela definitivno spada na zatvoreni kraj spektra. “[Model weights represent] konačni proizvod treniranja tog modela, ali mnogo više ide u to,” rekao je Squire.

Za Lindu Griffin, potpredsjednicu globalne politike u Mozili, dok AI modeli ne postoje u binarnom sistemu otvorenog i zatvorenog, postoje ekosistemi u kojima su razvijeni.

Ističući kako je internet izgrađen na softveru otvorenog koda prije nego što su ga velike korporacije poput Microsofta zatvorile u svoju vlastitu infrastrukturu, rekla je da je slična dinamika danas u igri s umjetnom inteligencijom, gdje je nekoliko kompanija – u suštini onih koje kontroliraju pristup webu putem vlasništva nad pretraživačima, i koje stoga imaju pristup brdima korisničkih podataka – zatvorilo AI stack.

„Ono o čemu vlada Velike Britanije trenutno treba da razmišlja je ono što je naša dugoročna strategija za nabavku, finansiranje, podršku, podsticanje otvorenog pristupa, tako da britanske kompanije, startupi i građani mogu da grade i biraju šta da rade“, rekao je Grifin. “Želite li da kompanije iz Ujedinjenog Kraljevstva grade umjetnu inteligenciju ili je iznajmljuju? Trenutno je iznajmljuju, a to je dugoročni problem.”

‘Nedovoljno cijenjena prilika’

Jakob Mokander, direktor politike nauke i tehnologije na Institutu Tony Blair, dodao je da je otvoreni kod „podcijenjena prilika“ koja može pomoći vladama i organizacijama da usvoje stvarnu vrijednost od tehnologije.

Napominjući da otvorenost i ekosistemi otvorenog koda imaju mnogo prednosti u poređenju sa zatvorenim sistemima za podsticanje rasta i inovacija, on je naglasio kako trenutno odsustvo otvorenih pristupa takođe nosi sa sobom značajne rizike.

„Odsustvo otvorenog koda je možda čak i veći rizik, jer tada imate koncentraciju velike moći, bilo u rukama državnih aktera ili u smislu jedne ili dvije velike tehnološke kompanije“, rekao je Mokander. „Bilo da na ovo gledate iz objektiva koji je prvenstveno vođen rastom ili informacijama, ili iz objektiva vođenog rizikom, željeli biste vidjeti snažan otvoreni ekosistem.”

Kada je u pitanju odnos između otvorenog koda i AI osiguranja, Rowley Adams, vodeći inženjer u EthicAI, rekao je da to omogućava veću kontrolu tvrdnji programera u poređenju sa zatvorenim pristupima. „Iz perspektive sigurnosti, provjerljivost je očito ključna, što je nemoguće sa zatvorenim modelima, uzimajući [developers at their] riječ u svakoj pojedinoj tački, gotovo na način zasnovan na vjeri”, rekao je. “Kod modela otvorenog koda, prednost je u tome što zapravo možete ići i istraživati, eksperimentirati i evaluirati na metodičan i temeljit način.”

Na pitanje Computer Weekly-a da li vlade treba da razmotre novo antimonopolsko zakonodavstvo kako bi razbile AI stack – s obzirom na ogromne koncentracije moći i kapitala koje proizilaze iz nekoliko kompanija koje kontroliraju pristup osnovnoj infrastrukturi – govornici su rekli da postoji hitna potreba da se razumije kako su tržišta strukturirana u ovom prostoru.

Griffin je, na primjer, rekao da treba postojati “dugoročno planiranje scenarija od strane vlade” koje uzima u obzir potencijal za tržišne intervencije ako je potrebno.

Mokander je dodao da rastuće mogućnosti AI moraju ići „ruku pod ruku s novim razmišljanjem o antimonopolskoj politici i diversifikaciji tržišta“ i da je ključno „ne oslanjati se [on companies] koji se može koristiti kao poluga protiv vlade i demokratskih interesa. “To ne znači nužno da moraju spriječiti privatno vlasništvo, ali to su uslovi pod kojima upravljate tom infrastrukturom,” rekao je on.

Potrebno je stalno uvjeravanje

Govoreći na posebnom panelu o stanju osiguranja AI u Velikoj Britaniji, Michaela Coetsee, voditeljica etike i uvjeravanja AI u Advaiju, istakla je da, zbog dinamičke prirode AI sistema, osiguranje nije jednokratan proces, već zahtijeva kontinuirano praćenje i evaluaciju.

„Budući da je AI društveno-tehnički poduhvat, potrebne su nam višestrane vještine i talenat,“ rekla je. „Trebaju nam naučnici podataka, ML [machine learning] inženjeri, programeri. Potrebni su nam crveni timovi koji posebno traže ranjivosti unutar sistema. Potrebni su nam stručnjaci za pravnu politiku, AI, upravljanje. Postoji čitav niz uloga.”

Međutim, Coetsee i drugi panelisti su bili jasni da, kako sada, još uvijek postoji potreba da se pravilno definiraju metrike sigurnosti i standardizira kako se sistemi testiraju, nešto što može biti teško s obzirom na vrlo kontekstualnu prirodu primjene AI.

Stacie Hoffmann, šefica strateškog rasta i odjela za nauku o podacima i umjetnoj inteligenciji u Nacionalnoj fizičkoj laboratoriji, na primjer, primijetila je da iako postoji mnogo alata za evaluaciju testiranja bilo na tržištu ili se razvijaju u kući – što u konačnici može pomoći u izgradnji povjerenja u pouzdanost i robusnost datog sistema – „ne kaže da je sveobuhvatni okvir za testiranje dobar izgled.“

Ističući kako prakse uvjeravanja i dalje mogu pružiti uvid u to da li sistem djeluje kako se očekivalo, ili njegov stepen pristrasnosti u određenoj situaciji, ona je dodala da ne postoji pristup koji bi odgovarao svima. „Opet, veoma je specifičan za kontekst, tako da nikada nećemo imati jedan test koji može testirati sistem za sve mogućnosti – moraćete da unesete različite elemente testiranja na osnovu konteksta i specifičnosti“, rekao je Hofman.

Za Coetsee, jedan od načina da se postigne veći stepen povjerenja u tehnologiju, umjesto formalnih pravila, propisa ili standarda, je pokretanje ograničenih testnih pilota gdje modeli unose podatke o kupcima, tako da organizacije mogu steći bolji nadzor nad načinom na koji će raditi u praksi prije nego što donesu odluke o kupovini.

„Mislim da ljudi sada imaju prilično povećanu svijest o rizicima oko ovih sistema… ali još uvijek vidimo ljude koji kupuju umjetnu inteligenciju od pitch deckova“, rekla je ona, dodajući da postoji i potreba za većom saradnjom kroz nastajajući ekosistem osiguranja AI u Velikoj Britaniji.

„Moramo da nastavimo da radimo na metrici… bilo bi [also] budite nevjerovatno razumjeti i više sarađivati ​​kako biste razumjeli koje kontrole i ublažavanja zapravo funkcionišu iu praksi, i podijelite to kako biste mogli početi imati pouzdanije sisteme u različitim sektorima.”

Konj ili zaprega: osiguranje naspram propisa

Govoreći o tome kako je evoluirao razgovor o digitalnoj etici u protekloj godini, Liam Booth-Smith – bivši šef osoblja Downing Streeta koji trenutno radi na politici, komunikaciji i strategiji u Anthropicu – napomenuo je da, iako bi globalne kompanije poput njegove više voljele pristup „najvećeg zajedničkog imenitelja“ regulaciji umjetne inteligencije – pri čemu se globalne firme maksimalno pridržavaju regulatornih standarda u skladu sa striktnim mogućim standardima. različita pravila – sama Ujedinjeno Kraljevstvo ne bi trebalo da „žuri ka regulaciji” pre nego što postoji potpuno razumevanje mogućnosti tehnologije ili načina na koji je razvijena.

“Zbog stvari poput vrlo zrelog pristupa sandboxovima, vrlo otvorenog pristupa inovacijama i regulatornim promjenama, Velika Britanija bi mogla biti najbolje mjesto na svijetu za eksperimentiranje, implementaciju i testiranje,” rekao je on, dodajući da, iako je fokus britanske vlade na izgradnji ekosistema osiguranja za AI pozitivan, zemlja neće biti vodeći u svijetu u tehnološkom razvoju, osim ako se ne popravi.

“Nećete imati vodeće svjetsko tržište osiguranja, bilo sa strane regulatornih ili komercijalnih proizvoda, ako nema ljudi koji koriste tehnologiju i koji žele kupiti proizvod osiguranja,” rekao je Booth-Smith.

Međutim, napomenuo je da izgradnja ekosistema osiguranja može biti od pomoći za promicanje povjerenja u tehnologiju, jer će i javnom i privatnom sektoru dati više povjerenja da je koriste.

“U svijetu u kojem niste glavni grad centara podataka ili možda nemate nužno graničnog provajdera modela lociranog u svojoj zemlji, morate stalno inovirati i razmišljati o tome koja je vaša relevantnost za to [global] sto, i nastavite da se rekonstruišete svakih nekoliko godina,” rekao je Booth-Smith.

Napravi korak unazad

Međutim, za Gaiu Marcus, direktoricu Instituta Ada Lovelace, iako je pozitivno govoriti o osiguranju detaljnije, “moramo napraviti veliki korak unazad” i prvo regulirati tehnologiju kao preduvjet za izgradnju povjerenja u nju.

Istaknuvši Adinu reviziju regulacije AI u Velikoj Britaniji iz jula 2023. – koja je otkrila da su „veliki dijelovi“ ekonomije ili neregulisani ili samo djelimično regulisani kada je u pitanju upotreba AI – ona je tvrdila da ne postoje stvarna pravila specifična za sektor o tome kako AI kao tehnologija opšte namjene treba da se koristi u kontekstima poput obrazovanja, policije ili rada.

Marcus je dodao da se mjerila sigurnosti za odlučivanje “kako dobro izgleda” u nizu različitih konteksta implementacije stoga mogu odlučiti samo uz odgovarajuću regulativu.

„Morate imati osnovno razumijevanje o tome kako izgleda dobro… ako imate ekosistem osiguranja u kojem ljudi odlučuju protiv čega osiguravaju, vi upoređujete jabuke, pomorandže i parove,“ rekla je.

Marcus je dodao da, zbog neumoljivog hypea i “zmijskog ulja” oko AI tehnologije, “moramo postaviti vrlo osnovna pitanja” o efikasnosti tehnologije i čijim interesima u konačnici služi.

“Spuštamo se na ovu zaista osnovnu stvar, a to je mjerenje i evaluacija, te držanje tehnologija vođenih podacima i umjetne inteligencije na istom standardu za koji biste se pridržavali bilo koje druge tehnologije,” rekla je.