Prvi Međunarodni izvještaj o sigurnosti AI Koristit će se za informiranje na nadolazećim diplomatskim raspravama o tome kako ublažiti različite opasnosti povezane s umjetnom inteligencijom (AI), ali ističe se da postoji još uvijek visok stepen nesigurnosti i načina na koji se najbolje bave mnogim prijetnjama.
Naručeno nakon navodnog samita sigurnosti AI koji je domaćin Vlade u Velikoj Britaniji u parku Bletchley u novembru 2023. godine – i na čelu sa AI akademskom Yoshua Bengio – u izvještaju, uključujući i njegov utjecaj na poslove i okoliš, i kako može pojačati društvene pristranosti.
Takođe ispituje rizike povezane sa tržišnim koncentracijama preko AI i rastućeg “AI R & D [Research and Development] Podijelite “, ali je ograničeno na gledanje svih ovih rizika u kontekstu sistema koji mogu obavljati širok izbor zadataka, inače poznat kao opći ai.
Za svaki od mnogih rizika, izvještaj se suzdržao od crtanja konačnih zaključaka, ističući visok stupanj nesigurnosti okolike kako će se razviti brza premještanja tehnologije. To je pozvao na daljnje praćenje i prikupljanje dokaza u svakom području.
“Trenutni dokazi ukazuju na dva centralna izazova u upravljanju rizikom opće namjene”, najavio je. “Prvo je teško dati prioritet rizika zbog nesigurnosti o njihovoj težini i verovatnoću pojave. Drugo, može biti složen za određivanje odgovarajućih uloga i odgovornosti u okviru lanca vrijednosti AI i za poticanje efikasne akcije. “
Međutim, izveštaj je u svom zaključku jasno da su svi potencijalni budući uticaji AI-a II-a prvenstveno političko pitanje, što će se danas odrediti izborima društva i vlada.
“Kako je razvijen ai-namena i od koga, koji su problemi dizajnirani za rješavanje, da li ćemo moći iskoristiti njegov puni ekonomski potencijal, a time rizika koje danas izlažemo i u budućnosti kako bi se oblikovali razvoj AI-a opće namjene”, a dodavanje postoji hitna potreba za međunarodnom suradnjom i dogovorom o tim pitanjima.
“Konstruktivna naučna i javna rasprava bit će ključna za društva i kreatore politika da naprave prave izbore.”
Nalazi izveštaja – koji se sagrade na privremenom sigurnosnom izveštaju AI koji je objavljen u maju 2024. godine koji je pokazao stručnog sporazuma u najvećim rizicima – namerava da informiše diskusiju na nadolazećem AI Action samitu u Francuskoj, koji slijedi iz dva prethodna samita u Blecchleyju i Seulu, Južna Koreja.
“Umjetna inteligencija je središnja tema našeg vremena, a njena sigurnost je ključna zaklada za izgradnju povjerenja i njegovanju usvajanja. Naučna istraživanja moraju ostati temeljni stup koji vodi ove napore “, rekao je Clara Chappaz, francuski ministar delegat za AI i digitalne tehnologije.
“Ova prva sveobuhvatna naučna procjena pruža bazu dokaza potrebnih za društva i vlade da oblikuju budući smjer u obliku ai. Ovi uvidi će informirati ključne diskusije na predstojećem samitu AI Action u Parizu. “
Sistemski rizici
U ispitivanju širih društvenih rizika raspoređivanja AI – izvan mogućnosti bilo kojeg pojedinačnog modela – Izvještaj je rekao da je posebno utjecaj na tržišta rada “vjerovatno da će biti dubok”.
Primijetilo je da će u točno postojati značajna nesigurnost na način na tržišta rada, dobit će donošenja produktivnosti u tehnologiji “povećavajući plaće za neke radnike”, s najznačajnijim utjecajima na poslove koji se uglavnom sastoje od kognitivnih zadataka.
Poboljšane mogućnosti opće namjene AI također će vjerojatno povećati trenutne rizike za autonomiju radnika i blagostanja, rečeno, ističući štetne efekte “kontinuirano nadgledanje odluka o radnoj prevodu”, posebno za logističke radnike.
U skladu s ocjenom AI-javih utjecaja na nejednakost Međunarodnog monetarnog fonda (MMF) – koji je pronašao AI vjerovatno će se pogoršati nejednakost bez političke intervencije – “AI-a automatizacija rada vjerovatno će pogoršati nejednakost smanjenjem udjela u odnosu na vlasnike kapitala u odnosu na vlasnike kapitala.”
Nejednakost bi se moglo dodatno produbiti kao rezultat onoga što izvještaj uvode “AI R & D Podijeli”, u kojem je razvoj tehnologije visoko koncentriran u rukama velikih zemalja koje se nalaze u zemljama s jakom digitalnom infrastrukturom.
“Na primer, 2023. godine u SAD-u razvijena je većina značajnih AI modela AI (56%). Ova razlika izlaže mnogih lmics [low- and middle-income countries] Rizici ovisnosti i moglo bi se pogoršati postojeće nejednakosti “, kazalo je, dodajući da su troškovi razvoja postavljeni samo za porast, pogoršavajući ovu podjelu dalje.
Izvještaj je također istaknuo rastući trend “duha rada”, koji se odnosi na uglavnom skrivenu radnu snagu koji obavljaju radnici – često u nesigurnim uvjetima u zemljama sa malim primanjima – za podršku razvoju AI modela. To je dodalo da iako ovaj rad može ljudima da pruži ekonomske prilike “, priroda ugovora u ovom radu često pruža nekoliko prednosti i zaštite radnika i manje stabilnosti na radu, jer su platforme zakretaju tržište za pronalaženje jeftinijeg rada”.
Povezano na sve ovo je “visok stepen” koncentracije tržišta oko AI-a, što omogućava malom šaku moćnih kompanija da dominiraju odlučivanje oko razvoja i upotrebe tehnologije.
Na utjecaju na okoliš, izvještaj je primijetio dok se subjekti datacentre sve više okreću obnovljivim izvorima energije, značajan dio AI treninga na globalnoj razini i dalje se oslanja na ugljen ili prirodni plin i koristi značajne količine vode.
Dodano je da je poboljšanja efikasnosti u hardveru vezanim za AI “, nisu ubrzali ukupni rast energetske upotrebe AI i eventualno ga ubrzavaju zbog” strujnih efekata “,”, ali da se “trenutne brojke u velikoj mjeri oslanjaju na procjene, koje su postale još promjenjivije i nepouzdane u budućnosti zbog brzog tempa razvoja na terenu”.
Rizici od kvara
Isticanje “konkretnih šteta” koje AI može uzrokovati pojačavanje postojećih političkih i društvenih pristranosti, izvještaj je rekao da bi moglo “dovesti do diskriminatornih rezultata, pojačanja stereotipa i sistematskog zanemarivanja određenih grupa ili gledišta”.
Posebno je napomenuo kako se većina AI sistema obučavaju na jeziku i slikama slika koje nesrazmjerno predstavljaju engleski jezik engleskog jezika, da se mnogi izbori za dizajn usklađuje sa određenim svjetonazorima na štetu drugih, te da su trenutne tehnike ublažavanja pristranosti nepouzdane.
“Holistički i participativni pristup koji uključuje razne perspektive i dionike su od suštinske važnosti za ublažavanje pristranosti”, kazalo je.
Odjekujući nalaze privremenog izvještaja oko ljudskog gubitka kontrole AI sistema – koji su neki zabrinuti mogu uzrokovati događaj na nivou izumiranja – izvještaj je priznao takve strahove, ali napomenuo je da mišljenje uvelike varira.
“Neki smatraju da je to nevjerojatno, neki smatraju da će se to vjerovatno pojaviti, a neki to vide kao skromni rizik od vjerojatnosti koji zahtijeva pažnju zbog velike ozbiljnosti”, kazalo se. “Osnijeljevniji, konkurentni pritisci mogu djelomično odrediti rizik od gubitka kontrole … [because] Konkurencija između kompanija ili između zemalja može ih dovesti do prihvaćanja većih rizika da ostanu naprijed. “
Evo Podbejskog koda:
Rizici od zlonamjernog korištenja
U pogledu zlonamjernih AI koristite, izvještaj je istaknuo pitanja oko cyber sigurnosti, dubokih materijala i njegove upotrebe u razvoju biološkog ili hemijskog oružja.
Na Deepfakesu, primijetilo je posebno štetne učinke na djecu i žene, kojima se suočavaju sa izravnim prijetnjama seksualnom zlostavljanju i nasilju.
“Trenutna metoda otkrivanja i tehnike vodenih žiga, dok napreduju, pokazuju mješovite rezultate i lice u trajnim tehničkim izazovima”, rečeno je. “To znači da trenutno nema jedinstveno robusno rješenje za otkrivanje i smanjenje širenja štetnog sadržaja generiranog AI-ja. Konačno, brzo napredovanje AI tehnologije često nadmašuje metode otkrivanja, ističući potencijalne ograničenja oslanjanja isključivo na tehničke i reaktivne intervencije. “
Na Cyber sigurnosti, primijetio je da su AI sustavi pokazali značajan napredak u autonomno identificiranju i iskorištavanju cyber ranjivosti, ti su rizici u principu, u principu, kao AI može koristiti i AI.
“Brza napredak u mogućnostima otežava isključivanje velikih rizika u skoroj roku, na taj način ističući potrebu za ocjenom i praćenjem tih rizika”, rečeno je. “Potrebne su bolje metrike za razumijevanje scenarija napada u stvarnom svijetu, posebno kada ljudi i AIS rade zajedno. Kritični izazov ublažavajuće uvredljive mogućnosti bez ugrožavanja odbrambenih aplikacija. “
Dodano je i dok novi AI modeli mogu stvoriti korake za kreiranje patogena i toksina koji nadmašuju stručnost za doktorski nivo, potencijalno doprinoseći “tehnički složeni” proces, što znači da “praktični uslužni program za novake ostaje neizvjestan”.