Zloupotrebe umjetne inteligencije (AI) može imati neke vrlo jasne i skupe posljedice. Filmski studio Lionsgate se nedavno pridružio dugim popisu organizacija otkrivajući da citati i citate iz generativnih AI (GENAI) moraju biti provjereni kao bilo koji drugi izvor; Microsoft tuži njemački novinar nakon Bing Copilota predložio je da je počinio zločine na koje je umjesto toga izvijestio; A USLUS USLUGA plaća novčanu kaznu u iznosu od milion dolara za jednostavno prenošenje automatiziranih poziva koji sadrži lažni AI glas oponašajući predsjednika Bidinama.
Enterprise entuzijazam za usvajanje GENAI i dalje je visok, značenje organizacije su zauzete stavljanjem razne upravljačke, rizične i usklađene zaštite u pogledu njihove upotrebe u različitim jurisdikcijama. Iako je glavni razlog ograničenja AI upotrebe često privatnost podataka i sigurnosti zabrinutosti, uredba i brige o autorskim pravima su također visoki na popisu.
Dio problema za glavne službenike za informaciju (CIO) zna se tačno čime se propisi odnose na AI, sa pravne osnove korištenja ličnih podataka za obuku AI modela, na pitanja transparentnosti i diskriminacije kada se koriste AI sustavi.
Mnoge organizacije fokusiraju se na nadolazeće zakonodavstvo posebno osmišljenim za postavljanje pravila za taj razvoj i raspoređivanje AI sustava, uz kombinaciju propisa i dobrovoljnih smjernica za AI koji mogu biti pojedinačno korisni, ali čine generalni sekretar Ujedinjenih nacija António Guterres prilično uljudno nazvan a “Patchwork” potencijalno nedosljednih pravila.
Ali utjecaj novih zakona još nije osjetio, a promjene vlade u Velikoj Britaniji i SAD otežavamo predvidjeti koje će se buduće zakonodavstvo diktirati, posebno za preduzeća u Velikoj Britaniji uhvaćena između SAD-a i Evropske unije (EU).
U međuvremenu, postojeći propisi koji nisu izričito spominjati AI već primjenjuju – i primjenjuju se. Ovog ljeta, brazilski autoritet za obradu podataka prisilno je prisilio meta da prestane koristiti “javno dostupne” informacije prikupljene od svojih korisnika za obuku AI modela – na osnovu zakonitih interesnih zakona sličnih općim uredbom o zaštiti podataka (GDPR). Kompanija je morala unaprijed obavijestiti korisnike i pružiti jednostavne načine za isključivanje.
Da bi se sigurno kretali s ovom internetom propisa i zakona – i naredno i postojeće – koje pokrivaju različite faze razvoja i raspoređivanja AI, preduzeća moraju hitno primiti na rukovanje i apetit za izvršenje u zemljama u kojima djeluju.
Evolving prioriteti Velike Britanije
Iako je vjerovatno da će biti AI Bill u Velikoj Britaniji, niti jedan od dvaju privatnih članova koji ne prolaze kroz kuću lordova pouzdan je vodič ka koji bi mogao izgledati buduće zakonodavstvo.
Čini se da će vlada vjerojatno uzimati potpuno isti “pro-inovacijski” uredbu AI-a kao prethodni, posebno jer je potpisan u okvirnu konvenciju Vijeća Evrope o AI i ljudskim pravima (koja pokriva upotrebu AI vlade i Ostala javna tijela).
Trenutno je istraživačka organizacija, moguća institut za sigurnost u Velikoj Britaniji može dobiti novu ulogu kao dodatni regulator, zajedno sa Uredom za informacije (ICO), OFCOCOM-u, Agenciji za finansijsko ponašanje i Natječaj i ormar (CMA) .
Izvještaj vlade o tome Osiguravajući odgovornu budućnost za Ai predviđa komercijalni ekosustav alata “AI osiguranja” za vođenje preduzeća koje koriste AI za ublažavanje rizika i štete. Obećava AI platformu za osiguranje s alatima na osnovu standarda kao što su ISO / IEC 42001 (pokrivajući AI sustave upravljanja), AI AI AI i okvir upravljanja rizikom NIST AI. Zaista, postojeći GRC alati poput Microsoft PurView menadžera usklađenosti već predstavljaju predloške izvještavanja koji pokrivaju ove propise.
Što se tiče pružatelja AI, ministar za buduću digitalnu ekonomiju i mrežnu sigurnost, baruna, baronoss Jones, rekao je Svjetsku konferenciju AI organizacije AI, Vlada će uskoro “donijeti visoko ciljanu obavezujuću regulaciju o pregršt preduzeća u razvoju najmoćnijih AI sistema”.
Slično tome, nedavno je izdao otvoreno pismo pružateljima usluga na mreži koji ih podsjećaju na internetski akt o sigurnosti (koji nameće dodatne zadatke na pretraživače i uslugama poruka počevši od početka sljedeće godine) također se odnosi na modele GENAI i Chatbots. To je namijenjeno velikim AI platformama, ali tvrtke koje koriste usluge za stvaranje chatbota, na primjer, za korisničku službu, željet će ih temeljito testirati i osigurati da su sigurne zaštite sadržaja uključene.
Zahtevi za otkrivanje
ICO je već zatražio prilično detaljne objavljivanje iz velikih platformi poput LinkedIn, Google, Meta, Microsofta i Openaia o podacima koji se koriste za obuku njihovih genai sistema. Opet, to je obuhvaćeno Zakonom o zaštiti podataka 2018. godine, implementacija GDPR-a u Velikoj Britaniji. “Ustatno sada, GDPR regulira AI,” Lilian Edwards, direktor u Pangloss Consulting i profesoru zakon o tehnologiji na Newcastleu univerzitetu, rekao je za kompjutera.
Iako predstojeći podaci (upotreba i pristup) ne uključuje brižne reforme za prava zaštite podataka koja predlaže prethodna vlada, ne pruža nikakvu dodatnu jasnoću o utjecaju UK GDPR-a na AI, izvan postojećih smjernica iz ICO, što jasno čini da viši menadžment treba razumjeti i rješavati složene implikacije tehnologije za zaštitu podataka.
“Definicija ličnih podataka sada je vrlo vrlo, vrlo široka: podaci koji se odnose na osobu koja se može izvršiti prepoznati”, upozoreni Edwards. “Svaka kompanija AI je gotovo sigurno, ako ne i namjerno, obrađuju lične podatke.”
Općenito je upozorila glavne službenike za informacije da ne odbacimo zakonodavstvo koje ne imenuje AI posebno, napominjući da se svi postupci usklađenosti i upravljanja rizikom odnose na mjesto na mjestu. “Puno je zakona koji utječu na kompanije koje su bili oko godina za magarke da ljudi nisu toliko uzbuđeni zbog: svi normalni zakoni koji se odnose na preduzeća. Diskriminacija i jednakost: Da li na neki način kršete zakone koji su provedeni u komisiji za jednakost i ljudska prava? Da li kršite prava potrošača stavljanjem ugovavanja i odredbe u vaše ugovore? “
Edwards dalje upozorio je da AI sustavi koji isporučuju halucinacije mogu kršiti zdravstvene i sigurnosne zakone (poput Amazona prodaje knjige generirane AI koji zamišljaju otrovne gljive).
Diya Wynn, odgovorna AI vodi na web servisima Amazona, rekao je: “Svi smo bili vrlo poznati i navikli da imamo razumijevanje osjetljivosti podataka, bilo da je povjerljivo, pii ili phi. Ta svijest o podacima i zaštiti podataka i dalje je osnovna, bilo da koristite AI ili ne, i to bi trebalo poduzeti interne politike. Ako ne biste normalno dijelili PII ili povjerljive ili osjetljive informacije, a onda apsolutno ne želite da to učinite u AI sistemima koje i vi izgradite ili iskorištavate. “
Međunarodne implikacije
Uprkos (ili možda zbog) biti kod kuće glavnih AI dobavljača, SAD nemaju sveobuhvatne, AI-specifične savezne zakone. I rezultat izbora i visoko fragmentiranog zakonskog i regulatornog podešavanja (sa više vlasti na državnom i saveznom nivou) učinite nejasnim šta će, ako bilo koji, zakonodavstvo pojaviti.
Izvršni nalog za AI koji je izdao predsjednik Biden pozvao je na okvire, najbolje prakse i buduće zakonodavstvo kako bi se osiguralo da AI alati ne razbijaju postojeće zakone o diskriminaciji, radnim pravima ili kako kritička infrastruktura i financijske institucije rješavaju rizik.
Iako je naizgled široko, zapravo se primijenio na vladine službe i organizacije koje opskrbljuju američku vladu, uključujući dodjeljivanje odgovornosti za razvoj zaštitnih polova u NIST-u, što vodi američki institut za sigurnost SAD-a.
Kao što je Paula Goldman, direktor za prodaju i član Nacionalnog korištenja Savjetodavnog odbora koji savjetuje predsjednika SAD-a, napomenuo je: “U kontekstu politike, postoje stvarni, legitimni razgovori o nekim od ovih većih pitanja, poput nacionalne sigurnosti rizik ili loši glumci. U poslovnom okruženju to je drugačiji razgovor. “
Taj je razgovor o kontroli podataka i “veći nivo pažnje do dobrog upravljanja, higijene i dokumentacije o kojoj se može razgovarati na nivou odbora”.
Izvršni nalog posebno je spomenuo modele GENAI obučenih na vrlo velikim sustavima, ali postoje postojeći sustavi s navedenim nivoom resursa.
Mnoge pojedine države prošli su zakone koji pokrivaju AI, neke implementirajući principe u izvršnom nalogu, drugi koji regulišu odluke u kritičkim ili osjetljivim područjima napravljenim korištenjem GENAI-ja bez značajnog ljudskog uključivanja (opet GDPR već uključuje slične principe). Kalifornija je uvela brišući raspon zakonodavstva koji pokrivaju područja poput dubokih i ai-generiranih “digitalnih replika”, posebno zanimljive za Hollywood.
Republička kampanja govorila je o zamjeni izvršnog naloga sa AI izgrađenom na principima slobodnog govora i pomalo tajanstvenog “ljudskog cvjetanja”. Nejasno je ono što bi to izgledalo u praksi – posebno s obzirom na sukobljene interese raznih donatora i savjetnika – i organizacija koje posluju u SAD-u morat će se nositi s ovim zakrpama u propisu neko vrijeme da dođu.
EU može postaviti ton
S druge strane, EU je prva nadležnost za prolazak zakonodavstva specifičnog za AI, a EU AI djeluju i najcjelovitija uredba AI i onaj koji se dobavljači aktivno pripremaju. “Posebno gradimo u naše proizvode, u onoliko koliko možemo, poštivanje zakona EU AI,” Marco Casalaina, potpredsjednik proizvoda na platformi Azure Ai, rekao je za kompjuterski tjednik.
To je nešto što Goldman očekuje preduzeća da mogu dobrodošli. “Definitivno smo čuli želju da osiguramo da su ovi režimi interoperabilni, tako da postoji sveobuhvatni skup standarda koji se mogu na globalnoj razini odnositi”, rekla je. “Iskreno, puno je za praćenje.”
Konvencija Vijeća Europe slijedi slične principe, a ako to dovodi do globalnog zakonodavstva koji se usklade s njim na isti način da je GDPR utjecao na zakonodavstvo širom svijeta, koji će pojednostaviti poštivanje mnogih organizacija.
To nikako nije sigurno (postoje već ai zakoni koji postoje u Australiji, Brazilu i Kini), ali bilo koji posao koji djeluje u EU ili sa kupcima EU-a, sigurno će se u tome trebati poštivati. I za razliku od većine dobrovoljnog pristupa izvršnog naloga izvršnog naloga, akt dolazi s uobičajenim kaznama – u ovom slučaju, do 3% globalnog prometa.
Prvo što se pamti je da se novo zakonodavstvo odnosi pored širokog spektra postojećih zakona koji pokrivaju intelektualno vlasništvo, zaštitu podataka i privatnost, finansijske usluge, zaštitu potrošača i antitrust.
“Odlikuje se ovom džinovskom paketu zakona EU-a, tako da pokriva samo prilično malu količinu”, rekao je Edwards.
Zakon ne regulira pretragu, društvene medije ili čak preporučuje sisteme, koji se namijenjeni zakonodavstvom provođenjem Zakona o digitalnim uslugama.
Umjesto da se fokusira na konkretne tehnologije, AI AI AI će se pokazati da AI proizvodi i usluge dostupne u EU u skladu sa sigurnosnim zahtjevima proizvoda, koji uključuju sigurnost podataka i privatnost korisnika, na isti način na koji CE oznaka djeluje kao pasoš za prodaju fizičkih proizvoda na tržištu EU.
Zakon pokriva i tradicionalnu i generativnu AI; Posljednje odredbe očito su rad u tijeku uglavnom namijenjen primjeni na pružatelje AI, koji se moraju registrirati u EU bazi podataka. Kao u američkom izvršnom poretku, modeli opće namjene sa “sistemskim rizicima” (poput dezinformacija ili diskriminacije) su kategorizirani Kapacitet sustava bili su obučeni, ali na nivou sistema obuke koje su već koristili pružatelji usluga kao što su Microsoft i Openai, a ne budući sustavi.
Najistaknutiji (ili izravni zabrani) odnosi se na specifične upotrebe visokog rizika, koji su pretežno u javnom sektoru, ali uključuju i kritičnu infrastrukturu i zapošljavanje.
“Ako izgradite chatbot za provjeru kandidata za zapošljavanje”, upozorio je Edwards, to bi palo u kategoriju visokog rizika. AI sustavi sa ograničenim rizikom (koji uključuje chatboti) zahtijevaju transparentnost (uključujući informiranje korisnika o AI sustavu): one s minimalnim ili nikakvim rizikom, poput neželjenih filtera, nisu regulirani Zakonom.
Ovi visoko rizični AI sustavi zahtijevaju ocjene usaglašenosti koje je opisala kao “dugačak popis vrlo razumnih strojnih zahtjeva za učenjem: transparentnost, ublažavanje rizika, gledajući vaš skup podataka i testiranja i cyber sigurnost. Mora se dobro osposobiti, mora se dobro označiti, mora biti reprezentativan, to mora biti puno grešaka. “
Pružatelji AI-a moraju otkriti barem sažetak svog skupa treninga, kao i rizike koji su uključeni u korištenje ovih AI sistema “, tako da možete vidjeti koji su rizici ublaženi i koji su označeni kao da nisu ublaženi”, rekao je Edwards.
Izvorna namjena Zakona bila je regulirati tradicionalne AI sustave (ne modele) sa specifičnom, namjeravanom upotrebom (poput treninga, obrazovanja ili sudske kazne) i osigurati da ostanu u skladu s praćenjem ažuriranja i modifikacija. To čini manje smisla za GENAI, koji je rijetko dizajniran za jednu svrhu, ali princip ostaje. Organizacije raspoređuju geneine sisteme imaju manje odgovornosti od AI pružatelja za čin, ali ako dostave dovoljno modifikacije za ove da bi se oni računali kao novi sistem (uključujući njihovo ime ili zaštitni znak), također će im trebati procjenu sukladnosti ako padnu u kategoriju visokog rizika.
Kodeks prakse
Još nije jasno da li bi se dobro podešavanje, krpe ili čak mijenjao s jednog velikog jezičnog modela na drugi bitno ubrojio kao značajnu izmjenu, jer se šifra prakse za “opću namjenu” geneine sustave još uvijek piše.
Sve dok se ne pojačaju pozicija za preduzeća za upotrebu GENAI (i i situaciju za modele otvorene težine), “Nije sigurno koliko će se to primijeniti na svakodnevne pojedince ili preduzeća”, Edwards je rekao za kompleks tjedno.
Zakon stupa na snagu u narednih nekoliko godina, sa nekim odredbama koje nisu na snazi do kraja 2030. godine. Čak i ako EU poprima isti pristup kao i sa GDPR-om (da se propise vrlo javno na nekim većim dobavljačima pošalje poruke ), to može potrajati neko vrijeme – iako multinacionalna preduzeća već mogu razmišljati da li koriste iste AI alate u svim jurisdikcijama.
Ali jedna stvar koju svim organizacijama koriste AI obuhvaćene činom morat će se baviti vrlo brzo, jesu li sigurno osoblje ima dovoljno obuke u odgovornoj AI i regulatornu poštivanje “AI pismenosti” do 2025. februara.
“Nije samo za vaše advokate,” Edwards upozorava: Svako kojom se bavi operacijom i upotrebom AI sistema treba razumjeti raspoređivanje tih sustava i mogućnosti i rizika i rizika.
Takva vrsta svijesti važna je za sve veće od AI-a i da se napreduje u igru, a ne čekajući uredbu da diktiraju mjere sigurnosti čini dobar poslovni smisao.
Kao što je Forrester potpredsednik Brandon Purcell stavio: “Većina timova za pravnu i usklađenost sa savoljnim pravnim i usklađenim tim znaju da ako postoji problem sa iskustvom koji uključuje vaš brend, vi ćete biti kriv na neki način, možda ne u parnicama, ali sigurno ne u sudjelovanju, ali sigurno Sud javnog mišljenja. “