AI i saglasnost: Koji su rizici?

anketa.plus
Izvor: anketa.plus

Gledamo područja rizika u umjetnoj inteligenciji. Potencijalne izloženosti obiluju i uključuju sigurnost i pitanja o privatnosti, pristranosti, tačnost i potpunu izradu rezultata

Od

  • Stephen Pritchard

Objavljeno: 28. maja 2025. godine

Brz rast umjetne inteligencije (AI), posebno generirati AI (GENAI) i chatboti, pruža mogućnost bogatstva mogućnosti za poboljšanje načina na koji rade s kupcima, pogoršavaju efikasnost i ubrzavaju radno intenzivne zadatke.

Ali Genai je takođe donio probleme. Ovi se kreću od sigurnosnih nedostataka i privatnosti za pitanja o pristrasnosti, tačnosti, čak i halucinacijama, gdje je AI odgovor potpuno neistinit.

Razumljivo, ovo je pripazilo za zaštitu zakonodavca i regulatora. U međuvremenu, funkcije interne usaglašenosti kupaca našli su se da igraju nadoknadu sa brzo razvojem i složenim tehnologijama.

U ovom smo članku gledamo AI i potencijalne rizike koje predstavlja usklađenost u pravnim i regulatornim sredinama, a zašto timovi za usklađivanje moraju dobro pogledati pod kapuljaču kako bi pronašli slabosti i ranjivosti, a koliko su pouzdani izvorni i izlazni podaci.

Najčešći Enterprise AI projekti uglavnom uključuju GENAI ili velike jezične modele (LLMS). Oni rade kao chatbots, odgovori u upite ili pružaju preporuke proizvoda kupcima. Pretraživanje, sažetak ili prevođenje dokumenata još je jedna popularna služba za upotrebu.

Ali AI se takođe koristi u područjima kao što su otkrivanje prevara, nadzor i medicinsko snimanje i dijagnozu; Sva područja u kojima su ulozi mnogo veći. To je dovelo do pitanja o tome kako ili da li treba koristiti AI.

Organizacije su pronašle AI sisteme mogu proizvesti greške, kao i netačne ili pogrešne rezultate.

Povjerljivi podaci

AI Alat su takođe procurili povjerljive podatke, bilo direktno ili zato što su zaposlenici prenijeli povjerljive dokumente u AI alat.

Onda tu ima pristranosti. Najnoviji ai algoritmi, posebno u LLMS-u, vrlo su složeni. To otežava razumijevanje tačno kako je AI sistem došao do njegovih zaključaka. Za poduzeće, ovo zauzvrat otežava objasniti ili čak opravdati ono što AI alat, kao što je chatbot, učinio.

To stvara niz rizika, posebno za poslovanje u reguliranim industrijama i javnom sektoru. Regulatori brzo ažuriraju postojeće okvire usklađenosti za pokrivanje AI rizika, nad zakonodavstvom poput zakonodavstva, poput Zakona o Europskoj uniji (EU) AI.

Istraživanje industrijskih analitičara Forrester identificira više od 20 novih prijetnji koje proizlaze iz GENAI-ja, od kojih se neki odnose na sigurnost. Oni uključuju neuspjeh u korištenju sigurnog koda za izgradnju AI sistema ili zlonamjernih aktera koji prelaze sa AI modelima. Drugi, poput curenja podataka, neovlaštenost podataka i nedostatak integriteta podataka, rizik koji uzrokuje regulatorne neuspjehe čak i kada je model siguran.

Situacija se pogoršava rastom “sjene AI”, gdje zaposlenici koriste AI alate nezvanično. “Najčešća implementacija vjerovatno će biti ona koja preduzeća nisu ni svjesna”, upozorava na James Bore, savjetnika koji radi u sigurnosti i poštivanju.

“Ovo se kreće od sjene u odjelima, pojedincima koji hrane korporativnim podacima AI-u da pojednostave svoje uloge. Većina kompanija nije u potpunosti smatrala poštivanjem oko Ai, pa čak i oni koji imaju ograničene kontrole kako bi se spriječilo zloupotrebe.”

Ovo zahtijeva glavne službenike za informacije (CIO) i službenike podataka da se pogledaju na sve načine da se Ai može koristiti u cijeloj poslovanju i stavljati mjere kontrole.

Izdanje izvora AI-a

Prvo područje za preduzeća za kontrolu je kako koriste podatke sa AI. Ovo se odnosi na trening modela i na zaključak ili proizvodnju, fazu AI.

Preduzeća trebaju provjeriti da imaju prava na upotrebu podataka za AI svrhe. To uključuje autorska prava, posebno za podatke treće strane. Osobni identificirani podaci koji se koriste za AI obuhvaćeni su općim regulacijom zaštite podataka (GDPR) i industrijski propisi. Organizacije ne bi trebale pretpostaviti da postojeća obrada podataka pokriva AI aplikacije.

Tada postoji pitanje kvalitete podataka. Ako organizacija koristi loše kvalitetne podatke za obuku modela, rezultati će biti netačni ili zabludni.

To, zauzvrat kreira rizik poštivanja – i ti rizici se možda neće ukloniti, čak ni ako organizacija koristi anonimne podatke.

“Izvorni podaci ostaju jedna od najobilica za previdjenu rizičnu površinu, upozorava na službenika Ralf Lindenlaub, glavnog rješenja, u Sify tehnologijama, to i to prakticira.” Kaže za zakone o privatnosti u Velikoj Britaniji “, kaže on.” Postoji i lažni osjećaj sigurnosti u anonimnosti. Veliki dio tih podataka mogu se ponovo identificirati ili nositi sistemske pristranosti.

“Javni podaci koji se koriste u velikim jezičkim modelima iz globalnih tehničkih pružatelja usluga često ne ispunjavaju evropske standarde privatnosti. Za AI će biti zaista pouzdan, organizacije moraju pažljivo kucati i kontrolirati podatke koje koriste, posebno kada modeli mogu utjecati na odluke ili regulirane ishode.”

Daljnji nivo složenosti dolazi s kojima rade AI modeli. Iako interes za premise AI raste, najčešći LLMS je zasnovan na oblaku. Tvrtke moraju provjeriti da imaju dozvolu za premještanje podataka na mjesto gdje ih njihov dobavljači oblaka pohranjuju.

AI izlazi i usklađenost

Daljnji skup usklađenosti i regulatornih pitanja odnosi se na rezultate AI modela.

Najočitiji rizik je da se povjerljivi rezultati AI procuri ili ukradu. I kao firme povezuju svoje AI sisteme na interne dokumente ili izvore podataka, taj se rizik povećava.

Bilo je slučajeva u kojima su korisnici AI izloženi povjerljivim informacijama zlonamjerno ili nenamjerno kroz svoje upute. Jedan uzrok koristi povjerljive podatke za obuku modela, bez odgovarajućih zaštitnih mjera.

Tada postoji rizik da je izlaz AI modela jednostavno pogrešan.

“AI izlazi mogu se pojaviti samopouzdano, ali biti u potpunosti lažno, pristrasno ili čak kršenje privatnosti”, upozorava Sify’s Lindenlaub. “Preduzeća često podcjenjuju koliko štetnog rezultata može biti, od diskriminatornog zapošljavanja nepravilnog pravnog ili financijskog savjeta. Bez rigorozne validacije i nadzora ljudskog jezika, ovi rizici postaju operativne obveze.”

A rizik je i dalje veći sa “Agentic” AI sistemima, gdje više modela djeluje zajedno na pokretanje poslovnog procesa. Ako izlaz iz jednog modela nije u redu, ili pristrasan, ta će se greška biti spojena jer se kreće od agenta na agent.

Regulatorne posljedice bi mogle biti ozbiljne, jer bi jedan pogrešan izlaz mogao rezultirati da su brojni kupci odbijeni kredit ili negirani intervju za posao.

“Najočitiji problem sa izlazima iz AI je da generiraju jezik, a ne informacije”, kaže James Bore. “Uprkos načinu na koji su predstavljeni, LLMS ne analiziraju, nemaju nikakvo razumijevanje, niti čak ponderiranje za činjenicu nasuprot fikciji, osim onih ugrađenih u njih kao što su ugrađeni u njih.

“Oni divlje baluciniraju i još gore, to čine na vrlo uvjerljivim načinima, jer su dobri na jeziku”, dodaje on. “Nikada se ne mogu vjerovati bez detaljne provjere činjenica – a ne drugi llm.”

Preduzeća mogu, i koristiti, koristiti AI na kompatibilan način, ali CIO i glavni digitalni službenici moraju pažljivo razmotriti rizike poštivanja u obuci, zaključivanju i načinu na koji koriste rezultate AI-ja.

Pročitajte više o oporavku i sigurnosti katastrofa podataka i sigurnost

  • Šta je pristranost automatizacije?

    Napisao: Kathleen Richards

  • GENAI brze tehničke taktike za mrežne profesionalce

    Napisao: Verlaine Muhungu

  • 8 Slučajevi poslovne upotrebe za Chaggpt u 2025. godini

    Napisao: Kashyap kompella

  • Da li vaša organizacija treba li bibliotekar AI?