Spremnik za sigurnost smatra da CISOS može najbolje planirati olakšati sigurnu pokretanje inicijativa zasnovanih na AI i Gen Ai i osigurati da zaposlenici ne pohranjuju nehotice nehotice ne dobijaju podatke o propuštanju ili donose loše odluke.
Od
- Aditya K Soud, Aryaka
Objavljeno: 04. jun 2025
Rasprostranjeno usvajanje aplikacija i usluga i usluga i usluga AI) pokreće temeljni pomak u načinu na koji su glavni službenici sigurnosti podataka (Ciso) strukturiraju svoje cyber sigurnosne politike i strategije.
Jedinstvene karakteristike AI, njegove prirode intenzivne podatke, složene modele i potencijal za autonomno odlučivanje uvode nove napadačke površine i rizike koji zahtijevaju neposrednu i posebnu poboljšanju politike i strateške pohrani politike i strateške pohvale politike i strateške pohvale politike i strateške pohvale politike.
Primarni ciljevi su sprečavanje nehotičnih curenja podataka od strane zaposlenika koji koriste AI i generativni AI (GENEI (GENEI (GENEIVE) aS tako da se odluke zasnovane na AI sistemima ne ugroženi zlonamjerni akteri, bilo da je unutrašnji ili vanjski. Ispod je strateški nacrt Cisosa za usklađivanje cingencije sa sigurnosnim raspoređivanjem i korištenjem GENAI sistema.
- Revamp prihvatljiva politika za rukovanje i rukovanje podacima za AI: Postojeće politike prihvatljive uporabe (AUP) moraju se sporno ažurirati kako bi se riješila upotreba AI alata izričito zabrana unosa osjetljivih, povjerljivih ili vlasničkih podataka tvrtke u javne ili neodobrene AI modele. Osjetljivi podaci mogu uključivati korisničke lične podatke, financijske evidencije ili trgovinske tajne. Politike bi trebale jasno definirati ono što predstavlja “osjetljive” podatke u kontekstu AI-ja. Politike rukovanja podacima također moraju detaljno detaljno detaljno opisati za animonizaciju, pseudonimizaciju i tokenizaciju podataka koji se koriste za interni trening modela AI ili fino podešavanje.
- Ublažiti kompromise i varanje AI sistema: Cisos se moraju fokusirati na integritet i sigurnost AI sistema. Instalirajte sigurnosne prakse u cijeli AI razvojni cjevovod, od sigurnog kodiranja za AI modele do rigoroznog ispitivanja za ranjivosti poput brzog ubrizgavanja, trovanja podataka i inverzije modela. Implementirajte jake filtere i validatora za sve podatke koji ulaze u AI sustav (upita, preuzeli podatke za krpu) kako bi se spriječilo protivničke napade. Slično tome, svi AI generirani izlazi moraju se sanitizirati i potvrditi prije nego što su prezentirani korisnicima ili se koriste u nizvodnim sistemima kako bi se izbjegle zlonamjerne injekcije. Gdje god je izvediv, rasporedio AI sustave sa XAI mogućnostima, omogućavajući transparentnost u načinu donošenja odluka. Za odluke sa visokim ulozima, mandat ljudskog nadzora prilikom rukovanja osjetljivim podacima ili izvođenje nepovratnih operacija kako bi se osigurala konačna zaštita od ugroženih AI izlaza.
- Izgradnja elastičnih i sigurnih ai razvojnih cjevovoda: Osiguravanje AI razvojnih cjevovoda je najvažnije za osiguranje pouzdanosti i otpornosti AI aplikacija integrirane u kritičnu mrežnu infrastrukturu, proizvode za sigurnost i kolaborativna rješenja. Nuzišta da ugrađuje sigurnost u cijelom AI LifeCicleu. GENEI kôd, modeli i obuke skupova su dio modernog lanca opskrbe softca. Sigurni aips cjevovodi sa najboljim praksama CI / CD-a, koda Potpisivanje i provjere integriteta modela. Skenirajte obuku podataka i artefakti modela za zlonamjerni kod ili trojanske utege. Vet treći modeli i biblioteke za atrakcije i usklađenost sa licencem.
- Implementirati sveobuhvatni okvir upravljanja AI: Cisos moraju prvak izrade okvira upravljanja preduzećem koji ugrađuje sigurnost u širokom AI koji ugrađuje sigurnost. AI rizici ne bi trebali biti izolirani, već utkani u praksu rizičnog i usklađenosti na širokom preduzeću. Ovaj okvir bi trebao definirati eksplicitne uloge i odgovornosti za razvoj, raspoređivanje i nadzor AI za uspostavljanje procesa upravljanja rizikom u centru. Treba održavati centralizirani inventar odobrenih ai alata AI, zajedno sa njihovim klasifikacijama rizika. Okvir upravljanja značajno pomaže u upravljanju rizikom povezanim sa “sjenom AI”, upotrebom intrancizacije AI alata ili usluga. Mandat je odobrio samo AI alate i blokirati sve ostale AI alate i usluge.
- Ojačati alate za prevenciju podataka o gubicima (DLPS) za AI Workflews: DLP strategije moraju se razviti za otkrivanje i sprečavanje osjetljivih podataka da uđu u neovlašteni AI okruženja ili biraju se putem AI izlaza. Ovo uključuje konfiguriranje DLP alata za posebno nadgledanje kanala za interakciju AI (npr. CHAT sučelja i API pozivi na LLMS), identificiranje uzoraka u unosu osjetljivih podataka. Pravila za DLP specifične za AI moraju se razviti za blokiranje ili zastava pokušajima zalijepiti PII, intelektualno vlasništvo ili povjerljivi kôd u javne AI upite.
- Poboljšajte zaposleniku i vođstvo AI obuke za podizanje svijesti: Zaposleni su često najslabija vezu u organizaciji. Cisos moraju implementirati ciljane, kontinuirane programe obuke o prihvatljivoj upotrebi AI-a, identificirati AI-CENTRICE prijetnje, promoviraju najbolje prakse inženjerstva i pružaju obrazovanje o izvještavanju o sigurnosnim incidentima koji se odnose na zloupotrebu AI alata i potencijalnog kompromisa.
- Upravljanje rizikom za institut za AI usluge: Kako se kompanije sve više oslanjaju na usluge treće strane AI, Cisos moraju poboljšati svoje programe upravljanja rizikom treće strane (TPRM) za rješavanje ovih rizika. Oni bi trebali definirati standarde za procjenu sigurnosnog položaja lanca opskrbe AI-e, pridržavajući se robusnih ugovornih klauzula koji mandat sigurnosnih standarda, privatnost podataka, odgovornost za kršenja i revizijskih pružatelja usluga za pružatelje usluga AI. Trebalo bi postojati dubinska sigurnosna procjena dobavljača AI, pregledavajući svoje prakse za rukovanje podacima, sigurnosti modela, sigurnosti API-ja i sposobnosti specifične za AI specifične.
- Integrirajte kontinuirano nadgledanje i protivničke testiranje: U neprestano razvijajućim krajolikom AI prijetnji i rizika, statičke sigurnosne mjere su nedovoljne. Cisos bi trebali naglasiti važnost kontinuiranog praćenja AI sistema za otkrivanje potencijalnih kompromisa, propuštanja podataka ili protivničkih napada – signalizirane neobičnim promptim uzorcima, neočekivanim izlazima ili nagle promjene u ponašanju modela. Redovno crveno udruženo i vežbe protivničke testiranja, posebno dizajnirane za eksploataciju ranjivosti AI-a trebale bi pomoći organizacijama da spoti subota pred zlobnim akterima.
Cisos koji čine ove promjene bit će bolje da upravljaju rizicima povezanim sa AI-om, omogućavajući sigurnosne prakse da nastave u tempo ili prevladavanju ispred raspoređivanja AI. Ovo zahtijeva pomak od reaktivne odbrane na proaktivni, adaptivni sigurnosni držanje upleten u tkaninu AI inicijativa.
Aditya K Sood je potpredsjednik sigurnosnog inženjerstva i AI strategije u ARYAKA.
Pročitajte više o planiranju kontinuiteta poslovanja
-
Procjena rizika od AI-a u preduzeću
Napisao: Cliff Saran
-
CISO PlayBook za osiguranje AI u preduzeću
Napisao: John Doan
-
Za AI agente je potrebno bolje upravljanje
Napisao: Mandy Andress
-
CISO Evolution: od gažera sigurnosti do strateškog lidera
Napisao: Džirad murphy