AI Sigurnost: Balansiranje inovacija sa zaštitom

anketa.plus
Izvor: anketa.plus

Spremnik za sigurnost smatra da CISOS može najbolje planirati olakšati sigurnu pokretanje inicijativa zasnovanih na AI i Gen Ai i osigurati da zaposlenici ne pohranjuju nehotice nehotice ne dobijaju podatke o propuštanju ili donose loše odluke.

Od

  • Javvad Malik, znanje4

Objavljeno: 02. jun 2025

Sjećate se da se pričvršćuju za USB blokade jer osoblje nastavi u misterioznim bljeskalicima? Ili nagli porast u blokiranju skladištenja u oblaku, jer zaposlenici dijele osjetljive dokumente putem ličnih dropbox računa? Danas se suočavamo sa sličnim scenarijom s neovlaštenim upotrebom AI, ali ovaj put su ulozi potencijalno veći.

Izazov više nije samo istjecanje podataka, iako ostaje značajna zabrinutost. Sada navodimo teritoriju u kojoj AI sustavi mogu biti ugroženi, manipulirani ili čak “dostavljeni” kako bi utjecale na poslovne odluke. Dok raširena zlonamjerna AI manipulacija nije široko vidljiva, potencijal za takve napade postoji i raste s našim sve većom oslanjanjem na ove sisteme. Kao što je Bruce Schneier prikladno ispitivao na RSA konferenciji ranije ove godine “, da li je vaš chatbot preporučio određenu aviokompaniju ili hotel jer je to najbolja ponuda za vas ili zato što je kompanija AI dobila povratni udarac?”

Baš kao što je sjena pojavila od zaposlenih koji traže efikasna rješenja dnevnih izazova, neovlaštena AI koristi stabljike iz iste ljudske želje za rad pametnijom, a ne teže. Kada marketinški tim hrani korporativnim podacima u chatgpt, njihova namjera nije zlonamjerna, jednostavno pokušavaju brže pisati bolje kopiju. Slično tome, programeri koji koriste neslužbene asistente za kodiranje često pokušavaju ispuniti uske rokove. Međutim, svaka interakcija s neovlaštenim i nevezanim AI sistemom uvodi potencijalne točke izlaganja za osjetljive podatke.

Pravi rizik leži u moćnoj kombinaciji dva faktora – jednostavnost s kojim zaposleni mogu pristupiti moćnim AI alatima, a implicitno povjerenje mnogim mestom u AI generiranim izlazima. Moramo se obratiti oboje. Iako se mogućnost kompromisa AI sustava može izgledati daljinski, veći neposredan rizik dolazi od zaposlenih koji donose odluke na temelju AI-generiranog sadržaja bez odgovarajuće provjere. Zamislite AI kao izuzetno samouvjeren staž. To je korisno i puno prijedloga, ali zahtijevajući nadzor i provjeru.

Organizacije za razmišljanje kreću se izvan jednostavnih restriktivnih politika. Umjesto toga, razvijaju okvire koji prihvataju AI vrijednost dok udvaraju potrebne i odgovarajuće zaštitne mjere. To uključuje pružanje sigurnih, ovlaštenih AI alata koji ispunjavaju potrebe zaposlenih tijekom provođenja procesa verifikacije za AI generirane izlaze. Riječ je o njegovanju kulture zdravog skepticizma i ohrabrivanje zaposlenih u povjerenje, ali provjeriti, bez obzira na to kako se može činiti autoritativnim AI sistemom.

Obrazovanje igra presudnu ulogu, ali ne i kroz obuku zasnovanu na strahu o rizicima AI. Umjesto toga, organizacije trebaju pomoći zaposlenima da razumiju kontekst upotrebe AI – kako ovi sistemi rade, njihova ograničenja i kritična važnost verifikacije. To uključuje nastavu jednostavne i praktične tehnike verifikacije i uspostavljanje jasnih staza za eskalaciju kada AI izlazi izgledaju sumnjivo ili neobično.

Najefikasniji pristup kombinira sigurne alate sa pametnim procesima. Organizacije bi trebale osigurati provjerene i odobrene AI platforme, istovremeno uspostavljajući jasne smjernice za rukovanje podacima i izlazne provjere. Ne radi se o ugušenju inovacija – radi se o tome da ga sigurno omogući. Kada zaposleni razumiju i mogućnosti i ograničenja AI sistema, bolje su opremljeni da ih koriste odgovorno.

Gledajući unaprijed, organizacije koje će uspjeti u osiguranju njihovih AI inicijativa nisu one sa najstrožim politikama – one su najbolje razumjeti i rade s ljudskim ponašanjem. Baš kao što smo naučili osigurati skladištenje u oblaku pružanjem održivih alternativa na lične dropbox račune, osigurat ćemo AI osnaživanjem zaposlenika s pravim alatima uz održavanje organizacijske sigurnosti.

Konačno, AI Security je više od zaštite sistema – radi o zaštiti procesa donošenja odluka. Svaki AI generirani izlaz treba procijeniti kroz objektiv poslovnog konteksta i zdravog razuma. Podstičući kulturu u kojoj se provjerava rutina i ohrabruju se pitanja, organizacije mogu iskoristiti AI-ove koristima dok ublažavaju rizike.

Kao kočnice na F1 automobilu koji omogućava da se brže vozi, sigurnost ne radi o ometanju rada: radi se o tome da ga sigurno olakša. Nikada ne smijemo zaboraviti da je ljudska presuda ostaje naša najvrijednija odbrana od manipulacije i kompromisa.

Javvad Malik je vodeći zagovor o sigurnosnoj svijesti o tome na knowbe4

Pročitajte više o sigurnosnoj politici i svijesti korisnika

  • Procjena rizika od AI-a u preduzeću

    Napisao: Cliff Saran

  • Za AI agente je potrebno bolje upravljanje

    Napisao: Mandy Andress

  • AI Mmap G7 AI koji nedostaje IP zaštita jedna je s rupama

    Napisao: Cliff Saran

  • Učvršćivanje budućnosti: Pivotalna uloga Cisosa u AI operacijama