“Još 2020. godine,” kaže Anthony Young, izvršni direktor provajdera upravljanih sigurnosnih usluga (MSSP) Bridewell, “predviđa da će AI [artificial intelligence] bi preoblikovala odbrambene strategije izgledalo optimistično; danas izgledaju potcijenjeno.”
Iako je još uvijek teško kvantificirati preciznu mjeru u kojoj AI pokreće sajber napade u stvarnom svijetu i koliko su ti napadi zapravo ozbiljni, teško je raspravljati se s idejom da će AI postati osnova sajber odbrane.
Osvrćući se na 2025. godinu, Aditya Sood, potpredsjednik sigurnosnog inženjeringa i strategije umjetne inteligencije u Aryaki, kaže: “Generacija koda zasnovana na AI ubrzala je razvoj, ali je uvela i logičke nedostatke kada su modeli popunjavali praznine na osnovu nepotpunih uputstava. Napadi potpomognuti umjetnom inteligencijom postali su prilagođeniji i skalabilniji, što je otežalo phishing i kampanje za otkrivanje prijevara.”
Dakle, ako je 2025. bila godina u kojoj su postavljeni temelji za ove temelje, 2026. će biti godina kada će beton početi ozbiljno da sipa.
“Lekcija [of 2025] nije li AI sama po sebi nesigurna; bilo je da AI pojačava sve kontrole ili nedostatak kontrola koje ga okružuju. … AI sigurnost se više odnosi na cijeli ekosistem, uključujući LLM [large language models]GenAI [generative AI] aplikacije i usluge, AI agenti i osnovna infrastruktura,” kaže Sood.
Sazrevanje pristupa
Rik Ferguson, potpredsjednik sigurnosne obavještajne službe u Forescoutu, kaže da će pristup sajber industrije AI sazreti ove godine.
„Očekujem da ću vidjeti ozbiljnije, manje potaknuto usvajanje AI na defanzivnoj strani: korelacija slabih signala širom IT-a, OT [operational technology]oblak i identitet, kontinuirano mapiranje i određivanje prioriteta imovine i izloženosti i smanjenje kognitivnog opterećenja analitičara automatizacijom trijaže,” kaže Ferguson.
Umjetna inteligencija nije samo ubrzavanje odgovora; postavljeno je da u potpunosti redefinira način na koji se stručnjaci za sigurnost usavršavaju, raspoređuju i na kraju kako se smatraju odgovornim Haris Pylarinos, Hack The Box
On, međutim, dodaje da to ne mora nužno značiti nezaposlene sajber analitičare koji stoje na uglovima ulica i drže natpise na kojima piše „Hoće li Crveni tim za hranu“.
„Urađeno kako treba, ne radi se o zamjeni ljudi, već o tome da im se da prostor za razmišljanje i udubljenje u ono što je isplativije“, kaže Ferguson.
Haris Pylarinos, suosnivač i izvršni direktor Hack The Box-a, dodaje: „Vještačka inteligencija nije samo ubrzavanje odgovora; ona je postavljena da u potpunosti redefiniše način na koji se stručnjaci za bezbednost usavršavaju, raspoređuju i na kraju kako se smatraju odgovornim.
“Industrija ulazi u fazu u kojoj se vještine pomjeraju od otkrivanja, do prosuđivanja, do učenja kako učiti. Organizacije koje će uspjeti neće biti one koje najviše automatizuju, već one koje redizajniraju modele radne snage i donošenje odluka oko inteligentnih sistema.”
Za Pylarinos, ovi novi modeli radne snage će se usredotočiti na dokazivanje hibridnog tima ljudi i AI. Stručnjaci za sajber bezbednost budućnosti neće biti tehnolozi, sugeriše on, već validatori, suprotstavljeni mislioci i revizori ponašanja.
„Najcjenjeniji praktičari sajber bezbednosti biće oni koji mogu da testiraju ponašanje veštačke inteligencije u realnim uslovima, obezbeđujući da brzina mašine ne nadmaši ljudsku procenu“, kaže on.
Za izvršnog direktora Bugcrowda, Davea Gerryja, širenje usvajanja AI u preduzećima razlog je da se više ljudi drži u toku.
„Promet ka generativnim sajtovima sa veštačkom inteligencijom skočio je za 50% [between February 2024 and January 2025]dok je 68% zaposlenih koristilo besplatne alate, a 57% je priznalo da je u njih lijepilo osjetljive podatke. Uz ovo, ključno je zapamtiti da su eksploatacije i dezinformacije koje je generirala umjetna inteligencija već ovdje”, kaže on.
“Sigurnosna zajednica mora se usredotočiti na tehnike manipulacije modelima kao što je brzo ubrizgavanje i proaktivno testirati ove AI sisteme očima napadača. Testiranje vođeno masom ostaje jedna od naših najjačih odbrana, čak i među novim i evoluirajućim vektorima napada. Različiti ljudski istraživači mogu uhvatiti ono što drugi propuštaju.”
Odbrambena tranzicija
Aryaka’s Sood se u međuvremenu fokusira na osnovne tehničke tranzicije koje pokreću promjenjivu ulogu profesionalca za sigurnost.
On teoretizira da kako se organizacije povećavaju oslanjanje na AI – posebno AI koja se predstavlja u obliku agenata – sigurnosni timovi će vidjeti da se njihovi prioriteti pomjeraju s odgovora i popravljanja nedostataka i drugih problema, na kontrolu puteva donošenja odluka unutar organizacije.
Budućnost sajber sigurnosti nije samo u osiguravanju sistema, već i u osiguravanju logike, identiteta i autonomije koji ih pokreću Aditya Sood, Aryaka
Ovo će uvesti niz “novih” odbrambenih strategija, kaže on. Prvo, vidjet ćemo kako sigurnosni timovi izgrađuju slojeve upravljanja oko tokova rada AI agenata kako bi potvrdili autentičnost, autorizirali, promatrali – i potencijalno preokrenuli – bilo koju automatiziranu radnju.
„Fokus će se proširiti sa čuvanja podataka na čuvanje ponašanja“, kaže Sood.
Sajber timovi će takođe morati da se pozabave rizikom od tihog širenja podataka, stvaranja skupova podataka u senci i nenamernih pristupnih puteva, dok agenti i drugi sistemi veštačke inteligencije pomeraju, transformišu i repliciraju osetljive podatke. Snažno praćenje porijekla podataka i još strože kontrole pristupa će biti neophodni. I kao što je analitika ponašanja korisnika evoluirala i sazrela za ljudske naloge, tako će to morati da uradi ponovo da bi se ustanovila očekivana i dozvoljena ponašanja za AI.
Odbrambene strategije u 2026. također će morati da se prilagode promjenama okruženja povjerenja. Preduzeće sa umjetnom inteligencijom zahtijeva verifikaciju povjerenja na svim nivoima, tako da Sood kaže da bi sigurnosni timovi trebali tražiti arhitekture sa minimalnim povjerenjem gdje su identiteti, rezultati i automatizirane odluke umjetne inteligencije podložni kontinuiranoj reviziji i validaciji.
Što se tiče identiteta, jače upravljanje životnim ciklusom za neljudske identitete (NHI) također mora biti prioritet. I nulto povjerenje kao mandat usklađenosti također će postati sve važniji.
Konačno, kaže Sood, budući da će sajber napadi nastaviti da iskorištavaju legitimne alate 2026. godine, bit će potrebno poboljšano otkrivanje zasnovano na namjeri, sa sistemima koji su pozvani da analiziraju “zašto” su se radnje dogodile, a ne samo da utvrde da li su se dogodile.
“Ako nas je 2025. naučila da se povjerenje može koristiti oružjem, onda će nas 2026. naučiti kako da obnovimo povjerenje na sigurniji, promišljeniji način. Budućnost sajber sigurnosti nije samo osiguranje sistema, već i osiguranje logike, identiteta i autonomije koji ih pokreću”, kaže on.
Kako sigurno i sigurno kupiti AI
U 2026. kupci koji poznaju umjetnu inteligenciju također će postavljati sve teža pitanja svojim IT dobavljačima, tako kaže Ellie Hurst, komercijalni direktor u Advent IM.
Hurst kaže da je samo kopiranje i lijepljenje nekog šablonskog teksta o “odgovornom korištenju umjetne inteligencije” u slajd palubu moglo odletjeti prije nekoliko godina, ali 2026., prodavač će s pravom biti odveden na parkiralište ako se usudi da ga isproba.
“Kupci iz preduzeća, posebno u vladi, odbrani i kritičnoj nacionalnoj infrastrukturi, sada i sami uveliko koriste umjetnu inteligenciju. Razumiju jezik rizika. Ostvaruju veze između AI, zaštite podataka, operativne otpornosti i izloženosti lancu nabavke”, kaže Hurst.
U 2026. neće biti dovoljno da se timovi za nabavku pitaju da li njihovi dobavljači koriste umjetnu inteligenciju ili ne, već kako njima upravljaju, objašnjava ona.
Tokom 2025. godine, kaže Hurst, jezik u zahtjevima za prijedloge i pozivima na tendere u vezi s umjetnom inteligencijom dramatično se očvrsnuo, s kupcima koji se sve više pitaju o pitanjima kao što su suverenitet podataka, ljudski nadzor, odgovornost modela i usklađenost sa zaštitom podataka, sigurnošću i pravilnom intelektualnom regulativom.
Ova promjena dolazi zahvaljujući spoznaji da se AI u velikoj mjeri koristi na ad hoc osnovi, a većina IT lidera ne može sa sigurnošću reći da znaju tačno šta se dešava na njihovom satu. Sve ovo dovodi do ogromne glavobolje upravljanja, rizika i usklađenosti (GRC).
Ali dobra vijest, kaže Hurst, je da se ovo može preokrenuti. Upravljanje umjetnom inteligencijom, urađeno kako treba, ne znači usporavanje ili zabranu inovacija, već njihovo preklapanje u organizacionu praksu GRC-a tako da se njena upotreba može objasniti, skalirati i, kritički, odbraniti.
Kupci bi trebali razmotriti postavljanje pitanja o tome gdje se AI koristi u uslugama njihovih dobavljača, koji tokovi rada dodiruju osjetljive podatke, koji modeli ili platforme AI trećih strana se koriste i koji nadzor imaju ljudi. Hurst također savjetuje kupcima da traže dobavljače koji su usklađeni sa ISO IEC 42001, novim standardom za upravljanje životnim ciklusom umjetne inteligencije, uključujući sajber.
Na kraju, kaže ona, ako je potencijalni dobavljač adekvatno pripremljen, trebao bi biti u stanju da predstavi jasnu priču o tome kako se AI upravlja kao dio šireg okvira sigurnosti i GRC-a.
Pobjednici i gubitnici
Nova godina je stara jedva nedelju dana, a puna priča o 2026., naravno, tek treba da bude napisana. Bez sumnje, to će biti još jedna turbulentna za svijet sajber sigurnosti, ali Bridewell’s Young kaže da čak i ako 2026. nije nužno najkatastrofalnija godina za sigurnost, umjetna inteligencija nas je dovela do provalije i ono što će se dalje odvijati moglo bi učiniti narednih 12 mjeseci zaista značajnim.
„Izbori koje organizacije sada naprave, u vraćanju investicija, obnavljanju sajber vještina i odgovornom upravljanju umjetnom inteligencijom, odredit će da li se kriva savija prema otpornosti ili daljnjoj krhkosti“, zaključuje Young.