Dok se pripremamo da zatvorimo 2025., panel Computer Weekly Security Think Tank osvrće se na prošlu godinu, i na 2026. godinu.
By
- Haris Pylarinos, Hack The Box
Objavljeno: 12. decembar 2025
2026. sajber sigurnost će biti manje oblikovana individualnim alatima, a više načinom na koji ljudi upravljaju autonomnim sistemima. Umjetna inteligencija nije samo ubrzavanje odgovora; postavljeno je da potpuno redefiniše način na koji se stručnjaci za sigurnost usavršavaju, raspoređuju i na kraju kako se smatraju odgovornim.
Industrija ulazi u fazu u kojoj se vještine prelaze od otkrivanja do prosuđivanja do učenja kako učiti. Organizacije koje će uspjeti neće biti one koje najviše automatizuju, već one koje redizajniraju modele radne snage i donošenje odluka oko inteligentnih sistema.
AI sposobnosti moraju biti dokazane
U 2026. godini, organizacije će sve više primjenjivati autonomne sisteme, AI agente i AI proširene radne tokove kako bi zaštitile svoju infrastrukturu. Izazov nije u tome da li su ovi sistemi moćni, već da li su vrijedni povjerenja. Svaki AI sistem se mora tretirati kao nedokazan sve dok se ne validira pod stalno ažuriranim suprotstavljenim uslovima.
AI će biti svuda, ali povjerenja neće biti. Većina tokova rada sigurnosnih operativnih centara (SOC) uključivat će autonomne komponente, ali odbori će i dalje tražiti formalnu validaciju ponašanja AI prije nego što odobre njihovu upotrebu. Organizacije koje koriste neprovjerene agente suočit će se s novim kategorijama incidenata izazvanih mašinama, gdje sistemi vođeni optimizacijom djeluju na načine koji nisu usklađeni s politikom ili usklađenošću.
Kontinuirana validacija, a ne jednokratno testiranje
AI agenti će zahtijevati stalnu adversarial validaciju, a ne jednokratno testiranje. Modeli koji danas izgledaju sigurni možda neće biti sutra zbog pomaka optimizacije, promjena konteksta ili novih tehnika napadača. Kontinuirano testiranje na stres u odnosu na suprotstavljene skupove podataka postat će operativni zahtjev.
U ovom okruženju, sposobnosti veštačke inteligencije se ne procenjuju na osnovu tvrdnji dobavljača, već na osnovu podataka o tome kako sistemi rade u neskriptovanim scenarijima visoke vernosti. Organizacije koje se oslanjaju na demonstracije umjesto na ove podatke suočit će se s najvećom izloženošću.
Teret dokazivanja će se prebaciti sa performansi AI na nadzor AI. Propisi će zahtijevati od operatera da pokažu ne samo da AI radi, već i da ljudi mogu intervenirati, eskalirati i nadjačati kada to ne radi. Ovaj nadzor, objašnjivost i mogućnost revizije postat će ključne kompetencije radne snage, ugrađene u ono što znači biti spreman za poslovanje.
Dokazivanje tima ljudi-AI
Pojaviće se novi modeli radne snage, usredsređeni na dokazivanje hibridnog tima ljudi i veštačke inteligencije. Profesionalac za sajber bezbednost 2026. neće biti samo tehnolog već i validator, suprotstavljeni mislilac i revizor ponašanja AI sistema. To znači da će najcjenjeniji praktičari sajber sigurnosti biti oni koji mogu vršiti pritisak na testiranje AI ponašanja u realnim uvjetima, osiguravajući da brzina mašine ne nadmaši ljudsku procjenu.
Ako organizacija ne može testirati svoje AI agente protiv novih tehnika napada u roku od 12 do 24 sata od velikih incidenata, ne može vjerodostojno tvrditi da je spremnost. AI koja nije izložena modernim napadima neće se razlikovati od AI nepouzdane.
AI sigurnost ulazi u mainstream
Konačno, sigurnosne vještine umjetne inteligencije će ući u mainstream. Red-timiranje modela, testiranje stresa i dizajn sigurnosnih scenarija će se pomaknuti sa nišnih uloga na standardne zahtjeve posla. Svaki tim za kibernetičku sigurnost trebat će barem malo stručnosti u validaciji modela, baš kao što su im nekada bili potrebni analitičari zlonamjernog softvera. Na ovaj način, budućnost sajber sigurnosti će biti definirana ne samo brzinom mašina već i otpornošću i prilagodljivošću ljudi koji ih nadgledaju.
Redefiniranje profesionalca za sajber sigurnost
Duboka tehnička specijalizacija će i dalje biti važna, ali neće biti dovoljna. Stručnjaci za sigurnost će morati da rade u infrastrukturi oblaka, identitetu, isporuci softvera, zaštiti podataka i riziku ponašanja AI.
Kritičko razmišljanje, kontradiktorno zaključivanje i sposobnost kontinuiranog usavršavanja uz inteligentne sisteme postat će ključne kompetencije. Najvrednija sposobnost će biti učenje kako učiti brzinom mašine, budući da se život tehničkih vještina i dalje smanjuje.
Ovo stavlja pritisak na pružaoce kvalifikacija i poslodavce da se odmaknu od statičnih modela sertifikacije obuke i ka kontinuiranom učenju zasnovanom na scenarijima koje odražava stvarne uslove. Prilika ovdje su novi putevi u karijeri jer će profesionalci koji ovladaju nadzorom umjetne inteligencije i otpornošću na više domena biti veoma traženi.
Odgovor je ljudski
Pravi izazov za 2026. nije da li će mašine biti sposobne, jer već znamo da jesu. Pitanje je mogu li organizacije, edukatori i regulatori razviti ljudske vještine i prosuđivanje istim tempom.
AI će definirati brzinu sajber operacija, dok ljudska sposobnost određuje da li se toj brzini može vjerovati i da li će postati konkurentska prednost ili ne.
Haris Pylarinos je osnivač i izvršni direktor kompanije Hack The Box.
Pročitajte više o sigurnosti web aplikacija
-
Tehnološki trendovi na Bliskom istoku 2026: AI, sajber sigurnost i suverena infrastruktura zauzimaju središnje mjesto
Autor: Andrea Benito
-
Pripremite se za pretnju 2026. uz uvide vođa misli
Autor: Ana Salom-Boira
-
Lozinke za upite: Identitet i AI redefinirali cyber u 2025
-
Cyber otpornost će definirati pobjednike i gubitnike 2026