AI zastoj gura upravljanje podacima prema modelima bez povjerenja

anketa.plus
Izvor: anketa.plus

Chaosamran_Studio – stock.adobe.

Organizacije implementiraju modele nultog povjerenja za upravljanje podacima zahvaljujući proliferaciji podataka lošeg kvaliteta generiranih od umjetne inteligencije, često poznatih kao AI slop

By

  • Alex Scroxton,Security Editor

Objavljeno: 21 Jan 2026 8:30

Neprovjereni i niskokvalitetni podaci generirani modelima umjetne inteligencije (AI) – često poznati kao AI slop – prisiljavaju sve veći broj sigurnosnih lidera da se oslone na modele bez povjerenja za upravljanje podacima, s tim da će 50% organizacija vjerovatno početi usvajati takve politike do 2028. godine, prema Gartnerovim vidovnjacima.

Trenutno, modeli velikih jezika (LLM) se obično obučavaju na podacima izvučenim – sa ili bez dozvole – sa World Wide Weba i drugih izvora uključujući knjige, istraživačke radove i repozitorije koda. Mnogi od ovih izvora već sadrže podatke generisane umjetnom inteligencijom i, pri trenutnoj stopi proliferacije, gotovo svi će na kraju biti popunjeni njima.

Gartnerova studija o CIO-ima i tehničkim rukovodiocima objavljena u oktobru 2025. godine pokazala je da 84% ispitanika očekuje da će povećati svoje generativno AI (GenAI) finansiranje u 2026. godini, a kako se ovaj trend ubrzava, tako će se ubrzavati i obim podataka generiranih AI, što znači da se budući LLM sve više i više obučavaju s rezultatima trenutnih. Ovo će, kaže analitičarska kuća, povećati rizik od potpunog kolapsa modela pod nagomilanom težinom vlastitih halucinacija i netačne stvarnosti.

Gartner je upozorio da je jasno da je ovaj sve veći obim podataka generiranih umjetnom inteligencijom jasna i prisutna prijetnja pouzdanosti LLM-ova, a potpredsjednik upravljanja Wan Fui Chan rekao je da organizacije više ne mogu implicitno vjerovati podacima ili pretpostaviti da ih je čak generirao čovjek.

„Kako podaci generisani umjetnom inteligencijom postaju sveprisutni i ne razlikuju se od podataka koje je stvorio čovjek, stav nulte povjerenja kojim se uspostavljaju mjere autentifikacije i verifikacije je od suštinskog značaja za zaštitu poslovnih i finansijskih rezultata“, rekao je Chan.

Provjera podataka ‘bez AI’

Chan je rekao da će se, kako podaci generirani umjetnom inteligencijom, sve više preovlađuju, regulatorni zahtjevi za verifikaciju podataka koji su, kako je on nazvao, „bez AI“ vjerovatno intenzivirati u mnogim regijama – iako bi ovi regulatorni režimi neizbježno varirali u svojoj strogosti.

„U ovom regulatornom okruženju koje se razvija, svim organizacijama će biti potrebna mogućnost da identifikuju i označavaju podatke generisane veštačkom inteligencijom“, rekao je on. “Uspjeh će ovisiti o posjedovanju pravih alata i radne snage kvalifikovane za upravljanje informacijama i znanjem, kao i rješenja za upravljanje metapodacima koja su neophodna za katalogizaciju podataka.”

Chan predviđa da će aktivna praksa upravljanja metapodacima postati ključna razlika u ovoj budućnosti, omogućavajući organizacijama da analiziraju, upozoravaju i automatiziraju donošenje odluka u okviru svojih različitih sredstava podataka.

Takve prakse mogu omogućiti upozorenje u realnom vremenu kada podaci postanu zastarjeli ili ih treba ponovo certificirati, pomažući organizacijama da identifikuju kada bi sistemi od ključne važnosti mogli biti izloženi prilivu besmislica.

Upravljanje rizicima

Prema Gartneru, postoji nekoliko drugih načina na koje organizacije mogu pokušati da upravljaju i ublaže rizike nepouzdanih AI podataka.

Poslovni lideri bi možda željeli da razmotre uspostavljanje namjenske vodeće uloge upravljanja umjetnom inteligencijom, koja pokriva upravljanje rizikom i usklađenost i nulto povjerenje. U idealnom slučaju, ovaj glavni službenik za upravljanje umjetnom inteligencijom, koji se možda naziva CAIGO, trebao bi biti ovlašten da blisko sarađuje s timovima za podatke i analitiku (D&A).

Pored toga, organizacije bi trebale nastojati da stvore međufunkcionalne timove koji spajaju D&A i sajber sigurnost kako bi izvršili procjenu rizika podataka utvrđujući rizike podataka koje generiše umjetna inteligencija, i da razvrstaju koji se mogu riješiti u okviru trenutnih politika, a kojima su potrebne nove strategije. Ovi timovi bi trebali biti u mogućnosti da se izgrade na postojećim okvirima upravljanja D&A kako bi se fokusirali na ažuriranje sigurnosti, upravljanja metapodacima i politika vezanih za etiku kako bi se pozabavili ovim rizicima vijesti.

Pročitajte više o usklađenosti sa propisima i zahtjevima standarda

  • 5 predviđanja mrežne sigurnosti za 2026

    Autor: John Grady

  • Migracija u oblaku zahtijeva ugovorne mjere zaštite i jasnu strategiju

    Autor: Aaron Tan

  • Kako osigurati AI infrastrukturu: najbolje prakse

    Autor: Jerald Murphy

  • Zakon o podacima: Uzimajući u obzir glad centara podataka za moći

    Autor: Lord Chris Holmes