Teroristički potencijal generativne ai ‘čisto teorijske’

anketa.plus
Izvor: anketa.plus

Savjetnik za terorijsko zakonodavstvo u Velikoj Britaniji ima potencijal za generativne umjetne obavještajne sustave kojima bi se teroristi usvojili, posebno u svrhu propagandne i napada, ali priznaje da utjecaj može biti ograničen

Od

  • Sebastian Klovig Skelton,Urednik podataka i etike

Objavljeno: 17. jul 2025. 13:30

Generativne sisteme za umjetnu inteligenciju (GENE) mogli su pomoći teroristima u širenju propagande i pripremajući se za napade, prema vezu u Velikoj Britaniji za teroristički savjetnik, ali nivo prijetnje ostaje “čisto teorijski” bez daljnjih dokaza o njegovoj upotrebi u praksi.

U svom najnovijem godišnjem izvještaju, Jonathan Hall, vladin nezavisni recenzija za terorističko zakonodavstvo, upozorio je da iako genei sistemi imaju potencijal da ih iskoriste teroristi, koliko će tehnologija biti u tom kontekstu i šta učiniti u vezi s tim, trenutno je “otvoreno pitanje”.

Komentirajući potencijal za Genei koji će biti raspoređen u službi propagandne aktivnosti terorističke grupe, na primer, kako bi se moglo koristiti za značajno ubrzati njegovu proizvodnju i pojačavanje njenog širenja, što će teroristima omogućiti lako podrazumijevane slike, pripovijesti i oblike poruka s puno manje resursa ili ograničenjima.

Međutim, također je napomenuo da teroristi “poplava” Informativno okruženje sa sadržajem generiranja AI-a nije dat, a da bi se prezime po grupama moglo razlikovati kao rezultat njegovog potencijala da poremeće svoje razmjene poruka.

“Ovisno o važnosti autentičnosti, sama mogućnost da je tekst ili slika generiran može podnijeti poruku. Reams od propagande za neželjenu neželjenu, a da” postavljaju premiju na autentične poruke viših vođa “, mogu ga izbjeći i nerado delegirati propagandne funkcije u botu.

“Suprotno tome, to može biti procvat vremena za ekstremne desničarske forume, anti-semeje i zavjere teoretičare koji se viruju u kreativnoj gas.”

Slično tome, na potencijalu tehnologije koji će se koristiti u planiranju napada, Hall je rekao da, dok ima potencijal da vam pomogne, to je otvoreno pitanje koliko će korisnim generacijskim ai sistemima u praksi biti u terorističkim grupama u praksi.

“U principu, GENAI je dostupan za istraživanje ključnih događaja i lokacija za potrebe ciljanja, sugeriraju metode zaobići sigurnosti i pružiti trgovcu o korištenju ili prilagođavanju oružja ili terorističke stanične strukture”, rekao je.

“Pristup odgovarajućem chatbotu mogao bi se osloboditi potreba za preuzimanjem internetskog instruktivnog materijala i napraviti složene upute dostupnije … [while] Genai bi mogao pružiti tehničke savjete o izbjegavanju nadzora ili stvaranja noža-udara više smrtonosni, a ne oslanjajući se na specijalistički ljudski kontakt. “

Međutim, dodao je da “dobici mogu biti inkrementalni, a ne dramatični” i vjerovatno relevantniji za usamljeni napadači nego organizirani grupe.

Dvorana je dodala da se, dok se Genai može koristiti za “proširiti metodologiju napada” – na primjer, putem identifikacije i sinteze štetnih bioloških ili hemijskih sredstava – to bi zahtijevalo i napadač da ima prethodnu stručnost, vještine i pristup laboratorijama ili opremi.

“GENIL-ova efikasnost ovde je sumnja”, rekao je.

Slična tačka je napravljena u prvomMeđunarodni izvještaj o sigurnosti AIkoji je stvorio globalna kohort stručnjaka za gotovo 100 umjetnih obavještajnih službenika, nakon inauguralnog samita sigurnosti AI koji je domaćin iz Velike Britanije u Bletchley Parku 2023. godine.

Rečeno je da iako novi AI modeli mogu stvoriti korake po korak za kreiranje patogena i toksina koji nadmašuju stručnost za doktorsku ili hemijsku oružju, što je i dalje “tehnički složeni” proces, što znači da “praktični uslužni program za novake ostaje neizvjestan”.

Daljnji rizik identificiran sa HAL-om je upotreba AI u procesu internetske radikalizacije putem chatbota, gdje je moglo stvoriti intelektualizaciju ljudske i mašine za usamljene i nesretne pojedince ili u potrazi za ekstremnim odgovorima i nedostatak izlaske u stvarnom svijetu ili nepravednost “.

Međutim, napomenuo je da čak i ako model nema zaštitnika i osposobljeni su za podatke “simpatičan terorističkim pripovijenjima”, rezultati će u velikoj mjeri ovisiti o tome što korisnik to traži.

Potencijalna rješenja?

U pogledu zakonskog rješenja, dvorana je istakla poteškoće s prevencijom Genaija da pomogne terorizmu, napominjući da je “uzvodno odgovornost” za one koji su uključeni u razvoj ovih sustava ograničeni, jer se modeli mogu koristiti tako široko za mnogo različitih, nepredvidivih svrha.

Umjesto toga, predložio je uvođenje “odgovornosti zasnovane na alatima”, što bi ciljalo AI alate posebno dizajnirane za pomoć terorističkim aktivnostima.

Rekla je dvorana, dok bi vlada trebala razmotriti zakonodavstvo protiv stvaranja ili posjedovanja računarskih programa dizajniranih da pobude rasnu ili vjersku mržnju, priznao je da bi bilo teško dokazati da su programi posebno dizajnirani u tu svrhu.

Dodao je da bi iako su se programeri mogli procesuirati u fakultetima u Velikoj Britaniji, ako su zaista stvorili AI model ili chatbot “, čini se da će geneinski alati kreirati za stvaranje novih oblika terorističke propagande – da će biti veće vjerojatnije da će sposobnosti moćnih općih modela biti iskorišćene”.

“Mogu predvidjeti ogromne poteškoće u dokazivanju da je taj chatbot [or GenAI model] dizajniran je za izradu uskog terorističkog sadržaja. Što bi bolji tečaj bio prekršaj izrade … računarski program posebno dizajniran da umiješa mržnju na temelju rase, religije ili seksualnosti. “

U njegovim refleksijama, Hall je priznala da ostaje da se točno vidi kako će AI koristiti teroristi i da situacija ostane “čisto teorijska”.

“Neki će reći, vjerovatno, da nema ništa novo za vidjeti. GENAI je samo još jedan oblik tehnologije i kao takav, on će to iskoristiti teroristi, poput kombija”, rekao je. “Bez dokaza da je trenutni zakonodavni okvir neadekvatan, ne postoji osnova za prilagođavanje ili proširenje za bavljenje čisto teorijskim slučajevima. Zaista, nepostojanje napada koji omogućeno geneine mogu sugerirati da je cijelo pitanje prekriveno.”

Dvorana je dodala da je i ako je potreban neki oblik regulacije kako bi se izbjegle buduće štete, to bi moglo tvrditi da je krivična odgovornost najmanje prikladna opcija, posebno s obzirom na politički imperativ da se iskorištava AI kao silu za ekonomski rast i druge javne koristi.

“Alternativa krivičnoj odgovornosti uključuju izvještavanje o transparentnosti, dobrovoljne industrijske standarde, reviziju treće strane, suzbijajuća izveštavanje o aktivnostima, licenciranjem, bespokuje rješenja poput AI-Watermarkinga, ograničenja oglašavanja, oblika civilne odgovornosti i regulatorne obaveze”, rekao je.

Dok je Hall izrazila nesigurnost u kojoj bi terorističke grupe usvojile generativno AI, zaključio je da je najvjerovatniji efekt tehnologije općenito “socijalna degradacija” promovirana širom mrežnog dezinformacija.

“Iako je udaljen od bombi, pucnjaca ili tupih napada sile, otrovne zablude o vladinim motivima ili protiv ciljanih demografije mogle bi postaviti temelje za polarizaciju, neprijateljstvo i eventualno terorističko nasilje u stvarnom svijetu”, rekao je. “Ali ovde nema uloge za terorističke zakonodavstvo jer bi bilo koja veza između sadržaja povezane sa geneijem i eventualnog terorizma previše indirektna.”

Iako nije obuhvaćena u izvještaju, priznala je dvorana da bi mogla biti dodatni “indirektni utjecaj” genei na terorizmu, jer bi moglo dovesti do široke nezaposlenosti i stvoriti nestabilno socijalno okruženje “pogodnije za terorizam”.

Pročitajte više o umjetnoj inteligenciji, automatizaciji i robotici

  • DWP optužen za zaštitu ai raspoređivanja iz javnog nadzora

    Napisao: Sebastian Klovig Skelton

  • Deepseek-R1 spremniji stvara opasan sadržaj od ostalih velikih jezičnih modela

    Napisao: Alex Scroxton

  • Američki zakonodavci traže marke bande za ransomware kao teroristi

    Napisao: Alex Scroxton

  • Pet očiju Šefovi upozoravaju na kinesku špijunsku kampanju da ukrade visokotehnološke tajne

    Napisao: Bill Goodwin