Velika Britanija Online Režim bezbednosti Neefikasan po dezinformacijama, MPS kažu

anketa.plus
Izvor: anketa.plus

Izvještaj Odbora za zajednice, inovacija i tehnološkog odbora opisani kako se akt o internetskoj sigurnosti ne bavi algoritamskim pojačanjem “pravne, ali štetne” dezinformacije

Od

  • Sebastian Klovig Skelton,Urednik podataka i etike

Objavljeno: 11. jul 2025. 11:45

ON mrežni zakon o sigurnosti u Velikoj Britaniji ne uspijeva se baviti “algoritamički ubrzanim dezinformacijama” na društvenim medijskim platformama, što javno ranjivim na ponavljanje 2024 Southport Riots, zastupnici su upozorili.

Nakon ispitivanja u internetskom dezinformacijom i štetnim algoritmima, Odbor za nauku, inovacije i tehnologije (SITC) (SITC) identificirali su “velike rupe” u mrežnom režimu sigurnosti u Velikoj Britaniji kada je u pitanju bavljenje virusnim širenjem lažnog ili štetnog sadržaja.

Istaknuli su jul 2012. Southport Riots kao primjer kako “mrežna aktivnost može doprinijeti nasilju u stvarnom svijetu”, u izvještaju je objavljen 11. jula 2025. godine da su mnogi dijelovi OSA u potpunosti na snazi ​​u vrijeme nemira, “pronašli smo male dokaze da bi oni napravili razliku da bi bili”.

Rečeno je da je to zbog mješavine faktora, uključujući slabe mjere povezane s dezinformacijama u samom zakonu, kao i poslovne modele i neprozirne algoritme preporuka firmi društvenih medija.

“Jasno je da internetski akt o sigurnosti jednostavno nije narezano”, rekao je SITC stolica Chi Onwurah. “Vlada treba ići dalje da bi se bavila raširenim širenjem za dezinformaciju koja uzrokuje štetu, ali ne pređe crtu u nezakonitu, a ne mogu se zadržati na mreži, a oni se mogu zadržati na mreži. Da bismo stvorili jači mrežni režim sigurnosti, nagovaramo vladu da unese pet principa kao temelj buduće regulacije.”

Ovi principi uključuju javnu sigurnost, besplatan i siguran izraz, odgovornost (uključujući i krajnje korisnike i same platforme), kontrolu ličnih podataka i transparentnosti.

SitC je također napravio posebne preporuke, poput stvaranja “jasnih i izvršnih standarda” za digitalni oglasni ekosustav koji podstiču pojačavanje lažnih informacija i uvođenje novih dužnosti za platforme za procjenu i rješavanje rizika koji se odnose na dezinformacije. “Da bi se suočili sa pojačanim dezinformacijama … Vlada i Ofcom trebaju sarađivati ​​sa platformama za identifikaciju i praćenje aktera za dezinformaciju, te tehnike i ponašanja koja se koriste za širenje neverovatnih i varljivih narativa na mreži”, rekao je zastupnike.

Poslovni modeli i neprozirni algoritmi

Prema SITC-u, društvene medijske kompanije imaju “često omogućene ili čak ohrabrene” virusno širenje dezinformacija – i možda su iz njega profitirale – kao rezultat njihovih poslovnih modela zasnovanih na oglašavanju i angažovanjima.

“Poslovni modeli zasnovani na oglasima većine društvenih medijskih kompanija znače da promoviraju privlačenje sadržaja, često bez obzira na njenu sigurnost ili autentičnost”, napisali su zastupnici. “Ovo izlijeva preko cijelog interneta, preko neprozirnog, podređenog digitalnog tržišta oglašavanja, poticaj stvaranje sadržaja koji će se dobro obavljati na društvenim medijima.”

Oni su dodali da su, dok su veće tehnološke kompanije rekli da ne mogu omogućiti štetni sadržaj na svojim platformama, jer može oštetiti marku i repelirati oglašivače “, jer su zemljište u ovom prostoru” jer kompanije algoritma preporuka društvenih medija ne otkrivaju firme.

“Zamolili smo od nekoliko tehničkih kompanija da pruži visoke algoritme svojih algoritma preporuka, ali nisu”, rekli su, dodajući da ovaj “nedostatak transparentnosti” otežava uspostavljanje jasnih uzročnoj povezanosti između posebnih preporuka i štete.

“Tehnologija koje koriste društvene medijske kompanije treba biti transparentno, objašnjeno i dostupno javnim vlastima”, rekli su.

SitC je dodao da bi vlada trebala stvoriti mjere za ugradnju društvenih mreža za ugradnju alata u njihove sustave koji mogu identificirati i algoritamično prostirati činjenice koji provjeravaju značajan sadržaj ili navodi nepouzdane izvore, gdje ima potencijal da izazove značajne štete.

“Od vitalnog je značaja da ove mjere ne cenzuriraju pravni oslobađajuća izražavanja, već primjenjuju opravdane i proporcionalne ograničenja u širenju informacija radi zaštite nacionalne sigurnosti, javne sigurnosti ili zdravstva”, rekao je poremećaj ili kriminal “, rekao je poremećaj ili kriminal.

U rješavanju osnovnih poslovnih modela koji podstakne dezinformacije, zastupnici su rekli da postoji regulatorni jaz oko digitalnog oglašavanja, jer je fokus trenutno na štetnom reklamnom sadržaju, a ne “unovčavanje štetnog sadržaja”.

“Vlada bi trebala stvoriti novo tijelo dužine oružja – ne finansira industriju – da reguliše i preispituju proces digitalnog oglašavanja, pokrivajući složeni i neprozirani automatizirani lanac opskrbe koji omogućava unovčavanje štetnog i pogrešnog sadržaja”, dodali su. “Ili, najmanje, vlada bi trebala proširiti ovlasti izričito da izričito pokrivaju ovaj oblik štete i regulišu na načelu sprečavanja širenja štetnog ili pogrešnog sadržaja kroz bilo kakvo digitalno sredstvo, a ne ograničavajući se na određene tehnologije ili sektore.”

Iako je generativna umjetna inteligencija (GEnai) samo igrala marginalnu ulogu u širenju dezinformacija prije jugoportnih nereda, SitC je izrazio zabrinutost zbog uloge koju bi mogla igrati u “budućnosti”, sličnoj krizi “.

Rekli su da “niski troškovi, široki raspoloživost i brz napredak znači da se velike količine uvjerljivog varljivog sadržaja mogu sve više stvoriti na skali”.

Rečeno je da će Vlada stoga proći zakonodavstvo koje pokriva GENAI platforme, u skladu s drugim internetskim uslugama koje predstavljaju visok rizik od proizvodnje ili širenja ilegalnog ili štetnog sadržaja.

“Ovo zakonodavstvo treba zahtijevati generativne AI platforme za: pružanje rizika za ohoc na rizike povezane s različitim uzorima i kojim se mogu čistiti i nepravilno čistiti sadržaj koji su ilegalni ili štetni za djecu; i sprečavaju djecu i sprečavaju djecu od pristupa neprikladnim ili štetnim izlazima. “

Dodali su da bi svi sadržaj generirani AI automatski označeni kao takav “s metapodacima i vidljivim vodenim oznakama koji se ne mogu ukloniti”.

Pročitajte više o pokretanju tehnologije

  • Algoritmi društvenih medija izlažući djecu na nasilni pornografski sadržaj, izveštaji

    Napisao: Tiago Ventura

  • Objasnio je mrežni akt o sigurnosti u Velikoj Britaniji: ono što trebate znati

    Napisao: Sebastian Klovig Skelton

  • Izgubio sam sestru na mrežne štete, OSA ne uspijeva ranjive ljude

    Napisao: Adele Walton

  • Vlada i ofcom se ne slažu u okviru Običnice o sigurnosti na mreži

    Napisao: Sebastian Klovig Skelton