2024. godine, Kompjuterski tjednik Pokrivenost podataka i etike nastavili su se fokusirati na različita etička pitanja povezana s razvojem i raspoređivanjem sistema pogonskih podataka, posebno umjetne inteligencije (AI).
To je uključivalo izvještaje o pitanjima autorskih prava povezanih s alatima AI (GENEI (GENEI), utjecaj na okoliš AI, invazivni alati za praćenje na mjestu na internetu i načine na koje autonomno oružje potkopava.
Ostale priče usredotočene su na šire društvene implikacije tehnologija vođenih podataka, uključujući načine na koje se koriste za nanošenje nasilja na migrante, te kako naša upotreba tehnologije prefigura određene političke ili socijalne ishode.
1. Ai vjerovatno će pogoršati ekonomsku nejednakost, kaže MMF
U analizi, 20. januara, MMF je pregledao potencijalni utjecaj AI na globalno tržište rada, napominjući da, dok ima potencijal da “skokne produktivnost, pojačaju globalni rast”, to bi moglo biti tako lako “Zamijenite poslove i produbljuje nejednakost”; i vjerovatno će pogoršati cjelokupnu nejednakost “ako kreatori politika ne rade proaktivno rade na sprečavanju tehnologije iz partira društvenih tenzija.
MMF je rekao da, za razliku od nejednakosti radne prihode, koji može umanjiti određene scenarije gdje AI-jevo raseljiv efekat smanjuje svačije prihode, kapitalni prihod i nejednakost na bogatstvu “, kako se uvijek povećavaju”, kako na nacionalnoj i na globalnoj razini.
“Glavni razlog za povećanje nejednakosti kapitala i bogatstva je da AI dovodi do radno raseljavanja i povećanje potražnje za kapitalom AI, povećavajući vrijednost kapitala i vrijednost imovine”, rečeno je.
“Budući da u modelu, kao u podacima, radnici sa visokim prihodima imaju veliki udio imovine, oni imaju koristi više od porasta kapitalnih povrata. Kao rezultat toga, u svim scenarijima, neovisnim o utjecaju na prihod rada, ukupni prihod vrha zarada povećavaju se zbog dobitaka kapitalnih prihoda. “
2. GENAI Alati ‘nisu mogli postojati’ ako se naprave firme za plaćanje autorskih prava
U januaru je u januaru antropska tvrdila američkom sudu da koristi sadržaj zaštićenog autorskim pravima u velikom jezičnom modelu (LLM). plaćaju licence za materijal.
Antropska je potražila nakon što je domaćin izdavača muzike, uključujući Concord, univerzalnu muzičku grupu i ABKCO pokrenula pravnu akciju protiv tvrtke Amazon i Google u oktobru 2023. godine, zahtijevajući potencijalno milijune štete za njihovo “sistematsko i široko rasprostranjeno povrede svojih Autorska prava tekstova pjesme “.
Međutim, u podnošenju SAD-u autorskih prava 30. oktobra (što je bilo potpuno odvojeno od slučaja), antropstvo je rekao da obuka svog AI modela Claude “kvalificira kao kvintessencijalno zakonito korištenje materijala”, tvrdeći da ” Opseg autorskih prava korišteni su u podacima o treningu, on je za analizu (statističkih odnosa između riječi i koncepata) koji nije povezan s bilo kojom ekspresivnom svrhom posla “.
Po potencijalu režima licenciranja za gutanje zaštite autorskih prava, antropska tvrdnja da bi uvijek zahtijevala dozvole bila neprimjerena, jer bi se zaključala pristup ogromnoj većini radova i koristi “samo najosjetnice entiteta” koji su u mogućnosti Platite svoj put u skladu sa poštivanjem.
U dokumentu sa 40 stranica podnesenim 16. januara 20. januara (reagirajući konkretno na “preliminarni zahtjev za zabranu” koji su podnijeli glazbeni izdavači), antropic je preuzeo isti argument dalje, tvrdeći da ne bi bilo moguće spajati dovoljan sadržaj Trenirajte LLM poput Clauda u transakcijama licenciranja ruku, po bilo kojoj cijeni “.
Dodao je da antrop nije sama u korištenju podataka “, široko sastavljen od javno dostupnog interneta”, te da “u praksi ne postoji drugi način da spajaju trening korpus sa opsegom i raznolikošću potrebnim za obuku sa širokim Razumijevanje ljudskog jezika i svijeta uopšte “.
Antropsko je nadalje tvrdio da je razmjera podataka potrebnih za obuku LLMS-a jednostavno prevelika za efikasan režim licenciranja za rad: “Ne može se unijeti na licenciranje transakcije sa dovoljno vlasnika prava da pokrije milijarde tekstova potrebnih za davanje trilijuna tokena da llms opće namjene zahtijevaju za pravilan trening. Ako su dozvole potrebne za obuku LLM-a o sadržaju zaštićenog autorskim pravima, današnje opće namjene AI alati jednostavno ne bi mogli postojati. “
3. Dijeljenje podataka za imigracijske racije fermentirati neprijateljstvo migrantima
Kompjuter nedeljno razgovarali sa pripadnicima mreže migranata (MRN) i mreži protiv racije (ARN) o tome kako dijeljenje podataka između javnih i privatnih tijela za potrebe provođenja imigracijskog racija pomažu u pružanju neprijateljskog okruženja u Velikoj Britani Strah i odvraćanje migranata iz pristupa javnim uslugama.
Objavljeno u jeku nove vlade rada najavljujući “veliki nalet u imigracijskom provođenju i povratku”, uključujući povećane pritvore i deportacije, izvještaj MRN-u o kojima u Velikoj Britaniji izvedba koristi od javnosti, policije, vladine odjeljenja, lokalne vlasti i drugi za olakšavanje racija.
Julia Tinsley-Kent, šef politike i komunikacija u MRN-u i jedan od autora izveštaja, saopštili su da se deljenje podataka na mestu – zajedno sa vladinom retorikom o jakoj policiji – u suštini vodi do ljudi “samo-policije jer su se toliko preplašeni Svi načini na koji se možete aktivirati “unutar neprijateljskog okruženja.
Dodala je da je ovo posebno “podmuklo” u kontekstu razmjene podataka iz institucija koje navodno tu žele ljudima, poput tijela obrazovanja ili zdravstvenih tijela.
Kao dio neprijateljskih okruženja, MRN, ARN i drugi dugo su tvrdili da funkcija racija ide mnogo dublje od puke socijalne isključenosti, a također djeluje na poremećaj života migranata, njihovih porodica, preduzeća i zajednica, takođe kao da nametne oblik terora koji proizvodi pojačani strah, nesigurnost i izolaciju.
4. Autonomno oružje smanjuje moralnu agenciju i devalviraju ljudski život
Na samom kraju aprila stručnjaci za vojnu tehnologiju okupili su se u Beču za konferenciju o razvoju i korištenju autonomnih sistema oružja (AWS), gdje su upozorili o štetnim psihološkim efektima oružja AI-a.
Specifične zabrinutosti koje su postavili stručnjaci na cijeloj konferenciji uključivali su potencijal za dehumanizaciju kada su ljudi na prijemnom kraju smrtonosne sile svode na podatke i brojeve podataka na ekranu; Rizik od diskriminacije tokom ciljanog odabira zbog pristranosti u programiranju ili kriterijumi korištenim; kao i emocionalni i psihološki odred operatera iz ljudskih posljedica njihovih postupaka.
Govornici su također dotakli da li ikada može biti smislena ljudska kontrola nad AWS-om, zbog kombinacije pristranosti automatizacije i kako takvo oružje povećava brzinu ratovanja izvan ljudske spoznaje.
5. AI Seul samit pregled
Drugi globalni AI samit u Seulu u Južnoj Koreji vidio je desetine vlada i kompanija udvostručene na svojim obvezama da sigurno i uključivo razviju tehnologiju, ali pitanja su ostala u kojoj se tačno uključuje i koji su prioritet.
Polaznici i stručnjaci Kompjuter nedeljno Razgovarao je s rečeno, dok je samit završio s nekim konkretnim ishodima koji se mogu preuzeti prije nego što se samit AI Action za održavanje u Francuskoj ranim 2025. godine, još uvijek postoji niz područja u kojima je potrebno još nekoliko područja u kojima je hitno potrebno.
Posebno su naglasili potrebu za obaveznim AI sigurnosnim obavezama od kompanija; Socio-tehničke evaluacije sistema koji uzimaju u obzir kako komuniciraju s ljudima i institucijama u stvarnim situacijama; i šire sudjelovanje iz javnosti, radnika i drugih koji su pogođeni sistemima za napajanje AI.
Međutim, također su rekli da je “još” ipak ranim danima “i istaknuo je važnost događaja samita sigurnosti AI u stvaranju otvorenog dijaloga između zemalja i određivanjem temelja za katalizaciju budućih radnji.
Tijekom dvodnevnog samita Ai Seula, brojne sporazume i obećanja potpisale su vlade i kompanije u pohađanju.
Za vlade, ovo uključuje Europsku uniju (EU) i grupu od 10 zemalja potpisivanje Deklaracije Seula, koja se gradi na blecchley usporavanju potpisala je prije šest mjeseci 28 vlada i EU na Inaugural AI sigurnosnom samitu. Također uključuje izjavu o međunarodnoj saradnji na međunarodnoj saradnji na AI Sigurnost nauci, koja će videti javno podržane istraživačke institute kako bi se osigurala “komplementarnost i interoperabilnost” između njihovog tehničkog rada i općeg pristupa sigurnosti.
Seul Deklaracija posebno potvrđena “važnosti aktivne saradnje sa više dionika” u ovoj oblasti i počinila vlade koje su uključene na “aktivno” uključuju širok spektar dionika u diskusijama vezanim za Ai.
Veća grupa od više od dvije desetine vlada također su se obavezala za razvoj zajedničkih pragova rizika za granični AI modele da ograničavaju svoje štetne utjecaje u ministarskoj izjavi Seula, što je naglasilo potrebu za efikasnim mjerama zaštite i interoperabilne režime ispitivanja sigurnosti između zemalja.
Sporazumi i obećavi koje su dale kompanije uključuju 16 AI Global firme, potpisivanje obveza sigurnosti Frontier AI, što je specifičan dobrovoljni skup mjera za način na koji će sigurno razviti tehnologiju, a 14 firmi potpisivanje poslovnog zaloga SEOL AI, što je slično Skup obaveza koje je izvršila mješavina južnokorejskih i međunarodnih tehnoloških firmi da odgovorno pristupi razvoju AI-a.
Jedna od ključnih dobrovoljnih obaveza kompanije AI kompanije nije bila razvijati ili rasporediti AI sisteme ako se rizici ne mogu dovoljno ublažiti. Međutim, u jeku samita, grupu trenutnih i bivših radnika iz Openaija, antropskog i dubokog – od kojih su prva dva potpisala sigurne obaveze u Seulu – rekli su da se ove firme ne mogu vjerovati da dobrovoljno dijele informacije o svojim mogućnostima sistema i rizici sa vladama ili civilnim društvom.
6. Invazivno praćenje “endem” na osjetljivim web lokacijama za podršku
Desetine veb lokacija za univerzitet, dobrotvorne i policijske policije koji su pomogli ljudima da dobiju podršku ozbiljnim pitanjima poput seksualnog zlostavljanja, ovisnosti ili mentalnog zdravlja nehotice su prikupljanje i dijeljenje osjetljivih podataka posjetitelja sa oglašivačima.
Različiti alati za praćenje ugrađeni na ove web stranice – uključujući Meta Pixel i Google Analytics – znači da se osoba posjeti na tražeći pomoć, njihovi osjetljivi podaci prikupljaju se i dijele sa kompanijama poput Googlea i Meta, što može postati svjesno da osoba izgleda Da biste koristili usluge podrške prije nego što te usluge mogu čak ponuditi pomoć.
Prema stručnjacima za privatnost koji su pokušali podići svijest o tom pitanju, upotreba takvih alata za praćenje znači da se informacije o ljudima podijeli s tim oglašivačima, čim uđu u web lokacije u mnogim slučajevima, jer analitičke oznake počinju prikupljati lične podatke prije nego što su korisnici komunicirali sa bank kolačem.
Ovisno o konfiguraciji analitike na mjestu, prikupljeni podaci mogu uključivati podatke o starosti posjetitelja, lokaciji, pregledniku, DE Vice, operativni sistem i ponašanja na mreži.
Iako se još više podataka dijeli sa oglašivačima ako su korisnici saglasni na kolačiće, stručnjaci rekli su računarski tjednima na web lokacijama ne pružaju adekvatno objašnjenje kako će njihove informacije čuvati i koristiti programski oglašivači.
Nadalje su upozorili da je pitanje “endemsko” zbog raširenog nedostatka svijesti o praćenju tehnologija poput rada kolačića, kao i potencijalne štete povezane s omogućavanjem nehotičarajućim pristupom takvim osjetljivim informacijama.
7. AI intervju: Thomas Dekeyser, istraživač i filmski režiser
Kompjuterski tjednik razgovarao je sa autorskom i dokumentarnom direktorom Thomasom DeKeyserom o Clodou, tajnoj grupi francuskog IT radnika koji su rani 1980-ih sabotiraju tehnološku infrastrukturu, koja je korištena kao skakanje na šireg razgovora o politici tehno-odbijanja.
Dekeyser kaže glavna motivacija za pisanje svoje nadolazeće knjige o temi je da ljudi odbijaju tehnologiju – da li su to luddi, Clodo ili bilo koji drugi radikalni formirani – su prečesto smanjeni na figuru primitivista, romantične ili Osoba koja se želi vratiti na vrijeme, a viđa se kao vrsta anti-modernističke pozicije za snimanje “.
IMAJUĆI U VIDU da se “tehnofob” ili “Ludditi” dugo koriste kao pejorativni uvrede za one koji se protive upotrebi i kontroli tehnologije uskim kapitalističkim interesima, dekeyser je iznio raznovrstan spektar povijesnih subjekata i njihovih heterogenih motivacija za odbijanje: “Želim gurnuti se protiv ovih uvjeti i onoga što impliciraju. “
Za Dekeyser, historija tehnologije nužno je povijest njegovog odbijanja. Iz drevnog grčkog izumitelja – koji Dekeyser kaže da se može opisati kao prvi “probijač stroja” zbog svoje tendencije da uništi svoje izume – ranim merkantilističkim državama Europe koji podržavaju djela sabotaža članova cehova protiv novih radnih uređaja, Socijalno-tehnička priroda tehnologije znači da je oduvijek bio teren političke borbe.
8. Amazonski mehanički radnici Turaka suspendirani su bez objašnjenja
Stotine radnika na Amazonovom platformi Mehanički turki (MTURK) nisu ostale nesposobne da rade nakon suspenzija masovnih računa uzrokovanih osumnjičenim prozorima u sistemu plaćanja divovskog giganta e-trgovine.
Počev od 16. maja 20. maja, brojni američki radnici Turaka počeo je primati obrasce za obustavu računa iz Amazona, zaključavajući ih iz svojih računa i sprečavajući ih da završe više radova na platformi CrowdUrcing.
U vlasništvu i upravljanja Amazonom, Mehanički Turk omogućava preduzećima ili “zahtjevama”, da se outsourceus razni procesi “distribuiranoj radnoj snazi”, koji se potom dovršavaju praktički od čega se bave na svijetu, uključujući napomenu podataka, umjerenost, ankete, umjerenost sadržaja i AI trening.
Prema te računaru sedmično razgovarali su, suspenzija su bila navodno vezana za probleme sa računima za plaćanje radnika, internetskoj uplati za obradu plaćanja koja im omogućava da obojica primaju plaće i izvršite kupovinu od Amazona. Pitanje je uticalo na stotine radnika.
Radnici MTurka iz zagovaračke organizacije Turkopticon ocrtao je kako su takve situacije tekuće pitanje koje se radnici moraju baviti i detaljni amazonski loši zapisnik o tom pitanju.
9. Intervju: Petra Molnar, autor ‘zidova imaju oči’
Izbjeglički advokat i autor Petra Molnar razgovarali su s kompjuterskom tjednima o proizvodu ekstremnog nasilja u suočanju u pokretu preko granica širom svijeta, a koliko se sve neprijatniju anti-imigrantska politika omogućena i ojačana “unosnim panoptiktonskim tehnologijama”.
Primijetila je kako – zbog ogromnog niza nadzornih tehnologija sada raspoređene protiv ljudi u pokretu – cijeli granični prelazi su pretvoreni u doslovne groblje, dok se ljudi pribjegavaju izgaranjem dohvatajućih prstiju kako bi se izbjegli invazivni biometrijski nadzor; skrivajući se u opasnom terenu kako bi izbjegli povrat ili postavljanje u izbjegličke kampove s teškim životnim uvjetima; i živjeti beskućnici jer algoritmi su zaštićeni iz javnog nadzora odbijaju im imigracijski status u zemljama u kojima su tražili sigurnost.
Molnar je opisao kako su smrtonosne granične situacije omogućene mješavinom sve neprijateljskim politikama protiv imigranata i sofisticiranih nadzornih tehnologija, koji se kombiniraju za stvaranje smrtonosne petlje za povratne informacije za one koji jednostavno traže bolji život.
Takođe je razgovarala o “svojstvenoj rasističkoj i diskriminatornoj” prirodi granica, a kako su tehnologije raspoređene u pograničnim prostorima izuzetno teške, ako ne i nemoguće, razvode iz temeljne logike isključenja koja ih definira.
10. AI-ovi ekološki troškovi mogli bi nadmašiti beneficije održivosti
Potencijal AI-a za pomoć kompanijama mjeri i optimizaciju njihovih napora održivosti moglo bi biti nadmašio ogromne utjecaje na okoliš tehnologiju.
Na primjer, na pozitivnoj strani na AI samitu u Londonu izgradili su, na primjer, kako mogućnosti analize podataka AI mogu pomoći kompanijama s dekarbonizacijom i drugim ekološkim inicijativama snimajući, povezivanjem i mapiranjem trenutno razdvajanja skupova podataka; Automatski pin bodova štetne emisije na određene stranice u lancima snabdevanja; Kao i predvidjeti i upravljati potražnjom i opskrbom energije u određenim područjima.
Također su rekli da bi mogle pomoći kompanijama bolje upravljati svojim opsegom 3 emisije (koje se odnose na indirektne emisije stakleničkih plinova koje se javljaju izvan poslovanja kompanije, ali to su još uvijek rezultat njihovih aktivnosti) povezivanjem izvora podataka i čineći ih čitljivim.
Međutim, uprkos potencijalnim održivosti prednosti AI-a, govornici su bili jasni da sama tehnologija ima ogromne utjecaje na okoliš širom svijeta i da će AI biti glavni dio mnogih organizacija opsega 3 emisije.
Jedan govornik napomenuo je da ako se stopa upotrebe AI nastavlja na trenutačno putanju bez ikakvog oblika intervencije, tada će polovina ukupne opskrbe energijom na svijetu koristiti na AI do 2040. godine; Iako su drugi ukazali da, u vrijeme kada se milijardi ljudi bore sa pristupom vodi, kompanije koje pružaju Ai-koje pružaju ogromne količine vode za hlađenje njihovih podataka.
Oni su dodali AI u ovom kontekstu mogla bi pomoći u izgradnji u ciklusnoj radu, i da je to bio i da je to takođe ključno za ljude u tehničkom sektoru da “internaliziraju” razmišljanje o društveno-ekonomskim i ekološkim uticajima AI, tako da se misli Mnogo ranije faza u životnoj ciklusa sistema.