Tokom trećeg globalnog umjetnog inteligencije (AI) u Parizu, desetine vlada i kompanija iznijeli su njihove obveze da se tehnologija otvorena, održiva i radi za “javni interes”, ali vjeruju da AI stručnjaci vjeruju da postoji jasna napetost u smjeru putovanja.
Razgovarajući sa računarskim tjednim, sudionici AI Action Summit naglasio je kako Ai uhvaćen između konkurentskih retoričkih i razvojnih imperativa.
Primijetili su, na primjer, dok je naglasak na AI otvoren, javni bogatstvo obećava, zabrinjavajuće je malo na snazi za sprečavanje daljnjih centralizacija moći oko tehnologije, što još uvek u velikoj mjeri dominira pregršt moćnih korporacija i zemalja.
Oni su dodali da ključne političke i industrijske brojke – uprkos njihovim prividnim obvezama za pozitivnije, društveno korisne vizije AI-ja – brinu se zabrinjavajuće za deregulaciju, što bi moglo podnijeti javno povjerenje i stvoriti utrku do dna i standarda.
Uprkos prisutnim tenzijama, postoji konsenzus da je samit otvorio više prostora za konkurentne vizije AI, čak i ako nema garancije da će to dugoročno pobijediti.
Pariški samit prati Inaugural AI sigurnosni samit u Velikoj Britaniji u Bletchley Parku u novembru 2023. godine, a drugi AI Seoul Samit u Južnoj Koreji u maju 2024. godine, koji su se u velikoj mjeri fokusirali na rizike povezane sa tehnologijom i stavio naglasak na poboljšanje svoje sigurnosti putem međunarodne naučne saradnje i istraživanja.
Proširiti opseg rasprava, samit AI Action organiziran je oko pet namjenskih radnih tokova: Javni servis AI, budućnost rada, inovacije i kulture, povjerenje u AI i globalno upravljanje.
Tokom prethodnog samita u Seulu, tehničke stručnjake i grupe civilnog društva rekli su da je postojao pozitivan naglasak na širenjem istraživanja sigurnosti AI-a i produbljivanje međunarodne naučne saradnje, imali su zabrinutost zbog dominacije sigurnosnog polja AI uskim korporativnim interesima.
Posebno su naglasili potrebu za obaveznim AI sigurnosnim obavezama od kompanija; Socio-tehničke evaluacije sistema koji uzimaju u obzir kako komuniciraju s ljudima i institucijama u stvarnim situacijama; i šire sudjelovanje iz javnosti, radnika i drugih koji su pogođeni sistemima za napajanje AI.
Međutim, uprkos proširenom opsegu AI Action samita, mnogi od tih zabrinutosti ostaju u nekom obliku.
Razumment samit AI Action
Tijekom dvodnevnog samita najavljene su dvije glavne inicijative, uključujući koaliciju za ekološki održiv AI, koji ima za cilj okupljanje “dionika preko AI lanaca vrijednosti za dijalog i ambiciozne suradnje”; I trenutna AI, “javni interes” Fondacija pokrenuo je francuski predsjednik Emmanuel Macron koji nastoji upravljati razvojem tehnologije u društveno korisnim smjerovima.
Podržao devet vlada – uključujući Finsku, Francusku, Njemačku, Čile, Indiju, Keniju, Maroko, Nigeriju, Sloveniju i Švicarsku – kao i asortiman filantropske tela i privatnih kompanija (uključujući Google Partnerce), a tekući AI ima “preoblikovanje” AI pejzaža širenjem pristupa visokokvalitetnim skupovima podataka; Ulaganje u alat otvorenog koda i infrastrukturu za poboljšanje transparentnosti oko AI; i mjerenje njegovog društvenog i ekološkog utjecaja.
Evropske vlade i privatne kompanije su također udružile da se počine oko 200 milijardi eura u investicije vezane za Ai, što je trenutno najveća javno-privatna ulaganja u svijetu. U pokretanju na samitu, makron je najavio da će zemlja privući privatne investicije u datacentru i AI “u narednim godinama.
Samit je završio sa 61 državama – uključujući Francusku, Kinu, Indiju, Japan, Australiju i Kanadu – potpisivanje izjave o inkluzivnoj i održivoj umjetnoj inteligenciji za ljude i planetu na AI Action Samitu u Parizu, koji je potvrdio niz zajedničkih prioriteta.
To uključuje promociju AI dostupnosti za smanjenje digitalnih dijelova između bogatih i zemalja u razvoju; “Osiguravanje AI je otvorena, inkluzivna, transparentna, etička, sigurna, sigurna i pouzdana, uzimajući u obzir međunarodne okvire za sve”; Izbjegavanje tržišnih koncentracija oko tehnologije; jačanje međunarodne saradnje; čineći ai održivom; i podsticanje raspoređivanja da “pozitivno” oblikova tržišta rada.
Međutim, Vlade Velike Britanije i SAD-a odbili su potpisati zajedničku deklaraciju. Iako još uvijek nije jasno zašto je portparol za premijer Keir Starmer rekao u to vrijeme da se vlada “samo ikad prijavi za inicijative koje su u nacionalnim interesima u Velikoj Britaniji”.
Tokom cijelog događaja, AI programeri i ključne političke ličnosti SAD-a i Europe – uključujući potpredsjednik američkog potpredsjednika JD, makrona i europskog povjerenika Ursula von der Leyen – Skrivena regulatorni “Crvena vrpca” oko AI, tvrdeći da drži inovacije.
Vance, na primjer, rekao je da bi “Prevelika regulacija AI sektora mogla ubiti transformativnu industriju”, dok su i makron i Evropska unija (EU) digitalni šef HenkKunen snažno naveli da će blok pojednostaviti svoja pravila i primijeniti na poslovno prilagođen način da pomogne AI-u na kontinentu. “Moramo rezati crvenu vrpcu – i hoćemo”, dodao je von der Leyen.
Bilo je i nekoliko događaja u neposrednom buđenju samita. To uključuje EU izbacivanje svoje direktive o odgovornosti AI, koje su se fokusirale na pružanje otklanjanja ljudima kada su njihova prava ubrzala AI sustavi, a zavod za sigurnost AI-a, što znači da više neće smatrati pristrasnošću i slobodom izražavanja i fokusiraju se na sigurnost tehnologije.
AI na raskršću
Od tih računalnog tjednog jezika razgovarao je, mnogi su identificirali jasnu napetost u smjeru paturnog skupa za tehnologiju tokom samita.
Na primjer, iako su ključne političke ličnosti založene retorike o potrebi otvorenog, inkluzivnog, održivog i javnog interesa AI u jednom dahu, u sljedećem su deklizmili regulatornu crvenu vrpcu, dok su počinili stotine milijarde da bi se proliferirala tehnologiju bez brisanih zaštitnih pošti.
Za Sandra Wachter – profesor tehnologije i propisa, sa fokusom na AI etiku i zakon, na Internet institutu Oxford (OII) – nejasno je na koje se crvene trake političke ličnosti kao i von der Leyen čak govore.
“Često pitam ljude da nabroji zakone koji stoje na putu napretka”, rekla je. “U mnogim oblastima nemamo ni zakone, niti kada imamo zakone, nisu dovoljno dobri da se zapravo riješe, tako da ne vidim kako se bilo šta od toga zadržava.”
Istaknute zajednički AI pojačani retorika, Wachter je rekao da će voljeti da se razgovor okrene na glavi: “Ako su moja tehnologija toliko korisna, ako ne bih ja garantovao njezinu sigurnost držeći se za račun?”
Komentirajući odluku EU da se tiho uklapa na svoju AI Direktivu o odgovornosti, Wachter je rekao da iako i dalje postoje i druge apenije da izazove štetno automatizirano odlučivanje, odluku zabrinjavajuće potencijalne promjene morske promjene za AI regulaciju.
“Mnogo me brine jer je to učinjeno pod ‘Moramo poticati natpis za inovacije’, ali kakvu vrstu inovacija? Za koga? Ko pobjeđuje ako imamo pristrani, neodrživ, zabludu, obmanjujući AI?” Rekla je, dodajući da joj nije jasno kako će se život svakog građanina poboljšati ljudima koji ne mogu dobiti svoj dan na sudu ako su ih AI naštetili.
“Da li je to osam milijardera ili ostalih osam milijardi ljudi? Većina ljudi neće imati koristi od sistema koji nije testiran, to nije sigurno, i to je rasista, tako da ovu ideju da se uredba drži u potpunosti.”
Vrlo je jasno da većina ljudi neće imati koristi od sistema koji nije testiran, to nije sigurno, to je rasistički, a to uništava planetu … tako da ova ideja da uredba je u potpunosti pogrešno Sandra Wachter, Oxford Internet institut
Wachter je dodao da je AI “svojstveno problematična tehnologija, u tome što su njegovi problemi ukorijenjeni u tome kako to funkcionira”, što znači da će se ako se koristi za bilo kakvu veću vrstu većeg dobra “, tada morate biti sigurni da se tih negativnih nuspojava drže natrag što više”.
Daljnje upozorenje protiv opasnosti da se stvara lažnu dihotomiju oko inovacija i regulacije, Linda Griffin, potpredsjednika globalnih poslova Mozilla, rekao je: “Trebali bismo biti vrlo skeptični za potraživanja protiv Uredbe.”
Dodala je da lično nalazi retoriku protiv regulacije zabrinjavajući: “Inovacije, rast i dobit za pregršt najvećih kompanija na svijetu ne znači inovacije i rast za nas ostatak.”
Gaia Marcus, direktor Instituta Ada Lovelace (ALI), takođe je otišao samita “osjećajući se kao da smo na nečemu raskrsnice kada je u pitanju razvoj i raspoređivanje AI”, tvrdeći da su vlade da izgrade poticaje kako bi bili sigurni da su svi AI sustavi raspoređeni u njihovim jurisdikcijama sigurna i pouzdana.
Dodala je da je to posebno važno osigurati da su alternativni modeli i sustavi izgrađeni izvan zidanih vrtova velikog tehnologije, tako da vlade “neće isplatiti iznude inostranstva na nekoliko tehnoloških kompanija za generaciju”; A za sve poticaje uvedene kako bi se osigurala sigurnost AI sistema opće namjene na dnu tehnološkog snopa, koji je sve ostalo izgrađeno na vrhu.
Komentirajući trenutnu točku inflekcije AI, Marcus je rekao: “Jedan put je stvarno o pobjednicima i gubitnicima, u vezi s korporativnim interesima ili uskim nacionalnim interesima, a onda je drugi put u vezi sa narodima kako bi izgradili svijet u kojem Ai radi za ljude u društvu.”
Za međunarodnu saradnju da bude uspješan, Marcus je rekao da – na isti način nalaze zajedničke standarde i norme oko zrakoplovstva ili farmaceutskih proizvoda – ključno je za stvaranje “zajedničke infrastrukture za izgradnju i testiranje AI sistema”.
Dodala je: “Oni neće biti veće prepreke transformativnom potencijalu AI-a nego izblijedjeli povjerenje javnosti”, te da zemlje istomišljenika koje prepoznaju troškove neprimjerenih rizika moraju pronaći druge forume za nastavak izgradnje sigurnosnog dnevnog reda. “Za samit koji je uokviren oko akcije, stvarno smo željeli da vlade hitno vide da počnu izgradnju poticaja, institucija i alternativa koje će omogućiti širok pristup i uživanje u prednostima AI-ja.”
Međutim, Marcus je priznao da trenutna geopolitička situacija između SAD-a, Kine i EU otežava osiguranost sigurnosti prije implementacije, barem u kratkom roku.
Uprkos prisutnim geopolitičkim tenzijama, i pozive na deregulaciju, osnivački partner na digitalnom transformacijskom savjetovanju javnosti, bio je optimističniji u pogledu izgledima za međunarodnu suradnju, tvrdeći da AI-ovi “sastavni elementi” znači da uvijek zahtijeva mješavinu suverene akcije i suradnje.
“Svaka zemlja je bila potrebna vlastiti datacentri. Kamo ih locirate, kako ih financirate, koji ih upravlja, kojim se alatom rade i kakvu moć koriste – to je gotovo u potpunosti suvereno pitanje u svakoj zemlji”, rekao je.
“Ali nakon što ste dobili sve to postavljene, još uvijek trebate surađivati oko podataka. Strukture podataka koje su pomogle u stvaranju Alphafafolda bile su u osnovi stvaranje međunarodne suradnje. Ali za to je zaista g Lobal Play, morat ćemo dijeliti i to znači razumijevanje raznolikih regulatornih sredina i imajući mjesto za dijeljenje. “
Javni interes vs korporativni interes Ai
Za Bracken, glavni uspjeh samita bio je u tome kako je uspjelo resetirati narativ oko AI-a lijevajući je kao javno sredstvo.
“Resetiranje AI kao javnog dobra i u osnovi kao što je timski sport dobar za sve nas”, rekao je. “Prava politika, tehnologiju, igrači, koji to čini neurednim poslom, a to je netačna nauka, ali kad se osvrnemo, osvrnit ćemo se u to kao trenutak kada je Ai resetiran kao javno sredstvo.”
Bracken je također pohvalio trenutnu AI kao “stvarno snažan ishod” samita: “Pohađao sam mnoge događaje koji su podržali vlade koji rezultiraju izjavama i rukama i tople riječi – one koje su zaista bitne, oni koji rezultiraju institucijama, novcem, promjenama i isporuci.
“Koji je Macron promenio vremensko vreme. Sada govorimo o AI-u kao javnom imovini – tamo je da pomogne u zdravstvu i obrazovanju i svim tim drugim sektorima, i ne vide se jednostavno kao proširenje davatelja monopolističkih tehnologija.”
Komentirajući pokretanje trenutnog AI, Nyalleng Moorosi – istraživački moorosi na distribuiranom istraživačkom institutu AI-a (Dair) koji je ranije radio kao softverski inženjer, što je točno definirano da se “javni interes” i dalje treba pravilno definirati kako bi se izbjeglo hvatanje uskim korporativnim interesima.
“To zavisi od toga kako se modeli izgrade. Svakako se morate brinuti za reprezentaciju i pristranost i inkluziju, ali tada se radi i o tome što arhitekture odaberemo. Povrat koji su revizijski,”, rekla je.
“Takođe morate biti oprezni u vezi sa onim ugovornim i vrstama ugovora koje potpišete, jer čak i ako to ne budete sigurni da ne budete sigurni da ne budete javni podaci ili ono što se ne može zaključati, a ono što se ne može zaključati, a ono što se ne zna u vezi s tim kojim se ne zaključuju u vezi s tim kojim se ne mogu zaključati, a ono što se ne može zaključati, a ono što se ne može zaključati, a ono što se ne može zaključati, a ono što se ne bavi važnim podacima, a ono što se ne znaju na raspolaganju. Privatna industrija. Privatna industrija i ne smijemo zaboraviti na to što je ne smijemo zaboraviti kako je moćna privatna industrija.”
Marcus je rekao da je iako naglasak na održivom, javnom interesu AI pozitivan razvoj samita – u tome je guranje vizije tehnologije na kojoj su alat i infrastruktura podneti široko dostupna. Trenutni AI će morati održati širok spektar izvora finansiranja kako bi se osigurala stalna neovisnost i izbjegla rizike korporativnog hvatanja, kao i vrlo transparentne s njegovim ciljevima i njegovim raspodjelom resursa, vremena i novca.
Ekoating Moorosi, Marcus je dodao da to trenutno nije jasno što znači “javni interes” tačno: “To bi moglo značiti toliko različitih stvari, a javni interes AI bi trebao biti srednja opterećenja različitih stvari”. “
Svaka značajna intervencija koja ima za cilj da centrira interes “javnosti” treba da pređe usklađivanje sa “inovacijama” narativom Abeba Birhane, laboravijska odgovornost za umjetnu inteligenciju
Na sudjelovanju javnosti u AI razvoju i regulaciji, zaključio je Marcus: “Nadam se da nam je to dalo pod, a ne strop u pogledu šireg sudjelovanja u civilnom društvu … koji su vam potrebni glasovi ljudi koji predstavljaju različite javnosti da znaju da imate taj vid.”
Andrew Stret, vanredni direktor ALI, rekao je da je pohvaljen da se trenutni AI upravljaju slučajevima za korištenje javnog interesa – to će se suočiti sa svojim naglaskom na otvorenim izvorima – koji će se nalaziti u svom upravnom odboru, a u upravljačkom odboru, a koliko dobro može zadržati fokus na neprofitne, projekte javnog interesa. “
U blogu objavljenom u jeku samita, osnivača i glavnog istraživača u ABEBA-u u umjetnoj obavještajnoj laboratoriji (AIAL), takođe znači ništa što AI sistemima svojstveno dobro. AI često dovodi do nadzora, manipulacije, nejednakosti i erozije temeljnih prava i Ljudska agencija dok koncentrira moć, bogatstvo i utjecaj u rukama AI programera i dobavljača. “
Dodala je da se aktuelni “javni interes” pristupi – karakteriziran fokusom na opremanje javnih institucija sa AI alatima i “AI-For-Dobrim” inicijativama koje žele koristiti tehnologiju za “rješavanje” socijalnih, kulturnih ili političkih pitanja; I poboljšanje postojećih sistema od strane, na primjer, smanjenje njihove pristranosti – kuhaju na “davanje” javnom “više AI ili hranjenjem postojećih korporativnih modela s više ili” boljim “podacima”.
Birhane je rekao da, dok mnogi od tih pristupa su dobro znače, i “to bi moglo biti greška da sve ove inicijative bave neproduktivnim i neupadljivim, u velikoj mjeri padaju u verovanju da se sve ili većina problema mogu riješiti kroz tehnologiju.
“Ovaj pristup vjerovatno neće dovesti do značajnih promjena u javnosti, jer se ova tehno-centrična rješenja nikada ne razvijaju izvan korporativnih silosa. Svaka značajna intervencija koja ima za cilj da centrira interes” javnosti “, nastavljajući se sa” inovacijama “narativom”.
Tržište i geopolitičke koncentracije moći
Većina tih računara sedmično je razgovarala sa karakterističnom tržišnom koncentracijom kao što je definitivno pitanje oko Ai.
“To je verovatno najvažnija stvar jer se radi o moći, i to se sve svodi – ko ima moć i ko je ovisan o tome,”, rekao je da je važno da se odvajno smanji na selektore nekadašnjih pružatelja usluga Cloud Compute ili Chip proizvođača.
Nadalje je dodala da je na stranu tržišne vlasti koja je u velikoj mjeri u velikoj mjeri dominiralo o raspravama u međunarodnoj kompaniji SAD i Kina, a – u manjoj mjeri – u EU: “To nije sve svijet, ali nema puno drugih zemalja, ali nemaju glas u oblikovanju.”
Komentirajući središnju ulogu Indijanska vlada tokom AI Akcijskog samita, Bracken je rekao da je “Ovo je bio samit iz Francuske i Indije”, te da su podkontinenti “visoko centralizirani tehnološki ima”, koji su doveli stotine miliona ljudi u formalnu ekonomiju, u velikoj mjeri napravljene putem otvorenih tehnoloških raspoređivanja.
“Ne koriste vlasničke dozvole poput G7, oni su to učinili sami. I, naravno, oni su nevjerojatno dobro postavljeni. Već dostavljaju usluge bazirane na AI u mnogim sektorima i regijama. Macron je bio pametan da ih pozove.”
On je dodao da je s obzirom na čistu veličinu stanovništva u Indiji, povrh od 500 miliona u Europi “, odjednom govorite realnim brojevima … možda ćemo se samo osvrnuti u to kao trenutak kada je javna Ai postala stvar za milijardu ljudi”.
Na sledećem samitu, koji je potvrdio makrona, Griffin je rekao: “Francuzi je uradio dobar posao da prošire šator i da će se Indija biti udvostručila, a ne biti u Evropi, a ne u SAD-u, a ne da se nalazi u Kini, ne postoji prilika da se u Kini zaista razmisli o tome kako bi se ostatak uskladila u to.”
Međutim, WACHTER je upozorio da efikasno dovode više glasova u razgovore oko AI-a i pomažu pozitivno oblikovati smjer tehnologije, mora postojati odbacivanje retorike “Arm-Race”, što je samo negativan mentalni model u kojem je jedini način putovanja prema dolje.
“To je jedini smjer koji možete ići ako mislite da morate stalno umanjiti protivnika, to je samo utrka do dna,”, rekla je ona. “Ne radi se o bacanju svih naših vrijednosti preko broda i rekavši:” Pa, skoče sa mosta, prebivamo ih u udarac i brže skočimo na poticanje tehnologija koje se pridržavaju naših navedenih vrijednosti. “
Istaknuto kako potrošači imaju vjerovatnije kupiti proizvode FairTrade jer znaju da je etički proizvedeni, navodi da su vlade slično poticaj i ulagati u etičke AI pristupe koji su u umu izgrađeni sustavi koji dokazuju sa društvenim i sigurnosnim posljedicama tehnologije. “To je jedini način promjene kursa daleko od trkanja u ponor”, rekla je.
Mnogi od tih računarskih nedeljnika razgovarali su sa rečeno da jedan od najpozitivnijih aspekata samita nije bio glavna konferencija, ali rubni događaji koji se događaju na marginama. Za Griffinu su ovi događaji dozvoljeni za “freer razgovore” u kojima su ljudi mogli izraziti svoje “duboke brige” i “ljutnju” tokom trenutnog stepena tržišne koncentracije oko Ai.
“Nisam naišao na nijednu drugu AI okupljanju u kojima su ljudi bili u stanju da se naglo definiraju i pozove kako to nije u ničim interesu da se ovo tržište, tako da je ujedno, a javno se može pomoći da se nasmene iz razvoja vlastitog, i” čistog motiva za profitiranje “i” čisti za profitni motiv “.
Otvoreni izvor, manji modeli
U pokušaju rješavanja problema koncentracije tržišta, europski lideri na samitu namijenjen kako bi otvoren izvor bio sastavni dio njihovih AI pristupa.
Marcus je rekao da je ovaj novi naglasak na otvorenom kolu AI – dok nije srebrni metak – može pomoći “monokulturi koji se temelji na razvoju i raspoređivanju AI alata” uvođenjem onog što se očekuje od velikih kompanija u razvoju vlastitih sustava poboljšavajući njihove stupnjeve otvorenosti kako bi se omogućilo značajnije evaluacije i revizije.
Međutim, upozorio je strend da se pristupi otvorenim izvorima može iskoristiti i korporativnice u njihovoj korist, ukazujući na to kako su zajednice otvorenih izvora ranije prisluškivale velike korporacije kao izvor slobodne radne snage koji su koristili za izgradnju svojih zidnih vrtova i ovisnosti.
.
Stret se složio da će, dok otvoreni izvor AI teško riješi sva pitanja oko tehnologije, čineći vrhunske alate dostupnijim širem skupinu ljudi može pomoći u osporavanju razvoja tržišta AI, kao i obrnuto “iza zatvorenog vrata” koji trenutno karakterizira tehnologiju.
Za Moorosi, Aim za aktivnost i arhitekture otvorenog kod za vrijeme samita mogu pomoći u stavljanju veći naglasak na manjim, više prilagođenim AI modelima – koji su manje intenzivni od velikih silikonskih dolina – kao i osnaživanje veće raznolikosti programera za utjecaj i kontrolu smjera AI-ja.
“Mnogo napretka događa se kada je višestruko ljudi u stanju da lutaju tim tehnologijama”, rekla je da je imperativ podržavati lokalizovanu zgradu modela AI u specifičnom kontekstu, a ne na pokušaj infrastrukture u privatnom jeziku (LLM) u svim situacijama.
“Postoji toliko toga što se može učiniti sa malim modelima i toliko puta, kada je to ponovo Ally kritička primjena, želite malu, jer želite reviziju i objašnjenje, “rekla je, dodajući da manji modeli mogu biti posebno moćni kada su podneli prilagođenim skupovima podataka.
“Jedna od stvari koje nalazite sa ovim masivnim modelima je da su optimizirani po previše stvari, tako da se prilično dobro na mnogim stvarima, ali kada vam je zaista važno da vam je potrebna izvrsnost – trebate mimizirati grešku i morate biti u mogućnosti da biste brzo mogli pratiti i brzo pratiti i uhvatiti bilo kakve pogreške.”
Isticanje trenutne situacije u kojoj je razvoj AI centriran na stvaranju najvećih modela s što više podataka prije “bacanja u svijet”, Griffin se složio da postoji precizniji aplikacija AI, posebno za dostavu javnih usluga.
“Ne možete imati samo vlasničke, zidove bašte modele u kojima niko ne razumije šta ulazi u njih, jer nema javnog poverenja”, rekla je ona. “Puno je razgovora u Velikoj Britaniji i drugim zemljama o AI-u očigledno mijenjajući javne usluge, sjajno, nemam javnog povjerenja, to je nedostajući element … zato je i otvoreni izvor zaista važan i važan je da je otvorena korekcija i probijanja ove tržišne koncentracije važno.”
Međutim, uprkos njezinim zabrinutostima, Griffin je rekao da je samit odjek je uspeh kada je došlo do promjene razgovora oko otvorenog koda, koji je tokom prethodnih dva saznanja tretirana isključivo kao rizik.
“Otvoren za otvaranje je loš”, rekao je Griffin, “, ali aktuelni lideri na tržištu i otvoreni izvor nisu u njihovim komercijalnim interesima, pa je zabrinutost u tome i ne čini posebnu karakteristiku koja pripada otvorenom kodu, pa čak i otvorenim izvorima.”
Slične bodove je napravio Wachter, koji je tvrdio da je važno pogledati ko se svađa protiv otvorenog izvora i zašto mogu imati interes za zatvorene sisteme koji nisu otvorili drugima.
Dodala je da je iako je pitanje otvorenog koda, u tome, morate uzeti u obzir stvari poput infrastrukturne ovisnosti i pristupa podataka “, naravno, postoji i rizik. Da, naravno, postoji i rizik.
Griffin je rekao da je u Europi došlo do realizacije – što je glava air-a za vrijeme događaja, Martin Tisne – to ako niste SAD ili Kina, a mi smo svi u istom brodu sa AI-om, i ne možemo igrati u ovoj areni ako nemamo otvorene sisteme “.
Griffin je rekao da vlade izvan ove dvije glavne blokove moći trebaju razmišljati o poluma koje imaju na raspolaganju za premještanje na otvoreni izvor još više, što mogu uključivati izgradnju vlastitih nacionalnih modela kao da Grčka i Španija rade; pružanje materijalne podrške za izgradnju preduzeća na otvorenom ili na drugi način doprinoseći otvorenim skupovima podataka; i postavljanje zahtjeva otvorenog koda u pravilima o nabavkama AI. “To nije glavna hvataljka, ali mislim da se to treba dogoditi”, rekla je.
[Silicon Valley firms are] ne faktoring u troškovima da ima čitavu zajednicu bez vode, čitave zajednice bez električne energije ili uticaj na mentalno zdravlje Oženjeni Moorosi, Okružni institut
Moorosi je dalje tvrdio da veći naglasak na manjim AI modelima može umanjiti i negativne ekološke i društvene eksterne povezane s razvojem LLMS-a, a koji su rijetko za koje se bave firmima silicijuma dok ne internaliziraju same troškove.
“Ne čine faktoring u cijenu cijele zajednice bez vode, cijele zajednice bez električne energije ili mentalno zdravlje,”, rekla je, dodajući da masovno struganje ne može plaćati da ne plaćaju javne ili zaštićene podatke.
“Ako ne plaćate podatke i ne plaćate za bilo koju od vaših eksternalija, kao da možete pristupiti beskonačnim resursima za izgradnju beskonačnog stroja. Nemamo beskonačnog novca, i ne prisiljavamo da razmislite drugačije i da razmislite drugačije i da razmislite.”
U uklanjanju nepravednih radnih praksi multinacionalnih tehnoloških firmi – bez kojih tehnologija ne bi bila u svom trenutnom stanju – Moorosi je rekao da bi se njihova sposobnost nadmetanja AI-a na nadležnosti u provedbi s laganim radnim propisima zabrane zabrane diferencijalnih cijena koji im omogućavaju da ljudi manje plaćaju u svijetu.
“Ako radite u zemlji u razvoju, ne platite se onoliko koliko radite u planinskom pogledu ili Cirihu, čak i ako radite isti posao”, rekla je.
Glavna briga i kreće se naprijed
Uprkos nekim pozitivnim koracima napravljenim tokom samita, većina tih računarskih nedelja razgovarala je sa rečeno da je “intenzivna koncentracija čitave Ai” Stack “ostaje njihova najzgodnija zabrinutost koja treba riješiti.
Isticanje povijesti Interneta – koje je prvobitno razvijeno za vojnoj komunikaciji, a zatim zatvoreno kroz proces korporativnog ograde u krajem 1990-ih – Griffin, na primjer, ne razmišljaju o koracima koji su se dogodili ili nisu imali interoperabilni e-mail … To nije bila sigurnost. “
Dodala je da je “otvoreni izvor ključni sastojak u antidotu” na tržišno koncentraciju i stvaranje budućnosti u kojoj kontrola nad razvojem i raspoređivanjem AI tehnologije mnogo je više distribuirana.
Bracken je rekao da je sada jasan naglasak, posebno u Europi, o potrebi alata za alat otvorenog koda i suverene mogućnosti izvan cijele najgore kvalitete tehničkih tehnoloških firmi, postizanje ekonomskog rasta s AI-om ovisit će o spremnosti vlade da aktivno interveniraju na tržištima.
“Morate biti aktivni, morate oblikovati tržište ishodima koje želite”, dodao je. “Karakterizacija važnosti AI-ja bila je prečesto bilo prečesto na bilo kojem kraju ekstremnog – prvog oko egzistencijalne sigurnosti, a još jedan kraj oko divljeg plutača od onih koji žele uhvatiti regulatorno okruženje, kao da nam je samo pet ili šest kompanija koje nam zaista mogu dati ai.”
Bracken je zaključio da, dok razumije i obilazak tržišta i zabrinutosti zbog potencijalno egzistencijalnog rizika tehnologije, “oba položaja su sada neodrživa”.
Za Marcus, koncentracija je stvorila “nedostatak političke vizije” oko budućnosti AI-a, kao što je dominacija tehnologije relativno uskim nacionalnim ili korporativnim interesima znači da trenutno nema nedostatka “vjerodostojnih alternativa”.
“Moramo znati da postoje vjerodostojni pokušaji proširenja univerzuma tih potencijalnih budućnosti raznih ljudi koji imaju udio u tehnologijama koje bi mogle biti izgrađene i podatke koji ih podupiru”, rekla je. “[We also] Trebate postaviti temeljno pitanje da li su države u položaju da upravljaju poticajima oko onoga što se tehnologije raspoređuju u njihovim jurisdikcijama … Imamo puno vožnje za izgradnju, ali ne znamo da li će krov držati i zidovi i to je prilično važno. “
Moorosi je dodao da je posebno zabrinuta za koncentraciju na tržištu AI u kontekstu sve veće militarizacije tehnologije, tvrdeći da trend za oba tehnološkim divovima i malim AI startupsima bacajući njihovim radova na radu odbrane ili državnim vojnim tijelima stvara doslovno trčanje oružja. Ova militarizacija mogla bi potkopati napore na odgovornoj i javnom interesu AI, jer će vjerovatno dati prioritet koncentraciju moći i tajnost preko inkluzivnosti, rekla je.
“Ugovori u vojnoj i ratovanju su toliko masivni da se osjećam da ne bi bilo mnogo poticaja za razvijanje za bilo šta drugo, osim što je navodno, navodeći visoke stope grešaka i doprinijele su neselektivnim ubojstvom civila – znači da bi trebalo biti osporene sve potraživanja za veću” preciznost “. “AI u ratovanju je trenutno stvarno goruška nauka.”
Idemo na sljedeći samit, Strait je rekao da moramo preispitati trenutni naglasak na deregulaciji: “Ono što je javnost, pa čak i preduzeća potrebna je sigurna, efikasna i pouzdana – ne možete to učiniti bez regulacije, a reputacijski pritisak će vas do sada do sada dobiti bez propisa.
“Postoji puno više za napraviti u pogledu kako možete stvoriti pravednije i napredniji tržište AI koji je međunarodniji i ne dominira šaka velikih kompanija za tehnologiju.