Četiri godine nakon svjetskog ekonomskog foruma (WEF) pozvali na glavnu etičku službenike umjetne inteligencije (AI), 79% rukovodioka kaže da je AI etika važna za njihov pristup širokom preduzeću.
Izvan velikih proizvođača tehnologije, međutim, uloga se nije skinula. Da li je centralizacija tu odgovornost najbolji pristup ili bi organizacije trebale gledati na druge modele upravljanja? A ako imate nekoga koji vodi AI etiku, šta će oni zapravo raditi?
Za jednu stvar, poduzeća su se stide na poziv etike, kaže da se Forrester potpredsjednik Brandon Purcell ne može obratiti određeni set normi, a multinacionalne kompanije, i u istoj zemlji u istoj zemlji u kojoj imate polarizirane poglede na ono što je u pravu, šta je u pravu, šta je u pravu. “
SalesForce možda ne bi moglo da stvori etičke strategije AI, ali preduzeća razgovaraju o odgovornoj AI i zapošljavanju za to: u SAD-u, od 2025. aprila za “Odgovorni AI koriste arhitete”, u godini su 10% u godini (međugodišnji).
Ali ono što većina organizacija traže je upravljanje Purcellom, dodajući: “Neke kompanije stvaraju ulogu za vodstvo upravljanja AI; drugi ga s pravom gledaju kao ekipnu naporu, a podijeljene su za sve koji dodiruju lanac vrijednosti AI.”
Organizacije žele osobu ili tima zaduženu za upravljanje rizicima AI, slaže se u FAIDRA Boiniodirisu, globalni lider za povjerenje AI na IBM savjetovanju “, osiguravajući da zaposleni i dobavljači smatraju odgovornim za AI rješenja koja kupuju, koriste ili zgrade”. Ona vidi uloge kao što su AI upravljačko vodstvo ili službenik za rizik osiguravajući “odgovornost za AI izlaze i njihov utjecaj”.
Bez obzira na naslov, Bola Rotibi, šef istraživanja preduzeća na CCS uvid, kaže: “Uloga je provedena u najnovijim propisima, najnovijim uvidom, najnovijim trendovima – oni su u industriji, oni su dom svih znanja oko ai etike.”
Ali Gartner Suradnik i digitalni eticičar Frank Buytendijk upozorava na silovanje Šta bi trebalo biti odgovornost za upravljanje: “Rezultat ne bi trebao biti ostatak organizacije koji misle da je AI etički službenik odgovoran za pravljenje pravih etičkih odluka.
“AI je samo jedna tema: Etika podataka je važna. Premještanje naprijed, etika prostornog računanja može biti još udarna od AI etike, pa ako imenujete osobu sa strateškom ulogom, šireg kišobrana – može biti zanimljivije.”
Zaštita više od podataka
Efficientherher Osnivač Ryan Mangan smatra da je do sada, posvećen AI etički službenik: “Čak i cyber sigurnost i dalje se bori za rutinsko sjedalo na razini, tako da naslov u C-Suiteu, nazivu rizikuje samo još jednu srednju značku, više mita od mandata.”
Nedavno istraživanje za Dastra sugerira mnoge organizacije (51%) smatra da su poštivanje AI-a kao nastupanje službenika za zaštitu podataka (DPO), iako Dastra suosnivač Jérôme de Mercey sugerira da se uloga treba proširiti. “Najvažnije pitanje sa AI je” Šta je svrha i kako da upravljam rizikom? “, I to je isto pitanje za obradu podataka.”
Obje uloge uključuju i regulaciju i tehnička pitanja, komunicirajući u cijeloj organizaciji i pružanje snažnog upravljanja. Za De Mercey, pojmovi za opću regulaciju podataka (GDPR) za zaštitu podataka takođe su ključni za AI etiku: “Ekonomski i društveni rizik je uvijek [pertinent] Budući da postoje ljudi sa ličnim podacima i DPO-om koriste se za procjenu ove vrste rizika. “
Samostalni ai etički službenik nije izvediv za manje poduzeće, kaže Isabella Grandi, saradnik direktora podataka i upravljanja na NTT-u na podacima NTT-a. “Na većini mesta je odgovornost za etički nadzor još uvek dodan nekom drugom poslu, često u upravljanju podacima ili legalnim, sa ograničenim uticajem. To je u redu do tačke, ali kao AI raspoređivanja, rizici se teže upravljaju sa strane.”
Ipak, DPO-a vjerovatno neće imati dovoljno stručnjaka u AI i Data znanosti, tvrdi Purcell. “Naravno, ne postoji AI bez podataka. Ali istovremeno su današnji AI modeli unapred obučeni o ogromnim korpusom podataka koji ne žive u četiri zida kompanije. [They may not know the right questions to ask] O podacima koji su bili proizvedeni za upotrebu tih modela, o tome kako su ti modeli ocijenjeni, o namjeravanim namjenama i ograničenjima i ranjivosti modela. “
Stručnost nauke podataka nije dovoljno, bilježi on. “Ako definiramo korektnost u pogledu” najkvalifikovanijih kandidata dobiva posao “, ali znamo da postoje sve vrste problema sa podacima koji se bave kao algoritam. Ne mora da postavljaju takva pitanja, dok je neko ko je obučen u etiku, a može pomoći u pronalaženju Prava ravnoteža za vašu organizaciju. “
Odgovorni AI tim vrlo često nema nekoga ko je certificiran u AI etici Marisa Zalabak, globalni savez za digitalno obrazovanje i održivost
Poklada za ovu ulogu razlikuje se od zabrinutosti DPO-a – ili CIO-a, kaže GOPINATH Polavarapu, glavni digitalni i AI oficir u Jaggaer-u: “Zakonska odbrana i zakonita”, da li je ovaj sajam odluka? Da li to objašnjava ili umanji nejednakost? “
Boiniodiris dodaje više pitanja: “Da li se ova primjena AI-a usklađuje sa našim kompanijama? Ko bi mogao biti negativno pogođen? Da li u potpunosti razumijemo kontekst podataka za ovaj AI i da li smo se prikupljali saglasnosti? Da li se treba koristiti ovaj Ai?
Pitanje koje bi ljudske vrijednosti AI trebale odražavati podsjetnik je da je uloga potrebna pravna, društvena nauka, stručnost podataka i etička stručnost podataka.
“Odgovorni AI timovi su pravnici, ponekad su oni istraživači ili psiholozi – odgovorni AI tim vrlo često nema nekoga ko je certificiran u AI etici”, kaže Marisa Zalabak, suosnivač Globalnog saveza za digitalno obrazovanje i održivost.
Sa više od 250 standarda za etički AI i još 750, trebat će ih obuka – Zalabak preporučuje Centar za AI i digitalnu politiku, a da dvije stvari koje ljudi razmisle kada razmišljaju o AI Etici – jer postoji ogroman spektar stvari, uključujući višestruke psihosocijalne uticaje “.
Moć da kaže ne
Iako imaju pristup donosiocima odluka, niti su arhitekti ni DPO-ovi dovoljno viši da imaju dovoljno utjecaja ili da imaju vidljivost novih projekata dovoljno rano. AI Etika mora biti uključena u fazu dizajna.
“Uloga mora sjediti s izvršnim rukovodstvom – izvještavanje CEO-a, Odboru za rizik ili direktno u odbor -O zaustavi ili ponovno pomjera bilo koji model koji ugrožava pravičnost ili sigurnost”, dodaje Polavarapu.
Odgovorni AI vodič treba biti barem na nivou potpredsjednika, Purcell se slaže: “Obično, ako postoji glavni službenik podataka, oni sjede u toj organizaciji. Ako su podaci, analitika i AI u vlasništvu Cio, oni sjede u toj organizaciji.”
Kao i vidljivost, treba im autoritet. “Od samog početka kada je zamišljen AI projekat, ta osoba je uključena da bi razjasnila ono što bi trebalo biti odgovornosti za to, u nekim slučajevima, visokoposledi,” kaže Purcell.
“Oni su odgovorni za donošenje dodatnih dionika koji će se uticati na koje mogu doći do potencijalnih šteta. Oni pomažu u stvaranju i pridržavanja sustava, a zatim, konačno imaju kaznu u pokretu u IN / No-IN-u evaluaciji sistema: Da li ispunjava uslove koje smo u početku ispunili?”
To će uključivati dovođenje dodatnih dionika sa različitim perspektivama i pozadinama za testiranje koncepta AI sistema i gdje bi moglo poći po zlu tako da može biti crveno udruženo za te predmete za rub.
“U određenoj mjeri, nije drugačije od onoga što smo imali s drugim novim oficirima poput ESG oficira ili šefova održivosti koji nastave sa posebnim propisima koji okružuju tu sposobnost”, kaže Rotibi. “Etički oficir AI, kao i svaki drugi službenik, trebao bi biti dio upravljačkog tijela koji u cjelini izgleda u skladu s obzirom na to da li je to oko privatnosti podataka ili da li se to nalazi oko Ai, a ono što je izloženost? Koje su ranjivosti za organizaciju?”
Vrijednost službenika AI etike leži ne samo u njihovoj stručnosti i njihovu sposobnost komuniciranja, već i u autoritetu koje su date. Rotibi vjeruje da treba biti strukturalno: “Dajete im upravljačko tijelo i eskalacijske kanale, dajete im mogućnost da donesete procjene utjecaja na odluku, tako da postoji razina objašnjenja u svemu što kažu – jer ako nemate te strukture na mjestu, postaje savjetodavno u želji.”
Boiniodiris se slaže: “AI timovi upravljanja mogu povući odbore, ali ako se niko ne pojavi sa sastancima, tada je napredak nemoguć. Poruka da se ta radna pitanja mora doći samo ne samo jednom, već dosljedno, dok se u ugradi u ugrađene u kulturu kompanije.”
Etika treba biti ukratiti- “Polavarapu:” Upravljački odbori koji obuhvataju usklađenost, nauku o podacima, HR, proizvod i inženjering osiguravaju da je svako izdanje testirano na stresno za nenamjerene posljedice prije nego što se popne. “
Ali Buytendink tvrdi da bi AI etički službenik trebao predsjedavati savjetodavnim odborom za digitalni etički odbor: “Ne bi trebalo biti prepreka za redak ili projektni menadžeri da rukuju u svojim etičkim dilemama. Ako se to upravlja upravitelji projekata, a to je prepreka.”
U praksi on predlaže stvaranje savjetodavnih odbora sa dovoljno ovlaštenja: “Zamolili smo savjetodavne ploče s kojima razgovaramo o tome koliko se dogodi da se njihove preporuke ne slijede, a to se u suštini nikada ne događaju.”
Dobro se bavite dobrom
Čak i tako, ai etički službenici vjerovatno neće imati moć blokirati široke trendove etičkim utjecajima, poput agencija AI koji automatizira radne tokove i može smanjiti broj potrebnog osoblja.
Nedavno istraživanje podataka o NTT-u prikazuje tenzije: 75% lidera kaže da su AI ambicije organizacije sukobi sa ciljevima korporativnog održivosti. Trećina rukovodilaca kaže da je odgovornost važna više od inovacija, još jedna treća stopa inovacija veća od sigurnosti, dok druga treća dodjeljuje jednaku važnost.
Rješenje može biti za pregled AI etike i upravljanja ne kao potreban trošak izbjegavanja gubitka (povjerenja, reputacije, kupaca ili čak novca, ako su donetene novčane kazne), ali to je prepoznavanje industrijskog vodstva ili jednostavno raditi ono što posao radi bolje.
“Odgovorni AI nije prepreka profitiranju, zapravo je akcelerator za inovacije”, kaže Boiniodiris. Ona ga uspoređuje sa zaštitom na trkalištu koji vam pušta brzo brzo. “Ako unesete snažno upravljanje od početka, kreirate vrstu okvira koji vam omogućuje da se smanjite odgovorno i sa povjerenjem.”
AI Etika nije samo u skladu sa poštivanjem ili čak dobrim odnosima s kupcima: to je dobro poslovanje i konkurentna diferencijacija. Kompanije koje prihvataju reviziju Al Etika Izvještavaju više dvostruke ROI onih koji ne pokazuju takvu rigoru. I Centar za demokratiju i tehnologiju Izvještaj o procjeni AI-a je sveobuhvatan pogled na procjenu projekata za postizanje takvih povrata.
Ako ugradite snažno upravljanje od početka, kreirate vrstu okvira koji vam omogućuje razmjenu odgovorno i s povjerenjem Phaedra Boiniodiris, IBM Consulting
Nedavni ROI AI etike Papir iz digitalnog ekonomista gradi se na alatima kao što su holistički povrat etičkog okvira koji je razvio IBM i Notre Dame i Rolls-Royce’s Aletheia Framework AI etički popis sa metričkim kalkulatorom AI ROI. Umjesto da se tretira etički AI kao trošak, “to je sofisticirano strategija upravljanja financijskim rizikom i izravna sredstva sa mjerljivim, značajnim ekonomskim prinosom”.
Glavni autor Zalabak opisuje ga kao “prave informacije za nekoga ko se ne može brinuti o etici – u konačnici, šta je poslovni slučaj?”, A AI etiku opisuje kao “ogromnu priliku da se ljudi zadivljuju eksponencijalnim potencijalom dobrog”.
Jasan etički AI okvir čini kompaniju atraktivnijom, manje rizičnim ulaganjima, dodaje generalni direktor Jman Grupe: “Kada se vidimo na potencijalnim portfeljnim kompanijama, što inherentno uključuje etička razmatranja, nije li samo” lijepo imati “, brzo je postati potreban”, brzo postaje potreban. “
Organizacije će gotovo sigurno trebati da usvoje holističkiji pristup proceni rizika i šteta, a ne da obeležavaju vlastiti domaći zadatak. AI propisi ostaju patchwork, ali standardi mogu pomoći. Mnogi kupci preduzeća sada zahtijevaju provjerljive kontrole kao što su ISO / IEC 42001, što potvrđuje da sustav upravljanja umjetnim obavještavanjem (ciljevi) učinkovito djeluje, bilješke Polavarapu.
Razgovor se kretao od boravka na desnoj strani regulacije, poput EU AI-a za ugradnju upravljanja AI u cijelom životnim životnim ciklusima. Grandi dodaje da su firme u Velikoj Britaniji izgled AI Mogućnosti akcionog plana i AI PlayBook za smjernice – ali još uvijek treba internu jasnoću AI etički službenik mogao bi donijeti.
Purcell preporučuje počevši usklađivanjem AI sistema sa svojim predviđenim ishodima – i sa vrijednostima kompanije. “AI poravnavanje ne znači samo da radi ispravno, značimo li sa našim ciljevima sa AI-om?”, A to ima materijalni uticaj na profitabilnost poslovanja. Neko ko može pokazati da se usklađivanje s poslovnim ciljevima znači da je odgovorna, čineći odgovarajuće stvari i postavljanje odgovarajućih štitnika, mehanizama i praksi. “
Učinak vlade AI zahtijeva principe poput pravičnosti, transparentnosti i sigurnosti, politika i praksi osiguravajući sistem prate politike i dostavljaju te principe. Problem je mnogo kompanija nikada nisu postavljale koji su njihovi principi.
“Jedna od stvari koje smo pronašli u istraživanju je to da ako niste artikulirali svoje vrijednosti kao kompaniju, AI će to učiniti za vas”, upozorava Purcell. “Zato vam je potreban glavni službenik za etiku AI da kodificirate svoje vrijednosti i principe kao kompaniju.”
A ako vam je potreban poticaj za vrstu međuenakcionalne suradnje, priznaje da je najaj velikih poduzeća užasno, namijenjena najmanje jednom organizacijom će pretrpjeti veliki negativni poslovni ishod, vjerovatno od “agencije za autonomiju koji ima određeni stepen autonomije” u narednih 12 mjeseci.