Od
- Fleur Doidge
Objavljeno: 30. maja 2025. godine
Hype je snažan na agenciji umjetnu inteligenciju (AI) i potencijalne poslovne prednosti su stvarne. Međutim, njihova veća autonomija znači da možete izlaziti s šina, a da ne uvodete zaštitne polje iz stara da biste smanjili rizik i izbjegli puhanje troškova.
EV Kontsevoy, izvršni direktor u platformi za upravljanje identitetima, kaže da je dobra vijest da već imamo teoriju kontrole pristupa, podržanu čvrstim matematikom: “Dakle, znamo kako to treba učiniti i ne trebamo izmisliti ništa novo.”
Na primjer, AI agenti u datacentru trebaju ograničenja na pristup informacijama. Iz perspektive čuvara, to može biti “mnogo nastier problem” na primjer, na primjer uspjeh ili neuspjeh provedbe laptopa kopilota.
Prvo, shvatite identitet, AI će imati: ne mogu biti anonimni. Zaista, KONTSEVOY-ov pogled je da AI agenti trebaju imati tip identiteta koji su već korišteni za ljudske inženjere, mašine koje rade u radnoj optingu i softverskim aplikacijama.
“Kada se povrijedi teorija kontrole pristupa, to je zbog fragmentacije identiteta”, kaže Kontsevoy. “Na primjer, fragmentiranje identiteta u datacentru stvara priliku za hakere da iskorištavaju i za AI agente loše ponašanju.”
Da biste odgovorili na pitanja, AI agent treba pristupiti podacima koji se trčaju, prisutan je i dostupan. Treba razgovarati s bazama podataka i razumjeti njihov sadržaj. Ograničenja – “ili zaštitnici” – treba primijeniti u skladu s tim. Ljudski resursi, na primjer, mogu dobiti pristup postavljanju pitanja o kompenzaciji zaposlenika (ili ne, ovisno o nadležnosti). Fragmentacija identiteta čini provođenje politika i poštivanje borbe.
Druga potreba je standardizacija kako agenti pristupaju informacijama. Antropski model Kontekst Protokol (MCP), najavljen 2024. novembra, standardizira kako aplikacije pružaju kontekst velikim jezičnim modelima (LLMS), uključujući građevinske agente, složene radne tokove na vrhu ili interoperabilnost.
“MCP je izuzetno ubrzano usvojen”, kaže Kontsevoy. “I iako [MCP] nije dolazio sa referentnim implementacijom, sama specifikacija je dovoljno otvorena da dodaju kontrolu pristupa na vrhu. “
Dakle, kompanije ne nužno ne trebaju, na primjer, imati sigurnosnu stručnost za postavljanje sigurnosne zaštite. Ako vaši agenti “govore” MCP, oni mogu implementirati tehnološku otopinu za postavljanje tih ovlaštenja za zaštitu. Metoda također radi za ostale vrste zaštita za zaštitu, uključujući kontrolu troškova, kaže Kontsevoy.
Usvajanje ranih dana
Do sada se nekoliko primjera radi u proizvodnji. Za mnoge organizacije agentic AI još nije prešao razgovor.
Razmislite da AI agenti mogu uložiti izlaže AI modela u drugi i raditi na cilju bez punog nadzora. Prema IBM-ovim video serijama na AI agentima, zaštitnici se moraju uzeti u obzir na modelu, alatnim i orkestriranju.
Peter Van der Putten, laboratorijska glava na stručnjacima za automatizaciju rada Pegasystems, kaže da mnoge organizacije ne osjećaju da će ublažiti agencije za upravljanje kao i uvid u odnosu na upravljanje i rizik ove godine. “Neki otići”, ne mogu čak ni prenijeti captcha. ” Tada imate vjernike govoreći: “Stvorite onoliko agenata koliko želite i pustite ih da trče amok.” Oba pogleda su pogrešna “, kaže on.
Započnite s odabranim slučajevima upotrebe pojedinačnih agenta, pogledajte koliko dobro izvode i zemlje u zemlji u artefaktima za arhitekturu poduzeća, radnojkoni, poslovna pravila, odgovarajući kontekst i pristup korisniku i pristupu korisnicima i tako dalje.
Zatim kontrast sa stvarnošću – da li su agenti rade ispravnu stvar i da li oni postižu svoje ciljeve? To su vrste strategija koje bi se posao moglo primijeniti na Enible AgeC AI.
“Bacite u gomilu zahtjeva, iskoristite proces koji bi vidio stvarni proces (nasuprot onome što vam ljudi kažu da bi proces trebao biti). Očistite to, stavite u druge zahtjeve, a zatim dajte kao ulaz u više nalik dizajnu koji vam može pomoći”, kaže Van der Putten.
Tada je čovjek u petlji jer možete vidjeti šta se slažete ili ne. Tek tada izgradite aplikaciju koja može raditi vrlo predvidljivo u vrijeme izvođenja. Naravno, ako ne možete “automatizirati stvari” i trebati ljudski nadzor svega, agenti možda nisu pravi odgovor, dodaje van der.
Odaberite prave agente ili LLMS za svaki aspekt i izgradite na tome. U osiguranju, jedan agent može procijeniti rizike, još jedan potraživanja, dok još jedan djeluje s drugim zaposlenima ili čak krajnjim kupcem. A onda je agent fokusiran na prodaju pravi odgovor u toj okolnosti? To takođe zavisi – potreban vam je tačan agent za kontekst.
Nakon toga, agent slojeviti na vrhu može raditi “razumijevanjem” pojedinačnih koraka ili specifičnih tokova za poziv – ili ne – u određenoj situaciji; Jedan odmah na kraju može provjeriti prethodni rad. A kad udarite u blokadu puta, “eskalirate na povratak čovjeku”.
Samo niz stazu može li razmotriti slojeve više agentnih sustava na vrhu gdje su specijalizirani agenti za određene zadatke međusobno razgovaraju.
Van der Putten kaže: “Alati trebaju jasne procese, pravila, politike i možda neredne prediktivne modele koji procjenjuju vjerojatnost prevare ili slične. Povucite kontekst, dobijete potpunu sliku situacije i zahtjeva.”
Mjerenje prednosti
Razmislite o tome kao malo pametniji robotski automatizacija procesa (RPA), kaže Simon James, Data Strategija i direktor AI-a u Publicisu Sapient. Započnite sa procesima mapiranja i određivanjem koji bi mogli imati koristi od AI agenata nasuprot ljudskoj presudi ili tradicionalnoj automatizaciji. Osmišljavanje jasnog, usklađenog okvira može pomoći.
Što više izbora sadrži, više opsepe AI ima za stvari da jednostavno pođe po zlu i što je teže postati da upravlja. “Postoji točak smrti koja se događa negde, dok nekoliko agenata razgovaraju jedni s drugima, čak i u visoko optimizovanom mašini čitljivom kodu, a ne na engleskom, dodajući latenciju na 20 sistema”, dodaje James.
Budući da je agencija AI tako nova, a ljudi često nemaju vještine, industrija još uvijek shvaća stvari. Možda može pokrenuti tri različite rutine ili funkcije i ima izbora između njih, ali tamo nema mnogo izbora, James upozorava. “I radi se o tome kako se verzija sa prodajom, na primjer, povezuje se sa ERP-om ili CRM-om ili bilo što drugo, tako da mogu prenijeti logiku međusobno i rukovati nije bolna.”
Direktor marketinga Dominika Wellington, AI i podaci na platformi SnapLogic, i dalje stvari smišljaju “na teškim načinom” u agenticu i mogu se postaviti na ulazak u proizvodnju. Ali vidimo grozne stope pada. Pola do 80% projekata nikada ne čini da se proizvode. “
Često podskup informacija koje pokreću pilot u uspjehu neće raditi velike. Kada se želite povezati s “krunskim draguljima” – kao što su korporativna baza podataka ili CRM – možda ćete trebati preispitati pristup tim podacima i potpunijem provođenju politike i prakse.
“Ako ste AstraZeneca, na primer, ne želite da vaš farmanac namotava u nekim podacima o treningu modela”, kaže on. “I da ima” tlo istinu “je kritična. Nikad se ne moram vratiti više od nekoliko dana u svojoj vijesti da vidim instancu advokata koji je naveo nepostojeći presedan, a oni su zatražili samo odvjetnike – i nisu samo advokati.”
Naravno, s prevladavanjem povećane generacije (krpe) možete vektorizirati odgovarajuće informacije u trgovinu podataka, a LLM reagira na osnovu onoga što je u određenoj trgovini podataka, nudeći kontrolu ili može odgovoriti ili može odgovoriti. Uz maskiranje podataka, kvalitetom usluge (QoS) i kontrola pristupa uloga možete ići daleko, Wellington se slaže.
To je rečeno, razmatranja pokreću gamu iz etičkih izazova na složenju grešaka, sigurnosnog rizika, skalabilnosti, objašnjenja i odgovornosti i pristranosti u privatnosti, sasvim jednostavno, potencijal za nenamjerne posljedice. Agentic AI treba transparentnost, ali nije lako znati kako.
Ovo sve zvuči poznato za usvajanje u oblaku rane dane – ali s AI-om, ciklus od Hypea na razočaranje ubrzao se. Međutim, postoje rani usvojitelji koje se mogu naučiti. “To može biti tiši drugi val koji zapravo pokazuje put”, dodaje Wellington.
Sunil Agrawal, glavni službenik za sigurnost informacija (CISO) na AI platformi Glean, kaže da vrijedi borbe. AI Agenti mogu preoblikovati kako se radi o radu, pomažući na površini i smisao potrebne podatke. Ali sigurno skaliranje ovih sistema i odgovorno je kritično.
Agenti moraju poštivati politike upravljanja korisnicima i politike podataka iz dana, posebno u visoko reguliranom okruženju i promatranje onoga što se događa je presudno. To pokriva koji podaci koji pristupaju, kako su oni razumni i koji se modeli oslanjaju.
“AI agenti su samo pouzdani kao i podaci na kojima su izgrađeni”, kaže Agrawal. “Prizemljen je u tačnoj, objedinjenoj internom znanju. I prijetnje poput brzog ubrizgavanja, jailbaring i model manipulacije zahtijevaju namjensku obranu. Snažan okvir upravljanja pomaže da agenti sigurno rade, etički i usklađeni s organizacionom politikom.”
Pročitajte više o umjetnoj inteligenciji, automatizaciji i robotici
-
Informatica dodaje podršku MCP-a, poppiranje funkcija podsticanja AI
Napisao: Eric Avidon
-
Veliki dobavljači Back Linux Foundation Agentic Workflews projekt
Napisao: Beth Pariseau
-
Oracle dodaje MCP podršku unajme AIC AI razvoju
Napisao: Eric Avidon
-
Clarifai pokreće AIC AI razvoj sa MCP poslužiteljem hostinga i kompatibilnosti Openai
Napisao: Adrian Bridgwater