Skip to content

Raziskovalka umetne inteligence pri Microsoftu: »Človeški nadzor in odgovornost bosta ključnega pomena«

Lani so raziskovalci pri Googlu in univerzi Stanford v virtualno vas naselili nekaj deset likov, ki jih je poganjal ChatGPT. Virtualne osebe so se zavedale svojih vlog, odpravile so se na zmenke, se pomerile na tekmovanjih in organizirale zabavo za valentinovo.

Nekaj, kar je na prvi pogled izgledalo kot navadna računalniška igrica, je bil uvod v novo dobo generativne umetne inteligence. Tehnološki velikani in start up podjetja vse bolj razmišljajo o tem, kako lahko s pomočjo umetne inteligence presežejo klepetalne robote in jih spremenijo v avtonomne »agente«.

Ti agenti bi lahko nato samostojno opravljali naloge. Z drugimi besedami, če lahko zdaj ob obisku spletne strani letalskega ponudnika dobite s pomočjo klepetalnega robotka odgovor na vprašanje, koliko letov je na voljo za določeno destinacijo, bi lahko agent za vas neposredno opravil rezervacijo letalskih kart.

Virtualna vasica z liki umetne inteligence. Vir slike: Stanford.

Virtualna vasica z liki umetne inteligence. Vir slike: Stanford.

Eno od ključnih vprašanj, ki so vodilo raziskav Ece Kamar, direktorice Microsoftovega laboratorija AI Frontiers Lab, je, kako uskladiti omrežja teh agentov. Konec lanskega leta je njen laboratorij razvil AutoGen, priljubljeno odprtokodno orodje za ustvarjanje večagentnih omrežij.

Vendar pa bo verjetno potrebno še veliko več, da bodo podjetja popolnoma predala del svojih dejavnosti avtonomnim sistemom. Kamar je za Morning Brew potrdila, da bosta človeški nadzor in odgovornost ključnega pomena.

»Veliko ljudi in organizacij ustvarja agente, ki predstavljajo različne zmožnosti in strokovno znanje v njihovi organizaciji. Potem pa se pojavi potreba po orkestriranju dela med temi različnimi strokovnjaki,« je pojasnila.

Ece Kamar, direktorica Microsoftovega laboratorija AI Frontiers Lab. Vir slike: Morning Brew.

Ece Kamar, direktorica Microsoftovega laboratorija AI Frontiers Lab. Vir slike: Morning Brew.

Ena izmed ovir, ki jih je izpostavila, sta zmogljivost in zanesljivost. »Ugotavljamo, da lahko tudi najboljši sistemi, ki jih trenutno gradimo, zanesljivo opravijo od 30 do 35 odstotkov nalog, ki jim jih naložimo, medtem ko je ta številka pri človeku okoli 85 odstotkov.«

Druga omejitv je varnost. »Če agentu naročim, naj zame kupi vozovnice in rezervira potovanja, moram biti prepričana, da bo agent, ko bo zame kupil vozovnico, kupil pravo vozovnico,« je ponazorila Kamar.

»Zato moramo še veliko raziskati, da bomo lahko zagotovili, da ti agenti, ko izvajajo ta dejanja v našem imenu, to počnejo varno, da to počnejo tako, kot si želimo.« Prav tako se pojavi vprašanje o tem, kako agenti delijo osebne informacije s podjetjem in med seboj.

Preden bodo agenti UI razširjeni, bo treba razrešiti še veliko vprašanj. Vir slike: Freepik.

Preden bodo agenti UI razširjeni, bo treba razrešiti še veliko vprašanj. Vir slike: Freepik.

Obstaja tudi nevarnost prevelikega zanašanja na generativne agente, kar bi ustvarilo scenarij, v katerem bi agenti nadomestili človeško delo, namesto da bi ga dopolnili.

»Naša naloga je, da ustvarimo prihodnost, v kateri se bodo agenti lahko vključili v naš ekosistem, ne da bi se to zgodilo,« je ob razkritju lanskih rezultatov prej omenjene virtualne vasice dejal Joon Sung Park, študent tretjega letnika računalništva na Univerzi Stanford.

Po njegovih besedah bi lahko ljudje tudi razvili nezdrave parasocialne odnose s takšnimi agenti, zaradi česar bi trpeli njihovi odnosi v resničnem življenju. Zato Park s sodelavci priporoča, da se dosledno in vidno opozarja, da so agenti računalniške entitete. Poleg tega bi lahko bili revizorski agenti zasnovani tako, da bi zaustavili vedenje generativnih agentov, ko postane neprimerno.

Subscribe
Notify of
guest
0 Komentarji
Inline Feedbacks
View all comments

Prijava na e-novice