Direktorji zapuščajo OpenAI zaradi skrbi glede nevarnosti umetne inteligence za človeštvo

Zaposleni že več mesecev zapuščajo podjetje OpenAI, ki stoji za razširjenim orodjem ChatGPT, ki ga poganja umetna inteligenca. Glavni razkol so različna mnenja glede tega, kako pomembna je varnost umetne inteligence za človeštvo.
Ilya Sutskever, soustanovitelj in glavni znanstvenik, ter Jan Leike sta prejšnji teden naznanila, da zapuščata podjetje. Vodila sta ekipo, ki je bila odgovorna za tako imenovano »usklajevanje«. Gre za izraz, ki se uporablja za zagotavljanje tega, da umetna inteligenca sledi ciljem svojih ustvarjalcev in ne deluje nepredvidljivo ter škoduje človeštvu.
Leike je na portalu X zapisal, da so »v zadnjih letih bleščeči izdelki prevladali nad varnostno kulturo in procesi« in da so njegova nesoglasja z vodstvom podjetja OpenAI pred kratkim »dosegla točko preloma«.

Sutskever in Leike sta zaskrbljena glede nevarnosti umetne inteligence. Vir slike: Splet.
Sutskever in Leike sta oba zelo zaskrbljena glede dolgoročne nevarnosti umetne inteligence za človeštvo. V obrazložitvi, zakaj je dal odpoved, je Leike zapisal, da je njegova ekipa za varnost »plula proti vetru« in ni imela na voljo dovolj sredstev za opravljanje svojega dela.
»Razvoj naprav, ki so pametnejše od človeka, je že po naravi nevaren podvig. OpenAI prevzema ogromno odgovornost v imenu vsega človeštva,« je dodal.
Od lanskega novembra, ko je upravni odbor podjetja poskušal odpustiti izvršnega direktorja Sama Altmana, a se je ta hitro vrnil na oblast, je odšlo ali bilo odpuščenih še vsaj pet najbolj varnostno ozaveščenih zaposlenih v podjetju, poročajo pri Vox. Po navedbah virov, ki so seznanjeni z dogajanjem, so zaposleni, ki skrbijo za varnost, izgubili zaupanje vanj.
Prejšnji mesec je med drugim odstopil tudi Daniel Kokotajlo, ki se je OpenAI pridružil leta 2022 v upanju, da bo podjetje usmeril v varno uporabo umetne inteligence.
»OpenAI usposablja vedno zmogljivejše sisteme umetne inteligence s ciljem, da bi sčasoma v vseh pogledih presegli človeško inteligenco. To bi lahko bila najboljša stvar, ki se je kadarkoli zgodila človeštvu, lahko pa tudi najslabša, če ne bomo ravnali previdno,« je Kokotajlo dejal za Vox.

Izvršni direktor OpenAI Sam Altman. Vir slike: AP.
Odziv vodstva
Altman je v taboru za varnost umetne inteligence deležen pogostih kritik, da daje prednost komercialni plati svojega imperija umetne inteligence. Pred nekaj tedni so predstavili posebnega glasovnega pomočnika, navdihnjenega po filmu Her (Ona), ki lahko v realnem času bere izraze človeškega obraza in prevaja govorjeni jezik.
Predsednik in soustanovitelj OpenAI Greg Brockman je v skupni izjavi z Altmanom ob nedavnem odhodu direktorjev zagotovil, da je skrb za varnost njihovih orodij še vedno na prvem mestu.
»Ozaveščamo o tveganjih in priložnostih, ki jih prinaša AGI (Splošna umetna inteligenca), da bi se svet nanjo lahko bolje pripravil. Ni enostavno ugotoviti, kako zagotoviti varnost nove tehnologije ob prvem zagonu,« je pojasnil.

Scena iz filma Her (Ona), ki se za glavnega igralca ne konča najboljse. Vir slike: Warner Bros.
»Naše ekipe so na primer opravile veliko dela, da bi GPT-4 svetu predstavile na varen način, od takrat pa smo na podlagi izkušenj, pridobljenih pri uvajanju, nenehno izboljševali obnašanje modela in spremljanje zlorab.«
V nadaljevanju je zapisal, kako v podjetju vidijo prihodnost. »Ker bodo modeli še naprej postajali bolj zmogljivi, pričakujemo, da se bodo začeli globlje povezovati s svetom. Uporabniki bodo vse pogosteje sodelovali s sistemi, sestavljenimi iz številnih multimodalnih modelov in orodij, ki lahko izvajajo ukrepe v njihovem imenu, namesto da bi se pogovarjali z enim samim modelom z zgolj besedilnimi vhodi in izhodi,« je dejal Brockman.
»Menimo, da bodo takšni sistemi za ljudi izjemno koristni in uporabni ter da jih bo mogoče uporabljati varno, vendar bo za to potrebno ogromno temeljitega dela.« Dodal je še, da se pri svojih varnostnih raziskovanjih aktivno povezujejo tudi z vladnimi službami in drugimi zunanjimi deležniki.