Aplikacione

Grupi i brendshëm i OpenAI paralajmëron për një garë ‘të pamatur’ për dominim


Një grup personash të brendshëm të OpenAI po flasin mbi atë që ata thonë se është një kulturë e pamaturisë dhe fshehtësisë në kompaninë e inteligjencës artificiale, e cila po garon për të ndërtuar sistemet e AI-së më të fuqishme të krijuara ndonjëherë.

Grupi, i cili përfshin nëntë punonjës aktualë dhe ish-punonjës të OpenAI, është mbledhur ditët e fundit rreth shqetësimeve të përbashkëta se kompania nuk ka bërë mjaftueshëm për të parandaluar sistemet e veta AI të mos bëhen të rrezikshme.

Anëtarët thonë se OpenAI, që filloi si një laborator kërkimor jofitimprurës dhe shpërtheu në opinionin publik me lëshimin e ChatGPT në vitin 2022, po i jep përparësi fitimeve dhe rritjes ndërsa përpiqet të ndërtojë inteligjencën e përgjithshme artificiale, ose AGI., termi i industrisë për një program kompjuterik të aftë për të bërë gjithçka që një njeri mundet.

Po ashtu ata pretendojnë se OpenAI ka përdorur taktika të forta për të parandaluar punëtorët që të shprehin shqetësimet e tyre për teknologjinë.

“OpenAI është me të vërtetë e emocionuar për ndërtimin e AGI., dhe po garojnë në mënyrë të pamatur për të qenë të parët atje”, ka thënë Daniel Kokotajlo, një ish-kërkues në divizionin e qeverisjes së OpenAI dhe një nga organizatorët e grupit.

Grupi sakaq ka publikuar një letër të hapur duke bërë thirrje për udhëheqjen e AI, duke përfshirë OpenAI, për të vendosur transparencë më të madhe dhe më shumë mbrojtje për denoncuesit.

Anëtarë të tjerë përfshijnë William Saunders, një inxhinier kërkimi që u largua nga OpenAI në shkurt, dhe tre ish-punonjës të tjerë të OpenAI: Carroll Wainwright, Jacob Hilton dhe Daniel Ziegler.

Disa punonjës aktualë të OpenAI e miratuan letrën në mënyrë anonime sepse kishin frikë nga hakmarrja nga kompania, ka treguar Kokotajlo.

Një punonjës aktual dhe një ish-punonjës i Google DeepMind, laboratori qendror i AI i Google, gjithashtu e nënshkroi.

Një zëdhënëse e OpenAI, Lindsey Held, ka thënë se “ne jemi krenarë për të kaluarën tonë duke ofruar AI-në më të aftë dhe më të sigurt dhe besoni në qasjen tonë shkencore për adresimin e rrezikut. Ne pajtohemi se debati rigoroz është vendimtar duke pasur parasysh rëndësinë e kësaj teknologjie dhe ne do të vazhdojmë të angazhohemi me qeveritë, shoqërinë civile dhe komunitetet e tjera në mbarë botën”.

Ndërkohë, fushata vjen në një moment të vështirë për OpenAI.

Kompania është ende duke u rikuperuar nga një tentativë për grusht shteti vitin e kaluar, kur anëtarët e bordit të kompanisë votuan për të shkarkuar Sam Altman, shefin ekzekutiv, për shqetësimet rreth sinqeritetit të tij.

Altman u kthye disa ditë më vonë dhe bordi u riformua me anëtarë të rinj.

Kompania gjithashtu përballet me beteja ligjore me krijuesit e përmbajtjes që e kanë akuzuar për vjedhje të veprave të mbrojtura nga të drejtat e autorit për të trajnuar modelet e saj.

Dhe zbulimi i fundit i një asistenti zëri hiper-realist u dëmtua nga një grindje publike me aktoren e Hollywood-it Scarlett Johansson, e cila pretendoi se OpenAI kishte imituar zërin e saj pa leje.

Por asgjë nuk ka ngecur si akuza se OpenAI ka qenë shumë e ashpër për sa i përket sigurisë.

Muajin e kaluar, dy studiues të AI – Ilya Sutskever dhe Jan Leike – u larguan nga OpenAI nën një re dyshimi.

Sutskever, i cili kishte qenë në bordin e OpenAI dhe votoi për shkarkimin e Altman, kishte ngritur alarmin për rreziqet e mundshme të AI-së të fuqishme.

Largimi i tij u pa nga disa punonjës si një pengesë.

Kështu ishte edhe largimi i Leike, i cili u fokusua në menaxhimin e rreziqeve të modeleve të fuqishme të AI.

Në një seri postimesh publike që njoftonin largimin e tij, Leike ka thënë se ai besonte se “kultura dhe proceset e sigurisë kanë zënë vendin e dytë ndaj produkteve me shkëlqim”.

As Sutskever dhe as Leike nuk nënshkruan letrën e hapur të shkruar nga ish-punonjësit.

Por daljet e tyre nxitën ish-punonjësit e tjerë të OpenAI të flasin hapur.

“Kur u regjistrova për OpenAI, nuk u regjistrova për këtë qëndrim “Le t’i nxjerrim gjërat në botë dhe të shohim se çfarë ndodh dhe t’i rregullojmë ato më pas”, tha z. Saunders.

Disa nga ish-punonjësit kanë lidhje me altruizmin efektiv, një lëvizje e frymëzuar nga utilitarizmi që është shqetësuar vitet e fundit me parandalimin e kërcënimeve ekzistenciale nga AI.

Kritikët kanë akuzuar lëvizjen për promovimin e skenarëve të fundit të botës në lidhje me teknologjinë, siç është nocioni që një AI jashtë kontrollit mund të pushtojë dhe të zhdukë njerëzimin.

Kokotajlo, 31 vjeç, iu bashkua OpenAI në vitin 2022 si studiues i qeverisjes dhe iu kërkua të parashikonte progresin e AI. Ai nuk ishte, për ta thënë butë, optimist.

Në punën e tij të mëparshme në organizimin e sigurisë në AI, ai parashikoi se AGI mund të mbërrijë në vitin 2050.

Por pasi pa se sa shpejt AI ishte duke u përmirësuar, ai shkurtoi afatet e tij kohore. Tani ai beson se ka një shans 50 për qind që AGI do të arrijë në vitin 2027 – në vetëm tre vjet.

Kevin Roose dhe Casey Newton janë mikpritësit e Hard Fork, një podcast për botën që ndryshon me shpejtësi të teknologjisë..

Gjithashtu beson se probabiliteti që avancoi AI do të shkatërrojë ose dëmtojë në mënyrë katastrofike njerëzimin është 70 për qind.

Në OpenAI, Kokotajlo pa se edhe pse kompania kishte protokolle sigurie në fuqi, rrallë dukej se ngadalësonte ndonjë gjë.

Sipas tij, , në vitin 2022 Microsoft filloi të testonte në heshtje në Indi një version të ri të motorit të tij të kërkimit Bing që disa punonjës të OpenAI besonin se përmbante një version të papublikuar në atë kohë të GPT-4, modeli më i avancuar i gjuhës së gjerë i OpenAI.

Kokotajlo ka thënë se i ishte thënë se Microsoft nuk kishte marrë miratimin e bordit të sigurisë përpara se të testonte modelin e ri dhe pasi bordi mësoi për testet nuk bëri asgjë për ta ndaluar Microsoft-in nga shtrirja e tij më gjerësisht.

Një zëdhënës i Microsoft, Frank Shaw, i kundërshtoi këto pretendime.

Ai ka thënë se testet e Indisë nuk kishin përdorur GPT-4 ose ndonjë model OpenAI.

Hera e parë që Microsoft lëshoi ​​teknologjinë e bazuar në GPT-4 ishte në fillim të vitit 2023, sipas tij, dhe u rishikua dhe u miratua nga një paraardhës i bordit të sigurisë.

Përfundimisht, sipas Kokotajlo, u bë aq i shqetësuar sa vitin e kaluar, ai i tha Altman se kompania duhet të “orientohet drejt sigurisë” dhe të shpenzojë më shumë kohë dhe burime për t’u mbrojtur kundër rreziqeve të AI në vend që të angazhohet përpara për të përmirësuar modelet e saj.

Ai ka thënë se Altman kishte pretenduar se ishte dakord me të, por se asgjë nuk kishte ndryshuar shumë.

Në prill, ai u largua.

Në një email drejtuar ekipit të tij, ai ka thënë se po largohej sepse kishte humbur besimin se OpenAI do të sillet me përgjegjësi ndërsa sistemet e tij i afrohen inteligjencës në nivel njerëzor.

OpenAI ka bërë me dije javën e kaluar se kishte filluar trajnimin e një modeli të ri AI model, dhe se po formonte një komitet të ri për sigurinë për të eksploruar rreziqet që lidhen me modelin e ri dhe teknologjitë e tjera të ardhshme.

Kokotajlo refuzoi të firmoste dokumentet standarde të OpenAI për punonjësit që largoheshin, e cila përfshinte një klauzolë të rreptë që i ndalonte ata të thoshin gjëra negative për kompaninë, ose përndryshe rrezikon t’u hiqet kapitali i tyre.

Shumë punonjës mund të humbasin miliona dollarë nëse refuzojnë të nënshkruajnë.

Kapitali i zotëruar i Kokotajlo ishte me vlerë rreth 1.7 milionë dollarë, sipas tij, që përbënte pjesën dërrmuese të vlerës së tij neto dhe ishte i përgatitur të humbiste të gjitha.

Në letrën e tyre të hapur, Kokotajlo dhe ish-punonjësit e tjerë të OpenAI-t bëjnë thirrje për t’i dhënë fund përdorimit të marrëveshjeve për mospërfillje dhe moszbulim në OpenAI dhe kompanive të tjera të AI.

“Marrëveshjet e gjera të konfidencialitetit na pengojnë të shprehim shqetësimet tona, me përjashtim të vetë kompanive që mund të dështojnë në adresimin e këtyre çështjeve”, kanë thënë ata.

Gjithashtu bëjnë thirrje edhe për kompanitë AI të mbështesin një kulturë të kritikës së hapur dhe të krijojnë një proces raportimi për punonjësit për të ngritur në mënyrë anonime shqetësimet e lidhura me sigurinë.

Kokotajlo dhe grupi i tij janë skeptikë se vetëm vetërregullimi do të mjaftojë për t’u përgatitur për një botë me AI-së më të fuqishme. Kështu që ata po bëjnë thirrje që ligjvënësit të rregullojnë edhe industrinë.

“Duhet të ketë një lloj strukture qeverisëse të përgjegjshme dhe transparente në krye të këtij procesi”, ka theksuar Kokotajlo.

“Në vend që vetëm disa kompani të ndryshme private të garojnë me njëra-tjetrën dhe t’i mbajnë të gjitha të fshehta”.

Marrë nga “New York Times”, përshtatur për “Albanian Post”.

Shkarkimi dhe publikimi i teksteve nga Albanian Post nuk lejohet pa përmendur burimin. Faleminderit për respektimin e etikës së profesionit të gazetarit.

/Albanianpost.com


Lajmet kryesore