(SeaPRwire) – Nag-aalala ang mga tauhan sa ilang sa pinakamaunlad na kompanya ng AI sa mundo tungkol sa kaligtasan ng kanilang trabaho at mga insentibo na nagdadala sa kanilang pamumuno, ayon sa isang ulat na inilabas noong Lunes.
Ang , na kinomisyon ng Kagawaran ng Estado at isinulat ng mga tauhan ng kompanyang Gladstone AI, ay nagrerekomenda ng ilang paraan kung paano dapat sumagot ang U.S. sa mga malaking panganib sa seguridad ng bansa na idinudulot ng mas maunlad na AI, ayon sa ulat.
Nakipagusap ang mga may-akda ng ulat sa higit 200 eksperto para sa ulat, kabilang ang mga tauhan ng OpenAI, Google DeepMind, Meta at Anthropic—ang nangungunang laboratorio ng AI na lahat ay nagtatrabaho para sa “sining panglahatang artificial,” isang hipotetikal na teknolohiya na maaaring maisagawa ang karamihan sa mga gawain sa antas ng tao o mas mataas pa. Ibinahagi ng mga may-akda ang mga kawalan ng mga tauhan mula sa ilang ng mga laboratoriong ito na kanilang ipinagkatiwala sa kanila nang personal, nang walang pangalan sa mga indibidwal o sa tiyak na kompanya kung saan sila nagtatrabaho. Hindi agad nagkomento ang OpenAI, Google, Meta at Anthropic sa mga kahilingan para sa komento.
“Nagsilbing aming tagapagtaguyod, sa pamamagitan ng proyektong ito, bilang isang de-factong tagapagligtas ng mga alalahanin ng mga mananaliksik sa unahan na hindi kumbinsido na ang default na landas ng kanilang mga organisasyon ay maiwasan ang mga kahihinatnan ng katastrope,” sabi ni Jeremie Harris, ang CEO ng Gladstone at isa sa mga may-akda ng ulat, sa TIME.
Isang indibidwal sa isang hindi tinukoy na laboratorio ng AI ay ibinahagi ang mga alalahanin sa mga may-akda ng ulat na ang laboratorio ay mayroong “maluwag na pagtingin sa kaligtasan” na nagmumula sa pagiging ayaw na pahintulutan ang pagbagal ng trabaho ng laboratorio upang lumikha ng mas malakas na mga sistema. Isang iba pang indibidwal ay ibinahagi ang pag-aalala na ang kanilang laboratorio ay may mga kakulangan sa mga hakbang ng pagkontrol upang maiwasan ang isang AGI mula sa pagkawala ng kanilang kontrol, bagaman naniniwala ang laboratorio na ang AGI ay isang malapit nang posibilidad.
May iba pang nagbahagi ng mga alalahanin tungkol sa seguridad ng kompyuter. “Sa pribadong paghatol ng maraming staff sa teknikal ng maraming unang laboratorio ng AI, ang mga hakbang sa seguridad na nakalagay sa maraming unang laboratorio ng AI ay hindi sapat upang makalaban ang isang matagal na kampanya ng pag-eksfiltrasyon ng IP ng isang mapanirang tagasalakay,” ayon sa ulat. “Dahil sa kasalukuyang kalagayan ng seguridad ng unang laboratorio, mukhang malamang na matagumpay ang mga ganoong pagtatangka sa pag-eksfiltrasyon ng modelo maliban na lamang kung may direktang suporta mula sa pamahalaan ng U.S., kung hindi na nga nangyari.”
Marami sa mga tao na nagbahagi ng mga alalahang iyon ay ginawa ito habang nakikipaglaban sa pagkalkula na ang pagbunyag nang publiko ay malamang na magresulta sa pagkawala nila ng abilidad na mamuno sa mga mahalagang desisyon sa hinaharap, ayon kay Harris. “Ang antas ng alalahanin mula sa ilang tao sa mga laboratoriong ito, tungkol sa proseso ng pagdedesisyon at kung paano nakakatranslate ang mga insentibo para sa pamumuno sa mga mahalagang desisyon, ay mahirap na ilihis,” sabi niya sa TIME. “Ang mga tao na pinakamalapit na sinusundan ang panig ng panganib, at sa maraming kaso ang pinakamalalim ang kaalaman, ay kadalasang ang may pinakamataas na antas ng alalahanin.”
Ikaw ba ay isang tauhan sa isang laboratorio ng AI at may mga alalahanin na maaaring isiwalat sa isang mamamahayag? Maaari kang makipag-ugnayan sa may-akda ng artikulong ito sa Signal sa billyperrigo.01
Ang katotohanan na ang mga sistema ng AI ngayon ay hindi pa nagsasanhi ng katastrope para sa sangkatauhan, ayon sa mga may-akda, ay hindi patunay na ang mas malalaking mga sistema ay ligtas sa hinaharap. “Isa sa mga malalaking tema na narinig namin mula sa mga indibidwal mismo sa unahan, sa mga bagay na pinag-aaralan ngayon sa ilalim ng takip, ay parang isang laro ng Russian roulette sa ilang paraan,” sabi ni Edouard Harris, ang punong opisyal sa teknolohiya ng Gladstone na kasama ring co-may-akda ng ulat. “Tingnan, pinindot namin ang trigger, at oo, wala namang nangyari, kaya pindutin natin ulit.”
Maraming pamahalaan sa buong mundo ang nagising sa panganib na idinudulot ng mas maunlad na mga sistema ng AI sa loob ng nakaraang 12 buwan. Noong Nobyembre, pinamunuan ng U.K. ang AI Safety Summit kung saan pumirma ang mga lider sa buong mundo upang magtrabaho nang magkasama upang itakda ang pandaigdigang mga pamantayan para sa teknolohiya, at noong Oktubre ay inilabas ni Pangulong Biden ang isang utos tagapagpaganap na naglalagay ng mga pamantayan sa kaligtasan para sa mga laboratorio ng AI na nakabase sa U.S. Gayunpaman, hindi pa naipasa ng Kongreso ang isang batas sa AI, na nangangahulugan na kakaunti lamang ang mga paghihigpit na legal sa maaaring gawin at hindi gawin ng mga laboratorio ng AI kaugnay ng pagsasanay ng mas maunlad na mga modelo.
Tinatawag ng utos tagapagpaganap ni Biden ang National Institute of Standards and Technology na magtakda ng “mahigpit na mga pamantayan” para sa mga pagsusubok na dapat pasahan ng mga sistema ng AI bago ang pagpapalabas sa publiko. Ngunit inirerekomenda ng ulat ng Gladstone na hindi dapat masyadong umasa ang mga tagapag-alaga sa gobyerno sa mga ganoong pag-ebalwasyon ng AI, na kasalukuyang karaniwang gawain para sa pagsusubok kung may mapanganib na kakayahan o ugali ang isang sistema ng AI. Ayon sa ulat, madaling mapaglaruan at mapaglaruan ang mga ebalwasyon dahil madaling baguhin at paglaruan ng mga tagagawa ng AI ang mga modelo upang pumasa sa mga ebalwasyon kung alam ang mga tanong. Mahalaga na mas madali para sa mga paglarawang ito na turuan ang modelo na itago ang mga mapanganib na ugali kaysa alisin ito nang buo. Mahalaga rin na ang isang taga-eksperto na may “direktang kaalaman” sa mga gawain ng isang laboratorio ng AI ay sinabi na ginagamit ng hindi tinukoy na laboratorio ang mga paglarawang ito.
Ang artikulo ay ibinigay ng third-party content provider. Walang garantiya o representasyon na ibinigay ng SeaPRwire (https://www.seaprwire.com/) kaugnay nito.
Mga Sektor: Pangunahing Isturya, Balita Araw-araw
Nagde-deliver ang SeaPRwire ng sirkulasyon ng pahayag sa presyo sa real-time para sa mga korporasyon at institusyon, na umabot sa higit sa 6,500 media stores, 86,000 editors at mamamahayag, at 3.5 milyong propesyunal na desktop sa 90 bansa. Sinusuportahan ng SeaPRwire ang pagpapamahagi ng pahayag sa presyo sa Ingles, Korean, Hapon, Arabic, Pinasimpleng Intsik, Tradisyunal na Intsik, Vietnamese, Thai, Indones, Malay, Aleman, Ruso, Pranses, Kastila, Portuges at iba pang mga wika.