
Bažas par kontroli un ētiku 1
Lai gan Hasabiss ir optimists, viņš brīdina, ka sabiedrība nav gatava AGI ienākšanai. “Mani uztrauc koordinācijas trūkums,” viņš sacīja, uzsverot, ka bez starptautiskas sadarbības un stingriem drošības pasākumiem AI attīstība var kļūt nekontrolējama. Viņš ierosina izveidot “CERN līdzīgu” starptautisku organizāciju AGI izpētei, lai nodrošinātu drošību un ētiku.
Viena no Hasabisa prioritātēm ir AI saskaņošana ar cilvēku vērtībām. Viņš salīdzina AI apmācību ar bērna audzināšanu: “Tās mācās no demonstrācijām un mācībām.” Taču, ja AI kļūst pārāk spēcīga, vai mēs varēsim to kontrolēt? Hasabiss atzīst, ka šis ir “eksistenciāls izaicinājums”, un uzsver, ka drošības robežas jāiestrādā jau sistēmu arhitektūrā.
Vēl viena sarežģīta tēma ir AI izmantošana militārajā jomā. Sākotnēji Hasabiss panāca Google apņemšanos neizmantot DeepMind AI militāriem mērķiem, taču nesen viņš atzina, ka ģeopolitiskā situācija ir mainījusies.
“Pasaule ir kļuvusi bīstamāka,” viņš teica, norādot, ka demokrātiskās vērtības vairs nav pašsaprotamas. Šis solis ir izraisījis diskusijas, jo AGI attīstībai nepieciešamā skaitļošanas jauda ir pieejama tikai dažiem tehnoloģiju milžiem, piemēram, Google, radot dilemmas par neatkarību un atbildību.