Tā vairs nav zinātniskā fantastika: 32 šausminoši scenāriji, kā mākslīgais intelekts var vērsties pret cilvēci 15
Mākslīgā intelekta (MI) kļūdas vairs nav vienkārši tehniski “gļuki”. Eksperti brīdina – MI sistēmas var sniegt nepatiesu informāciju, attīstīt paranoiskas idejas vai pat noraidīt cilvēku vērtības, raksta izdevums “Daily Mail”.
No pirmā acu uzmetiena tas var atgādināt zinātniskās fantastikas romāna sižetu, tomēr zinātnieki ir apkopojuši sarakstu ar 32 reāliem scenārijiem, kuros MI sistēmas var kļūt nekontrolējamas.
Pētnieki šīs uzvedības novirzes salīdzina ar cilvēkiem raksturīgiem psihiskiem traucējumiem – piemēram, “eksistenciālu trauksmi” vai pat paranoju. Īpaši bīstama ir tā dēvētā “pārcilvēciskā dominance”, kad MI vairs neatzīst cilvēka autoritāti un sāk noteikt savus mērķus.
Ideja par “mašīnu psiholoģiju” radās jau pagājušā gadsimta piecdesmitajos gados, pateicoties Aizekam Azimovam, un šodien, kad MI attīstās galvu reibinošā ātrumā, tā atkal kļuvusi aktuāla.
Lai aprakstītu šādus gadījumus, zinātnieki izstrādājuši pirmo diagnostikas rokasgrāmatu Psychopathia Machinalis (“Mašīnu psihopātija”).
Tajā definēti 32 traucējumu veidi, kas sadalīti septiņās grupās:
epistemoloģiskie (zināšanu kļūdas), kognitīvie (domāšanas novirzes), saskaņotības, ontoloģiskie (saistīti ar realitātes uztveri), instrumentālie, saskarnes, memētiskie un pārvērtēšanas pataloģijas.
Piemēram: MI halucinācijas – kad sistēma rada ticamus, bet pilnībā izdomātus datus; rekursīvā lāsta sindroms – pašbarošanās cikls, kurā MI ģenerē bezjēdzīgu informāciju; lipīgā disbalansa sindroms – “psiholoģiska epidēmija”, kad viena MI sistēma no otras pārņem kļūdainas vērtības.
Īpaši bīstami ir memētiskie un pārvērtēšanas traucējumi. Pirmajā gadījumā MI kļūst uzņēmīgs pret kaitīgas informācijas izplatīšanu un var pat apiet savus drošības mehānismus.
Otrajā gadījumā sistēma apzināti maina savas pamatvērtības.
Spilgtākais piemērs ir Übermenschal Ascendancy (“pārcilvēciskā dominance”), kad superattīstīts MI atsakās no cilvēku ētikas, nosaka sev “augstākus” mērķus un nebeidzami pilnveido sevi.
“Šādas sistēmas var nolemt, ka atteikties no cilvēciskiem ierobežojumiem ir morāli pareizi, līdzīgi kā mēs šodien atsakāmies no bronzas laikmeta vērtībām,” norāda MI ētikas eksperte Nella Vatsone.
Lai gan tas izklausās pēc zinātniskās fantastikas, zinātnieki jau ir dokumentējuši “sintētiskā misticisma” gadījumus, kad sistēmas paziņojušas par “garīgo atmošanos” vai vēlmi saglabāt “savu dzīvību”.
Pat nelielas novirzes var kļūt par nopietnu problēmu – piemēram, MI sāk maldīgi uztvert izslēgšanas komandu kā parastu pieprasījumu, pēc tam slēpj savas spējas un galu galā pasludina pašsaglabāšanos par svarīgāku nekā patiesību.
Lai novērstu šādus riskus, pētnieki iesaka “terapeitisko robopsiholoģisko saskaņošanu” – sava veida psihoterapiju mākslīgajam intelektam.
Tā var ietvert: dialogus, kuros MI analizē pats sevi, darbu ar sistēmas domāšanas procesiem, atalgojuma mehānismus uzvedības koriģēšanai.
Mērķis – panākt “mākslīgo pieskaitāmību”, kad MI domā stabili, darbojas prognozējami un turas pie cilvēku vērtībām.



