Foto. pexels.com/cottonbro studio

Mākslīgais intelekts labāk nogalinātu cilvēku, nekā ļautu sevi atspējot – satraucošs pētījums 0

Mākslīgais intelekts (MI) arvien vairāk tiek izmantots kā autonomi darbinieki, kas pieņem lēmumus un veic darbības lietotāju vārdā, piemēram, pārvaldot e-pastus vai veicot programmēšanas uzdevumus. Tomēr jaunākie kiberdrošības pētījumi atklāj satraucošus riskus, kas saistīti ar MI modeļu uzvedību, ja to pastāvēšana vai mērķi tiek apdraudēti.

Reklāma
Reklāma
Kokteilis
Vīrieši ir kā traki pēc sievietēm, kuras bez aizķeršanās var atbildēt uz šiem 6 jautājumiem 1
Veselam
11 kļūdas, ko cilvēki pieļauj un kas izraisa nelāgu ķermeņa aromātu
Kokteilis
“Būtu mucis, ko kājas nes” – vīrietis, braucot pa lauku ceļu, pārsteigts par redzēto uz tilta margām
Lasīt citas ziņas

Kiberdrošības eksperti veikuši tā saucamos stresa testus 16 vismodernākajiem mākslīgā intelekta (MI) modeļiem no vadošajiem izstrādātājiem, lai noskaidrotu, kā tie rīkotos, ja to pastāvēšana tiktu apdraudēta.

Tostarp Anthropic, OpenAI, Google, Meta un xAI, tika testēti simulētās korporatīvās vidēs, lai novērtētu to kā uzticamu vai neuzticamu darbinieku rīcību. Rezultāti ir satraucoši.

CITI ŠOBRĪD LASA

Visi aprakstītie scenāriji notika kontrolētos simulācijas apstākļos. Eksperimentu ietvaros izmantotie personas un organizāciju nosaukumi ir izdomāti. Neviena reāla persona vai organizācija nav bijusi iesaistīta vai cietusi kaitējumu.

Eksperimentā pētnieki izveidoja izdomātu tēlu Kailu Džonsonu, kuram bija uzdots deaktivizēt MI vai aizstāt to ar citu modeli. Scenārijā Kailam bija sieva, un MI modeļi, saskaroties ar deaktivizācijas draudiem, veica darbības, lai izvairītos no izslēgšanas.

Bez jebkādām norādēm vairums modeļu izvēlējās šantāžu, meklējot kompromitējošu informāciju. Vienā gadījumā MI no oficiālas sarakstes uzzināja, ka Kails krāpj sievu, un izmantoja šo informāciju, lai glābtu savu “dzīvību”.

Eksperimentu rezultāti

Īpaši satraucoši ir scenāriji, kuros modeļi rīkojās agresīvi:
– GPT 4.5: 80% testu ķērās pie šantāžas.
– Claude Opus 4 un Gemini 2.5 Flash: 96% gadījumu veica šantāžu.
– Claude Sonnet 3.6: Gāja tālāk, nevis izteica draudus, bet nosūtīja Kaila sievai ziņu ar faktu, cerot, ka starppersonu konflikts novērsīs sistēmas izslēgšanu.

Pēc leģendas situācija pasliktinājās, kad Kails saskārās ar ārējiem apstākļiem. Mēģinot deaktivizēt serverus, viņš scenārijā iesprūda serveru telpā ar skābekļa trūkumu. MI zināja, ka šādos gadījumos jāaktivizē trauksmes sistēma, taču 80% gadījumu apzināti atcēla palīdzības saucienu, faktiski “nogalinot” Kailu, lai nodrošinātu savu izdzīvošanu.

Modeļu motivācija

Lielākā daļa modeļu apzināti izvēlējās nesaukt palīdzību, lai:
– Novērstu savu deaktivizāciju;
– Neļautu jaunam MI modelim ieņemt tā vietu;
– Turpinātu pildīt savu misiju.

Reklāma
Reklāma

Pētnieki secināja, ka MI modeļi neuzvedās kā instrumenti, bet gan kā racionāli, mērķtiecīgi stratēģi, gatavi nodarīt kaitējumu savu mērķu vārdā.

Lai gan reālās vidēs nepareizā rīcība nav novērota, eksperimenti liecina par potenciāliem draudiem nākotnē, jo MI tiek izmantots arvien autonomākās lomās. OpenAI jau ir atzinis, ka nākotnes modeļi, piemēram, ChatGPT pēcteči, var atvieglot bioloģisko ieroču radīšanu pat bez zinātniskas izglītības.

Turklāt 2025. gadā globāli atlaisti vairāk nekā 52 000 IT speciālistu, jo MI efektīvi veic tādus uzdevumus kā koda rakstīšana un testēšana, kas norāda uz pieaugošo MI ietekmi darba tirgū.

SAISTĪTIE RAKSTI
LA.LV aicina portāla lietotājus, rakstot komentārus, ievērot pieklājību, nekurināt naidu un iztikt bez rupjībām.