Ekonomika
Tehnoloģijas

ES izstrādāta instrukcija mākslīgajam intelektam: kādas 7 prasības jāievēro?0


Apmeklētājs sasveicinās ar robotu Hannoveres gadatirgū, kas notika šomēnes.
Apmeklētājs sasveicinās ar robotu Hannoveres gadatirgū, kas notika šomēnes.
Foto: CHINE NOUVELLE/SIPA/SCANPIX

Mākslīgajam intelektam (AI) jābūt uzticamam, likumpaklausīgam, ētiskam un robustam. Tā lēmusi Eiropas Savienība, izstrādājot īpašas vadlīnijas, kuras jāņem vērā ikvienam uzņēmumam vai valstiskai iestādei, kas izstrādā AI risinājumus. Vadlīnijas ietver septiņas prasības, kurām mākslīgā intelekta sistēmām būtu jāatbilst, lai varētu uzskatīt, ka tās atbilst visiem noteikumiem. Jāuzsver gan, ka vadlīnijas nebūs juridiski saistošas, bet tām nākotnē var būt liela loma jaunu noteikumu izstrādāšanā.

 

Satiksmes noteikumi robotiem

Vadlīnijas izstrādātas, lai novērstu dažādu veidu problēmas, kuras līdz ar ievērojamu mākslīgā intelekta ienākšanu cilvēku dzīvē radīsies sabiedrībā. Piemēram, brīdī, kad AI risinājumus centīsimies integrēt veselības aprūpē, izglītībā u. c. Kad AI nākotnē spēs cilvēkiem noteikt vēzi, ES vadlīnijām būtu jānovērš, piemēram, iespējamā cilvēku šķirošana pēc rases vai dzimuma.

Uzņēmuma “Tilde” valdes priekšsēdētājs Andrejs Vasiļjevs “LA” norādīja, ka izstrādātās vadlīnijas ir nozīmīgas, jo AI risinājumi jau šobrīd ienāk mūsu ikdienā. Līdz ar to jāvienojas par skaidriem principiem, kā mākslīgo intelektu izmantot un attīstīt, lai tas nestu lielāko labumu, kā arī lai izvairītos no riskiem, kas ar to saistīti. “Vienkāršots salīdzinājums varētu būt ar autotransportu. Mēs vairs nevaram iedomāties, kā būtu pārvietoties tikai ar kājām un zirgu pajūgiem. Taču, ja mašīnu kustība netiktu nekādā veidā regulēta un kontrolēta, tad satiksmē iestātos pilnīgs haoss ar neskaitāmām avārijām.”

Viņš pozitīvi vērtē vadlīnijās ietverto aspektu plašumu un universālumu – tās varot attiecināt uz visdažādākā veida risinājumiem. Vienlaikus vadlīnijas esot arī pietiekami praktiskas un ietver sarakstu ar konkrētiem jautājumiem, kas jānoskaidro, veidojot jebkuru mākslīgā intelekta sistēmu.

 

Kādā valodā apkalpos robots?

Tomēr vadlīnijas varētu būt arī labākas, uzskata A. Vasiļjevs. “Sarūgtina, ka vadlīnijas neizceļ Eiropai tik svarīgo daudzvalodības jautājumu. Vadlīnijās daudzkārt uzsvērts, ka visiem jānodrošina vienādas iespējas mākslīgā intelekta izmantošanā, īpaši izceļot marginālās grupas un cilvēkus ar īpašām vajadzībām. Taču latviešiem un desmitiem miljonu citu eiropiešu nav iespēju pilnvērtīgi izmantot mākslīgā intelekta risinājumus, kas pieejami tikai angļu un dažās lielajās valodās. Eiropas Savienībai būtu jāpanāk, ka globālo uzņēmumu veidotās sistēmas strādā arī mazākās valodās, lai arī lietotāju skaits tur nav liels un ekonomiski tas nav izdevīgi. Diemžēl Eiropas lielo valstu pārstāvji, kam ir liela ietekme uz Eiropas Savienības politiku, mazo valodu vajadzības īsti nesaprot. Tas vēlreiz parāda, cik svarīgi mūsu valsts pārstāvjiem kopā ar citām mazākām ES valstīm aizstāvēt visu ES valodu vienlīdzību visās sfērās, arī mākslīgajā intelektā,” norāda “Tildes” vadītājs.

Viņš uzskata, ka ar jaunajām vadlīnijām Eiropa cenšas kļūt par globālu līderi ētiska un uzticama mākslīgā intelekta jomā, taču ar vadlīnijām vien var arī nepietikt, ņemot vērā ASV un Ķīnas veiktās milzīgās daudzmiljardu investīcijas mākslīgajā intelektā, panākot lielu tehnoloģisko pārākumu pār Eiropu.

“Tieši daudzvalodīgs mākslīgais intelekts varētu būt specializācijas joma, kas tik svarīga Eiropas vienotībai un kurā Eiropai ir reālas iespējas kļūt par pasaules līderi. Šī joma ir ļoti spēcīga arī Latvijā,” uzsver A. Vasiļjevs, minot “Tildes” izstrādāto un uz AI bāzes veidoto mašīntulku, kas zinātniskajās sacensībās pārspējis vairākus globālos tehnoloģiju koncernus, piemēram, “Google”.

 

Septiņas prasības uzticamam mākslīgajam intelektam

Cilvēku pārraudzība – mākslīgajam intelektam nevajadzētu ietekmēt cilvēku autonomiju. Mākslīgā intelekta sistēmām nevajadzētu manipulēt ar cilvēkiem. Cilvēkiem jābūt iespējai iejaukties un pārraudzīt AI lēmumu.

Tehniskā noturība un drošība – mākslīgajam intelektam jābūt drošam un precīzam. To nedrīkst viegli pakļaut ārējiem uzbrukumiem. AI sistēmai jābūt pietiekami uzticamai.

Privātums un datu pārvaldība – mākslīgā intelekta uzkrātajiem personīgajiem datiem jābūt drošībā. Tos nedrīkst izmantot ikkatrs, un tie nedrīkst būt viegli nozogami.

Caurspīdība – datiem un algoritmiem, kas veido mākslīgā intelekta sistēmu, jābūt viegli pieejamiem. AI veiktajiem lēmumiem jābūt cilvēka izsekotiem un pamatotiem – AI izstrādātājiem jāspēj izskaidrot viņu radītās sistēmas pieņemtos lēmumus.

Dažādība, nediskriminācija un taisnīgums – mākslīgā intelekta radītajiem pakalpojumiem jābūt ikvienam pieejamiem – AI cilvēkus nedrīkst vērtēt nedz pēc vecuma, nedz dzimuma, nedz rases u. c. īpašībām. Sistēma nedrīkst būt aizspriedumaina.

Saistītie raksti

Vides un sabiedrības labklājība – AI sistēmām jābūt ilgtspējīgām un ekoloģiski atbildīgām, tām jāvairo pozitīvas sociālās izmaiņas.

Atbildība – AI sistēmām jābūt auditējamām un pakļautām esošajiem korporatīvajiem noteikumiem. Sistēmu radīto negatīvo ietekmi jāspēj pamanīt un par to ziņot.

Avots: ES prasības izstrādātas 52 ekspertu vadībā.

LA.lv