Mākslīgā intelekta dualitāte: nav skaidrs, vai sabiedrībai kopumā no tā ir vairāk ieguvumu vai zaudējumu.
Mākslīgā intelekta dualitāte: nav skaidrs, vai sabiedrībai kopumā no tā ir vairāk ieguvumu vai zaudējumu.
Alexander Limbach/SHUTTERSTOCK 3D ilustrācija

Mākslīgais intelekts – neprognozējami riski vai ieguvumi – Pandoras lāde? 15

Raivis Šveicars, “Tepat, Eiropā”, AS “Latvijas Mediji”

Reklāma
Reklāma
Ēdam katru dienu! Kuros pārtikas produktos ir visvairāk plastmasas?
“Ko var iemācīt šādi ģērbušās lektores?” Dzejniece un lektore publiski šausminās un ņirgājas par pasniedzēju apģērbu 124
4 ikdienišķas un efektīvas lietas: tās palīdz tikt vaļā no liekā svara, ja tev nepatīk sportot 7
Lasīt citas ziņas

Mākslīgais intelekts ir teju kā trešā atnākšana – tik liels ir tā potenciāls mainīt dažādu nozaru un uzņēmumu attīstību, paverot jaunus biznesa virzienus un ļaujot ietaupīt līdzekļus. Par māk­slīgo intelektu un tā radītajām iespējām runā visi, bet tikai retais aizdomājas par potenciālajiem kiberdrošības un privātuma apdraudējumiem, īpaši, ja sistēmām ir sensitīvas funkcijas.

Eiropas Kiberdrošības aģentūra (ENISA) izpētījusi, ka mākslīgajam intelektam ir plašas privātuma un drošības ievainojamības, kas var būtiski ietekmēt organizāciju darbu. Ņemot vērā mākslīgā intelekta sistēmu dzīves cikla sarežģītību, strauji rodas arī jaunas ievainojamības. Lai sekmīgi aizsargātu mākslīgā intelekta sistēmu, uzņēmumiem un institūcijām ir aktīvi jāstrādā pie plānošanas, datu aizsardzības, kā arī apmācību un novērtēšanas posmiem.

Riski: enerģētikā un medicīnā

CITI ŠOBRĪD LASA

ENISA potenciālos kiberdrošības un privātuma riskus skatījusi divos noteiktos kontekstos – enerģētikas uzņēmuma darbībā un medicīnas diagnostikā. Aģentūra secināja, ka, nepietiekami pievēršot uzmanību šiem jautājumiem, mākslīgā intelekta neprasmīga izmantošana var novest pie klientu datu noplūšanas, palielinātiem rēķiniem, e-pastu pikšķerēšanas mēģinājumiem un pat pie darbinieku atlaišanas, enerģijas ražošanas pārtraukumiem un reputācijas sagraušanas.

Lai gan ziņojumā ir nošķirtas dažādas ieinteresētās personas, tajā secināts, ka ES iestādēm un dalībvalstīm ir jāsadarbojas, lai nodrošinātu vispārēji pieņemamu ētisku sistēmu, kas ļautu izstrādāt pasākumus, kuri tāpat būtu vispārēji pieņemami. Realitātē taptu regulējums, kas mākslīgā intelekta sistēmu izstrādei un pastāvēšanai vairs neļautu darboties pašplūsmā. Tomēr Eiropas Komisijas pētījumu departamenta pārstāvis Henriks Junklevics izteicies, ka regulējums kopumā ir otršķirīgs: “Regulējums būs tāds vai citāds. Atslēgas vārds šeit ir uzticams mākslīgais intelekts. Eiropas Savienībai tagad ir iespēja padarīt to uzticamu. Tā būtu jāuztver kā iespēja, nevis izaicinājums.”

Uz problēmām reaģē novēloti

Latvijas Informācijas tehnoloģiju drošības incidentu novēršanas institūcija (CERT) uz problēmu skatās mazliet no citas puses, norādot, ka mākslīgais intelekts ir ne tikai problēma, bet arī iespēja kiberdrošības jomā. Jau šobrīd mākslīgais intelekts tiek sekmīgi izmantots gan kiberdrošības risinājumu uzlabošanā, gan lai pilnveidotu kiberuzbrukumus un izstrādātu jaunas kiberuzbrukuma metodes. “Mākslīgā intelekta risinājumi un to attīstība kiberdrošības jomā var palīdzēt ātrāk identificēt potenciālos kiberapdraudējumus, analizējot lielus datu apjomus, kā arī laikus pamanīt iepriekš nebijušas tendences un “caurumus” aizsargājamās sistēmās, ko cilvēka acij būtu neiespējami ieraudzīt vai ko standarta risinājumi varētu neatpazīt.”

Savukārt ļaunprātīgiem mērķiem tos var izmantot, piemēram, lai ģenerētu daudz ticamāku un pielāgotāku saturu tām pašām krāpniecības kampaņām vai lai “klonētu” citas personas identitāti. “Viens no pirmajiem šādiem gadījumiem Eiropā tika fiksēts jau 2019. gadā Lielbritānijā, kad krāpnieki izmantoja mākslīgā intelekta risinājumu, lai nokopētu kādas starptautiskas enerģētikas kompānijas vadītāja balsi un panāktu, ka uzņēmuma darbinieks pēc telefonsarunas ar it kā priekšnieku veiktu 220 000 eiro lielu pārskaitījumu. Savukārt negodprātīgi izstrādātāji var piedāvāt lejupielādēt gan inficētas lietotnes, gan interneta pārlūku paplašinājumus mākslīgā intelekta risinājumu papildu funkcionalitātei,” norāda CERT.

Reklāma
Reklāma

Baltijas vadošais uzņēmums mākslīgā intelekta valodas tehnoloģiju ieviešanā un attīstībā ir “Tilde”, kas mākslīgo intelektu izmanto specifiski, piemēram, mašīntulkošanā, runas atpazīšanā un sintēzē, inteliģento virtuālo asistentu veidošanā un citur. Uzņēmuma mākslīgā intelekta attīstības vadītājs Mārcis Pinnis par mākslīgā intelekta izaicinājumiem izteicās tieši sava uzņēmuma darbības kontekstā, uzsverot, ka mākslīgā intelekta attīstībai līdzi netiek daudzas jomas, kurām būtu jāreaģē uz notiekošo mākslīgā intelekta jomā.

“Piemēram, augstskolas novēloti sākušas reaģēt uz lielo valodas modeļu ietekmi akadēmiskajos procesos – studentu darbos, publikācijās, projektu pieteikumos. Arī likumdošanas un tiesībaizsardzības jomās ir daudz atvērtu jautājumu. Viens no tiem – ar autortiesībām aizsargātu datu izmantošana mākslīgā intelekta modeļu apmācībā un to komerciāla realizēšana Eiropas Savienībā. Piemēram, attēlu ģenerēšanas risinājuma “Midjourney” apmācībā ir izmantoti ar autortiesībām aizsargāti dati, tomēr šis risinājums ir brīvi pie­ejams Eiropas Savienībā.”

Drošība jāattīsta intensīvāk

Arī kiberdrošības joma šķietami ir iedzinēju lomā, uzskata Pinnis, piekrītot CERT nosauktajām problēmām. “Piemēram, mēstuļu (tostarp pikšķerēšanas e-pastu) filtri noteikti netiek līdzi lielo valodas modeļu attīstībai un tam, kādas iespējas paveras mēstuļu izsūtītājiem. Līdzi netiek arī tehnoloģijas, kas ļautu atpazīt nepatiesu ģenerētu saturu, piemēram, klonētas dzīvu cilvēku balsis (audio) un tēlus (video), kas izmantoti, lai uzģenerētu kādu nepatiesu stāstu. Tas, protams, ļauj izpausties dezinformētājiem un dažādiem nomelnošanas kampaņu organizētājiem.”

Kiberdrošības ekspertiem papildu galvassāpes varētu radīt arī tie mākslīgā intelekta risinājumi, kuru apmācībā izmantotas nepilnīgas vai kļūdainas datu kopas. Piemēram, programmētāji, pēc pasūtījuma rakstot kodu, tajā integrē mākslīgā intelekta ģenerētus koda fragmentus, kas satur ievainojamību, jo arī šo rīku apmācībā izmantotie koda piemēri saturējuši šo ievainojamību. CERT norāda, ka šobrīd nevajadzētu akli paļauties uz mākslīgā intelekta ģenerēto saturu, bet to ieteicams rūpīgi pārbaudīt arī pašiem speciālistiem.

“Kiberdrošības risinājumu izstrādātājiem izaicinājums ir viens – turēties līdzi jaunākajām tendencēm mākslīgā intelekta tehnoloģiju izstrādē. Būtu ļoti lietderīgi, ja kiberdrošības risinājumu izstrādātāji roku rokā sadarbotos ar pašiem mākslīgā intelekta risinājumu izstrādātājiem. Vai tāda sadarbība notiek – jāprasa pašiem kiberdrošības tehnoloģiju izstrādātājiem. Mēs būtu ļoti ieinteresēti plašākai sadarbībai,” piebilst Mārcis Pinnis no “Tildes”.

SAISTĪTIE RAKSTI
LA.LV aicina portāla lietotājus, rakstot komentārus, ievērot pieklājību, nekurināt naidu un iztikt bez rupjībām.