Foto. pexels.com/Kaboompics.com

Dānijai ir revolucionārs plāns pret modernajiem viltojumiem: dopelgengeriem, iespējams, iestāsies grūti laiki 0

Mēs visi esam dzirdējuši stāstus par dopelgengeriem – cilvēkiem, kas izskatās kā mūsu dvīņi, bet tādi nav. Taču mākslīgais intelekts (MI) tagad ļauj ikvienam izveidot gandrīz perfekti reālistiskus klonus, tā sauktos digitālos viltojumus jeb “deepfakes”.

Reklāma
Reklāma
Veselam
Neredzamās slepkavas: četri ikdienas ieradumi, kas nemanāmi bojā asinsvadus un palielina trombu attīstības risku
Kokteilis
Ja esi dzimis vienā no šiem trīs datumiem, tev uzlikts īpašs “zīmogs” no pagātnes
Trīs Krievijas iznīcinātāji ielidojuši Igaunijas teritorijā; igauņi pieprasa NATO 4. panta konsultācijas 121
Lasīt citas ziņas

Dānija tagad piedāvā novatorisku risinājumu: piešķirt katram pilsonim autortiesības uz savu seju, ķermeni un balsi.

Digitālie viltojumi izmanto MI rīkus, lai radītu gandrīz perfektus attēlus, video vai audio, kas izskatās kā īsti cilvēki. “Šāda viltošana bieži tiek veikta bez personas piekrišanas. Tā kā MI tehnoloģijas kļūst pieejamākas, pieaug to ļaunprātīgas izmantošanas risks,” norāda Anna Veba, kiberdrošības eksperte.

CITI ŠOBRĪD LASA

2023. gadā tika reģistrēti 65 820 digitālo viltojumu video, kas ir par 550% vairāk nekā 2019. gadā. Šādas tehnoloģijas tiek izmantotas ne tikai neētisku pornogrāfisku materiālu veidošanai, bet arī dezinformācijas izplatīšanai un krāpšanai.

Piemēram, februārī kāds vīrietis zaudēja 3250 mārciņas, noticot sarežģītam Elona Maska digitālajam viltojumam, kas aicināja investēt naudu.

“Krāpnieki izmanto balss klonēšanas rīkus un lūpu sinhronizācijas tehnoloģijas, lai atdarinātu pasaules bagātāko cilvēku,” skaidro Veba.

SAISTĪTIE RAKSTI
LA.LV aicina portāla lietotājus, rakstot komentārus, ievērot pieklājību, nekurināt naidu un iztikt bez rupjībām.