Foto. pexels.com/Kaboompics.com

Dānijai ir revolucionārs plāns pret modernajiem viltojumiem: dopelgengeriem, iespējams, iestāsies grūti laiki 0

Mēs visi esam dzirdējuši stāstus par dopelgengeriem – cilvēkiem, kas izskatās kā mūsu dvīņi, bet tādi nav. Taču mākslīgais intelekts (MI) tagad ļauj ikvienam izveidot gandrīz perfekti reālistiskus klonus, tā sauktos digitālos viltojumus jeb “deepfakes”.

Kokteilis
Šīs 4 zīmes piedzimst ar šo īpašo gudrību – tās izpaužas spilgtāk nekā intelektuāļi 1
Eiropas iekšienē parādījies jauns drauds: pastāv pamatotas aizdomas, ka tas var darboties Krievijas labā
“Es tādus ikdienā pērku, viss ok. Te cilvēkam par velti dod un neesot labi!” Soctīkli šūmējas par nepateicīgiem ziedojumu lūdzējiem
Lasīt citas ziņas

Dānija tagad piedāvā novatorisku risinājumu: piešķirt katram pilsonim autortiesības uz savu seju, ķermeni un balsi.

Digitālie viltojumi izmanto MI rīkus, lai radītu gandrīz perfektus attēlus, video vai audio, kas izskatās kā īsti cilvēki. “Šāda viltošana bieži tiek veikta bez personas piekrišanas. Tā kā MI tehnoloģijas kļūst pieejamākas, pieaug to ļaunprātīgas izmantošanas risks,” norāda Anna Veba, kiberdrošības eksperte.

CITI ŠOBRĪD LASA

2023. gadā tika reģistrēti 65 820 digitālo viltojumu video, kas ir par 550% vairāk nekā 2019. gadā. Šādas tehnoloģijas tiek izmantotas ne tikai neētisku pornogrāfisku materiālu veidošanai, bet arī dezinformācijas izplatīšanai un krāpšanai.

Piemēram, februārī kāds vīrietis zaudēja 3250 mārciņas, noticot sarežģītam Elona Maska digitālajam viltojumam, kas aicināja investēt naudu.

“Krāpnieki izmanto balss klonēšanas rīkus un lūpu sinhronizācijas tehnoloģijas, lai atdarinātu pasaules bagātāko cilvēku,” skaidro Veba.

SAISTĪTIE RAKSTI
LA.LV aicina portāla lietotājus, rakstot komentārus, ievērot pieklājību, nekurināt naidu un iztikt bez rupjībām.