Foto. pexels.com/Michelangelo Buonarroti

Labs draugs un palīgs, kas bieži vien tev… samelo. Kur mākslīgais intelekts kļūdās visbiežāk? 0

Mākslīgais intelekts (MI) ir spēcīgs rīks, kas var ģenerēt tekstus, atbildēt uz jautājumiem un pat radīt mākslu, taču tas ne vienmēr ir uzticams. Dažkārt MI sniedz nepatiesu vai izdomātu informāciju – fenomenu, ko dēvē par “halucinācijām”.

Reklāma
Reklāma
Veselam
Kas notiek ar krūtīm, ja sieviete atsakās no krūštura valkāšanas? 15
“Situācija ir bezcerīga.” Gazprom nezina, ko darīt ar 60 miljardiem kubikmetru nepārdotās gāzes 7
Vai tavā telefona numurā ir šādi cipari? Pārbaudi – tie var nest tev veiksmi
Lasīt citas ziņas

Kādos apstākļos MI “melo” visbiežāk, un kāpēc tas notiek? Ir izpētīti galvenie iemesli, kas liek MI sniegt neprecīzas atbildes, kā arī – tiek piedāvāti praktiski padomi, kā izvairīties no maldinošas informācijas tiem, kuri arvien vairāk izmanto MI rīkus, piemēram, čatbotus vai tulkošanas programmas.

Kas ir MI “melu” pamatā?

MI, piemēram, lieli valodas modeļi (LLM), kā ChatGPT vai Grok, darbojas, analizējot milzīgus datu apjomus un ģenerējot atbildes, balstoties uz statistiskām varbūtībām. Tie neizprot pasauli kā cilvēki un neapzinās, vai viņu sniegtā informācija ir patiesa.

CITI ŠOBRĪD LASA

Tā vietā tie “paredz” visticamāko atbildi, kas var novest pie kļūdām vai izdomājumiem. Saskaņā ar MIT Technology Review, MI halucinācijas rodas, kad modelis saskaras ar datu nepilnībām, neskaidriem jautājumiem vai situācijām, kur tas “aizpilda tukšumus” ar ticamu, bet nepatiesu informāciju.

MI biežāk sniedz nepatiesu informāciju šajos apstākļos:

SAISTĪTIE RAKSTI
LA.LV aicina portāla lietotājus, rakstot komentārus, ievērot pieklājību, nekurināt naidu un iztikt bez rupjībām.