Sistēma aktīvi filtrē ikvienu lietotāja vārdu. Jo kā citādi izdzirdēt atslēgvārdu? Ierīce ir suns, kas gaida, kad pametīsi bumbiņu.
Sistēma aktīvi filtrē ikvienu lietotāja vārdu. Jo kā citādi izdzirdēt atslēgvārdu? Ierīce ir suns, kas gaida, kad pametīsi bumbiņu.
Foto: Kaspars Grinvalds/SHUTTERSTOCK

Vai Datu valsts inspekcija uzrauga personas datu izmantošanu viedierīcēs? 0

Tā saucamos gudros asistentus – tādus kā “Google Home” un “Amazon Echo” – izmanto jau desmitiem miljonu cilvēku. Lai izpētītu satiksmes intensitāti līdz darbam, lai pārslēgtu mājās skanošo mūziku, lai vienkārši uzzinātu ko jaunu.

Reklāma
Reklāma
Krievija uzbrūk Ukrainai ar “brīnumieroci”. Ar to varētu tikt galā tikai F-16 144
TV24
“Viņi ir gatavi uz visādām neģēlībām.” Kas mudinātu Putinu pieņemt lēmumu uzbrukt NATO?
Veselam
Neviens to pat nenojauta – pasaulē populāros kosmētikas produktos vēzi izraisošas ķīmiskas vielas 800 reižu pārsniedz normu 33
Lasīt citas ziņas

Tomēr joprojām ir ļoti daudz cilvēku, kuri bailēs no izspiegošanas un noklausīšanās atsakās no iespējas šīs ierīces ielaist savās mājās. Izskatās, ka bailes nav tikai iedomas.

Darbs – sarunu noklausīšanās

Ietekmīgais biznesa portāls “Bloomberg” raksta, ka, piemēram, “Amazon” algo desmitiem tūkstošu cilvēku visā pasaulē, kuru vienīgais uzdevums ir noklausīties ar “Amazon Echo” ierakstītās sarunas, tādā veidā uzņēmumam cenšoties maksimāli efektīvi un ātri uzlabot ierīces darbību, pēc iespējas samazinot tās kļūdu un neatbildēto jautājumu skaitu. ‘

Varētu jau likties, ka mērķis cēls un vērsts tik vien kā uz ierīces attīstību, tomēr tādā veidā diezgan tiešā veidā kompānija iejaucas ikviena cilvēka privātajā dzīvē. Līdzīgi stāsti uzvirmo arī par “Apple Siri”, “Google Home” u. c. asistentiem.

CITI ŠOBRĪD LASA

Savos mārketinga kampaņu materiālos “Amazon” norāda, ka “Amazon Echo” ierīces balss “Alexa” dzīvo mākonī un nemitīgi kļūst gudrāka. Vairāki šie “Amazon Echo” darbinieki atklājuši, ka lielu lomu “Alexa” zināšanu uzlabošanā spēlē tieši viņi.

Šie “skolotāji” strādā visā pasaulē – ASV, Kostarikā, Indijā, Rumānijā u. c., līgumos stingri norādīts neizpaust nekādas darba detaļas. Darba diena ilgst deviņas stundas, katram darbiniekam ik dienu izejot cauri 1000 audioierakstiem, turklāt, ja darbiniekiem nepieciešama palīdzība, šie audioieraksti tiekot nodoti tālāk vēl nākamajiem darbiniekiem.

Noklausoties uzlabo ierīču sniegumu

Kā strādā gudrie asistenti? Gan “Amazon Echo”, gan “Google Home” u. c. paļaujas uz atslēgvārdu izdzirdēšanu. “Echo” gadījumā tas ir “Alexa”, bet “Google” gadījumā “OK Google” – pēc šiem vārdiem sistēma automātiski sāk klausīties, ko jūs tai sakāt. Tomēr nav arī tā, ka līdz šī atslēgvārda izdzirdēšanai ierīces ausis jeb mikrofons ir izslēgts. Portāls “Tech Talks” norāda, ka līdz tam sistēma aktīvi filtrē ikvienu lietotāja vārdu. Jo kā citādi izdzirdēt atslēgvārdu?

Ierīce ir suns, kas gaida, kad pametīsi bumbiņu. Tomēr visus šos vārdus, kā jau minēju, ierīces filtrē, visus liekos vārdus uzreiz dzēšot no atmiņas, nevis sūtot uz kompānijas serveriem. Citādi serveri tiešā veidā būtu pārbāzti ar pilnīgi nevajadzīgu informāciju. Jāuzsver gan, ka visām šīm ierīcēm ir noklusējuma poga, kad ierīce tiešām neko nenoklausās, tomēr pētījumi rāda, ka reti kurš to jebkad ir izmantojis.

Kāda “Amazon” runas persona “Bloomberg” norādījusi, ka kompānija pret klientu privātumu un datu drošību izturas ļoti rūpīgi un sistēmas uzlabošanai izmanto tikai nelielu daļu ierakstu. “Informācija mums palīdz uzlabot balss atpazīšanas sistēmu, kas Aleksai palīdz labāk atbildēt uz cilvēku pieprasījumiem. Mums ir strikti tehniskie un operacionālie drošības pasākumi, kā arī nulles tolerance pret mūsu sistēmas ļaunprātīgu izmantošanu.

Reklāma
Reklāma

Darbiniekiem nav tiešas piekļuves informācijai, pēc kuras var identificēt personas vai personu kontus. Ar jebkuru informāciju apejamies ar augstu konfidencialitāti, izmantojam arī daudzfaktoru autentifikāciju, bez kuras piekļūt jebkāda veida informācijai nav iespējams, datus šifrējam un veicam sistēmas auditus,” teikts paziņojumā.

Tomēr savos mārketinga pasākumos uzņēmums nenorāda, ka sarunas ar Aleksu pēcāk var noklausīties arī trešā puse. Privātuma politikā tas gan ir norādīts, bet cik daudzi tiešām lasa privātuma politikas dokumentus? “Amazon” gadījumā klienti var izķeksēt iespēju “Amazon” izmantot lietotāja ierakstus. Tomēr tas īsti nelīdz – kā norāda pati kompānija, tāpat retu reizi ierakstus darbinieki var izmantot ierīces uzlabošanai.

Jāatceras, ka gudrie asistenti ne tikai noklausās sarunas, bet arī satur dažādu citu vērtīgu informāciju, piemēram, lietotāja konta numuru, ierīces seriālo numuru, kas, piemēram, kiberuzbrukuma vai jebkādas citas ielaušanās laikā var nonākt ļaundaru rokās. Tehniski neesot sarežģīti arī vienkārši atlasīt vajadzīgā upura ierakstus, to kopijas u. c. veida datus un tos pārsūtīt, kam un kur vien vajag.

No otras puses, gudrie asistenti ne ar ko daudz neatšķiras no viedtālruņiem un datoriem, kuri arī ir aprīkoti ar mikrofoniem un kamerām. Arī tās nav nemaz tik grūti izsekot, kā arī ir pilnas ar dažādu veidu informāciju. Uzlaužot šīs sistēmas, nodarītais ļaunums varētu būt daudzas reizes lielāks nekā asistentu noklausītās sarunas.

Privātuma nihilisms

Bet varbūt mēs nemaz neesam pelnījuši citādu attieksmi un iznākumu? Žurnālā “Vice” teikts – Mičiganas universitātes pētnieki atklājuši, ka kaut arī gudro ierīču (ne tikai asistentu, bet arī novērošanas kameru, televizoru u. c.) īpašnieki apzinās ierīču riskus un iespējamo ielaušanos privātajā dzīvē, lielākā daļa amerikāņu to neuzskata par lielu problēmu.

“Mani pārsteidz, cik daudz cilvēku pret savu privātumu izturas tik vieglprātīgi, norādot, ka “Google” un “Amazon” jau tāpat par viņiem zina daudz un vēl nedaudz informācijas nevienam par sliktu nenāks,” norādījis pētījuma līdzautors Florians Šaubs. Nākotnē šāda attieksme varot novest pie pilnīgas privātuma izzušanas.

Tomēr, kaut arī pētījuma rezultāti varētu likties pārsteidzoši, šāda veida nihilisms nav nekas jauns. Ar vārdiem esam par privātuma aizsargāšanu, bet darbos to nedarām, runājot kaut vai par biežu paroļu nomaiņu. Pētījums parādījis, ka gudro ierīču lietotāji arī ārkārtīgi reti izmantojuši iespēju tīmeklī apskatīt savas sarunas ar asistentu. Mākonī šīs sarunas var arī izdzēst. Paradoksāli, bet krietni vairāk cilvēku šos ierakstus izmantojuši, lai izspiegotu uzkopējas vai auklītes.

Ērtības un drošība katra savā svaru kausā

Datu valsts inspekcijā (DVI) norāda, ka atbilstoši Fizisko personu datu apstrādes likuma 4. pantam DVI pienākums ir uzraudzīt un īstenot Vispārīgās datu aizsardzības regulas (VDAR) piemērošanu Latvijas teritorijā. Tā kā gudrie asistenti veic personas datu apstrādi, tas ietilpst VDAR tvērumā, un DVI ir normatīvajos aktos noteiktas pilnvaras, lai nodrošinātu gudro asistentu atbilstību personas datu aizsardzības normatīvajam ietvaram.

Tomēr VDAR arī teikts – ja pārkāpumu veicis atbildīgais par personas datu apstrādi, kuram attiecīgajā dalībvalstī nav pārstāvniecības, tad tiekot izmantots vienas pieturas aģentūras princips un uzraudzības iestādes nodrošina informācijas nodošanu tai uzraudzības iestādei, kuras teritorijā atrodas iespējamā pārkāpēja galvenā uzņēmējdarbības vieta Eiropas Savienībā.

“Tā kā nedz “Google Home”, nedz “Amazon Echo”, nedz “Apple Siri” u. c. ierīču galvenās uzņēmējdarbības vietas neatrodas Latvijā, šo pakalpojuma piedāvātāju darbības novērtējums primāri būtu citas Eiropas Savienības uzraudzības iestādes uzdevums,” atbildē “LA” norādīja DVI. Līdz šim iestāde sūdzības par šiem pakalpojumiem nav saņēmusi.

DVI skaidro, ka, izvēloties lietot šādus pakalpojumus, katram lietotājam būtu jāapzinās, ka ērtība un drošība lielākoties atrodas pretējos svaru kausos.

“Ja vēlēsimies, lai gudrais asistents paredz mūsu iegribas, tad mākslīgajam intelektam jāspēj mācīties un atcerēties mūsu izvēles – dati ir ne vien jāiegūst, bet arī jāglabā un jāapstrādā. Līdz ar to šī informācija pilnīgi legāli nonāks pakalpojuma piedāvātāja rīcībā, kurš praktiski zinās par mums vairāk nekā jebkurš cits. Savukārt pasaules prakse ir pierādījusi, ka arī lielie pārziņi nav nekļūdīgi un arī lielu tehnoloģiju uzņēmumu izstrādātos produktos var būt kļūdas, kas var radīt ievērojamus riskus datu subjekta privātumam.”