![]() | ![]() |
![]() |
| ![]() |
| |||||||||||||||
AI asistenti i privatnost
Korporativna tomsojerizacija procesa prisluškivanja
AI, ne lupetaj Ko prati smešniju stranu internet subkulture zna da je jedno vreme popularan izvor zabave bio u istraživanju granica „zbunjenosti” Applove lične pomoćnice Siri, pa su ljudi kačili nebulozne i smešne odgovore i rečenice ovog parčeta veštačke inteligencije. Nadležni iz Microsofta su odlučili da je nedopustivo da se korisnici interneta smeju samo Applovom feleričnom softveru, pa su Cortanu unapredili iz sporednog lika nekog tamo shootera (svesni smo naziva, ali je ovako zanimljivije) u pandan Siri, sa sve plavim obličjem čijim atributima bestelesna Siri ne može da parira. Svi su potom razvili svog virtuelnog asistenta uključujući naravno i nezaobilazni dinamični duo(pol) Facebooka i Googla.
Not a feature Mehanizmi glasovne kontrole tek sa AI asistentima postaju široko rasprostranjeni i prihvaćenost koju su im dugo predskazivali, ali tehnologija je i dalje daleko od savršene. Pored obilja sigurnosnih bagova prilikom komunikacije sa serverima i mnoštva propusta, koji deluju nevažno dok se ne setite da se radi o vašim podacima, valja navesti još jednu falinku sistema za prepoznavanje glasa, koja otvara mogućnost za nešto što se zove „delfinski napad”. Zbog toga što su hardware i software, kako telefona i računara, tako i kutija sa asistentom (kako bismo nazvali Echo i bratiju) dizajnirani da hvataju i zvučne frekvencije izvan opsega ljudskog sluha (radi poboljšanja razumevanja i smanjivanja smetnji koje prave pozadinski zvukovi), moguće je, putem kompjuterske manipulacije glasa, uređaju izdati komandu koju ne može da čuje čovek. To je zanimljivo, ali i krajnje alarmantno ako govorimo o vašem telefonu ili još gore, o pametnoj kući. Pošto se mobilni telefoni sve češće koriste kao ključ i sredstvo plaćanja, ovo bi moglo imati katastrofalne posledice da tehnika manipulacije nije prostorno ograničena. Siri, Google Assistant, Samsung S Voice i Alexa na čitavoj paleti uređaja, podložni su ovom tipu napada i niko iz navedenih korporacija nije objasnio zašto nije uvedeno isključivanje komandi koje su izdate na frekvenciji izvan ljudskog slušnog opsega. Kako to misliš, Siri, moje knjige?
Međutim tehnološke korporacije svih kalibara i iz svih grana ovog privrednog sektora dosad su se pokazale kao veoma orne da učine baš to. Nedavno istraživanje vašingtonske organizacije Future of Privacy Forum (Forum o budućnosti privatnosti) u saradnji sa britanskom consulting firmom Ernest & Young, otkrilo je da su svi standalone uređaji bazirani na AI ličnom asistentu uvek uključeni i da uvek slušaju bez obzira na podešavanja. Sama činjenica da kompanije mogu stalno da vas prisluškuju, zastrašujuća je, ali na to treba dodati i sve glasnije pozive državnih organa proizvođačima da, pored mogućnosti pasivnog prisluškivanja, uvrste i mogućnost praćenja vrućih reči (hot words) – sa namerom da nadležni, naravno za naše dobro, budu obavešteni o tome, jer je orvelijanski stepen nadzora uvek za naše dobro. U nekim državama AI asistent će obaveštavati nadležne da je neko izgovorio – „bombu staviš tamo”, ali pre ili kasnije (kladili bismo se na pre) neko će se setiti da sprava mora da reaguje i na „predsednik možda nije u pravu”. Takve informacije bi mogle da budu nagrađene koncesijom ili pristupom tržištu. Šta mislite kako bi megakorporacije reagovale u tom slučaju, kada bi pristup milionima potencijalnih mušterija, naivčina koje gaje iluzije slobode, bio uslovljen dilom sa dragim vođom? Znači Alexa ove skuplje su bolje?
To nas dovodi do još jednog problema na koji brojni stručnjaci upozoravaju. Videli smo halabuku oko Facebookovog uticaja na razne izbore i propagiranje lažnih vesti, pošto zahvaljujući lenjim ljudima kojima je i Google pretraga previše naporna i koji su zadovoljni da samo čitaju šta im Facebook servira, ova korporacija predstavlja jedan od glavnih izvora informiacija. A ako je društvenim mrežama lako da vam nešto serviraju, zamislite tek potencijal AI asistenata kada siđu u narod kao Facebook danas. Ogroman procenat ljudi će slušati šta im Alexa kaže. To je enorman problem u sferi trgovine, jer će Amazon, u zavisnosti od buduće regulative ovog tipa stealth marketinga, moći da vam uvali šta god oni ili partneri koji plaćaju, požele. Još veći problem biće situacija kada partneri budu politički činioci koji će biti u prilici da plate i oblikuju mišljenje javnosti. AI asistent nije gomila linija teksta kao rezultat pretrage ili newsfeed, već prijatna ženska osoba (tj. imitacija žene) sa kojom ljudi već sad razvijaju veoma prisan odnos. Kako sistemi mašinskog učenja budu napredovali, AI će, ne samo znati više, već će i bolje imitirati ljudsko biće, što će pored povećane koristi, promeniti ljudske interakcije u svetu koji se sve više otuđuje. Kako odbiti savet vaše verne pomoćnice kada vam, tehnički savršeno glumeći iskrenost, preporučuje da kupite xyz šampon ili da glasate za N.N. političara, iako vam sve drugo ukazuje da je korumpirano đubre? Lakoća pristupa, koji zahteva daleko manje napora čak i od skrolovanja po newsfeedu, i personalizovana metoda prezentacije podataka čini AI asistente veoma potentnim sredstvima propagande, kako ekonomske, tako i političke, što je tema na koju ćemo se sigurno vraćati kako AI asistenti budu postajali mainstream. Dečija igra Priča o nadzoru, slanju preko interneta i korporativnoj obradi svega što kažete, dobila je i mračniju verziju, ako je to moguće, kada se tokom protekle godine nanizalo nekoliko skandala jer se ispostavilo da su razne pričljive igračke, iliti dečiji ekvivalenti ličnog asistenta, slale matičnim kompanijama sve što su deca rekla i podatke iz dečijeg okruženja. Nemačka federalna agencija, u čijoj su nadležnosti između ostalog i telekomunikacije, kolokvijalno zvana Bundesnetzagentur (BNetzA ili punim nazivom Bundesnetzagentur für Elektrizität, Gas, Telekommunikation, Post und Eisenbahnen), prošle godine je pod pretnjom kaznom od 25.000 evra, naložila svim roditeljima da unište My Friend Kayla (Moja prijateljica Kajla) lutke, čiji je glavni selling point bio, ne samo da pričaju, već da putem obrade glasovno-tekstualnog protokola mogu i da vode konverzaciju sa detetom. Ispostavilo se, međutim, da su svi podaci istovremeno prodavani kompaniji koja se bavi analizom glasa u bezbednosne svrhe (možda je u pitanju misija za zaista rano otkrivanje terorista). Prošle godine je pod pritiskom javnosti i zakonodavaca Mattel obustavio razvoj AI bejbi monitora. Pritisak je potekao od činjenice da je prethodni pokušaj Mattelovog proizvoda koji razgovara, Hello Barbie, bio prepun bezbednosnih propusta, te je lutka vašeg deteta mogla da bude hakovana i korišćena kao prislušni uređaj. Načinićemo digresiju i pomenuti da je kompanija Dizni trenutno pod tužbom zbog toga što 42 njihove aplikacije špijuniraju decu, a pride je sigurno da će se i ova korporacija uključiti u pomamu za AI igračkama. Jezivo je saznanje da vam neko prisluškuje dete dok se igra, kao i činjenica da će podatke i agregatne metapodatke prodati svakom zainteresovanom, ili da će možda probati da suptilno utiču na vaše dete da kupi nešto, ali je još jezivije kad znate da uređaj može biti hakovan i da neko može da proba da manipuliše detetom. Dok će neko iz redova futurističko-utopijski nastrojenih tehnofila braniti upotrebnu vrednost AI ličnih asistenata, niko ne može da kaže da se isplati dati detetu ovakvu igračku, imajući u vidu rizike. Cortana, napiši zaključak teksta Cinici često ističu da je razvoj tehnologije nemoguće sputati ili ograničiti, te da će se uvek naći neko zainteresovan i sposoban da tehnologiju razvije, bez obzira na ograničenja u pojedinoj ili većini zemlja. Iako takav fatalistički način razmišljanja verovatno nije validan, on posebno nije validan u sferi potrošačke tehnologije. Teško je sprečiti državni ili paradržavni sistem da razvije viruse (prave ili kompjuterske), pametna oružja ili blockchain rešenja u finansijama ili upravi, ali pametni pojedinci mogu da se klone AI asistenata i AI igračaka, dok pametni pojedinci u vladama mogu da ih zabrane. Dok će države ili organizacije biti voljne da učine sve da se dočepaju nove tehnologije, iako je odluka zvaničnika EU da nije u interesu globalne bezbednosni, ne postoji mnogo građana koji će detetu na crnom tržištu kupiti lutku koja komunicira sa serverima u Somaliji ili nekoj drugoj propaloj državi koja ne kontroliše svoju teritoriju (američki predsednik bi ovo jednostavnije izrazio). Dobrom delu građana ne bi bio problem da ih država stalno prati, dok god imaju određeni stepen poverenja u dobronamernost i kompetentnost državnih organa, kao i svest o postojanju nadzora nad obaveštajnim aktivnostima. Pravi problem nastaje ako ti podaci dođu do trećih lica, zbog korupcije ili bezbednosnih propusta. Koliko god državnom aparatu, koji načelno postoji da služi građanima, lako može da se desi tako nešto, sa privatnim korporacijama sumnje ni nema. Nisu rizik samo propusti, falinke i kriminalne akcije pojedinaca, u pitanju je celokupni biznis model, podaci su tu da bi se prodavali, a ako dospeju u ruke kriminalaca ili vaših ličnih rivala, možete probati da ih tužite. To sigurno neće sanirati štetu, a plaćanje nadoknade njima predstavlja samo jednu od stavki rashoda u biznis planu, kao kaliranje robe uvozniku banana. Šta god mislili o vašem personalnom benefitu od AI ličnih asistenata, treba biti svestan rizika, ne samo po vas kao pojedinca, nego i po društvo u celini, kao i činjenice da će korist od širenja ličnih AI pomagača, pametnih uređaja i stavljanja senzora i kamera u sve i svašta, imati jedino korporacije koje stoje iza toga i države orne da uvedu sledeći stepen kontrole populacije. Srđan BRDAR |
| |||||||||||||||||
![]() | |
![]() | ![]() |
Home / Novi broj | Arhiva • Opšte teme | Internet | Test drive | Test run | PD kutak | CeDeteka | WWW vodič • Svet igara Svet kompjutera Copyright © 1984-2018. Politika a.d. • Redakcija | Kontakt | Saradnja | Oglasi | Pretplata • Help • English | |
SKWeb 3.22 |