imagazin arrow2-left arrow2-right arrow2-top arrow-up arrow-down arrow-left arrow-right cart close dossiers education fb instagram menu notification oander rss rss-footer search service shuffle speech-bubble star store stores tests twitter youtube

TEST novega MacBook Proja 13"

Pravi profesionalec!

Digitalni asistenti bi lahko prinesli huda varnostna tveganja

Grega

Dajemo jim vedno več moči, vendar se zares ne oziramo na primerno varnost. Raziskovalci so odkrili zvok, ki ga človek ne zazna, lahko pa se z njim nadzoruje digitalne asistente. Kljub Applovim varnostnim ukrepom, moramo vedno za varnost skrbeti tudi sami.

Čeprav je jezik precejšnja ovira pri širjenju digitalnih asistentov pri nas je trend očiten: digitalni asistenti zavzemajo vse bolj pomembno vlogo v našem vsakdanu.

Celo povprečen pametni dom ne more delovati brez centralnega nadzornega sistema z glasovnim upravljanje. Na sredino postavite HomePod, Alexo ali katerokoli Google Home napravo in jo povežete z drugimi pametnimi napravami: napravo za kavo, lučmi, pametnimi ključavnicami, kamerami ipd. To je enostavno, zelo kul in je približek znanstveni fantastiki, morda pa ni tako varno.

Morda ste slišali za primer punčke, ki je s pomočjo asistenta prek spleta naročila hiško za lutke in dve vreči piškotov ali za epizodo serije South Park, ki je za nos potegnila digitalne asistente s šalo. Čeprav so na prvi pogled te zgodbe smešne, študija, ki smo jo že omenili, kaže na to, da lahko začnemo skrbeti.

Raziskovalci Univerze v Kaliforniji in Univerze v Georgtownu so se združili in odkrili način, kako “shekati” vse asistente z enostavnim trikom. Napadli so jih s skrivanjem različnih ukazov v glasbo ali posnetke glasu, ki jih človek ni zaznal, asistenti pa.

Z drugimi besedami: uporabnik misli, da posluša glasbo, digitalni asistent pa v ozadju sliši naročilo za prenos denarja v ozadju.

Precej zastrašujoče, kajne? In če dodamo, da lahko dandanes že praktično vse nadzorujemo z asistenti, je to precej veliko tveganje. Radijske oddaje, ki odklenejo vhodna vrata, pop hiti, ki uporabniku namenijo še kakšno šalo prek asistenta ali pa podcasti, ki prek spleta kupijo naključne stvari – možnosti je ogromno, od nedolžnih šal do kriminalnih dejanj.

Napad je osnovan na obratnem procesu prepoznave govora. Če veš, kako asistent prepozna govor in  dobiš vse pomembne informacije, lahko enostavno ustvariš ukaz, ki ga prepozna le asistent. Osnovno metodo, DolphinAttack, je lansko leto predstavila skupina raziskovalcev iz ZDA in Kitajske. Trenutne raziskave so to še dodatno razvile in ugotovile, da se lahko ukaze skrije tudi v glasbo. DolphinAttack deluje tako:

 

Raziskovalci so tudi dodali, da zaenkrat ni informacij, da bi kdo že imel to tehnologijo in ni poročil o napadih take vrste. Vendar sumijo, da marsikdo že dela na tem. 

Sedaj je čas, da razvijalci odkrijejo nekaj, kar nas zaščiti pred takimi napadi. Apple nas zaenkrat ščiti, saj moramo za veliko izmed dejanj, ki jih omogoča Siri, našo napravo najprej odkleniti.

Vir: MacRumors

 

Back to School - Mac -11%
Apple Inc. (AAPL)