hotline

A hangasszisztensek hallgatóznak, akárcsak a hackerek

Taylor Armerding cikke nyomán a Sophos Naked Security oldaláról

Az Apple a szeptember 12-i nagy iPhone 8 és iOS11 bejelentése előtt azt jelentette ki, hogy Siri nevű saját hangasszisztense sokkal emberibbnek fog hangozni és sokkal kevésbé fog robotra hasonlítani.

Ez nagyszerű hír a felhasználói élmény szempontjából. De egy elmúlt héten a kínai Zheijang Egyetem kutatói által kiadott jelentés alapján az Apple talán több időt tölthetett volna azzal, hogy a Siri mit hall, ahelyett hogy a felhasználók mit hallanak.

Mivel azt demonstrálták, hogy a Siri – az összes egyéb tesztelt hangasszisztens mellett – olyan parancsokra is reagálnak, amelyek nem egy embertől származnak – amelyek nem csak hogy kívül esnek az emberi hang tartományán, de az emberek számára nem is hallhatóak.

Ami azt is jelenti, hogy az Ön kutyája valószínűleg hallhatja. De azt is jelentheti, hogy egy támadó is adhat egy parancsot a hangasszisztensének, és Ön nem is fog erről tudni.

A “Delfin támadás: Hallhatatlan hangparancsok” nevű jelentésben a kutatók kijelentik, hogy képesek voltak validálni a Siri, a Google Now, a Samsung S Voice, a Huawei HiVoice, a Cortana és az Amazon Alexa hangasszisztenseken is. Ultrahangos hangparancsok használatával, 20 kHz-nél magasabb frekvenciákon sikerült a hangasszisztenseket rávenni, hogy

– Meglátogassanak egy rosszindulatú weboldalt, “amely drive-by letöltési támadást indíthat vagy kihasználhat (exploit) egy nulladik-napi sérülékenységgel rendelkező eszközt.”

– Kémkedjenek a felhasználó után kimenő videó/telefonhívások kezdeményezésével, így hozzáférhetnek az eszköz környezetének képeihez/hagjaihoz.

– Hamis információk befecskendezésével utasítsa az eszközt, hogy “küldjön hamis szöveges üzeneteket és emaileket, hamis online bejegyzéseket jelentessen meg, hamis naptárbejegyzést hozzon létre, stb”.

– Szolgáltatás-megtagadást hajtson végre egy parancson keresztül, amellyel bekapcsolja a repülőgép-üzemmódot, lecsatlakoztatva az összes vezetéknélküli kommunikációt.

– Rejtsen el támadásokat a képernyő elhalványításával és az eszköz hangerejének csökkentésével.

– “Támadásokat teszteljen, például Facetime indításával az iPhoneokon, zene lejátszásával egy Amazon Echon és a navigációs rendszer manipulálásával egy Audi autón” – írta a csapat, amely azt jelenti, hogy egy támadó megváltoztathatja a végcélt a GPS eszközén.

Persze vannak korlátok – jelentős korlátok – egy támadás indításának képességén. Nem lehet távolról elvégezni, mérföldekről, mint a híres 2015-ös hackelésnél, amikor Charlie Miller és Chris Valasek egy Jeep Cherokeet hackelt meg. Habár elég egy 3 dollár értékű hardvert hozzáadni egy okostelefonhoz, néhány lábtól néhány hüvelyk távolságban kell lenni ahhoz, hogy valaki potenciális áldozat legyen. Ezért egy támadó valószínűleg nem tudja azt mondani Alexának, hogy nyissa ki a hátsó ajtót, ha nincs már eleve ott az Ön házában.

Egy közterületen azonban – példának okáért egy zsúfolt földalattin – nem lenne nehéz más eszközökhöz nagyon közel kerülni.

De van egy másik korlát: az okostelefonokon a képernyőnek már feloldva kell lennie ahhoz, hogy a legtöbb ultrahangos parancs működjön. A Siri a képernyő feloldása nélkül fog felhívni valakit a felhasználó névjegyzékéből, de a legérzékenyebb dolgot nem fogja megcsinálni, mint pl. egy weboldal megnyitása, külső felek alkalmazásainak megnyitása, egy pénzügyi tranzakció végrehajtása vagy szöveges üzenetek küldése.

Értelemszerűen ez a korlát megszűnik, ha valaki valamit csinál a telefonján, mivel ez azt jelenti, hogy feloldotta azt, de ha Siri kap egy alattomos, ultrahangos parancsot egy támadótól, a tervezett áldozat valószínűleg a telefonját fogja épp nézni és látni fogja, hogy valami szokatlan történik éppen.

A kutatók javaslatokat is adtak a DolphinAttack támadás elleni védekezéshez, ide tartozik a mikrofon módosítása, így az emberi hang tartományán kívül semmi másra nem fog reagálni.

De néhány szakértő szerint a hangfelismerő szoftvereknek valójában szüksége van azokra a nem-hallható magasabb frekvenciákra azért, hogy elemezni tudják, mit mond egy személy – azaz az emberi beszéd részei, amely nem hallható az emberi fül számára, de mégsem számítógéphez tartozik. Gadi Amit, a NewDealDesign alapítója a Fast Code Designnak elmondta, hogy ha a hangasszisztens technológiából kihagyják az ultrahangos frekvenciák érzékelését, akkor az “negatív hatást válthat ki, amely csökkenti a teljes rendszer megértési eredményét“.

Újfent elmondjuk, hogy ha az Apple és a többiek képesek sokkal emberibbé alakítani saját hangasszisztensüket, akkor valószínűleg képesek úgy beállítani is azokat, hogy felismerjék, ha egy parancs egy embertől származik, vagy valami teljesen mástól.

Vagy pedig az is lehet, hogy egy biztonság-tudatos iPhone felhasználó egyszerűen bemegy a Beállításokba és letiltja a “Hey Siri” opciót, amely után már a Home gombot kell megnyomni egy parancs kiadásához.

Az Apple nem kommentálta a jelentést, az Amazon viszont a következőket mondta:

A magánélet, az adatok védelmét és a biztonságot nagyon komolyan vesszük az Amazonnál és áttanulmányozzuk a kutatók által kiadott jelentést.

Jelenleg viszont úgy tűnik, hogy ez sokkal inkább egy potenciális veszély demonstrációja, mint egy küszöbön álló biztonsági katasztrófa – a kutatók néhány hónapon belül be fogják mutatni tanulmányukat az ACM konferencián. De ahogy az minden egyes hackelési technológiával lenni szokott, valószínűleg fejlődni fog. Ezért bölcs lenne a hangasszisztens fejlesztői és tervezői részéről, ha a potenciális rosszindulatú folyamat elé mennének némi biztonsági folyamattal.

További információ angol nyelven

0 Comments

Leave a Comment

A honlap böngészésével elfogadja, hogy cookie-kat helyezzünk el az Ön számítógépén, hogy elemezni tudjuk, hogyan használja honlapunkat.