Notebookcheck Logo

Siri и все другие голосовые ассистенты уязвимы к ультразвуку

Apple Siri, в числе прочих, может являться целью подобной атаки
Apple Siri, в числе прочих, может являться целью подобной атаки
Китайские исследователи смогли управлять устройствами без ведома владельцев

Идея, без долгих раздумий названная фразой DolphinAttack, или дельфинья атака, заключается в том, чтобы дистанционно подавать команды электронному голосовому помощнику при помощи фраз, издаваемых в ультразвуковом диапазоне. Люди их не услышат. А вот микрофоны Amazon Echo, или iPhone, или современных Android-фонов распознают и примут к исполнению.

Уязвимы оказались все попавшие под руку исследователям сервисы голосового управления, включая и Cortana, и Bixby. И даже cbcntvs? встроенные в некоторые автомобили.

Для атаки достаточно смартфона и некоторого дополнительного оборудования общей стоимостью несколько сотен рублей, включая усилитель и высокочастотный динамик. В зависимости от атакуемого устройства, минимальное рабочее расстояние может меняться от нескольких сантиметров до полуметра или больше. Apple Watch, для примера, может управляться подобным методом с более чем метрового удаления.

Опять же, в зависимости от атакуемого устройства сильно меняются и возможности, доступные шутнику или злоумышленнику. Можно спросить у Siri, сколько сантиметров в размере детородный орган слона. Можно приказать устройству открыть вредоносный сайт или набрать платный номер.

Основное решение проблемы на данный момент - отключить постоянную активность своего голосового помощника, а то и деактивировать его полностью.

Источник(и)

Этот важный материал точно понравится твоим друзьям в социальных сетях!
Mail Logo
'
> Обзоры Ноутбуков, Смартфонов, Планшетов. Тесты и Новости > Новости > Архив новостей > Архив новостей за 2017 09 > Siri и все другие голосовые ассистенты уязвимы к ультразвуку
Sergey Tarasov, 2017-09- 7 (Update: 2017-09- 7)