Siri и все другие голосовые ассистенты уязвимы к ультразвуку
Идея, без долгих раздумий названная фразой DolphinAttack, или дельфинья атака, заключается в том, чтобы дистанционно подавать команды электронному голосовому помощнику при помощи фраз, издаваемых в ультразвуковом диапазоне. Люди их не услышат. А вот микрофоны Amazon Echo, или iPhone, или современных Android-фонов распознают и примут к исполнению.
Уязвимы оказались все попавшие под руку исследователям сервисы голосового управления, включая и Cortana, и Bixby. И даже cbcntvs? встроенные в некоторые автомобили.
Для атаки достаточно смартфона и некоторого дополнительного оборудования общей стоимостью несколько сотен рублей, включая усилитель и высокочастотный динамик. В зависимости от атакуемого устройства, минимальное рабочее расстояние может меняться от нескольких сантиметров до полуметра или больше. Apple Watch, для примера, может управляться подобным методом с более чем метрового удаления.
Опять же, в зависимости от атакуемого устройства сильно меняются и возможности, доступные шутнику или злоумышленнику. Можно спросить у Siri, сколько сантиметров в размере детородный орган слона. Можно приказать устройству открыть вредоносный сайт или набрать платный номер.
Основное решение проблемы на данный момент - отключить постоянную активность своего голосового помощника, а то и деактивировать его полностью.