Исследователи Калифорнийского университета в Беркли представили метод отправки голосовым помощникам скрытых команд, неслышимых для человека.
С его помощью исследователям удалось внедрить скрытые команды для «умной» аудиоколонки Amazon Echo непосредственно в музыкальную запись или проговариваемый текст и заставить ее осуществлять online-покупки.
По словам исследователей, никаких свидетельств применения разработанного ими метода в реальной жизни обнаружено не было, но это только вопрос времени. Атака базируется на разнице в распознавании речи человеком и искусственным интеллектом. Системы распознавания речи, как правило, переводят каждый услышанный звук в букву, из которых затем составляются слова и фразы.
Путем внесения незначительных изменений в аудиофайл исследователям удалось заменить звуки, которые должна была слышать система, неуловимыми для человеческого уха звуками, приобретавшими новый смысл после перевода их в слова и фразы.
Как сообщают представители Amazon, компания предприняла соответствующие меры по обеспечению безопасности своей смарт-колонки. В Google также уверяют, что у голосового помощника Assistant есть функции, блокирующие недетектируемые звуковые команды. В продуктах обеих компаний реализованы технологии распознавания голоса, предотвращающие выполнение определенных команд, если они не были сказаны голосом владельца устройства.
Согласно уверению компании Apple, ее смарт-колонка HomePod предотвращает выполнение таких команд, как открытие дверных замков, а голосовой помощник Siri выполняет команды, предоставляющие доступ к конфиденциальной информации, только на разблокированных iPhone и iPad.