Hi-Tech

Исследователи «спрятали» команды для голосовых помощников в записи музыки и устной речи

Исследователи «спрятали» команды для голосовых помощников в записи музыки и устной речи

Об этом пишет The New York Times. Группа учёных из калифорнийского университета Беркли создала технологию, которая позволяет атаковать голосовые помощники и другие устройства для дома с помощью команд, спрятанных в записях музыки и устной речи.

Небольшие изменения в звуках позволяют «отменить» те звуки, которые должно «услышать» устройство и передать новую команду. Системы распознавания голоса интерпретируют звуки, которые они слышат, в буквы, объясняют исследователи. Исследователи опубликовали документ, в котором описывают подобную атаку на систему распознавания Mozilla DeepSpeech.

Новая система действует более скрытно и может, например, незаметно добавить нужный товар в список покупок на Amazon. В 2016 году эти же учёные показывали, как можно с помощью звуков, спрятанных в белом шуме, заставить «умное» устройство включить режим «в самолёте» или открыть нужный сайт.

Пока нет доказательств того, что кто-то уже использует такую технологию вне лабораторных условий, однако злоумышленники наверняка уже работают в похожем направлении, отметил Николас Карлини (Nicholas Carlini), один из авторов исследования.

Компании не раскрыли, как именно они защищают свои системы от скрытых команд, но заверили, что постоянно улучшают защиту устройств. В Amazon и Google сообщили, что их помощники Alexa и Assistant используют распознавание голоса, чтобы понимать команды только от людей.

Кроме того, iPhone и iPad должны быть разблокированы перед тем, как помощник Siri сможет открывать сайты или приложения. Представители Apple заметили, что их «умная» колонка Homepod не задумывалась как устройство, которое сможет, например, открывать двери.

Показанный пример требует непосредственной близости к атакуемому устройству, но может быть повторён при использовании более мощного передатчика. В 2017 году исследователи из Принстонского университета и Чжэцзянского университета в Китае продемонстрировали технологию DolphinAttack, которая позволяет передавать голосовым помощникам команды с помощью частот, не различимых ухом человека.

Суды трактуют трансляцию «подсознательных сообщений» людям как вторжение в личную жизнь, но в случае с машинами такая практика ещё не создана, отмечает The New York Times. В США нет закона, который прямо бы запрещал передачу команд машинам на расстоянии.

#новость #будущее

Показать больше

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Закрыть