О журнале | Читать онлайн | Публикации | Электронная газета | Подписка | Мероприятия

Журналы в формате iMag

Форум

Публикации

Архив


Новости проекта

Системная интеграция

Отраслевые

Новости CCTV

Новости СКУД

Новости ОПС

Новости ПБ

Электронная газета "Системы безопасности"


Журнал "Системы безопасности"

Каталог "Системы безопасности"

Каталог "Пожарная безопасность"

Рекламодателям


Video & Vision

СКУД. Антитерроризм


Подписка

Платная подписка

Исторический календарь

Контакты

Ссылки

Мероприятия

English

Голосовыми помощниками Apple, Google и Amazon можно манипулировать замаскированными в рекламе звуками

Реклама на сайте

Голосовыми помощниками Apple, Google и Amazon можно манипулировать замаскированными в рекламе звуками


04.10.2018

Голосовыми помощниками Apple, Google и Amazon можно манипулировать замаскированными в рекламе звуками

Птичий щебет для атаки

Немецкие исследователи обнаружили, что звук птичьего щебета может быть использован для проведения атак на голосовые помощники, такие как Apple Siri, Google Assistant или Amazon Alexa.

На самом деле, проблема не в звуке именно птичьих голосов; для атаки можно использовать любой другой звук — в том числе малоразборчивую человеческую речь или песни. Эти звуки могут использоваться как своего рода акустический камуфляж, маскирующий команды, которые злоумышленники могут давать "умным колонкам".

Человеческий слух такие команды не разберет: мозг будет занят обработкой наиболее громкого сигнала на определенной частоте, а более тихий звук на той же частоте будет проигнорирован. Работает тот же психоакустический принцип, который используется при кодировании аудиосигнала в MP3: программы сжатия определяют, какую часть сигнала человек слышит, и удаляют остальную информацию.

В результате пользователь даже не поймет, что происходит. А вот голосовые помощники вполне разберут замаскированный сигнал и выполнят закодированные в нем команды, утверждают эксперты Рурского университета в Бохуме.

Реальность угрозы

По их мнению, проблема имеет фундаментальный характер: такие атаки возможны в силу того, как реализованы алгоритмы глубоких нейронных сетей, на основе которых и функционируют голосовые помощники.

Эксперты приводят такой пример: злоумышленники записывают и маскируют команды для голосовых помощников, эти записи интегрируются в мобильные приложения или даже в рекламные ролики — в Сети, на ТВ или по радио. В результате пострадать могут тысячи людей. Голосовым помощникам можно дать команду совершить какие-либо покупки или выслать какие-либо конфиденциальные сведения, и все это — без ведома пользователя.

"При самом худшем сценарии злоумышленник может захватить контроль над всей системой "умного дома", в том числе, камерами слежения или тревожной сиреной", — отметили эксперты.

Как защититься

"Угроза вполне реальна, — считает Михаил Зайцев, эксперт по информационной безопасности компании SEC Consult Services. — Ранее было доказано, что голосовые помощники способны понимать команды, даже если их запись воспроизводится в ультразвуковом диапазоне, так что считать "замаскированный" сигнал им тоже не составит труда, если устройство не настроено должным образом. С другой стороны, реализовать такую атаку на практике будет, мягко говоря, непросто. Но возможно. Единственный рабочий метод защиты — максимально ограничивать функциональность голосовых помощников и настраивать их так, чтобы прежде чем совершать важные операции они требовали подтверждения личности того, кто даёт команды.

 

Cnews


Добавить комментарий

Автор:
Компания:
E-mail:
Уведомлять о новых сообщениях в этой теме да
нет
Текст сообщения:
Введите код:









Реклама на сайте

ПОИСК

РАССЫЛКА

Подписка на новости сайта
Введите ваш e-mail


Реклама на сайте

ЧИТАТЬ ОНЛАЙН



Свежий номер журнала "Системы безопасности"

Вызов консультанта

ПУБЛИКАЦИИ
Видеонаблюдение
Охранно-пожарная сигнализация
Security and IT Management
Системы контроля и управления доступом
Комплексная безопасность, периметровые системы
В центре внимания. Тесты
ОПС, пожарная безопасность





Рейтинг@Mail.ru

Яндекс цитирования


Реклама на сайте | Правила перепечатки материалов | Медиакиты проектов | Авторский договор

Copyright © 2007-2018, ООО "Гротек" | Связаться с нами