Каталог статей

Дослідження показало, що звук щебетання птахів можна використовувати для злому Alexa

Дослідження показало, що звук щебетання птахів можна використовувати для злому Alexa

Пташка, яка безневинно виспівує свою ранкову пісню, може виявитися не такою вже й безневинною. На думку вчених з Рурського університету в Бохумі, Німеччина, маніпуляції зі звуками пташиного щебетання можуть бути використані для здійснення атаки на голосових помічників.

За словами дослідників, маніпуляції з аудіофайлами є частиною так званої “ворожої атаки”, яка покликана збити з пантелику глибокі нейронні мережі, що допомагають функціонувати асистентам на основі штучного інтелекту, таким як Siri від Apple, Assistant від Google і Alexa від Amazon.

Використовуючи звук пташиного щебетання – або відредаговані версії пісень чи людської мови – маніпулюючи таким чином, що їх може вловити лише мікрофон на вашій смарт-колонках чи смартфоні, атака оминає виявлення з боку людських вух і починає втручатися в роботу асистента зі штучним інтелектом. Те, що звучить як пташиний спів, насправді може бути однією з таких атак з прихованими командами, які доставляються вашому голосовому помічнику на вибір.

Дослідники припускають, що атаки, які використовують психоакустичне приховування для маскування своїх справжніх намірів, можуть бути відтворені через додаток або приховані в іншому типі трансляції. Наприклад, звук може бути прихований в рекламному ролику, який грає на телебаченні або радіо, щоб вразити тисячі цілей одночасно.

“У найгіршому випадку зловмисник може отримати доступ до всієї системи “розумного будинку”, включаючи камери спостереження або системи сигналізації”, – пишуть дослідники, повідомляє Fast Company. Вони також підготували демонстрацію, щоб показати, як така атака може бути використана для деактивації камери спостереження.

У цій теоретичній атаці є підступ: дослідники ще не запустили її в ефір. Натомість вони завантажили підроблені файли, які містять приховану аудіокоманду, безпосередньо в асистентів, щоб вони чітко почули повідомлення. Втім, науковці впевнені, що атака може бути здійснена і в інший спосіб. “Загалом, можна заховати будь-яку транскрипцію в будь-якому аудіофайлі з ймовірністю успіху майже 100 відсотків”, – підсумували вони у своїй роботі.

Існує не так багато способів захисту від такої атаки, яка, щоб бути зрозумілою, вимагала б від когось неабияких зусиль для її здійснення і є малоймовірною, навіть якщо і можливою. Використовуйте налаштування безпеки обраного вами голосового помічника, щоб запобігти будь-якому доступу до конфіденційної інформації. Наприклад, в Alexa ви можете вимагати введення PIN-коду перед завершенням покупки.

Рекомендації редакції

Source: digitaltrends.com

Exit mobile version