fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Для дому

Дослідження показало, що звук щебетання птахів можна використовувати для злому Alexa

Дослідження показало, що звук щебетання птахів можна використовувати для злому Alexa

Пташка, яка безневинно виспівує свою ранкову пісню, може виявитися не такою вже й безневинною. На думку вчених з Рурського університету в Бохумі, Німеччина, маніпуляції зі звуками пташиного щебетання можуть бути використані для здійснення атаки на голосових помічників.

За словами дослідників, маніпуляції з аудіофайлами є частиною так званої “ворожої атаки”, яка покликана збити з пантелику глибокі нейронні мережі, що допомагають функціонувати асистентам на основі штучного інтелекту, таким як Siri від Apple, Assistant від Google і Alexa від Amazon.

Використовуючи звук пташиного щебетання – або відредаговані версії пісень чи людської мови – маніпулюючи таким чином, що їх може вловити лише мікрофон на вашій смарт-колонках чи смартфоні, атака оминає виявлення з боку людських вух і починає втручатися в роботу асистента зі штучним інтелектом. Те, що звучить як пташиний спів, насправді може бути однією з таких атак з прихованими командами, які доставляються вашому голосовому помічнику на вибір.

  • Найкращі поради та підказки щодо Amazon Echo
  • Google розгортає підтримку Matter для Nest та Android
  • Ikea та Sonos співпрацюють над новою підлоговою колонкою Symfonisk

Дослідники припускають, що атаки, які використовують психоакустичне приховування для маскування своїх справжніх намірів, можуть бути відтворені через додаток або приховані в іншому типі трансляції. Наприклад, звук може бути прихований в рекламному ролику, який грає на телебаченні або радіо, щоб вразити тисячі цілей одночасно.

“У найгіршому випадку зловмисник може отримати доступ до всієї системи “розумного будинку”, включаючи камери спостереження або системи сигналізації”, – пишуть дослідники, повідомляє Fast Company. Вони також підготували демонстрацію, щоб показати, як така атака може бути використана для деактивації камери спостереження.

У цій теоретичній атаці є підступ: дослідники ще не запустили її в ефір. Натомість вони завантажили підроблені файли, які містять приховану аудіокоманду, безпосередньо в асистентів, щоб вони чітко почули повідомлення. Втім, науковці впевнені, що атака може бути здійснена і в інший спосіб. “Загалом, можна заховати будь-яку транскрипцію в будь-якому аудіофайлі з ймовірністю успіху майже 100 відсотків”, – підсумували вони у своїй роботі.

Існує не так багато способів захисту від такої атаки, яка, щоб бути зрозумілою, вимагала б від когось неабияких зусиль для її здійснення і є малоймовірною, навіть якщо і можливою. Використовуйте налаштування безпеки обраного вами голосового помічника, щоб запобігти будь-якому доступу до конфіденційної інформації. Наприклад, в Alexa ви можете вимагати введення PIN-коду перед завершенням покупки.

Рекомендації редакції

  • Найкращі навички Alexa для використання на вашому Amazon Echo у 2023 році
  • Кращі пристрої для розумного будинку на 2022 рік
  • Найкращі поради, підказки та писанки для Google Home
  • Google тепер підтримує мої жахливі звички в браузері, і мені це подобається
  • Найбільш інноваційні технологічні продукти 2022 року

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *