fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Мобільні телефони та гаджети

Дослідники знайшли спосіб зламати телефон за допомогою прихованих голосових команд

Дослідники знайшли спосіб зламати телефон за допомогою прихованих голосових команд

Між шкідливим програмним забезпеченням, що ховається в, здавалося б, невинних додатках, і смертоносними рядками емодзі, боротьба за безпеку наших смарт-пристроїв ніколи не закінчується. Кожен новий спосіб взаємодії, чи то голосове управління, чи унікальний ідентифікатор, такий як відбитки пальців або розпізнавання обличчя, є ще одним місцем, де хакери можуть отримати доступ до технологій, що нас оточують, і маніпулювати ними.

Дослідники з Каліфорнійського університету в Берклі і Джорджтаунського університету добре це усвідомлюють, тому минулого року вони вирішили дослідити, наскільки вразливим насправді є програмне забезпечення для розпізнавання голосу, яке працює на багатьох наших комп’ютерних пристроях. Вони зосередилися на Google Assistant, який живе в системі Android і в додатку Google на iOS, і розробили спосіб спотворення голосових команд настільки, щоб Google Assistant міг їх розуміти, але вони були нерозбірливими для більшості людей.

Дослідники протестували розпізнавання кількох завуальованих команд, таких як “OK Google”, і виміряли здатність програмного забезпечення розшифровувати повідомлення порівняно з людським. Вони виявили, зокрема, у випадку з “OK Google”, що група учасників змогла ідентифікувати зашифровану фразу лише у 22 відсотках випадків, тоді як асистент зрозумів її у 95 відсотках випадків. Більш того, програмне забезпечення краще розшифровувало зашифровану версію, ніж звичайну вимову “OK Google”, яка дала показник розпізнавання лише 90 відсотків.

  • Що таке Amazon Music: все, що потрібно знати
  • Коли мій телефон отримає Android 13? Google, Samsung, OnePlus і не тільки
  • iOS 16.2 вже тут, додає Apple Music Sing (плюс багато іншого) на ваш iPhone

Демонстраційний VoiceHack

На перший погляд, багато з цих спотворених команд можуть здатися просто статичними, з невиразною каденцією мови, тільки прискореною. Як люди, коли ми знаємо, що це за фраза, перш ніж ми її почуємо, її стає нескінченно легше ідентифікувати. Але без цієї інформації, в багатьох випадках, ми залишаємося в глухому куті.

У дослідженні зазначається, що деякі з переплутаних команд нам легше зрозуміти, ніж інші. Наприклад, “Call 911” розпізнається людиною на 94 відсотки, тоді як Google Assistant – лише на 40 відсотків, ймовірно, тому, що це фраза, яку більшість американських англомовних користувачів англійської мови були підготовлені почути саме так. Але правильна комбінація нішевої команди, змінена настільки, що наші персональні помічники сприймають її, в той час як ми залишаємося чухати потилицю, становить очевидний ризик, враховуючи, що голосовому управлінню в більшості споживчих пристроїв не вистачає будь-якої форми аутентифікації.

Що ми можемо зробити для захисту від голосового злому?

Одним з небагатьох превентивних заходів проти такого роду голосових маніпуляцій є те, що багато команд спонукають асистентів запитувати підтвердження після їх виконання. Однак, як зазначає The Atlantic у своїй статті про дослідження, це лише невелика перешкода, яку можна подолати за допомогою спотвореного “так”, і якщо все відбувається занадто швидко, щоб користувач міг зрозуміти, що відбувається, він не зможе вчасно зупинити це.

Деякі з переплутаних команд нам легше зрозуміти, ніж інші.

Команда продовжила своє відкриття, запропонувавши способи, за допомогою яких такі сервіси, як Google Assistant, Siri від Apple і Alexa від Amazon, можуть запобігти цим атакам, і виявилося, що існує безліч методів, які компанії можуть бути схильні впроваджувати. Деякі засоби захисту, такі як аудіо CAPTCHA, можуть бути використані як остаточне підтвердження, щоб відрізнити людей від машин – хоча дослідники відзначають, що алгоритми, які використовують аудіо CAPTCHA, є відносно застарілими і не встигають за досягненнями в технології розпізнавання мови. Не кажучи вже про те, що з CAPTCHA дуже складно мати справу.

Більш складним рішенням є пристосування розпізнавання до голосу власника, яке багато сервісів вже використовують в обмеженому обсязі. Однак у звіті визнається, що ця пропозиція вимагає навчання з боку пристрою і створює проблему для гаджетів, призначених для використання кількома людьми, таких як Amazon Echo. Команда визначила, що одним з найбільш практичних і ефективних способів захисту буде фільтр, який трохи погіршує якість звуку команд, роблячи більшість завуальованих фраз нерозпізнаваними для пристрою, але пропускаючи людські фрази.

Хоча повідомлення про голосові атаки такого роду рідкісні, якщо взагалі існують, завжди корисно бути в курсі того, де знаходяться вразливі місця, щоб їх можна було усунути до того, як проблеми дійсно почнуть з’являтися. Завдяки проведеному тут дослідженню ми будемо трохи краще підготовлені на випадок, якщо хвиля сатанинського шепоту почне вказувати нашим смартфонам, що робити.

Рекомендації редакції

  • Щойно придбали новий iPhone? Ось 12 порад і підказок, як його освоїти
  • Ця прихована функція iOS 16 перетворила мій iPhone в ідеальний гаджет для пошуку музики
  • Tidal дає бета-тестерам функцію живого діджея
  • Секрет, як допомогти людям похилого віку вийти в Інтернет, прямо перед нами
  • iOS 17 може бути приголомшливою, якщо Apple зробить ці 7 змін

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *