fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Deepfake-hunting АІ може допомогти дати відсіч загрозі фейкових новин

Штучний інтелект для полювання на фейки може допомогти протистояти загрозі фейкових новин

З усіх інструментів штучного інтелекту, що з’явилися в останні роки, лише деякі викликають стільки ж занепокоєння, як “глибокі фейки”. Поєднуючи в собі “глибоке навчання” і “фейк”, технологія deepfake дозволяє будь-кому створювати зображення або відео, в яких фотографічні елементи переконливо накладаються на інші зображення. Хоча деякі способи використання цієї технології були продемонстровані з розважальною метою (згадайте накладання обличчя Сильвестра Сталлоне на тіло Арні у фільмі “Термінатор 2”), інші випадки її застосування викликають більше занепокоєння. Глибокі фейки роблять можливим все – від травмуючого і руйнуючого репутацію “порно з помсти” до фейкових новин, що вводять в оману.

В результаті, в той час як все більше дослідників працюють над тим, щоб зробити технологію “глибоких фейків” більш реалістичною, інші шукають шляхи, які допоможуть нам краще розрізняти зображення і відео, які є справжніми, і ті, які були алгоритмічно підроблені.

В Університеті Дрекселя команда дослідників з Лабораторії мультимедіа і інформаційної безпеки розробила глибоку нейронну мережу, яка здатна з високим ступенем точності виявляти маніпуляції з зображеннями. Її творці сподіваються, що в процесі роботи вони зможуть надати засоби для боротьби з небезпеками, пов’язаними з глибокими фейками. Дослідники не вперше намагаються вирішити цю проблему, але це потенційно одна з найперспективніших спроб, яка може реалізуватися в цій грі в кішки-мишки, що триває досі.

  • Google, можливо, тільки що виправив найбільш дратівливу проблему Chrome
  • Як користуватися новою функцією спільнот у Microsoft Teams
  • Це додатки, які не дають мені відірватися від Quest Pro

Як глибокі фейки зроблять фейкові новини ще гіршими – The Deets

“Багато [попередніх] детекторів глибоких фейків покладаються на візуальні примхи в підробленому відео, такі як непослідовний рух губ або дивна поза голови”, – сказав Брайан Хослер, дослідник проекту, в інтерв’ю виданню Digital Trends. “Однак дослідники стають все краще і краще в усуненні цих візуальних ознак при створенні глибоких фейків. Наша система використовує статистичні кореляції в пікселях відео для ідентифікації камери, яка його зняла. Навряд чи у підробленому відео будуть такі ж статистичні кореляції у підробленій частині відео, як і в реальній, і ця невідповідність може бути використана для виявлення фейкового контенту”.

Проект розпочався як експеримент, щоб перевірити, чи можливо створити алгоритм штучного інтелекту, здатний виявляти відмінності між відео, знятими різними камерами. Подібно до водяного знаку, кожна камера знімає та стискає відео дещо по-різному. Більшість з нас не може цього зробити, але алгоритм, навчений виявляти ці відмінності, може розпізнавати унікальні візуальні відбитки, пов’язані з різними камерами, і використовувати їх для ідентифікації формату конкретного відео. Система також може бути використана для інших цілей, таких як розробка алгоритмів для виявлення відео з видаленими кадрами або для визначення того, чи було відео завантажене в соціальні мережі чи ні.

Як вони це зробили

Команда Дрекселя опрацювала велику базу даних відеозаписів тривалістю близько 20 годин з 46 різних камер. Потім вони навчили нейронну мережу розрізняти ці елементи. Наскільки б переконливо не виглядало підроблене відео для пересічної людини, ШІ вивчає його піксель за пікселем для пошуку елементів, які були змінені. В результаті ШІ не лише розпізнає, які саме зображення були змінені, він також здатен ідентифікувати конкретну частину зображення, яка була підроблена.

Оуен Майєр, член дослідницької групи, раніше створив систему, яка аналізує деякі з цих статистичних кореляцій, щоб визначити, чи дві частини зображення були відредаговані по-різному. Демонстраційна версія цієї системи доступна в Інтернеті. Однак ця остання робота – це перший випадок, коли такий підхід був застосований до відеоматеріалів. Це більш серйозна проблема, і її вкрай важливо вирішити в умовах зростання кількості глибоких фейків.

“Ми плануємо випустити версію нашого коду, або навіть додаток, для громадськості, щоб будь-хто міг зробити відео і спробувати ідентифікувати модель камери походження”, – продовжив Хослер. “Інструменти, які ми створюємо, і які створюють дослідники в нашій галузі, часто мають відкритий вихідний код і вільно розповсюджуються”.

Однак роботи ще багато. Глибокі підробки стають тільки кращими, а це означає, що дослідники по той бік паркану не повинні спочивати на лаврах. Інструменти повинні продовжувати розвиватися, щоб переконатися, що вони можуть продовжувати виявляти підроблені зображення та відео, оскільки вони позбавлені більш помітних візуальних ознак, які можуть відрізнити поточні глибокі фейки від підробок, як, власне, і фейки. Оскільки аудіо-інструменти для підробки, здатні імітувати голоси, продовжують розвиватися, необхідно буде також створювати інструменти для їх відстеження.

Наразі, мабуть, найбільшим викликом є підвищення обізнаності про цю проблему. Подібно до перевірки фактів, які ми читаємо в Інтернеті, доступність інформації в Інтернеті працює на нашу користь лише тоді, коли ми знаємо достатньо, щоб не піддавати сумніву те, що ми читаємо. До цього часу для багатьох з нас було достатньо знайти відеодоказ того, що щось сталося, щоб переконатися в тому, що це дійсно відбулося. Таке мислення має змінитися.

“Я думаю, що однією з найбільших перешкод на шляху до того, щоб кожен користувався такими інструментами криміналістики, як ці, є прогалина в знаннях”, – сказав Хослер. “Ми, як дослідники, повинні зробити не тільки інструменти, але й ідеї, що лежать в їх основі, більш прийнятними для громадськості, якщо ми дійсно хочемо мати вплив”.

Незалежно від того, яку форму матимуть ці інструменти – чи то плагін для веб-браузера, чи штучний інтелект, який автоматично використовується інтернет-гігантами для позначення контенту перед тим, як він буде показаний користувачам – ми сподіваємося, що буде застосовано правильний підхід, щоб зробити їх якомога доступнішими.

Адже на кону лише майбутнє правди, якою ми її знаємо…

Рекомендації редакції

  • MacBook Air та iPad Pro незабаром можуть отримати значне оновлення
  • Google тепер підтримує мої жахливі звички в браузері, і мені це подобається
  • Я замінив свій MacBook на Quest Pro на повний робочий тиждень. Ось що сталося
  • iCloud може надсилати ваші фотографії на чужі комп’ютери
  • Обережно – навіть програми з відкритим вихідним кодом для Mac можуть містити шкідливе програмне забезпечення

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *