fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Чому технологічні компанії погано підготовлені до боротьби з проблемою глибоких фейків в інтернеті

Чому технологічні компанії погано підготовлені до боротьби з проблемою глибоких фейків в інтернеті

Як вирішити таку проблему, як deepfake? Це питання, яке задають собі всі – від технологічних компаній до політиків – з появою нових, все більш доступних інструментів, що дозволяють створювати маніпульовані штучним інтелектом відеоролики, в яких людські образи привласнюються немислимими раніше способами.

  • Полювання на глибокі фейки
  • Як їх розгортають
  • Проблема масштабу

Такі відео іноді створюються з сатиричною, а іноді з похмуро-комедійною метою. На початку цього року в одному з відеороликів було показано, як генеральний директор Facebook Марк Цукерберг радісно вихвалявся своїм правом власності на дані користувачів. Тим часом у соціальній рекламі про фейкові новини, озвученій Джорданом Пілом, Барак Обама назвав свого наступника на посаді президента “цілковитим і повним гівнюком”. З наближенням президентських виборів 2020 року, як ніколи раніше, існує занепокоєння щодо того, як можуть зловживати фейками для поширення неправди.

“Я думаю, що люди повинні бути глибоко стурбовані технологією глибоких фейків”, – сказав Девід Райт, директор Trilateral Research і учасник проекту ЄС SHERPA, що стосується етичного використання штучного інтелекту, в інтерв’ю Digital Trends. “Він буде продовжувати розвиватися і стане ще складніше відрізнити, що є реальним, а що ні. Порносайти продовжуватимуть експлуатувати знаменитостей – голоси та зображення – за допомогою технологій глибокої підробки. Кібер-банди неминуче використовуватимуть технології глибокої підробки для надскладного фішингу. Ми можемо очікувати, що праві політики та їхні поплічники використовуватимуть її для обману виборців та підриву репутації своїх опонентів. У цьому їм допомагатимуть іноземні держави, які втручатимуться у виборчі процеси”.

Переглянути цей допис в Instagram

Нещодавно представник Демократичної партії Адам Шифф запитав Facebook, Twitter та Google, як вони планують боротися з розповсюдженням сфальсифікованих відео та зображень, в тому числі “глибоких фейків”. Всі три компанії відповіли, що працюють над цією проблемою. Але чи можливо її взагалі вирішити?

Полювання на глибокі фейки

На щастя, поширення депфейків відбувається не ізольовано. У міру того, як інструменти для їх створення вдосконалюються і стають все більш поширеними, з’являються дослідники, які працюють і на зворотному боці проблеми. Ці дослідники розробляють засоби, за допомогою яких технології штучного інтелекту можуть допомогти виявити глибокі фейки з високим рівнем точності. В Університеті Дрекселя команда дослідників з Лабораторії мультимедіа та інформаційної безпеки нещодавно розробила глибоку нейронну мережу, яка може виявляти маніпуляції з зображеннями з високим ступенем точності.

Однак ці інструменти ще не зовсім готові до прайм-тайму – як з готовністю визнає Брайан Хослер, один з дослідників, що стоять за розробкою детектора глибоких фейків в Дрексельському університеті. “З тих детекторів, які ми бачили, багато з них дуже точні, але працюють лише за умови певних припущень”, – сказав Хослер. “Будь-яка відмінність від цих припущень, наприклад, використання різного програмного забезпечення для глибокої підробки або зміна співвідношення сторін відео, може потенційно вивести детектор з ладу”.

Одна з головних проблем полягає в тому, що поточні припущення обертаються навколо артефактів, залишених програмним забезпеченням, яке використовується для створення підробок. Це дивацтва, які вже зараз може помітити спостережлива людина, наприклад, непослідовне моргання або дивні рухи губ; елементи, які видають, що отримане відео знаходиться десь у таємничій долині.

Але технологія глибоких фейків постійно вдосконалюється, а це означає, що візуальні аномалії, такі як плаваючі голови ранніх глибоких фейків (майте на увазі, що це було лише кілька років тому), вже значною мірою виправлені. Хоча продовжують існувати візуальні маркери, такі як непарна глибина обличчя і спотворення розмиття руху, коли обличчя рухається занадто швидко, вони все частіше стають речами, які пересічний глядач може і не помітити. Це особливо вірно, якщо ваш пересічний глядач, який вже звик до змінної якості зображення в Інтернеті, не має підстав вважати, що те, що він дивиться, може бути підробленим.

Термінатор навчився посміхатися [DeepFake]

“З нинішньою швидкістю, з якою з’являються нові технології глибокої підробки, криміналістам практично неможливо встигати за ними”, – продовжив Хослер. Найбільшою перешкодою для створення широко застосовних і надійних детекторів “глибоких фейків” є узгодженість самих відеоматеріалів. Спочатку Deepfakes був інтернет-спільнотою та назвою певного програмного забезпечення, але зараз він відноситься до будь-якого відео, створеного або відредагованого за допомогою штучного інтелекту. Методи, що використовуються для створення цих відео, можуть дуже різнитися, що ускладнює їх надійне виявлення”.

Навіть таких речей, як перекомпресія існуючих відео, може бути достатньо, щоб приховати будь-які сліди, які детектори використовують для виявлення глибоких підробок. Це особлива проблема для найбільш поширених платформ для розповсюдження відео, які перекомпресують завантажені зображення та відео, щоб заощадити на розмірі файлів. Як наслідок, ці нові стиснуті файли часто містять додаткові відеоартефакти, які перекривають ті, що використовуються детекторами підробок як докази.

Як їх розгортати

Як їх розгортають

“Було б чудово, якби соціальні мережі та технологічні компанії могли автоматично сканувати кожне завантаження відео

Існує два виклики, коли йдеться про досягнення цієї мети. Перша – суб’єктивна, пов’язана з розрізненням контенту, призначеного для поширення дезінформації, і контенту, створеного з метою сатири. Твіт, опублікований Президентом Трампом 24 травня, на сьогоднішній день зібрав понад 95 000 вподобань. Як 50 мільйонів переглядів пісні Обами, так і 95 000 вподобань відео Пелосі значно перевищують приблизно 80 000, які були на минулих президентських виборах.

Яке з цих відео (жодне з яких, слід додати, не є глибоким фейком) призначене для поширення дезінформації? Багато хто з нас прийде до висновку, що останнє є більш прорахованим політичним ходом, ніж перше. Але пояснити боту, чому один тип голосових маніпуляцій є нормальним (навіть вітається), а інший – потенційно ні, дуже складно. Що, якби друге відео твітнув явно сатиричний, безпартійний акаунт під назвою, скажімо, DrunkFakes? Як щодо того, якщо його потім ретвітнув, без контексту, політичний опонент? Чи можна вважати нормальним глибокий фейк про Дональда Трампа часів “Учнів”, але один з його постів після інавгурації – ні? Такі контекстуальні, нюансовані аргументи мають значення.

Але якщо боротьба з депфейками буде серйозною, рішення потрібно буде приймати швидко, авторитетно і без звинувачень в упередженості. Діяти швидко – це дуже важливо, але не менш важливо прийняти правильне рішення.

Проблема масштабу

Тут все ускладнюється другою з двох великих проблем: масштабом. “Було б чудово, якби соціальні медіа та технологічні компанії могли автоматично сканувати кожне відео, завантажене на їхній веб-сайт, але реальність така, що це майже неможливо, враховуючи кількість відеоконтенту, який завантажується щодня”, – сказав Хослер.

Проблема масштабу

“Нинішня технологія [боротьби з підробками] ще не готова до використання пересічною людиною”.

Останнім часом спостерігається більш узгоджений поштовх до того, щоб зробити такі платформи, як Facebook, юридично відповідальними за контент, який вони розміщують. Чи призведуть ці пропозиції до чогось, ще належить з’ясувати. Коли йдеться про “глибокі фейки”, це набагато складніше завдання, ніж моніторинг певних ключових слів у публікаціях або посилань на менш бажані веб-сайти.

Однак політики швидко сприймають “глибокі фейки” як одну з найбільших проблем, яку потрібно вирішити. І у них є теоретичні рішення, щоб допомогти. Наприклад, представниця Демократичної партії Нью-Йорка Іветт Кларк запропонувала, щоб ЗМІ, які піддаються змінам, були позначені як такі за допомогою водяного знаку. Неправильне маркування відео може призвести до цивільної та кримінальної відповідальності для творця або завантажувача.

Тим часом, законодавчий орган Каліфорнії розглядає законопроект, який забороняє фізичним або юридичним особам свідомо поширювати неправдиві аудіо- чи відеоматеріали кандидата протягом 60 днів після виборів. Однак, знову ж таки, аспект наміру важко піддається кількісній оцінці. Як зазначається в законопроекті, він не буде представляти собою повну заборону на політичні “глибокі фейки”, а скоріше буде спрямований на тих, хто “має намір завдати шкоди репутації кандидата або ввести виборця в оману, щоб він проголосував за або проти кандидата”. Також, імовірно, буде складно використовувати його для боротьби з “депфейками”, створеними за межами США.

З великою кількістю занепокоєнь, але без готових рішень, боротьба з “глибокими фейками” триватиме й надалі. Яким було б ідеальне рішення? На технологічному фронті, безумовно, був би бажаний якийсь надійний інструмент, що працює в режимі реального часу, для блокування або привернення уваги до сумнівних відео. Але також важлива освіта, спрямована на підвищення обізнаності про ризики, пов’язані з глибокими фейками. І поки все це відбувається, будемо сподіватися, що дослідники будуть розробляти інструменти, які одного дня можуть бути вбудовані в браузери або вбудовані в системні бекенди, щоб гарантувати, що глибокі фейкові новини будуть утримуватися на відстані.

“Нинішні технології ще не готові для використання пересічними громадянами”, – сказав Хослер. “Хороша новина полягає в тому, що в руках експерта ці інструменти можуть бути надзвичайно інформативними та ефективними у боротьбі з поширенням дезінформації. Поки що нам доведеться сприймати все на індивідуальній основі, але ми будемо продовжувати шукати інструменти, які є точними і доступними для кожного”.

Рекомендації редакції

Оновлення шифрування iCloud від Apple порадувало не всіх

Цей безкоштовний сервіс тільки що досяг величезного рубежу в області безпеки веб-сайтів

  • Основні податкові служби відправляють ваші дані в Meta і Google
  • Хакери опускаються до нового мінімуму, викрадаючи акаунти Discord в атаках з вимогою викупу
  • Хакери націлилися на ваші святкові покупки за допомогою нової фішингової афери
  • Глибока підробка Марка Цукерберга

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *