fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

A. I. стає страшенно вправним у створенні фальшивих людей. Поглянь на цю демонстрацію.

АІ стає страшенно вправним у створенні фальшивих людей. Подивіться цю демонстрацію

ШІ стає страшенно вправним у брехні. Ні, ми не говоримо про навмисне введення людей в оману з нечесною метою, а скоріше про створення звуків і зображень, які здаються реальними, але не існують в реальному світі.

У минулому ми вже писали про штучний інтелект, який здатен створювати страхітливо реальні “глибокі фейки” у вигляді облич, синтетичних голосів і навіть, е-е, оголошень на Airbnb. Тепер дослідники з Японії роблять ще один крок вперед, створюючи фотореалістичні відео високої роздільної здатності з людьми – разом з одягом – які коли-небудь існували лише в гарячковій уяві нейронної мережі. Компанія, відповідальна за цю приголомшливу технологічну демонстрацію, – DataGrid, стартап, що базується в кампусі японського університету Кіото. Як показує відео вгорі, алгоритм ШІ може вигадати нескінченний парад реалістично виглядаючих людей, які постійно перевтілюються з однієї форми в іншу, завдяки сліпучим ефектам морфінгу.

Як і багато інших інструментів генеративного штучного інтелекту (в тому числі картини ШІ, які були продані за великі гроші на аукціоні Крісті минулого року), ця остання демонстрація була створена за допомогою так званої генеративної змагальної мережі (Generative Adversarial Network, GAN). GAN протиставляє дві штучні нейронні мережі одна одній. При цьому одна мережа генерує нові зображення, а інша намагається з’ясувати, які зображення є комп’ютерними, а які ні. З часом генеративний змагальний процес дозволяє мережі-“генератору” стати настільки вправною у створенні зображень, що вона може щоразу успішно обманювати “дискримінатор”.

  • Оптичні ілюзії можуть допомогти нам створити наступне покоління ШІ
  • Google Docs буде автоматично генерувати TL;DR-резюме для вас
  • Google Smart Canvas отримує більш глибоку інтеграцію між додатками

Як видно з відео, результати вражають. Здається, вони не мають жодних артефактів зображення або дивних збоїв, якими відзначалися багато спроб генерування зображень. Однак, ймовірно, не випадково, що на відео люди розташовані на простому білому фоні, що зводить до мінімуму потенціал заплутаних фонів, які можуть вплинути на створені зображення.

За умови, що все так, як здається, це захоплююче (хоча і більш ніж трохи бентежить) просування вперед. Якби ми працювали в масовці в кіно або моделями для каталогів брендів одягу, ми б, мабуть, зараз трохи нервували. Принаймні, ймовірність появи фейкових новин нового рівня стала набагато вищою.

Рекомендація редакції

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *