fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Як штучний інтелект, що відстежує емоції, змінить звичні нам обчислення

Як штучний інтелект, що відстежує емоції, змінить звичні нам комп’ютерні технології

За винятком випадкових спливаючих повідомлень типу “Ви згодні продовжити інсталяцію?”, комп’ютери класично не надто переймалися тим, що ми відчуваємо.

  • Розуміння всього людського
  • Відстеження емоцій по всьому світу
  • Все починається з Дарвіна
  • Як відстеження емоцій змінює все
  • До цього ще далеко
  • Наступна повсюдна технологія Показати ще 2 елементи

Все зміниться з появою афективних обчислень, розробкою систем і пристроїв, які здатні розпізнавати, інтерпретувати і відповідно реагувати на людські емоції. Сучасні досягнення штучного інтелекту дали нам машини зі значним IQ, і зростаюча група дослідників і добре фінансованих стартапів тепер хочуть порівняти це з EQ, який використовується для опису здатності людини розпізнавати емоції тих, хто її оточує.

“Сьогоднішні системи штучного інтелекту мають величезні когнітивні можливості, але в цих технологіях немає емоційного інтелекту”, – сказала в інтерв’ю Digital Trends Габі Зайдервельд, керівник відділу продуктової стратегії Affectiva, – “У них немає емоційного інтелекту. “Багато наших взаємодій з системами штучного інтелекту наразі є дуже транзакційними, а часто поверхневими та неефективними. Це тому, що ці системи не розуміють, як ми реагуємо на них, і тому не можуть адаптуватися до того, як ми взаємодіємо з ними. Ми вважаємо, що це фундаментальний недолік сучасних технологій”.

Ласкаво просимо у світ афективних обчислень, п’янкої суміші психології і комп’ютерних наук. Ґрунтуючись на ідеї, що щось настільки ефемерне, як емоція, може бути зафіксоване і кількісно оцінене як власна точка даних, він прагне створити технологію, яка здатна точно видобувати наші емоції. При цьому її прихильники стверджують, що вона змінить спосіб нашої взаємодії з пристроями, які нас оточують; трансформація, яка всього за кілька років стане для нас такою ж немислимою, як використання комп’ютера з графічним інтерфейсом.

Бустери обіцяють безліч нових захоплюючих застосувань і взаємодій. Ми отримаємо комп’ютери, які дійсно розумітимуть нас на емоційному рівні. Що ж вимагається від нас натомість? Все просто: Новий рівень спостереження, який має на меті впливати на наші найпотаємніші думки.

Все це підводить нас до неминучого питання: Як саме ми повинні ставитися до машин, які знають, що ми відчуваємо?

Розуміння всього людського

“Ми розробили те, що ми називаємо штучним інтелектом людського сприйняття”, – пояснив Зійдервельд. “Це технологія, яка може розуміти все людське. Ми не використовуємо жодних апаратних датчиків. Ми – лише програмне забезпечення, і це програмне забезпечення розроблене на основі людського обличчя і голосу, щоб розуміти емоції, виражати

Коли мова йде про афективні обчислення, мабуть, жодна інша компанія не є настільки відомою, як Affectiva. Вирісши з новаторської медіа-лабораторії Массачусетського технологічного інституту, стартап був заснований десять років тому з метою створення технології вимірювання емоцій у сфері доменів. З тих пір компанія стала сильнішою і сильнішою, розвиваючись завдяки все більш підключеним пристроям і вогневій потужності штучного інтелекту. Співзасновниками Affectiva є нинішній генеральний директор Рана ель-Каліубі та Розалінда Пікард, і зараз в компанії працює понад 50 осіб. Цього місяця її співробітники влаштували вечірку з нагоди свого десятого дня народження. Вона також скористалася нагодою оголосити про своє останнє збільшення фінансування – 26 мільйонів доларів – на додаток до 34,3 мільйона доларів, які вона раніше отримала від зацікавлених інвесторів.

Навчити машини відчувати – Рана ель Каліубі з Affectiva

“Активуючи камеру в будь-якому типі пристрою, ми можемо подивитися, як люди реагують на цифровий контент, і виміряти, кадр за кадром, які реакції”, – сказав Зійдервельд. “Якщо ви робите це на великій кількості населення, ви можете отримати досить значущу інформацію про те, як люди взаємодіють з контентом. Великі бренди можуть використовувати цю інформацію для оптимізації реклами, розміщення історій, слоганів тощо. Дослідження показали, що це дуже науковий і неупереджений спосіб оцінки залученості”.

Реклама – це лише одна зі сфер, для яких Affectiva розробила технологію. Всі вони, однак, керуються однією центральною ідеєю: а саме, що машини набагато кращі за людей, коли справа доходить до розпізнавання емоцій.

Відстеження емоцій по всьому світу

Як і в багатьох інших завданнях розпізнавання образів, ШІ може значно перевершити людину, коли справа доходить до зчитування тонких емоцій на обличчі людини. Наприклад, як ви думаєте, скільки емоцій ви демонструєте, коли дивитеся телевізор? У випадку великої гри або приємної смерті у “Грі престолів” ми можемо очікувати, що відповідь буде “досить багато”. Але це не обов’язково так, коли, скажімо, ви наполовину дивитеся рекламу шампуню або місцеві новини. Саме тут можуть стати в нагоді такі інструменти, як Affectiva, які шукають лише найменший натяк на мікровраження, про які навіть сам суб’єкт може не знати.

Люди в США стають більш експресивними, коли дивляться щось у групі, тоді як в Японії вони будуть приглушувати свої емоції.

“Люди насправді досить експресивні, хоча це нюанси, – продовжив Зійдервельд. “Щоб вловити цю тонкість, ми використовуємо підхід машинного навчання або глибокого навчання. Це дійсно єдиний спосіб моделювання такого типу складності. Більш традиційні евристичні моделі просто не спрацюють”.

Для навчання своїх моделей глибокого навчання Affectiva проаналізувала 7,8 мільйона облич у 87 країнах світу. Це дало їй достатньо навчальних даних для розробки своїх моделей, а також дозволило спостерігати деякі відмінності в тому, як виражаються емоції в різних країнах світу.

Це, як не дивно, складно. Зійдервельд пояснив, що в той час, як широка гама емоцій є більш-менш універсальною, способи їх вираження надзвичайно різняться. Інтенсивність вираження відрізняється в різних культурах. Так само, як і те, як чоловіки та жінки виражають емоції. Жінки, як правило, більш експресивні, ніж чоловіки, хоча це залежить від географії. У США жінки приблизно на 40 відсотків більш експресивні, ніж чоловіки, тоді як у Великій Британії чоловіки і жінки виражають емоції порівну. Емоції також відрізняються в залежності від розміру групи, і це також відрізняється в залежності від місця розташування. Люди в Штатах стають більш виразними, коли вони дивляться щось в групі. В Японії вони будуть приглушувати свої емоції в груповій обстановці.

Але Affectiva не зупиняється на мікровиразах. Її технологія також може аналізувати те, як люди розмовляють, шукаючи те, що Зійдервельд називає “акустичними просодичними” особливостями мови. Це стосується таких речей, як темп, тон і гучність, на відміну від буквального значення вимовлених слів.

“Ми зробили це, тому що ми хотіли почати надавати так звані мультимодальні моделі, тобто моделі, які дивляться як на обличчя, так і на голос”, – сказав Зійдервельд. “Ми вважаємо, що чим більше сигналів ви можете проаналізувати, тим точніше ви можете передбачити стан людини”.

У міру того, як збирається все більше і більше даних, від візуальної інформації про користувачів до даних про частоту серцевих скорочень і контекстної інформації, побудувати точний образ емоційного стану людини в будь-який момент часу стане простіше, ніж будь-коли.

Все починається з Дарвіна

Як і у випадку з багатьма технологічними нездійсненними мріями, які тільки зараз починають ставати реальністю, неважко припустити, що мета наукової кількісної оцінки емоцій існує не так давно. Насправді все зовсім навпаки. Спроби розшифрувати обличчя як джерело інформації беруть свій початок щонайменше з 1872 року.

“…Завдання точного розпізнавання емоцій стало можливим завдяки активному розвитку штучних нейронних мереж”.

Саме в цьому році не менш авторитетний, ніж Чарльз Дарвін, опублікував одну зі своїх маловідомих книг “Вираження емоцій людини і тварин”. У цій книзі було детально описано, як емоції проявляються через міміку – наприклад, дитячий плач, який супроводжується стисканням очних яблук, стисканням носа і підняттям верхньої губи. Страх, тим часом, можна було помітити через “смертельну блідість”, утруднене дихання, розширені ніздрі, “задишку і конвульсивні” рухи губ тощо.

Це був невтомний каталог, розроблений, як пише академік Люк Манн у книзі “Під вашою шкірою”: Пошуки операціоналізації емоцій”, “для формалізації граматики м’язових рухів і жестикуляційних комбінацій”.

Ці зусилля були продовжені іншими дослідниками, які слідували за Дарвіном. У 1970-х і 80-х роках Пол Екман і Уоллес Фрізен створили і розвинули свою Систему кодування мімічних дій (FACS). Ставши основою для більшості подальших досліджень у цій галузі, вони розвинули ідеї Дарвіна до набагато більш емпірично точного рівня, ніж він міг собі уявити, буквально написавши код, в якому кожен крихітний рух обличчя можна було описати за допомогою так званих “одиниць дії”. Наприклад, сум можна було описати як 1+4+15 (підняття внутрішньої брови, опускання брови, пригнічення кутика губи), а щастя – як 6+12 (підняття щоки, відтягування кутика губи).

Поява сучасних комп’ютерних систем відкрила нові можливості для аналізу цих спостережень. Наприклад, розвиток технології розпізнавання осіб надав дослідникам можливість почати кодування цих спостережень в машинах.

Система кодування мімічних дій

Мережі глибокого навчання, які досліджують взаємозв’язок між входами і виходами, дозволили дослідникам розробити системи, які могли б не тільки пов’язувати рухи обличчя з певними емоціями, а й шукати їх у нових суб’єктів. Саме тут зародилася Affectiva та інші компанії-конкуренти.

“З технологічної точки зору завдання точного розпізнавання емоцій стало можливим завдяки активному розвитку штучних нейронних мереж, – розповів Digital Trends Георгій Плієв, засновник і генеральний директор компанії з відстеження емоцій Neurodata Lab. “Завдяки їм машини навчилися розуміти емоції на обличчях, повернених вбік, і в умовах недостатнього освітлення. Ми отримали здешевлення технології: навіть наші смартфони мають вбудовані нейромережеві технології [сьогодні]. Це дозволяє інтегрувати розпізнавання емоцій в сервісних роботів, визначати емоції за допомогою простої веб-камери або швидко обробляти дані в хмарі”.

Тим краще розуміти тебе, рідна!

Як відстеження емоцій змінює все

Але якими б вражаючими не були ці технології як технологічні вітрини, чи справді вони мають принципово корисне застосування? Адже, як зізнався нам Зійдервельд, технології можуть прижитися лише тоді, коли вони дійсно додають цінності життю користувачів. Це, безумовно, вірно, оскільки технології стають все більш суперечливими. Чим більш суперечливою є технологія, тим більший компроміс ми робимо, використовуючи її, і тим більшу цінність вона повинна продемонструвати, щоб бути вартою таких жертв.

Приклад графіки методології, що лежить в основі автомобільної системи відстеження емоцій Affectiva. Affectiva

Як і у випадку з початковою місією Affectiva, вона може додатково зробити рекламу розумнішою. Зараз такі компанії, як Amazon, використовують системи рекомендацій, засновані на попередніх продуктах, які ви – і такі клієнти, як ви – купували. Але що, якби можна було піти далі і давати рекомендації на основі того, як ви себе почуваєте? Коли справа доходить до витрачання грошей, всі ми керуємося своїми емоціями більше, ніж нам обов’язково хотілося б думати. Технологія відстеження емоцій, яка здатна представити потрібний продукт в потрібний час, може, в буквальному сенсі, коштувати мільярди доларів.

До цього ще далеко

Усі вищезгадані програми – це ті, які наразі досліджуються. Але є ще над чим працювати. “Навіть серед них – деякі емоції все ще залишаються міцним горішком для систем виявлення”, – сказав Джордж Плієв з Neurodata Lab. “Нещодавно ми протестували найвідоміші алгоритми розпізнавання емоцій і виявили, що щастя, смуток і здивування – найпростіші емоційні вирази обличчя, тоді як страх, відраза, гнів і нейтральний стан – найскладніші для ШІ. Складні когнітивні стани, приховані, змішані та фальшиві емоції, серед іншого, потребують аналізу та розуміння контексту, а цього поки що не досягнуто”.

Мультимодальні моделі, подібні до тих, що описані Affectiva, можуть допомогти додати більше точок даних до картини. Але, безумовно, є багато чого, що можуть зробити компанії, які займаються емоційними технологіями, щоб продемонструвати, що їхня технологія є точною і вільною від упередженості.

Існує й глибша проблема: це стосується наших страхів щодо того, що технології видобувають наші емоції. Це те саме занепокоєння, яке виникає щоразу, коли добре обізнаний інсайдер розповідає про те, що соціальні мережі розроблені спеціально для того, щоб заохочувати залежну поведінку користувачів: вони дають нам короткочасний приплив дофаміну ціною потенційно довготривалих негативних наслідків. Це те саме занепокоєння, яке виникає щоразу, коли ми чуємо про алгоритми Facebook або YouTube, які направляють нас на провокаційний контент, покликаний викликати певні емоції, незалежно від того, чи є він “фейковими новинами” чи ні. І це те саме занепокоєння, яке виникає, коли ми думаємо про антропоморфізаційні ефекти персоналізації помічників зі штучним інтелектом, таких як Alexa, щоб заохотити нас принести інструменти спостереження у наші власні будинки.

Коротше кажучи, це страх, що щось ірраціональне і примітивне в нашому тваринному мозку експлуатується блискучими психологами, які перетворюють свої корисні ідеї на комерційний код.

Чи залишиться це частиною загального користувацького досвіду, чи використання комп’ютера без відстеження емоцій одного дня здаватиметься немислимим?

Зійдервельд сказав, що Affectiva наполегливо працює над вирішенням цих проблем. Вона відстоює конфіденційність, і всі її послуги за замовчуванням передбачають згоду на це.

“Існують лише певні ринки з певними варіантами використання, на яких ми не будемо продавати нашу технологію”, – сказала вона. “Це було правдою навіть на початку нашої діяльності. У певний момент компанія отримала пропозицію про інвестиції в розмірі 40 мільйонів доларів від урядового агентства, яке збиралося надати фінансування лише за умови, що ми розробимо технологію для спостереження. Це було в той час, коли [Affectiva] перебувала в скрутному становищі і була стурбована тим, чи зможе вона виплатити зарплату на кілька місяців вперед. Тут нам запропонували 40 мільйонів доларів, але це було порушенням [того, у що ми вірили як компанія]. Співзасновники відмовилися від неї”.

Наступні всюдисущі технології

Навіть з урахуванням потенційних ризиків, здається, що існує достатньо ентузіазму щодо технологій відстеження емоцій, щоб ця сфера продовжувала розвиватися. Поряд з Affectiva і Neurodata Lab, інші стартапи в цій галузі включають такі компанії, як iMotions, RealEyes та інші. Компанія Neuro-ID була заснована на основі досліджень Університету Брігама Янга, які припускають, що рухи вашої миші (!) можуть розкрити ваші емоції.

Великі технологічні гіганти теж починають підключатись. У 2016 році Apple придбала компанію Emotient, що базується в Сан-Дієго, яка також розробляла технологію, призначену для класифікації емоцій на основі виразу обличчя.

Якщо для нас зима майже закінчилася, то у #Вестерос вона наступає. Ми проаналізували #трейлер до фінального сезону #GoT від @HBO за допомогою #Emotion #AI. І топ-3 емоції – це… сум (70%), тривога (22%) та гнів (3%)! https://t.co/tvflLHmTwW pic.twitter.com/Qht1FuiVPJ

NeuroData Lab (@NeurodataLab) 7 березня 2019 р.

Наприкінці минулого року Amazon запатентувала технологію, яка дозволить Alexa відстежувати емоції користувачів на основі висоти та гучності їхніх команд. При цьому роздрібний лев’ят

З рекламою, яку потрібно продавати, прогнозами, які потрібно робити, або просто користувачами, яких потрібно заспокоїти і зробити щасливими, тут є багато потенційних переваг. Питання полягає в тому, чи залишиться це частиною загального користувацького досвіду, чи використання комп’ютера без відстеження емоцій одного дня здаватиметься немислимим.

“Це буде щось, що вкорениться в тканину наших пристроїв, постійно працюючи у фоновому режимі”, – запевнив нас Зійдервельд. “Це буде схоже на геолокацію. Сьогодні майже кожна програма знає своє місцезнаходження. Ще 10 років тому цього не було. Ми віримо, що це буде настільки ж поширеним. Ринок має величезні можливості”.

Рекомендації редакторів

  • Цього року я використовував чат-бота ChatGPT AI для святкового шопінгу
  • Я подав свою безглузду ідею стартапу роботові-венчурному інвестору
  • Оптичні ілюзії можуть допомогти нам створити наступне покоління АІ
  • Microsoft відмовляється від свого моторошного АІ, що зчитує емоції
  • Технологія ШІ Zoom для розпізнавання емоцій під час дзвінків засмутила критиків

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *