Каталог статей

Як штучний інтелект DeepMind зробить Google ще розумнішим

Як штучний інтелект DeepMind зробить Google ще розумнішим

У 2014 році компанія Google розпочала свою кар’єру з великих витрат, спочатку витративши 3,2 мільярда доларів на придбання компанії Nest Technologies, а тепер витративши 400 мільйонів доларів (або більше) на британську компанію DeepMind, що займається розробкою штучного інтелекту.

Не секрет, що Google цікавиться штучним інтелектом; зрештою, технології, отримані в результаті досліджень ШІ, допомагають розвивати основні напрямки діяльності Google – пошук і рекламу. ШІ також відіграє ключову роль у мобільних сервісах Google, його автономних автомобілях та зростаючій кількості робототехнічних технологій. А з приєднанням футуролога Рея Курцвейла до своїх лав у 2012 році, Google також має на борту дідуся “сильного ШІ”, людину, яка прогнозує, що інтелектуальні машини можуть існувати до середини століття.

Якщо все це звучить тривожно, не хвилюйтеся: придбання Google компанії DeepMind не означає злиття механічного мозку з швидшими за людину роботами і народження людиноненависницької комп’ютерної мережі Скайнет з франшизи “Термінатор”. Але він порушує ключові питання: Що таке штучний інтелект, і чого Google сподівається досягти, купуючи такі компанії, як DeepMind?

ШІ “зверху-вниз” чи “знизу-вгору

У загальних рисах, ШІ відноситься до машин, які виконують інтелектуальні завдання на рівні, порівнянному з людиною. Це означає міркування, планування, навчання і використання мови для спілкування на високому рівні. Це також, ймовірно, включає відчуття і взаємодію з фізичним світом, хоча це може і не бути обов’язковою вимогою, залежно від того, кого ви запитаєте.

Дослідження ШІ майже такі ж давні, як і комп’ютери, починаючи з 1950-х років. Перші спроби (іноді їх називають символічним або “низхідним” ШІ) були, по суті, збірниками правил. Ідея полягала в тому, що за наявності достатньої кількості чітких правил (наприклад, ЯКЩО людину (Бібера) заарештовано (за водіння в нетверезому вигляді), системи можуть приймати рішення і діяти автономно – це було лише питанням написання достатньої кількості правил і очікування достатньо потужного обчислювального обладнання, щоб впоратися з усім цим. Нисхідний ШІ добре працює, коли може бути побудована певна “база знань”. Наприклад, у 1970-х роках експертна система “Mycin” зі Стенфорда діагностувала інфекції, що передаються через кров, краще за багатьох лікарів-інтерністів, а у 1980-х роках “Caduceus” з Піттсбурзького університету поширив цю ідею на понад 1000 різних захворювань. Іншими словами, ШІ в реальному житті не є чимось новим.

Але низхідний ШІ не може впоратися з тим, що знаходиться поза межами його правил і знань. Робота з невідомим – як автономний автомобіль, що орієнтується в постійно мінливих умовах на вулиці – вимагає немислимо великої кількості правил. Тому дослідники розробили поведінковий або “висхідний” ШІ. Замість того, щоб писати тисячі (або мільйони чи мільярди) правил, дослідники створили системи з простою поведінкою (наприклад, “рухайся ліворуч” або “прочитай наступне слово”) і показали цим системам, які дії працюють в різних контекстах – як правило, “нагороджуючи” їх балами. Деякі технології висхідного ШІ базуються на реальній неврології; наприклад, нейронні мережі імітують синаптичні зв’язки, подібні до біологічного мозку. Навчаючись, висхідні системи виробляють поведінку – вчаться – справлятися з непередбачуваними обставинами так, як це ніколи не вдавалося низхідному ШІ. Реальні технології, частково розроблені на основі висхідного ШІ, включають в себе такі речі, як пилосос Roomba, розпізнавання мови Siri і розпізнавання обличчя Facebook. Знову ж таки, ШІ в реальному світі.

Що таке машинне навчання?

Придбання компанією Google компанії DeepMind частково стосується “глибокого навчання”, або способів навчання висхідних систем ШІ складним концепціям. Навчання висхідних систем означає закидання їм даних і винагороду за правильну інтерпретацію або поведінку – це називається “контрольованим” навчанням, тому що дані вже позначені правильними відповідями. Звичайно, більшість даних в реальному світі (зображення, відео, звуки і т.д.) не позначені – або позначені погано. По суті, глибоке навчання попередньо навчає висхідні системи штучного інтелекту на немаркованих (або напівмаркованих) даних, залишаючи системам можливість робити власні висновки. Потім попередньо навчені системи отримують зворотний зв’язок про свою роботу від систем, які пройшли навчання під наглядом – і вони дуже швидко засвоюють його завдяки своєму попередньому досвіду. Накладіть ці системи одна на одну, і ви отримаєте програми, які можуть швидко впоратися з невідомими і немаркованими даними – саме такими, з якими Google має справу тисячами гігабайт, двадцять чотири години на добу, сім днів на тиждень. Дослідники штучного інтелекту, пов’язані з DeepMind, зазначають, що дослідження компанії останнім часом призвели до значного прогресу в цьому типі машинного навчання.

“На мій погляд, навчання з підкріпленням і глибокого навчання недостатньо, щоб отримати “мислячі машини”.

Звучить безглуздо? Google вже працює над цим роками. У 2012 році він побудував (порівняно невелику) нейронну мережу і протягом тижня показував їй зображення з YouTube. Що вона навчилася розпізнавати без будь-якого керівництва з боку людини або маркованих даних? Котів. (“Вона, по суті, винайшла концепцію кота”, – сказав співробітник Google Джефф Дін в інтерв’ю New York Times. Рік тому Google підхопив технологію розпізнавання зображень, розроблену Джеффрі Хінтоном в Університеті Торонто, і швидко запустив її в роботу на сайті photos.google.com (потрібен логін) – Хінтон також працює у них на півставки. Минулого літа Google випустив word2vec, програмне забезпечення з відкритим вихідним кодом для глибокого навчання, яке працює на повсякденному обладнанні і може з’ясовувати зв’язки між словами без навчання – це може мати величезні наслідки для програмного забезпечення, яке виводить концепції і наміри, що стоять за письмовою і усною мовою. Дослідник Google, який виступав з доповіддю, зазначив, що він покладає великі надії на використання цієї технології в освіті і інформатиці.

Що може зробити Google з глибоким навчанням?

Що ж бачить Google в технології глибокого навчання і (можливо) додатках DeepMind, які коштують сотні мільйонів доларів? Ніхто не говорить – і представники Google, і DeepMind відмовилися від коментарів. Але у Google є багато операцій, які могли б отримати вигоду:

Google доведеться ходити по тонкій грані: Будь-який з цих додатків може експоненціально збільшити “фактор повзучості” Google, оскільки використовує наші персональні дані. Цікаво, що придбання Google DeepMind, як повідомляється, передбачає нагляд з боку внутрішньої ради з етики.

Чи допоможе DeepMind “мозку Google”?

Так чого ж варті зусилля по створенню штучного інтелекту на рівні з людським інтелектом? На жаль для шанувальників володарів роботів, придбання DeepMind в кращому випадку є периферійним для цих зусиль і, ймовірно, не пов’язане з ними

“Я радий почути новину про придбання Google компанії DeepMind, оскільки це приверне більше уваги до цієї сфери, – зазначив Пей Ван, дослідник штучного загального інтелекту з Темплського університету. Однак, на мою думку, навчання з підкріпленням і глибокого навчання недостатньо для того, щоб отримати “мислячі машини”.

Google все ще далекий від досягнення масштабу обробки людського мозку, не кажучи вже про розуміння того, як він працює.

Частково проблема полягає в масштабі. Нейронна мережа Google, яка ідентифікувала котів, мала 16 000 вузлів, тоді як людський мозок має приблизно 100 мільярдів нейронів і від 100 до 500 трильйонів синапсів. Навіть Google не має такої кількості обчислювальних потужностей.

Більш того, “вузол” в нейронній мережі – навіть навчений за допомогою глибокого навчання – не відповідає біологічному нейрону. Ми все ще маємо лише загальні уявлення про те, як працюють нейрони. Якщо ми хочемо побудувати інтелект людського рівня, імітуючи біологічні процеси, це означає моделювання фізичних і хімічних деталей нейронів – а це потребує ще більших обчислювальних потужностей. Зусилля в цьому напрямі вже докладаються: У 2005 році кластеру з 27 процесорів знадобилося 50 днів, щоб змоделювати одну секунду активності 100 мільярдів нейронів; з тих пір найбільшою спробою моделювання мозку була, мабуть, спроба IBM на 24 576 вузлах змоделювати мозок кішки – хоча вона не моделювала окремі нейрони.

Іншими словами, Google ще дуже далеко до досягнення масштабу обробки даних людського мозку, не кажучи вже про розуміння того, як він працює. Навіть з DeepMind.

Рекомендації редакції

Source: digitaltrends.com

Exit mobile version