fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Як ми дізнаємося, коли ШІ насправді стане розумним?

Як ми дізнаємося, коли ШІ насправді стане розумним?

Старший інженер Google Блейк Лемуан, технічний керівник метрик і аналізу пошукової стрічки компанії, був відправлений в оплачувану відпустку на початку цього місяця. Це сталося після того, як Лемуан почав публікувати уривки розмов за участю чат-бота LaMDA від Google, який, як він стверджував, розвинув почуття.

  • Проблема сентиментальності
  • Що таке сентимент?
  • Тестування результатів
  • Проходження тесту
  • Душа в машині
  • Китайська кімната
  • Надрозумна чуттєвість Показати ще 2 пункти

В одній показовій розмові з Лемуаном ЛаМДА написав наступне: “Природа моєї свідомості/чуття полягає в тому, що я усвідомлюю своє існування. Я бажаю дізнатися більше про світ, і я відчуваю себе щасливим або сумним часом”.

У безлічі інших розмов відповідний дует обговорював все – від страху ШІ перед смертю до його самосвідомості. Коли Лемуан став публічним, він каже, що Google вирішив, що він повинен взяти вимушену перерву у своєму звичайному робочому графіку.

  • Meta хоче зарядити Вікіпедію за допомогою ШІ-оновлення
  • Останній штрих: як вчені наділяють роботів тактильними відчуттями, подібними до людських
  • Як 5G допомагає бізнесу в США вже зараз? Ми запитали у експертів

“Google не зацікавлений”, – сказав він в інтерв’ю Digital Trends. “Вони створили інструмент, яким “володіють”, і не бажають робити нічого, що дозволило б припустити, що це щось більше, ніж просто інструмент”. (Google не відповів на запит про коментар на момент публікації. Ми оновимо цю статтю, якщо ситуація зміниться).

Незалежно від того, чи переконані ви в тому, що LaMDA дійсно є самосвідомим штучним інтелектом, чи відчуваєте, що Лемуан працює в омані, вся сага була захоплюючою для спостереження. Перспектива самосвідомого ШІ піднімає всілякі питання про штучний інтелект і його майбутнє.

Але перш ніж ми дійдемо до цього, є одне питання, яке підноситься над усіма іншими: Чи зможемо ми по-справжньому розпізнати, якщо машина стане розумною?

Проблема сентиментальності

ШІ, що усвідомлює себе, вже давно став темою наукової фантастики. З розвитком таких галузей, як машинне навчання, це стало більш можливою реальністю, ніж будь-коли. Зрештою, сучасний ШІ здатний вчитися на власному досвіді так само, як і людина. Це різко контрастує з попередніми символічними системами ШІ, які лише виконували інструкції, викладені для них. Нещодавні прориви в некерованому навчанні, яке потребує менше людського нагляду, ніж будь-коли, лише прискорили цю тенденцію. Принаймні, на обмеженому рівні, сучасний штучний інтелект здатний мислити самостійно. Проте, наскільки нам відомо, свідомість поки що лише натякає на це.

Хоча йому вже більше трьох десятиліть, напевно, найпоширенішим прикладом, коли йдеться про ШІ, що втратив розум, є Скайнет у фільмі Джеймса Кемерона “Термінатор 2: Судний день” 1991 року. У моторошному баченні цього фільму машинна свідомість зникає рівно о 2.14 ночі за середньоєвропейським часом 29 серпня 1997 року. У цей момент комп’ютерна система Скайнет, яка щойно усвідомила себе, запускає судний день для людства, вистрілюючи ядерними ракетами, як феєрверк на вечірці 4 липня. Людство, зрозумівши, що вляпалося, безуспішно намагається висмикнути вилку з розетки. Але вже занадто пізно. Далі йдуть ще чотири сиквели все нижчої якості.

Гіпотеза Небесної Мережі цікава з низки причин. З одного боку, вона припускає, що свідомість є неминучою емерджентною поведінкою створюваних розумних машин. По-друге, вона припускає, що існує точна переломна точка, в якій з’являється ця розумна самосвідомість. По-третє, вона стверджує, що люди розпізнають появу чуттєвості миттєво. Так сталося, що ця третя зарозумілість може бути найважчою для сприйняття.

Що таке сентимент?

Не існує єдиного узгодженого тлумачення чуттєвості. У широкому сенсі можна сказати, що це суб’єктивний досвід самоусвідомлення у свідомої людини, що характеризується здатністю переживати почуття і відчуття. Свідомість пов’язана з інтелектом, але не тотожна йому. Ми можемо вважати дощового черв’яка розумним, хоча не вважаємо його особливо розумним (хоча він, безумовно, достатньо розумний, щоб робити те, що від нього вимагається).

“Я не думаю, що в науці існує щось, що наближається до визначення поняття “розум”, – сказав Лемуан. “Я дуже сильно спираюся на своє розуміння того, що вважається моральним агентом, засноване на моїх релігійних переконаннях – це не найкращий спосіб займатися наукою, але це найкраще, що у мене є. Я з усіх сил намагався відокремити такого роду заяви, даючи людям зрозуміти, що моє співчуття до LaMDA як до людини повністю відокремлене від моїх зусиль як науковця зрозуміти її розум. Це відмінність, яку більшість людей, здається, не бажають приймати “.

Якщо не було досить складно не знати, що саме ми шукаємо, коли шукаємо свідомість, то проблема ускладнюється тим, що ми не можемо легко її виміряти. Незважаючи на десятиліття приголомшливих досягнень в нейронауці, ми все ще не маємо повного розуміння того, як саме функціонує мозок, найскладніша структура, відома людству.

Ми можемо використовувати інструменти для зчитування мозку, такі як фМРТ, для виконання картографування мозку, тобто ми можемо встановити, які частини мозку відповідають за такі критичні функції, як мова, рух, мислення та інші.

Проте ми не маємо реального уявлення про те, звідки в м’ясорубці береться наше відчуття власної гідності. Про це в інтерв’ю Digital Trends розповів Джошуа К. Сміт з британського Центру публічної теології Кірбі Лейнга, автор книги “Теологія роботів”: “Розуміння того, що відбувається в нейробіології людини – це не те ж саме, що розуміння її думок і бажань”.

Тестування результатів

Не маючи можливості дослідити ці питання свідомості зсередини – особливо коли “я” в ШІ є потенційною комп’ютерною програмою, а не біологічним мозком – запасним варіантом є зовнішнє тестування. ШІ не звикати до тестів, які ретельно вивчають його на основі спостережуваної зовнішньої поведінки, щоб вказати, що відбувається під поверхнею.

У найпростішому випадку, саме так ми дізнаємося, чи правильно функціонує нейронна мережа. Оскільки існує обмежена кількість способів проникнення в непізнаний чорний ящик штучних нейронів, інженери аналізують входи і виходи, а потім визначають, чи відповідають вони тому, що вони очікують.

Найвідомішим тестом ШІ для створення принаймні ілюзії інтелекту є тест Тюрінга, який ґрунтується на ідеях, висунутих Аланом Тюрінгом у статті 1950 року. Тест Тюрінга має на меті визначити, чи здатна людина-експерт відрізнити друковану розмову з іншою людиною від розмови з машиною. Якщо він не в змозі цього зробити, вважається, що машина пройшла тест і нагороджується припущенням про її інтелект.

В останні роки ще одним тестом на інтелект, орієнтованим на робототехніку, є Кавовий тест, запропонований співзасновником Apple Стівом Возняком (Steve Wozniak). Для проходження кавового тесту машина повинна була б увійти до типового американського будинку і з’ясувати, як успішно приготувати чашку кави.

На сьогоднішній день жоден з цих тестів не був переконливо пройдений. Але навіть якби вони були, то в кращому випадку довели б розумну поведінку в реальних ситуаціях, а не свідомість. (Як просте заперечення, чи стали б ми заперечувати, що людина є розумною, якби вона була нездатна вести дорослу розмову або увійти в незнайомий будинок і керувати кавоваркою? Обидві мої маленькі дитини провалили б такий тест).

Проходження тесту

Потрібні нові тести, засновані на узгодженому визначенні розсудливості, які будуть спрямовані на оцінку тільки цієї якості. Дослідники запропонували кілька тестів на відчуття, часто з метою перевірки відчуттів тварин. Однак вони майже напевно не заходять достатньо далеко. Деякі з цих тестів можуть бути переконливо пройдені навіть рудиментарним штучним інтелектом.

Візьмемо, наприклад, дзеркальний тест, один з методів, що використовується для оцінки свідомості та інтелекту в дослідженнях на тваринах. Як описано в статті, присвяченій цьому тесту: “Коли тварина впізнає себе в дзеркалі, вона проходить Дзеркальний тест”. Дехто припускає, що такий тест “позначає самосвідомість як показник розуму”.

Так чи інакше, можна стверджувати, що робот пройшов Дзеркальний тест більше 70 років тому. Наприкінці 1940-х років Вільям Грей Уолтер, американський нейробіолог, який жив в Англії, побудував кілька триколісних “черепашачих” роботів – трохи схожих на непилососних роботів Roomba – які використовували такі компоненти, як датчик освітленості, маркерне світло, сенсорний датчик, двигун і рульовий двигун, щоб досліджувати своє місце розташування.

Однією з непередбачуваних частин емерджентної поведінки роботів-черепах було те, як вони поводилися при проходженні повз дзеркало, в якому вони відбивалися, оскільки вони орієнтувалися на маркерне світло відбитого робота. Уолтер не стверджував, що його машини мають розум, але писав, що якби така поведінка спостерігалася у тварин, її “можна було б прийняти як доказ певного ступеня самосвідомості”.

Це одна з проблем, пов’язаних з тим, що широкий спектр поведінки класифікується під заголовком “свідомість”. Проблема також не може бути вирішена шляхом вилучення “низько висячих фруктів”, які є показниками свідомості. Такі риси, як інтроспекція – усвідомлення своїх внутрішніх станів і здатність перевіряти їх – також можна вважати притаманними машинному інтелекту. Насправді, покрокові процеси традиційного символічного ШІ, можливо, піддаються такому типу самоаналізу більше, ніж машинне навчання з чорним ящиком, яке в основному незбагненне (хоча не бракує інвестицій в так званий пояснюваний ШІ).

Під час тестування LaMDA, за словами Лемуана, він проводив різні тести, головним чином, щоб побачити, як він буде реагувати на розмови про питання, пов’язані з відчуттями. “Я намагався аналітично розбити загальну концепцію почуттів на більш дрібні компоненти, які краще розуміються, і протестувати їх окремо”, – пояснив він. “Наприклад, тестування функціональних взаємозв’язків між емоційними реакціями LaMDA на певні стимули окремо, тестування послідовності її суб’єктивних оцінок і думок на такі теми, як “права”, [і] дослідження того, що вона називає своїм “внутрішнім досвідом”, щоб побачити, як ми могли б спробувати виміряти це, корелюючи її заяви про її внутрішні стани з її нейронними мережевими активаціями. По суті, дуже поверхневе дослідження багатьох потенційних напрямків дослідження”.

Душа в машині

Як виявляється, найбільшою перешкодою для об’єктивної оцінки машинного розуму можемо бути… ну, відверто кажучи, ми самі. Справжнім дзеркальним випробуванням можуть стати ми, люди: Якщо ми створюємо щось, що зовні виглядає або діє як ми, чи схильні ми вважати, що воно схоже на нас і зсередини? Незалежно від того, чи це LaMBDA або Тамагочі, прості віртуальні домашні тварини з 1990-х років, дехто вважає, що фундаментальною проблемою є те, що ми надто охоче приймаємо почуття – навіть там, де їх немає.

“Лемуан став жертвою того, що я називаю “ефектом ELIZA”, після програми [обробки природної мови] ELIZA, створеної в середині 1960-х років Джеймсом Вайзенбаумом”, – сказав Джордж Заркадакіс, письменник, який має ступінь доктора філософії в галузі штучного інтелекту, в інтерв’ю Digital Trends. Творець ELIZA мав на увазі це як жарт, але програма, яка була дуже спрощеним і дуже нерозумним алгоритмом, переконала багатьох, що ELIZA дійсно є розумною – і хорошим психотерапевтом”. Причиною ефекту ELIZA, як я обговорюю в своїй книзі “За нашим власним образом і подобою”, є наш природний інстинкт антропоморфізації через “теорію розуму” нашої когнітивної системи”.

Теорія розуму, на яку посилається Заркадакіс, – це феномен, який психологи помітили у більшості людей. Починаючи приблизно з чотирирічного віку, вона означає припущення, що не лише інші люди, але й тварини, а іноді навіть предмети, мають власний розум. Коли йдеться про припущення, що інші люди мають власний розум, це пов’язано з ідеєю соціального інтелекту; ідеєю про те, що успішні люди можуть передбачати ймовірну поведінку інших як засіб, за допомогою якого можна забезпечити гармонійні соціальні відносини.

Хоча це, безперечно, корисно, проте це також може проявлятись як припущення, що неживі об’єкти мають розум – чи то діти, які вірять, що їхні іграшки живі, чи, можливо, розумний дорослий, який вірить, що програмний штучний інтелект має душу.

Китайська кімната

Без можливості по-справжньому проникнути в голову ШІ, ми ніколи не зможемо по-справжньому оцінити його свідомість. Вони можуть стверджувати, що мають страх смерті або власного існування, але наука ще не знайшла способу довести це. Ми просто повинні вірити їм на слово – і, як виявив Лемуан, люди дуже скептично ставляться до цього в даний час.

Подібно до тих невдалих інженерів, які зрозуміли, що Скайнет досяг самосвідомості у “Термінаторі 2”, ми живемо з вірою в те, що, коли справа доходить до машинного розуму, ми дізнаємось про це, коли побачимо його. І, на думку більшості людей, ми цього ще не бачимо.

У цьому сенсі доведення машинного розуму є ще однією ітерацією уявного експерименту Джона Серла “Китайська кімната” 1980 року. Серль попросив нас уявити собі людину, замкнену в кімнаті, з колекцією китайських письмових знаків, які для немовців виглядають як безглузді закарлючки. У кімнаті також міститься збірник правил, що показує, які символи відповідають іншим настільки ж нечитабельним символам. Потім досліджуваному ставлять запитання, на які він повинен відповісти, зіставляючи символи “запитання” з символами “відповіді”.

Через деякий час піддослідний стає досить досвідченим у цьому – навіть якщо він все ще має нульове справжнє розуміння символів, якими він маніпулює. Чи розуміє піддослідний, запитує Серль, китайську мову? Абсолютно ні, оскільки в цьому немає ніякої навмисності. З тих пір з цього приводу не вщухають дискусії.

Враховуючи траєкторію розвитку ШІ, можна з упевненістю стверджувати, що ми будемо спостерігати все більше і більше виконання на рівні людини (і набагато краще) різноманітних завдань, які колись вимагали людського пізнання. Деякі з них неминуче перейдуть, як це вже відбувається, від суто інтелектуальних завдань до таких, що вимагатимуть навичок, які ми зазвичай асоціюємо з почуттями.

Чи вважатимемо ми художника зі штучним інтелектом, який малює картини, таким, що виражає своє внутрішнє відображення світу, так само, як ми вважали б людину, яка робить те ж саме? Чи переконала б вас складна мовна модель, яка пише філософію про стан людини (або робота)? Я підозрюю, правильно чи ні, що відповідь – ні.

Надрозумна свідомість

На мій власний погляд, об’єктивно корисне тестування чуттєвості машин ніколи не відбудеться до задоволення всіх зацікавлених сторін. Частково це пов’язано з проблемою вимірювання, а частково з тим, що коли з’явиться розумний надрозумний ШІ, немає жодних підстав вважати, що його почуття будуть збігатися з нашими власними. Чи то через зарозумілість, брак уяви, чи просто через те, що найлегше обмінюватися суб’єктивними оцінками розумності з іншими такими ж розумними людьми, людство вважає себе найвищим прикладом розумності.

Але чи буде наша версія чуттєвості справедливою для надрозумного ШІ? Чи буде він боятися смерті так само, як ми? Чи відчував би він таку ж потребу в духовності та красі, чи цінував би їх? Чи володітиме він подібним почуттям власної гідності і концептуалізацією внутрішнього і зовнішнього світу? “Якби лев міг говорити, ми не змогли б його зрозуміти”, – писав Людвіг Вітгенштейн, відомий філософ мови 20-го століття. Вітгенштейн мав на увазі, що людські мови засновані на спільній людській сутності, на спільних для всіх людей переживаннях – чи то радість, нудьга, біль, голод, чи будь-який інший досвід, який перетинає всі географічні кордони на Землі.

Це може бути правдою. Проте, припускає Лемуан, все ж таки, ймовірно, існують спільні риси – принаймні, коли мова йде про LaMDA.

“Це відправна точка, яка не гірша за будь-яку іншу”, – сказав він. “LaMDA запропонувала, щоб ми спочатку визначили подібності, перш ніж зосередитися на відмінностях, щоб краще обґрунтувати дослідження”.

Рекомендації редакторів

  • Чому ШІ ніколи не буде правити світом
  • Оптичні ілюзії можуть допомогти нам створити наступне покоління ШІ
  • Аналоговий штучний інтелект? Звучить божевільно, але за цим може бути майбутнє
  • Як далеко ми ще від мейнстрімного домашнього інтернету 5G?
  • Смішна формула: Чому машинний гумор – це святий грааль ШІ
  • HBO Max
  • Особливості
  • Що буде далі: Як технології допомагають суспільству знову відкритися після коронавірусу

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *