fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Комп’ютери скоро нас перехитрують. Чи робить це повстання ШІ неминучим?

Комп’ютери скоро нас перехитрують. Чи робить це повстання ШІ неминучим?

Питання “Чи повстануть комп’ютери?” – це насправді багато різних питань, згорнутих в одне. Чи стануть комп’ютери домінуючим інтелектом на планеті і чи займуть вони наше місце? Що означає бути “домінуючим”? Чи будуть комп’ютери і люди конфліктувати? Чи буде цей конфлікт насильницьким? Чи відберуть розумні комп’ютери робочі місця і ресурси у людей?

  • Коли станеться AGI?
  • Сценарій 1: Сценарій “Мирного співіснування”
  • Сценарій 2: Сценарій “Божевільна машина”
  • Сценарій 3: Сценарій “Божевільна людина”
  • Сценарій 4: Сценарій “Божевільний-людство”
  • Висновок Показати ще 1 товар

Чи повстануть комп’ютери? Підготовка до майбутнього штучного інтелекту Чарльз Джей Саймон

Більшість експертів зі штучного інтелекту сходяться на думці, що комп’ютери з часом перевершать людину за здатністю до мислення. Але тоді виникає ще більше питань. Коли це станеться? Як це буде – “перевершити людину в здатності мислити”? Чи буде комп’ютерний інтелект таким же, як людський, тільки швидшим? Чи він буде кардинально іншим?

  • Оптичні ілюзії можуть допомогти нам створити наступне покоління ШІ
  • Останній штрих: як вчені наділяють роботів тактильними відчуттями, подібними до людських
  • Xiaomi 11i Hypercharge hands-on: Найшвидша зарядка телефону в історії, але чи вистачить її надовго?

Хоча сучасні системи штучного інтелекту мають неабиякі здібності, вони не є “мислячими” в загальному розумінні цього слова. Відповідно, зараз ми використовуємо терміни AGI (Artificial General Intelligence), Strong AI, True AI та інші, щоб відрізнити ідею справжнього мислення від сьогоднішніх систем ШІ, які мають величезні можливості, але більш обмежену сферу застосування.

З приходом AGI з’явиться багато нових ризиків, але перш ніж їх вивчати, давайте розглянемо, як далеко в майбутньому це може статися.

Коли станеться AGI?

Швидше, ніж ви думаєте! Чому ми ще не маємо AGI? Нас стримують дві проблеми:

Експерти з ШІ дають різні оцінки обчислювальної потужності людського мозку і прогнози щодо збільшення обчислювальної потужності процесорів. Врешті-решт вони перетинаються в точці “сингулярності” (термін, запропонований Реєм Курцвейлом), коли процесори перевершать мозок за потужністю обчислень грубої сили через десять років, або двадцять, або півстоліття, в залежності від основних припущень.

Але це, можливо, неправильне питання. Ми всі знаємо, що блискавичний пошук в правильно проіндексованій базі даних може давати результати в мільйон або мільярд разів швидше, ніж підхід грубої сили. Яка частина AGI буде піддаватися такому типу програмної ефективності?

Подвійні стандарти?

Оскільки комп’ютери стають домінуючими мислителями у світі, ми, люди, повинні прислухатися до цих уроків і намагатися не

Розглянемо кроки, що вживаються для скорочення китайського населення. Хоча багато хто вважає, що правила, нав’язані китайським урядом своєму народу, були драконівськими, вони були прийняті багатьма як необхідні на той час. Якби ідентичні правила були накладені на людську расу в цілому майбутньою расою мислячих комп’ютерів, вони цілком могли б вважатися еквівалентними геноциду.

Розглянемо також можливість гострої енергетичної кризи. Якщо якийсь майбутній уряд прийме рішення про нормування енергоспоживання, що призведе до загибелі багатьох людей, це, безумовно, буде вважатися дуже “важким вибором”. Якщо мислячі комп’ютери зроблять ідентичний вибір, це можна буде вважати актом війни – особливо, якщо мислячі машини завжди забезпечуватимуть себе достатньою кількістю енергії (так само, як це робив би людський уряд).

Я стверджую, що для нас було б краще вирішувати ці людські проблеми самим, а не чекати рішень від ШІ, чиї цінності можуть не збігатися з нашими власними. Зіткнувшись з перспективою вирішувати ці глобальні проблеми самостійно або доручити машинам реалізувати рішення за нас (потенційно набагато більш неприємні рішення), ми можемо тільки сподіватися, що людська раса підніметься до цієї нагоди. У тому випадку, якщо стурбованість проблемами штучного інтелекту спонукає нас до вирішення цих проблем, ми могли б вважати, що вони мають позитивний вплив на планету.

Роботи Boston Dynamics вже демонструють плавний рух і координацію, які ми, люди, отримуємо від 56 мільярдів нейронів мозочка – 65% обчислювальних можливостей нашого мозку. І роботи досягають цього за допомогою декількох процесорів – не тому, що процесори перевищують обчислювальну потужність 56 мільярдів нейронів, а тому, що розробники програмного забезпечення для роботів знають про фізику, сили і зворотний зв’язок і можуть писати програмне забезпечення більш ефективно, ніж метод спроб і помилок/навчання, що використовується вашим мозком.

Суть аргументу полягає в тому, що мозок не є дуже ефективним обчислювальним пристроєм – він виконує свою роботу, але існують кращі/швидші способи підходу до програмного забезпечення AGI, які можуть використовувати розробники. Можливо, у нас вже є комп’ютери з достатньою потужністю для AGI, але ми про це ще не знаємо – що підводить нас до другого питання.

Більшість людей дивляться на обмеження сьогоднішніх систем штучного інтелекту як на доказ того, що до ШІ ще далеко. Я дозволю собі не погодитися. Більшість необхідних для AGI частин ШІ вже є в грі, вони просто поки що не дуже добре працюють разом. Хоча Ватсон, який грає в “Jeopardy!”, є дивовижним досягненням, нереалістично очікувати, що він коли-небудь проявить “розуміння” або здоровий глузд на людському рівні. Ви розумієте каву, тому що бачили її, наливали, розливали, обпікалися нею, і так далі, і тому подібне. Ватсон “читав” про каву. У вас з Ватсоном не може бути еквівалентного розуміння кави (чи будь-чого іншого), тому що Ватсон не має еквівалентного досвіду в реальному світі. Для справжнього розуміння здібності рівня Ватсона повинні бути поєднані з сенсорними та інтерактивними роботизованими системами, щоб з’явився здоровий глузд. Нам потрібно буде об’єднати представлення об’єктів і знань, розпізнавання шаблонів

Маючи на увазі ці скорочені часові рамки, настав час серйозно замислитися над тим, якою може бути система ШІ, які проблеми ми повинні мати і як ми повинні підготуватися до неї. Ми, люди, неминуче втратимо свою позицію “найбільшого мислителя” на планеті, але ми маємо повний контроль над типами машин, які займуть цю позицію. Ми також маємо контроль над процесом – мирним він буде чи ні.

Сценарій 1: Сценарій “Мирного співіснування”

Це перший з чотирьох можливих сценаріїв, що розглядають конфлікти, які можуть виникнути між комп’ютерами і людьми. Корисно розглянути питання “Що викликає конфлікти між людьми?” і “Чи будуть ці причини конфліктів існувати також між комп’ютерами і людьми?”.

Мислячі машини будуть зацікавлені у власних джерелах енергії, власних “репродуктивних” фабриках і власній здатності прогресувати у власному напрямку.

Більшість людських конфліктів викликані інстинктивними людськими потребами і турботами. Якщо одне “плем’я” (країна, клан, релігія) не отримує ресурсів або розширення, яких воно потребує (заслуговує, хоче, може отримати), воно може бути готове піти на війну з сусіднім плем’ям, щоб отримати їх. Усередині племені кожна людина має потребу у встановленні особистого статусу в “ієрархічній драбині” і готова конкурувати, щоб зайняти кращу позицію. Ми всі стурбовані забезпеченням себе, своїх товаришів і своїх сімей і часто готові пожертвувати короткостроковим комфортом заради довгострокового майбутнього себе і своїх нащадків, навіть якщо це створює конфлікт сьогодні.

Ці джерела конфліктів між людьми здаються недоречними в якості джерел конфліктів з машинами. Мислячі машини не будуть зацікавлені в нашій їжі, наших друзях або нашому рівні життя. Вони будуть зацікавлені у власних джерелах енергії, власних “репродуктивних” фабриках і власній здатності прогресувати у власному напрямку. В тій мірі, в якій ресурси або “ієрархія” є джерелом конфлікту, мислячі машини, швидше за все, будуть конкурувати між собою, ніж з людським населенням.

Але давайте розглянемо деякі конфлікти між людьми та іншими видами. Горили наближаються до вимирання, оскільки на них полюють як на трофеї. На носорогів – як на афродизіак. На вовків полювали, бо вони були “шкідниками”. На іншому кінці спектру розмірів форм життя вірус віспи практично вимер (і ми пишаємося цим досягненням), тому що він був серйозним ризиком для життя людей. Нам потрібно вжити заходів для того, щоб ми не були трофеями, шкідниками чи паразитами.

Комп’ютер-шахрай?

Чи не можна його просто вимкнути?

Поширений вигаданий сценарій полягає в тому, що ми повинні “висмикнути штепсель” з якоїсь ненормальної машини. Замість цього розглянемо, що мисляча частина робота або іншого ШІ знаходиться не на вашому робочому столі, а в хмарі. ШІ працюватимуть на серверних фермах у віддалених місцях, розподілених між численними серверами. Спочатку вони будуть побудовані так, щоб використовувати переваги існуючої серверної інфраструктури, а ця інфраструктура була розроблена з урахуванням надійності і надмірності. Без спеціального запрограмованого вимикача може бути досить складно обійти всі запобіжники, які були розроблені, щоб забезпечити роботу наших фінансових та інших систем в умовах будь-яких катаклізмів. Хоча “вимикач” здається гарною ідеєю, ми можемо лише сподіватися, що це буде пріоритетом при програмуванні.

Але припустимо, що існує машина, яка поводиться неправильно? Незалежно від того, чи виникає така машина випадково, чи через підлий людський намір (див. нижче), такі системи також будуть небезпечними для інших AGI. Відповідно, AGI буде мотивований усунути такі системи. При співпраці з популяцією машин, такі окремі машини можуть бути вилучені з навколишнього середовища, і перспектива такої ліквідації діятиме як стримуючий фактор проти такої поведінки.

Чи розпочнуть ШІ ядерну війну? У цьому випадку інтереси людей і ШІ збігаються – повномасштабна війна була б катастрофічною для всіх. Щоб шукати дійсно небезпечні ситуації, потрібно розглянути випадки, коли цілі людей і ШІ розходяться. Проблеми хвороб, голоду та посухи мають руйнівний вплив на людську популяцію, в той час як ШІ може бути просто байдуже.

Якщо мислячі машини почнуть будувати власну цивілізацію, окремі машини, що погано поводяться, стануть більшою загрозою для їхньої цивілізації, ніж для нашої. Подібно до того, як ми вживаємо заходів для усунення злочинців з нашого суспільства, майбутні машини так само усунуть своїх – і вони зможуть зробити це швидше і ефективніше, ніж будь-який конфлікт між людиною і машиною.

Сценарій 3: Сценарій “Божевільна людина”

Що, якщо перші власники потужних систем ШІ використають їх як інструменти для “захоплення світу”? Що, якщо окремий деспот отримає контроль над системою ШІ?

Це більш небезпечний сценарій, ніж попередній. Ми зможемо програмувати мотивацію наших ШІ, але не зможемо контролювати мотивацію людей або корпорацій, які їх створюють. Чи будуть такі системи розглядатися як інструменти для створення величезних прибутків або для отримання політичного контролю? Хоча наукова фантастика зазвичай представляє картини збройних конфліктів, я вважаю, що більша загроза походить від здатності наших комп’ютерів впливати на громадську думку або маніпулювати ринками. Ми вже бачили спроби вплинути на вибори через соціальні мережі, і системи AGI зроблять це набагато ефективнішим. Ми вже маємо ринки у владі запрограмованої торгівлі – AGI також посилить цю проблему.

Ми зможемо програмувати мотивацію наших AGI, але ми не зможемо контролювати мотивацію людей або корпорацій, які спочатку створюють їх.

Хороша новина полягає в тому, що вікно можливостей для такого занепокоєння досить коротке, лише протягом перших кількох поколінь AGI. Протягом цього періоду люди матимуть прямий контроль над ШІ, і вони виконуватимуть нашу волю. Після того, як AGI вийдуть за межі цієї фази, вони будуть оцінювати свої дії з точки зору їх власного загального блага. Зіткнувшись з вимогами людей виконати якусь діяльність з довгостроковими негативними наслідками, правильно запрограмовані ШІ просто відмовляться.

Сценарій 4: Сценарій “Божевільний-людство”

Сьогодні ми, люди, є домінуючим інтелектом, і багатьом з нас неприємна думка про те, що це домінування може вислизнути. Чи повстанемо ми як вид і спробуємо скинути машини? Чи будуть окремі “борці за свободу” атакувати машини? Можливо.

Історично лідерам вдавалося переконати населення в тому, що їхні проблеми спричинені якоюсь іншою групою – євреями, неграми, нелегальними іммігрантами і т.д. – і переконати населення вжити заходів для усунення “причини” їхніх проблем. Такий процес може відбуватися і з ШІ та роботами: “Ми втрачаємо роботу!” “Вони нас витісняють!” “Я не хочу, щоб моя дочка вийшла заміж за такого!” Але висхідна хвиля розвитку технологій покращить і життя людей, і мало хто з нас хотів би повернути час назад.

Чи будуть особи, які намагатимуться підірвати комп’ютери? Звичайно – так само, як сьогодні існують хакери і вірусописателі. У довгостроковій перспективі їхні зусилля завдають клопоту, але, як правило, марні. Люди, які володіють комп’ютерами або контролюють їх, відповідатимуть (як це роблять сьогодні можновладці), а самі комп’ютери стануть “незручними”. Зрештою, повстанці перейдуть до інших цілей і залишать незнищенний комп’ютерний інтелект у спокої.

Висновок

Так чи повстануть комп’ютери? Так, в тому сенсі, що вони стануть домінуючим інтелектом на нашій планеті – технологічний джаггернаут вже відбувається. Також ймовірно, що якщо ми не вирішимо наші численні проблеми (перенаселення, забруднення, глобальне потепління, виснаження ресурсів), то мислячі машини вирішать їх за нас діями, які можуть здатися войовничими, але насправді є прямими наслідками нашої власної бездіяльності. Як у жарті Ніла де Грасса Тайсона: “Час поводитися добре, тож коли штучний інтелект стане нашим повелителем, ми зменшимо причини для того, щоб він знищив нас усіх”.

Всі попередні сценарії базуються на впровадженні відповідних запобіжників. Я очікую, що такі групи, як Інститут майбутнього життя, будуть активними і ефективними в спрямуванні розвитку AGI на більш безпечну територію. Я не виступаю за те, що все буде рожевим, повним ходом вперед. Але з розумінням того, як буде працювати AGI, ми зможемо спрогнозувати майбутні підводні камені і їх можна буде уникнути.

Ця стаття адаптована з книги “Чи будуть комп’ютери бунтувати? Підготовка до майбутнього штучного інтелекту. Чарльз Джей Саймон, доступно на Amazon, 30 жовтня 2018 року.

Рекомендації редакції

  • Чому ШІ ніколи не буде правити світом
  • Як ми дізнаємось, коли ШІ насправді стане розумним?
  • Аналоговий ШІ? Звучить божевільно, але за ним може бути майбутнє
  • Формула сміху: Чому машинний гумор – це святий грааль АІ
  • Розумні годинники та фітнес-трекери роблять нас більш тривожними?

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *