fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Апокаліпсис штучного інтелекту

Розвиток технологій вже в найближчі десятиліття має створити нове диво: машину, яка здатна думати самостійно. Проте експерти вважають, що радіти цьому доведеться недовго: роботи з штучним інтелектом знищать людство. Вони кажуть, що штучний розум є найбільшою загрозою існуванню людей.
Вчені і раніше замислювалися про часи, коли машини стануть розумніші за своїх творців. Однак тепер вони починають говорити про це все голосніше: одним із перших свою стурбованість висловив Ілон Маск – засновник автовиробника Tesla. У жовтні він сказав, що штучний інтелект є найбільшою загрозою для людства.
Естафету підхопив відомий популяризатор науки Стівен Хокінг. Хоча за свій стан здоров’я він повинен користуватися «розумними» машинами, справжній штучний розум його лякає.
Причини для хвилювання. У вчених немає сумніву, що коли-небудь настане день, в якому комп’ютери стануть розумніші за людей. Кремнієві машини вже випереджають своїх біологічних творців, наприклад, легко виграють у них в шахи ще з 1996 року.
Вирішувати складні математичні рівняння може сьогодні будь-який смартфон, а для деяких подібних завдань навіть не потрібно вводити: достатньо лише сфотографувати математичний вираз.
Машини сьогодні випереджають людей не тільки в точних ігри типу шахів і точних науках. Машина IBM Watson кілька років тому перемогла в американській телегрі Jeopardy. Вона також консультує лікарів для визначення точного діагнозу пацієнтів в США.
Це не всі приклади того, як машини випереджають людей в їх роботі і розвагах. Комп’ютери повільно, але впевнено освоюють нові сфери діяльності і стають у них кращими і швидшими фахівцями, ніж люди.
Чи варто боятися? Може здаватися, що жахання штучним інтелектом – це чергова байка, як, наприклад, проблема 2000 року. Тоді експерти пророкували повний крах комп’ютерних мереж і систем через настання нового століття. Однак на цей раз загроза може виявитися реальною, адже як тільки люди створять перший в історії штучний розум, він зможе самостійно розробити свою кращу версію. Люди йому взагалі не потрібні.
«Я не думаю, що етичні наслідки від появи штучного розуму будуть мінімальними, – каже експерт з штучного інтелекту Ніл Якобштейн. Він вважає, що людство має зважити наслідки того, що воно створює і підготуватися до радикальних змін, які можуть виникнути. – Краще зробити це, поки що технології не розвинені і не існує штучного інтелекту. Можливість того, що щось піде не так росте, коли ви не замислюєтеся про це».
Професор когнітивної робототехніки в Імперському Коледжі Мюрей Shanahan каже, що сьогодні дослідники не задумуються про безпеку своїх систем, щоб їх можна було зупинити у разі збою. «Розробники штучного інтелекту не вважають це проблемою, тоді як широка публіка вважає, – говорить він. – Я думаю, правильна відповідь знаходиться між цими крайнощами. Немає потреби зараз панікувати. Я не думаю, що ми створимо схожий на людський розум в найближчі 10-20 років».
Одна з головних проблем на шляху штучного інтелекту – це слабке розуміння того, як його розробити. «Ми насправді не знаємо, краще копіювати природу, або створювати з нуля», – говорить учений.
Боятися варто людей. Фантаст Чарльз Стросс каже, що небезпека від штучного розуму існує, однак її причина не в тому, що він стане розумніший людей, чи не захоче працювати на своїх господарів. «Ніхто не хоче мати штучний розум, який буде встановлювати свої цілі, – каже він. – Якщо він буде думати про себе, то, швидше, знайде свій еквівалент лежання на дивані перед телевізором».
Стросс вважає, що небезпека від штучного інтелекту в майбутньому буде відбуватися не від нього, а від людей, яким він служить. «Наша найбільша загроза від штучного розуму, – говорить він, – це свідомість, яка встановлює їх цілі».
В якості такого прикладу він наводить безпілотних дронів. «Дрони не вбивають людей, які управляють ними. Зате вони вбивають тих, на кого їх направляють, – говорить він. – Необхідно ставити питання до господарів машин. Машини – це просто ще одне відображення нас самих».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *