fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Не ведіться на похмурі фантастичні історії: А.І. стає силою добра

Не ведіться на похмурі фантастичні історії: Штучний інтелект стає силою добра

Одним з найвідоміших висловлювань про технології є “закон”, сформульований покійним американським істориком Мелвіном Кранцбергом: “Технологія не є ані доброю, ані поганою, ані нейтральною”.

Це чудовий вислів: короткий, але наповнений настановами, як красивий поетичний рядок коду. Якщо я правильно його розумію, це означає, що технологія не є за своєю суттю доброю чи поганою, але вона неодмінно певним чином впливатиме на нас – а це означає, що її вплив не є нейтральним. Подібна блискуча цитата належить французькому теоретику культури Полю Віріліо: “Винахід корабля був також винаходом корабельної аварії”.

“Технологія не є ані доброю, ані поганою, ані нейтральною”.

Якщо прийняти цей останній образ, то штучний інтелект (ШІ) є матір’ю усіх кораблів. Він обіцяє стати такою ж значною трансформацією для світу, як поява електрики в дев’ятнадцятому і двадцятому столітті. Але в той час як багато хто з нас буде схвильовано воркувати над останньою демонстрацією дивовижних нейронних мереж DeepMind, багато дискусій навколо ШІ носять однозначно негативний характер. Ми стурбовані роботами, які крадуть робочі місця, автономною зброєю, що загрожує світовому добробуту, і повзучими проблемами конфіденційності гігантів, що поглинають дані. Чорт забирай, як тільки з’являється мрія про досягнення штучного загального інтелекту, деякі песимісти, здається, думають, що єдиною дискусією є те, чи будуть ми знищені роботами в стилі Термінатора або перетворені на сіру масу нанороботами.

Хоча частина цієї технофобії, можливо, є недоречною, не важко зрозуміти точку зору критиків. Технологічні гіганти, такі як Google і Facebook, найняли деякі з найвидатніших умів нашого покоління і змусили їх працювати не над лікуванням хвороб або переосмисленням економіки, а над тим, щоб придумати кращі способи таргетування нас за допомогою реклами. Проект “Геном людини”, це не так! Чи не повинна така технологія, що змінює світ, як ШІ, робити трохи більше… змінювати світ?

Курс на моральний ШІ?

2018 рік може стати роком, коли все почне змінюватися. Хоча це ще маленькі зернятка, які тільки починають проростати зеленими паростками, з’являється все більше доказів того, що тема перетворення штучного інтелекту на справжню силу добра починає набирати обертів. Наприклад, починаючи з цього семестру, в Школі комп’ютерних наук Університету Карнегі-Меллона (CMU) буде викладатися новий курс під назвою “Штучний інтелект для соціального блага”. Він зачіпає багато тем, які можна було б очікувати від курсу для аспірантів і студентів – оптимізація, теорія ігор, машинне навчання і послідовне прийняття рішень – і розглядатиме їх через призму того, як кожна з них впливатиме на суспільство. Курс також ставитиме перед студентами завдання побудувати свої

“ШІ – це квітуча галузь з величезним комерційним успіхом, і більшість людей отримують вигоду від досягнень ШІ в своєму повсякденному житті, – сказав професор Фей Фан в інтерв’ю Digital Trends. “У той же час, люди також мають різні побоювання, починаючи від потенційної втрати роботи і закінчуючи питаннями конфіденційності та безпеки, а також етичними проблемами і упередженнями. Однак, недостатньо обізнаності щодо того, як ШІ може допомогти у вирішенні суспільних проблем”.

Фанг описує цей новий курс як “один з перших курсів, присвячених цій темі”, але КМУ – не єдина установа, яка пропонує такий курс. Він приєднується до аналогічного курсу “Штучний інтелект для соціального блага”, що пропонується в Університеті Південної Каліфорнії, який розпочався минулого року. У CMU курс Фанга входить до переліку основних курсів для аспірантури в галузі соціальних обчислень.

“Недостатньо поінформованість про те, як ШІ може допомогти у вирішенні соціальних проблем”.

Під час нового курсу КМУ Фанг і запрошені лектори обговорять ряд способів, як ШІ може допомогти вирішити великі соціальні проблеми: машинне навчання і теорія ігор, які використовуються для захисту дикої природи від браконьєрства, використання ШІ для розробки ефективних алгоритмів підбору нирок, а також використання ШІ для профілактики ВІЛ серед бездомних молодих людей шляхом вибору групи лідерів-однолітків для розповсюдження інформації про здоров’я.

“Найважливіший висновок полягає в тому, що ШІ може бути використаний для вирішення нагальних соціальних проблем і може принести користь суспільству зараз і в найближчому майбутньому”, – сказав Фанг. “І саме студенти повинні визначити ці виклики, сформулювати їх у чітко визначені проблеми і розробити методи штучного інтелекту, які допоможуть їх вирішити”.

Проблеми сучасного ШІ

Заняття професора Фанга – не перший раз, коли обговорюється етика ШІ, але воно є свідченням (і, безумовно, збігається з) відновлення інтересу до цієї галузі. Етика ШІ стає мейнстрімом.

Цього місяця компанія Microsoft опублікувала книгу під назвою “Майбутнє, що обчислюється: Штучний інтелект і його роль в суспільстві”. Як і в класі Фанга, в ній розглядаються деякі сценарії, в яких ШІ може допомогти людям вже сьогодні: дати можливість людям з обмеженим зором почути світ, описаний їм за допомогою натільного пристрою, і використовувати розумні датчики для того, щоб фермери могли збільшити врожайність і бути більш продуктивними.

Ekso Bionics

Таких прикладів можна навести ще багато. Тут, в Digital Trends, ми висвітлювали ШІ, який може допомогти в розробці нових фармацевтичних препаратів, ШІ, який може допомогти людям уникнути витрат на дорогого адвоката, ШІ для діагностики захворювань, а також проекти ШІ і робототехніки, які можуть допомогти зменшити кількість виснажливої роботи – або навчивши людей виконувати її більш безпечно, або навіть взагалі виводячи їх з циклу роботи.

Все це – позитивні приклади того, як ШІ може бути використаний для суспільного блага. Але для того, щоб він дійсно став силою для позитивних змін у світі, штучний інтелект має вийти за рамки просто хороших застосувань. Він також повинен бути створений таким чином, щоб суспільство вважало його позитивним. Як зазначає Фанг, можливість алгоритмів відображати упередженість є значною проблемою, яка все ще недостатньо вивчена.

Можливість того, що алгоритми відображають упередженість, є значною проблемою, яка все ще недостатньо вивчена.

Кілька років тому афроамериканка, доктор філософії Гарвардського університету Латанія Свіні “викрила” пошукові алгоритми Google у ненавмисному расизмі, пов’язавши імена, які частіше даються чорношкірим людям, з оголошеннями, що стосуються записів про арешти. Суїні, яка ніколи не була заарештована, виявила, що їй, тим не менш, показували оголошення з питанням “Чи були ви заарештовані?”, а її білим колегам – ні. Подібні тематичні дослідження помітили, що системи розпізнавання зображень з більшою ймовірністю асоціюють зображення кухні з жінками, а зображення спортивного тренера – з чоловіками. У цьому випадку упередженість не обов’язково була виною одного програміста, а скоріше дискримінаційні шаблони, приховані у великих наборах даних, на яких тренуються алгоритми Google.

Те ж саме стосується і “чорної скриньки” алгоритмів, яка може зробити їх незбагненними навіть для їхніх власних творців. У новій книзі Microsoft її автори пропонують будувати ШІ на етичних засадах, на кшталт “Трьох законів робототехніки” письменника-фантаста Айзека Азімова для “прокинутого” покоління. Ці шість принципів включають те, що системи ШІ повинні бути справедливими, надійними і безпечними; що вони повинні бути приватними і захищеними; що вони повинні бути інклюзивними; що вони повинні бути прозорими і що вони повинні бути підзвітними.

“Якщо ШІ розроблений належним чином, він може допомогти приймати більш справедливі рішення, оскільки комп’ютери є суто логічними і, теоретично, не схильні до свідомих і несвідомих упереджень, які неминуче впливають на прийняття рішень людиною”, – пишуть автори з Майкрософт.

Попереду ще багато роботи

Зрештою, це буде легше сказати, ніж зробити. З точки зору більшості людей, дослідження в галузі ШІ, що проводяться в приватному секторі, значно випереджають роботи, що проводяться в державному секторі. Проблема з цим полягає у підзвітності у світі, де алгоритми охороняються так само таємно, як і коди запуску ракет. Компаніям також немає сенсу вирішувати великі суспільні проблеми, якщо це не принесе негайної вигоди їхньому прибутку. (Або принесе їм кілька бонусних балів, щоб, можливо, уникнути регулювання). Було б наївно думати, що всі проблеми, які піднімаються компаніями, що прагнуть отримати прибуток, будуть альтруїстичними, незалежно від того, наскільки вони можуть припускати протилежне.

Для більш широких дискусій про використання ШІ для суспільного блага, щось має змінитися. Чи це визнання сили штучного інтелекту і введення в дію більшої кількості нормативних актів, які дозволять здійснювати ретельний контроль? Чи означає це створення компаніями рад з етики, як це було у випадку з Google DeepMind, в рамках досліджень передового ШІ? Чи це очікування ринкових змін або зворотної реакції, яка вимагатиме від технологічних гігантів надання більшої кількості інформації про системи, які керують нашим життям? Чи, як запропонував Білл Гейтс, запровадити податок на роботів, який обмежить використання ШІ або робототехніки в деяких ситуаціях, обкладаючи компанії податками за заміну своїх працівників? Жодне з цих рішень не є ідеальним.

І найбільше питання залишається відкритим: Хто саме визначає “добре”? Дебати про те, як ШІ може стати силою добра в нашому суспільстві, залучатимуть значну кількість користувачів, політиків, активістів, технологів та інших зацікавлених сторін, які працюють над тим, який світ ми хочемо створити, і як використовувати технології для найкращого досягнення цієї мети.

Як сказав співзасновник DeepMind Мустафа Сулейман в інтерв’ю Wired: “Вирішення цих питань – це не просто питання добрих намірів. Нам потрібно виконати важку, практичну і брудну роботу, щоб з’ясувати, що насправді означає етичний ШІ. Якщо нам вдасться змусити ШІ працювати на благо людей і планети, то наслідки можуть бути трансформаційними. Прямо зараз є все, щоб грати”.

Курси, подібні до курсу професора Фанга, аж ніяк не є кінцевим пунктом призначення. Але вони є дуже хорошим початком.

Рекомендації редакторів

Meta зробила DALL-E для відео, і це одночасно моторошно і приголомшливо

  • Чому я більше не модернізую свій процесор для більш високої частоти кадрів
  • Я купив графічний процесор за завищеною ціною на піку дефіциту, і не шкодую про це
  • Microsoft відмовляється від свого моторошного штучного інтелекту, що зчитує емоції.
  • Я спробував Stage Manager на своєму Mac, і тепер не хочу повертатися
  • ШІ – це хороший перець для робота

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *