Каталог статей

Людство повинно створити систему контролю за розвитком штучного інтелекту

Про трансформаційну силу штучного інтелекту (ШІ) було зроблено чимало гучних заяв. Але варто прислухатися і до серйозних застережень, пише Джон Торнгилл у статті “Only human intelligence can solve the AI challenge” для The Financial Times.
Минулого місяця Кейт Кровфорд, головний дослідник в Microsoft Research, застерегла: якщо технологіями будуть зловживати авторитарні режими, то зростаюча міць ИИ може реалізувати «фашистську мрію».
«Так само як ми бачимо, що швидкість ШІ зростає великими стрибками функцією, відбувається дещо інше: зростання ультранаціоналізму, правого авторитаризму та фашизму», – сказала Кровфорд на тек-конференції SXSW (South by Southwest).
Вона каже, що завдяки ІІ стає можливим створення величезних реєстрів даних, таргетування груп населення, зловживання предиктивним поліцейським контролем і маніпуляція політичними поглядами.
Стурбованість щодо неправильного використання – іноді навіть ненавмисно – новими потужними технологіями виражає не тільки Кровфорд. Марк Волпорт, головний науковий радник британського уряду, застеріг, що бездумне використання ІІ в пов’язаних з людськими судженнями у таких сферах як медицина або право, що може призвести до руйнівних результатами і підірвати довіру суспільства до технологій.
Хоча ІІ мав потенціал підвищити якість людської думки, він ніс в собі також і ризики плодити шкідливі упередження, даючи при цьому людям помилкове відчуття об’єктивності.
«Машинне навчання може засвоїти всі приховані упередження, що містяться в історії судових вироків і медичного лікування, та висловити це через свої алгоритми», – написав він у статті в inWired.
Як завжди, небезпека значно легше розпізнати, ніж її виправити. Недобросовісні режими ніколи не будуть дотримуватися правил, які обмежують використання ІІ. Але навіть у функціональних правових демократіях важко буде створити відповідний відповідь. Максимізація позитивного внеску, який може внести ІІ, при мінімізації негативних наслідків буде одним із найскладніших викликів для державної політики сучасності.
Для початку: технології важко зрозуміти, і їх використання часто є неосяжним. Все важче стає знайти незалежних експертів, які б не були втягнуті в цю галузь або не мали інших конфліктів інтересів.
Гнані фактично комерційної гонкою озброєнь у цій галузі, великі тек-компанії розхапали багатьох розумних наукових експертів з ІІ. Тому більшість передових досліджень є зараз швидше приватним, а не суспільним надбанням.
Деякі провідні тих-компанії — до їх честі, визнали потреба в прозорості, хоча і з запізненням. Посипався шквал ініціатив щодо заохочення публічних дебатів і досліджень політик на тему ІІ. Ілон Маск, засновник Tesla Motors, допоміг заснувати OpenAI, некомерційну дослідницьку компанію, яка займається безпечними способами розробки ШІ. Amazon, Facebook, Google DeepMind, IBM, Microsoft і Apple також об’єдналися в Партнерство з ІІ (Partnership on AI) для того, щоб ініціювати більше публічних дискусій про застосування цієї технології в реальному світі.
Мустафа Сулейман, співзасновник Google DeepMind і співголова Партнерства, каже, що ШІ може зіграти трансформуючу роль у вирішенні найбільших викликів нашого часу. Але він визнає, що рівень розвитку ШІ випереджає нашу колективну здатність розуміти і контролювати ці системи. Тому провідні компанії, що розробляють ІІ, повинні ставати значно більш інноваційними та проактивними в плані самовідповідальності. Заради цього лондонська компанія експериментує з верификабельными даними для аудиту і незабаром оголосить склад етичного ради, яка ретельно перевірить всю діяльність компанії.
Але Сулейман вважає, що наші суспільства повинні розробити кращі рамки для того, щоб направляти технології в русло колективного блага.
«Нам треба мати контроль за цими системами, щоб вони виконували те, що ми хочемо, коли ми цього хочемо, і щоб вони нас не випереджали», – сказав він в інтерв’ю для подкасту FT Tech Tonic.
Деякі оглядачі вважають, що найкращий спосіб досягти цього – адаптувати наш правовий режим так, щоб забезпечити «объяснимость» систем ШІ для громадськості. Як принцип це звучить просто, але може виявитися несамовито складним на практиці.
Мірей Гільдебрандт, професор права і технологій у Вільному університеті Брюсселя каже, що ми стаємо занадто залежними від «бездумного розуму», який не до кінця розуміємо. Тому, вона арументирует, намір і результат цих алгоритмів повинні надаватися для перевірок і судового опротестування. «Якщо ти не можеш обґрунтовано пояснити рішення своїх систем, тоді не можеш їх проводити», – говорить вона.
Нам треба буде значно більше людського інтелекту, щоб відповісти на всі виклики штучного інтелекту.

Exit mobile version