fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Людство повинно створити систему контролю за розвитком штучного інтелекту

Про трансформаційну силу штучного інтелекту (ШІ) було зроблено чимало гучних заяв. Але варто прислухатися і до серйозних застережень, пише Джон Торнгилл у статті “Only human intelligence can solve the AI challenge” для The Financial Times.
Минулого місяця Кейт Кровфорд, головний дослідник в Microsoft Research, застерегла: якщо технологіями будуть зловживати авторитарні режими, то зростаюча міць ИИ може реалізувати «фашистську мрію».
«Так само як ми бачимо, що швидкість ШІ зростає великими стрибками функцією, відбувається дещо інше: зростання ультранаціоналізму, правого авторитаризму та фашизму», – сказала Кровфорд на тек-конференції SXSW (South by Southwest).
Вона каже, що завдяки ІІ стає можливим створення величезних реєстрів даних, таргетування груп населення, зловживання предиктивним поліцейським контролем і маніпуляція політичними поглядами.
Стурбованість щодо неправильного використання – іноді навіть ненавмисно – новими потужними технологіями виражає не тільки Кровфорд. Марк Волпорт, головний науковий радник британського уряду, застеріг, що бездумне використання ІІ в пов’язаних з людськими судженнями у таких сферах як медицина або право, що може призвести до руйнівних результатами і підірвати довіру суспільства до технологій.
Хоча ІІ мав потенціал підвищити якість людської думки, він ніс в собі також і ризики плодити шкідливі упередження, даючи при цьому людям помилкове відчуття об’єктивності.
«Машинне навчання може засвоїти всі приховані упередження, що містяться в історії судових вироків і медичного лікування, та висловити це через свої алгоритми», – написав він у статті в inWired.
Як завжди, небезпека значно легше розпізнати, ніж її виправити. Недобросовісні режими ніколи не будуть дотримуватися правил, які обмежують використання ІІ. Але навіть у функціональних правових демократіях важко буде створити відповідний відповідь. Максимізація позитивного внеску, який може внести ІІ, при мінімізації негативних наслідків буде одним із найскладніших викликів для державної політики сучасності.
Для початку: технології важко зрозуміти, і їх використання часто є неосяжним. Все важче стає знайти незалежних експертів, які б не були втягнуті в цю галузь або не мали інших конфліктів інтересів.
Гнані фактично комерційної гонкою озброєнь у цій галузі, великі тек-компанії розхапали багатьох розумних наукових експертів з ІІ. Тому більшість передових досліджень є зараз швидше приватним, а не суспільним надбанням.
Деякі провідні тих-компанії — до їх честі, визнали потреба в прозорості, хоча і з запізненням. Посипався шквал ініціатив щодо заохочення публічних дебатів і досліджень політик на тему ІІ. Ілон Маск, засновник Tesla Motors, допоміг заснувати OpenAI, некомерційну дослідницьку компанію, яка займається безпечними способами розробки ШІ. Amazon, Facebook, Google DeepMind, IBM, Microsoft і Apple також об’єдналися в Партнерство з ІІ (Partnership on AI) для того, щоб ініціювати більше публічних дискусій про застосування цієї технології в реальному світі.
Мустафа Сулейман, співзасновник Google DeepMind і співголова Партнерства, каже, що ШІ може зіграти трансформуючу роль у вирішенні найбільших викликів нашого часу. Але він визнає, що рівень розвитку ШІ випереджає нашу колективну здатність розуміти і контролювати ці системи. Тому провідні компанії, що розробляють ІІ, повинні ставати значно більш інноваційними та проактивними в плані самовідповідальності. Заради цього лондонська компанія експериментує з верификабельными даними для аудиту і незабаром оголосить склад етичного ради, яка ретельно перевірить всю діяльність компанії.
Але Сулейман вважає, що наші суспільства повинні розробити кращі рамки для того, щоб направляти технології в русло колективного блага.
«Нам треба мати контроль за цими системами, щоб вони виконували те, що ми хочемо, коли ми цього хочемо, і щоб вони нас не випереджали», – сказав він в інтерв’ю для подкасту FT Tech Tonic.
Деякі оглядачі вважають, що найкращий спосіб досягти цього – адаптувати наш правовий режим так, щоб забезпечити «объяснимость» систем ШІ для громадськості. Як принцип це звучить просто, але може виявитися несамовито складним на практиці.
Мірей Гільдебрандт, професор права і технологій у Вільному університеті Брюсселя каже, що ми стаємо занадто залежними від «бездумного розуму», який не до кінця розуміємо. Тому, вона арументирует, намір і результат цих алгоритмів повинні надаватися для перевірок і судового опротестування. «Якщо ти не можеш обґрунтовано пояснити рішення своїх систем, тоді не можеш їх проводити», – говорить вона.
Нам треба буде значно більше людського інтелекту, щоб відповісти на всі виклики штучного інтелекту.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *