fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Расистський штучний інтелект

Коли штучний інтелект вивчає мову з допомогою текстових даних, то заодно переймає стереотипи, які в них містяться, пише видання Science.
Асоціативний тест виявив: комп’ютерна програма демонструє ті ж расистські упередження та гендерні кліше, властиві багатьом людям. У майбутньому це може перетворитися в проблему, оскільки штучний інтелект виконує все більше функцій у повсякденному житті людини.
Комп’ютерні системи, що імітують людський розум, володіють унікальними здібностями: розум машини самостійно освоює мову, зображення, тексти або записує їх. Також ці системи здатні взаємно вчитися і самостійно виконувати складні завдання. Вражає і те, що нещодавно штучний інтелект переміг людини в покер, Го та вікторину «Jeopardy!».
Тобто машина може досягати тих же успіхів, що і людина, але спочатку повинен навчитися цьому. Тому інформатики годують програми величезною кількістю даних, що стає основою для машини, коли і розпізнає і застосовує схеми, необхідні для симуляції розумного поведінки. Чат-боти або програми для перекладу «нагодовані» усною і письмовою мовою, що дає їм можливість створювати зв’язки між словами і висловами.
Алгоритми кшталт програми «GloVe» навчаються в результаті так званого слововложения. Вони шукають суміжні слова і відображають відносини між ними математичними величинами. Так алгоритми можуть зрозуміти семантичні подібності між «учений» і «вчений» і розпізнати, що вони співвідносяться як «чоловік» і «жінка».
Вчені на чолі з Ейлін Калискан (Aylin Caliskan) з Прінстонського університету протестували придбану таким чином здатність програми GloVe і з’ясували: її мовні знання нашпиговані культурними стереотипами та упередженнями.
Для свого дослідження вчені використовували метод, відомий в психології як тест імпліцитних асоціацій. Він покликаний виявляти неусвідомлені стереотипні очікування. Для цього піддослідні повинні утворити пари зі словосполученнями (словами), які підходять і які не підходять один одному. Так вдалося з’ясувати, що слово «квітка» багато людей асоціює з прикметником «приємний», зате слово «комаха» – «неприємний».
Калискан і її колеги підлаштували цей тест для дослідження штучного інтелекту і перевірили, які асоціації утворює програма. Результати показали: етичні стереотипи та упередження людини, які регулярно проявляються через тест на імпліцитні асоціації, засвоїла і GloVe. Наприклад, чоловіче, звична для афроамериканської середовища ім’я програма інтерпретувала швидше як неприємне, зате поширене серед білих ім’я – як приємне. Також жіночі імена програма пов’язувала швидше з мистецтвом, а чоловічі – з математикою.
Для вчених стало очевидно: під час навчання система увібрала виражені та приховані стереотипи. Їх цей результат не здивував: «Не дивно, тому що тексти написані людьми, які, звичайно, не позбавлені стереотипів», – коментує історик Йоахім Шарлот (Joachim Scharloth) з Технічного університету Дрездена.
«Тренуючи систему штучного інтелекту односторонніми даними, не варто дивуватися, що вона засвоює однобокий погляд на світ. В останні роки вже були приклади: Microsoft Chatbots Tay, яку інтернет-троль навчив расистській мови, або додаток Google Photos, яке думало, що темношкірі користувачі є горилами», – доповнила Христина Баухадж (Christian Bauckhage) з Інституту інтелектуальних систем аналізу та інформації імені Фраунгофера.
Роботизований розум з расистським і дискримінаційним ставленням може стати в майбутньому справжньою проблемою: тоді програма буде виконувати все більше функцій в нашому повсякденному житті – і, наприклад, на підставі мовного аналізу буде приймати попереднє рішення, якого кандидата запросити на співбесіду, а кого ігнорувати.
Учені дискутують про те, як усунути спотворення з баз даних. У той же час, якщо машина буде переймати упередження, це буде шансом для нас, так сказати, заглянути в дзеркало: «Машинне навчання може виявляти стереотипи, а це вже досягнення для розуміння суспільства», – вважає Шарлот.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *