fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

АІ розпізнає мову ворожнечі, навіть якщо людина використовує кодові слова

АІ розпізнає мову ворожнечі, навіть якщо людина використовує кодові слова

Той, хто коли-небудь мав справу з блокуванням безпечного для роботи веб-сайту як небезпечного для роботи (NSFW) робочим інтернет-фільтром (або стикався з потенційно незручною протилежною ситуацією), знає, що програми, призначені для блокування певних частин контенту, часто можуть зіткнутися з проблемами.

Однією з причин цього є те, що пошук за ключовими словами може виявитися занадто тупим інструментом для роботи з чимось настільки нюансованим, складним і таким, що постійно розвивається, як мова.

Це особливо актуально при спробі знайти ненависні ключові слова в соціальних мережах. Наприклад, минулого року компанія Alphabet випустила алгоритм, призначений для фільтрації расистських слів в Інтернеті, тільки для того, щоб тролі почали підміняти назви продуктів Google на расистські образи. На деякий час вони повністю перехитрили програмне забезпечення.

  • Microsoft попереджає, що використання Internet Explorer може призвести до збоїв у роботі
  • Google, можливо, щойно виправив найбільш дратівливу проблему браузера Chrome
  • Як користуватися новою функцією спільнот в Microsoft Teams

Однак новий алгоритм, розроблений дослідниками з Університету Рочестера, вважає, що він вирішив цю проблему. Аналізуючи стрічки Twitter, він може розрізняти фрази на кшталт “gas the Skypes” (замінник слова “євреї”) і “I hate Skype” (що, сподіваємося, означає просто Skype) з вражаючою 80-відсотковою точністю.

“Ми розробили інтелектуальний алгоритм аналізу даних для відстеження постійно еволюціонуючих кодів ненависті, які розроблені таким чином, щоб уникнути виявлення”, – розповів Digital Trends професор Цзебо Ло (Jiebo Luo), співавтор статті. “Ми починаємо з набору відомих кодів ненависті, знаходимо повідомлення, що містять ці коди, [і] будуємо мовну модель, використовуючи методи машинного навчання для розпізнавання повідомлень ненависті. На основі цього ми робимо дві речі: [по-перше], використовуємо мовну модель для виявлення поточних повідомлень, які можуть містити нові коди ненависті, і [по-друге], використовуємо виявлені повідомлення ненависті для виявлення розповсюджувачів ненависті, чиї нові повідомлення використовуються для виявлення нових кодів ненависті”.

Розумна аналітика з’ясовує, які слова співвідносяться з іншими, тим самим виявляючи, коли слово-замінник використовується для чогось іншого, додаючи контекст. Звичайно, ці слова також можуть бути змінені, але є лише така кількість слів, яку троль може змінити, перш ніж зробити своє початкове висловлювання абсолютно незрозумілим.

Загалом, це дуже розумне використання машинного навчання. Так, межі того, що можна говорити в Інтернеті, все ще встановлюються – і найкраще це робити приватним особам і компаніям, а не алгоритмам. Але коли справа доходить до того, щоб зупинити людей від ненависницької риторики в Інтернеті, такі інструменти, як цей, виходять далеко за рамки простого пошуку за ключовими словами.

Що далі в планах проекту? “Ми сподіваємося отримати більше даних, щоб зробити

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *