fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Як навчити роботів відрізняти хороше від поганого? Незабаром проблема перестане бути гіпотетичною

Як навчити роботів відрізняти хороше від поганого? Незабаром проблема перестане бути гіпотетичною

Примітка редактора: Digital Trends співпрацює з WebVisions, міжнародно визнаною конференцією з питань дизайну, технологій і користувацького досвіду, щоб допомогти запросити видатного фахівця Дугласа Рашкоффа на цьогорічний захід у Портленді, штат Орегон. В рамках нашого партнерства ми також раді представити вибраний вміст зі змістовного блогу WebVisions, Word. На цьому тижні автор Марк Вайнер задається питанням, як ми навчаємо штучний інтелект відрізняти правильне від неправильного. Насолоджуйтесь!

Twitter визнав, що до 23 мільйонів (8,5 відсотка) його облікових записів користувачів є автономними твіттер-ботами. Багато з них створені для підвищення продуктивності, проведення досліджень або навіть для того, щоб розважитися. Проте багато з них були створені зі шкідливими намірами. В обох випадках відомо, що боти поводяться з сумнівною етикою – можливо, тому, що вони є лише незначними зразками штучного інтелекту (ШІ).

Наразі люди створюють набагато складніші машини, які зіткнуться з питаннями етики в монументальних масштабах. Навіть у питаннях смертності людських істот. Тож як ми можемо бути впевнені, що вони зроблять правильний вибір, коли прийде час?

  • Розробники допомагають старим комп’ютерам Mac робити те, що Apple не дозволяє
  • Останній штрих: як вчені наділяють роботів тактильними відчуттями, подібними до людських
  • Чому ціна на пам’ять DDR5 така висока – і не знизиться найближчим часом

Вбудувати або навчити

Ключовим фактором успішної побудови автономних машин, які симбіотично збігаються з людиною, є етика. І є в основному два способи запрограмувати етику в машинах:

По-перше, ви можете жорстко закодувати їх в їх операційні системи. Занепокоєння тут полягає в тому, що етика є суб’єктивною. Етика в машині залежить від етики її творця. Але ми, люди, не завжди збігаємося в своїй моралі. Ми ведемо війни через етичні розбіжності. Тому, коли ми будуємо автономні машини, щоб вони були етичними, ми будуємо в межах наших існуючих розбіжностей.

По-друге, ви можете надати деякі рекомендації, а потім дозволити машині вивчити власну етику на основі власного досвіду. Такий пасивний підхід залишає багато місця для неправильного тлумачення моралі, залежно від того, яка поведінка спостерігається. Згадаймо нещодавній збій у роботі штучного інтелекту Twitter компанії Microsoft, Тей, якого обманом змусили твітити расистські образи і пропаганду геноциду на основі хибного висновку про прийнятну етичну нормальність.

Над останнім працює команда з Технологічного інституту Джорджії, яка навчає когнітивні системи вчитися поводитися соціально прийнятним чином, читаючи історії. Система винагороди під назвою Quixote повинна допомогти когнітивним системам ідентифікувати протагоніста

Так ось, все це базується на ідеї, що комп’ютер може навіть осягнути етику. Як показує Алан Вінфілд у своєму дослідженні “На шляху до етичного робота”, коли комп’ютер стикається з етичним парадоксом, результат непередбачуваний, часто паралізуючий. У його дослідженні когнітивного робота (А-робота) попросили врятувати “людського” робота (Н-робота) від небезпеки. Коли А-робот міг врятувати лише одного з двох Н-роботів, він вагався і поступався у власній розгубленості, не врятувавши жодного з них.

Існує давня філософська дискусія про те, чи є етика справою розуму чи емоцій. Серед сучасних психологів існує консенсус, що прийняття етичних рішень вимагає як раціональних, так і емоційних суджень. Як зазначає професор Пол Тагард у статті на цю тему, “етичні судження часто є дуже емоційними, коли люди висловлюють своє сильне схвалення або несхвалення різних вчинків. Чи є вони також раціональними, залежить від того, чи добре або погано зроблена когнітивна оцінка, яка є частиною емоцій”.

Рішення з наслідками

Отже, якщо когнітивні машини не мають здатності до етики, то хто несе відповідальність, коли вони порушують закон? Наразі, здається, ніхто не знає. Райан Кало з юридичного факультету Вашингтонського університету зазначає, що “робототехніка вперше поєднує в собі нерозбірливість даних зі здатністю завдавати фізичної шкоди; роботизовані системи виконують завдання способами, які неможливо передбачити заздалегідь; і роботи все більше розмивають межу між людиною і інструментом”.

Процес законодавчого регулювання є надзвичайно повільним, в той час як технології, з іншого боку, прискорюють його в геометричній прогресії.

Злочини теж можуть бути досить серйозними. Нідерландському розробнику Джеффрі ван дер Гуту довелося захищати себе і свого Twitter-бота, коли поліція постукала в його двері, запитуючи про погрозу вбивством, надіслану з його Twitter-аккаунта. А ще є Random Darknet Shopper – торговий бот з щотижневим асигнуванням у розмірі 100 доларів США в біткоїнах для здійснення покупок в даркнеті для художньої виставки. Шведські чиновники були не в захваті, коли він придбав екстазі, який художник виставив на виставку. (Щоправда, на підтримку художнього самовираження вони не конфіскували наркотики до закінчення виставки. )

В обох цих випадках влада зробила все, що могла в рамках закону, але в кінцевому підсумку помилувала власників, оскільки вони не вчинили злочинів прямо або безпосередньо. Але як це перекладається, коли людина запускає ШІ зі злим умислом?

Іронічна реальність полягає в тому, що ми досліджуємо способи управління нашими автономними машинами. І окрім нашої сумнівної здатності прищепити їм етику, нас часто спантеличує їх загальна поведінка. Обговорюючи методи, що лежать в основі нейронних мереж, інженер-програміст Google Олександр Мордвінцев сказав: “…хоча це дуже корисні інструменти, засновані на відомих математичних методах, ми насправді напрочуд мало розуміємо, чому певні моделі працюють, а інші ні”.

Чи встигаємо ми?

Враховуючи всі обставини, законодавчий процес є надзвичайно повільним, в той час як технології, з іншого боку, поспішають в геометричній прогресії. Як пояснює Вівек Вадхва з Університету сингулярності, “закони не можуть встигати, тому що … закони – це, по суті, кодифікована етика. Ми виробляємо консенсус як суспільство щодо того, що добре і що погано, а потім це стає тим, що правильно і що неправильно, а потім це стає тим, що законно і що незаконно. Ось так відбувається розвиток. Щодо більшості цих технологій ми ще не вирішили, що добре, а що погано”.

Якщо закон все ж таки наздожене нас, ми можемо написати собі смертний вирок. Всі ці розмови про те, що роботи захоплять світ? Можливо, вони просто масово переходять дорогу на пішохідному переході, поки ми не ув’язнимо так багато представників нашої раси, що станемо меншістю серед автономних істот. Шах і мат.

Рекомендації редакції

Google Meet або Zoom? Незабаром це не матиме значення

  • Як ми дізнаємося, коли штучний інтелект насправді стане розумним?
  • Surface Laptop Go 2 мало чим відрізнятиметься від першого
  • Майбутнє автоматизації: Роботи йдуть, але вони не заберуть вашу роботу
  • Еволюціонуючі, самовідтворювані роботи вже тут – але не хвилюйтеся про повстання
  • Обчислювальна техніка
  • Особливості
  • Думка
  • HBO Max
  • Спеціальні можливості
  • Що буде далі: Як технології допомагають суспільству відкритися після коронавірусу
  • алгоритм виявляє фейки в соціальних мережах роботи право неправильно етика

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *