fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Я, Алекса: Чи варто давати штучному інтелекту права людини?

Я, Алекса: Чи варто давати штучному інтелекту права людини?

Кілька років тому тема правосуб’єктності ШІ та юридичних прав для штучного інтелекту була б чимось з розряду наукової фантастики. Власне, так воно і було.

Друга книга “Путівника автостопом по Галактиці” Дугласа Адамса “Ресторан на краю Всесвіту” розповідає про футуристичний розумний ліфт під назвою “Happy Vertical People Transporter” корпорації Sirius Cybernetics. Цей штучно інтелектуальний ліфт працює, передбачаючи майбутнє, тому він може з’явитися на потрібному поверсі, щоб забрати вас ще до того, як ви знаєте, що хочете сісти – тим самим “усуваючи всі нудні розмови, розслаблення і знайомства, які люди раніше були змушені робити в очікуванні ліфтів”.

Етичне питання, пояснює Адамс, виникає тоді, коли розумному ліфту стає нудно цілий день їздити вгору і вниз, і замість цього він вирішує поекспериментувати з пересуванням з боку в бік як “свого роду екзистенційний протест”.

  • Компанія Meta зняла DALL-E на відео, і це одночасно моторошно і дивовижно
  • Оптичні ілюзії можуть допомогти нам створити наступне покоління ШІ
  • Microsoft відмовляється від свого моторошного ШІ, що зчитує емоції

У нас ще немає розумних ліфтів, хоча, судячи з того, які розкішні штаб-квартири будують для себе такі технологічні гіганти, як Google і Apple, це може бути просто тому, що вони ще не потурбувалися про те, щоб поділитися ними з нами. Насправді, як ми неодноразово документували в Digital Trends, сфера штучного інтелекту в даний час робить можливим безліч речей, які ми ніколи не вважали реалістичними в минулому – наприклад, самокеровані автомобілі або універсальні перекладачі в стилі “Зоряного шляху”.

Чи дійшли ми до того моменту, коли потрібно думати про права для ШІ?

За своє право на ШІ треба боротися

Всім зрозуміло, що штучний інтелект наближається до того, щоб відтворити людський мозок у машині. На рівні низької роздільної здатності ми вже маємо штучні нейронні мережі з більшою кількістю нейронів, ніж у таких істот, як медоносні бджоли і таргани – і вони весь час стають більшими.

Чи дійшли ми до того моменту, коли потрібно думати про права для ШІ?

Вище по харчовому ланцюжку знаходяться масштабні проекти, спрямовані на створення більш біодостовірних алгоритмів, покликаних відтворювати роботу людського мозку, а не просто надихатися тим, як ми зберігаємо спогади. Є також проекти, спрямовані на завантаження свідомості в машинну форму, або щось на зразок так званого проекту “OpenWorm”, який має на меті відтворити коннектом – електричну схему центральної нервової системи – крихітного гермафродитного круглого черв’яка Caenorhabditis elegans, який залишається єдиним повністю картографованим коннектом живої істоти, якого змогло досягти людство.

У 2016 році в дослідженні 175 індоєвропейських

Перш ніж ми досягнемо цієї мети, коли ШІ перевершить інтелект тварин, ми повинні будемо почати розглядати, як ШІ співвідноситься з тими “правами”, які ми могли б надати тваринам через етичне поводження з ними. Думка про те, що жорстоко змушувати розумний ліфт рухатися вгору і вниз, може виявитися не такою вже й надуманою; кілька років тому англійський письменник-технолог Білл Томпсон писав, що будь-яка спроба розробити ШІ, закодований так, щоб не завдавати нам шкоди, “відображає нашу віру в те, що штучний інтелект є і завжди повинен бути на службі людству, а не бути автономним розумом”.

Однак найбільш нагальне питання, з яким ми стикаємося, стосується юридичних прав агента штучного інтелекту. Простіше кажучи, чи варто нам розглядати можливість надання їм певної форми особистості?

Це не так безглуздо, як звучить, і не означає, що ШІ “доросли” до певного статусу в нашому суспільстві. Навпаки, це відображає складну реальність тієї ролі, яку вони відіграють – і продовжуватимуть відігравати – в нашому житті.

Розумні інструменти в епоху нерозумних законів

Сьогодні наша правова система значною мірою виходить з того, що ми маємо справу зі світом, повним нерозумних інструментів. Ми можемо говорити про важливість контролю над зброєю, але ми все ще вважаємо відповідальною за злочин людину, яка стріляє в когось зі зброї, а не саму зброю. Якщо пістолет вибухає сам по собі внаслідок несправності деталі, ми звинувачуємо компанію, яка виготовила пістолет, у завданих збитках.

Поки що це мислення значною мірою екстраполюється на світ штучного інтелекту і робототехніки. У 1984 році власники американської компанії Athlone Industries опинилися в суді після того, як їх роботизовані машини для тренування бейсболістів виявилися занадто жорстокими. Справа запам’яталася головним чином тим, що суддя заявив, що позов має бути поданий проти Athlone, а не проти робота-відбивача, тому що “роботів не можна судити”.

Цей аргумент підтвердився у 2009 році, коли британський водій був змушений системою GPS їхати вузькою стежкою на схилі скелі, в результаті чого він потрапив у пастку і був змушений буксирувати машину назад на головну дорогу поліцією. Хоча він звинувачував технологію, суд визнав його винним у необережному водінні.

Шон Райан / Rapid City Journal

Проте між технологіями штучного інтелекту сьогодні (і, безумовно, майбутнього) і технологіями вчорашнього дня існує безліч відмінностей. Розумні пристрої, такі як безпілотні автомобілі або роботи, будуть не просто використовуватися людьми, а розгортатися ними – після чого вони діятимуть незалежно від наших інструкцій. Розумні пристрої, оснащені алгоритмами машинного навчання, самостійно збирають і аналізують інформацію, а потім приймають рішення. Звинувачувати творців технології теж може бути складно.

“Суди можуть засумніватися в тому, що розробник такого компонента міг передбачити шкоду, яка сталася”.

Як зазначив Девід Владек, професор права Джорджтаунського університету у Вашингтоні, округ Колумбія, в одному з небагатьох поглиблених тематичних досліджень, присвячених цій темі, величезна кількість осіб і фірм, які беруть участь у розробці, модифікації та впровадженні компонентів ШІ, може ускладнити визначення відповідальної сторони. Це має подвійне значення, коли йдеться про “чорні скриньки” систем ШІ, які незбагненні для сторонніх.

пише Владек: “Деякі компоненти могли бути розроблені за багато років до того, як проект ШІ був навіть задуманий, і розробники компонентів, можливо, ніколи не передбачали, а тим більше не мали наміру, що їхні розробки будуть включені в будь-яку систему ШІ, не кажучи вже про конкретну систему ШІ, яка завдала шкоди. За таких обставин може здатися несправедливим покладати провину на розробника компонента, чия робота була віддалена як у часі, так і в географічному розташуванні від завершення створення та експлуатації системи штучного інтелекту. Суди можуть засумніватися в тому, що розробник такого компонента міг передбачити шкоду, яка сталася”.

Це все корпорації, чувак!

Надання ШІ статусу юридичної особи не було б безпрецедентним. Корпорації вже давно мають такий статус, саме тому корпорація може володіти майном або судитися, а не робити це від імені свого генерального директора або виконавчої ради.

Хоча це не було перевірено, Шон Байерн, професор права з Університету штату Флорида, зазначив, що технічно ШІ може вже мати цей статус через лазівку, яка полягає в тому, що його можна поставити на чолі товариства з обмеженою відповідальністю, тим самим зробивши його юридичною особою. Це також може статися з податкових міркувань, якщо пропозиція на кшталт “податку на роботів” Білла Гейтса коли-небудь буде серйозно сприйнята на юридичному рівні.

Однак це не позбавлене суперечностей. Надання ШІ такого статусу позбавить творців відповідальності, якщо ШІ якимось чином здійснить дію, за яку його творець не несе явної відповідальності. Але це також може заохотити компанії бути менш старанними у використанні своїх ШІ-інструментів – оскільки вони зможуть технічно виправдовуватися тим, що ці інструменти діяли поза їхніми бажаннями.

Софія Пробуджується Епізод 1

Також не існує способу покарати ШІ, оскільки такі покарання, як ув’язнення або смерть, нічого не означають

“Я не переконаний, що це добре, особливо зараз”, – сказав доктор Джон Данахер, професор права в NUI Голуея в Ірландії, в інтерв’ю Digital Trends про правосуб’єктність для ШІ. “Я припускаю, що в осяжному майбутньому це буде зроблено в основному для того, щоб забезпечити щит відповідальності для людей і замаскувати антисоціальну діяльність”.

Це дуже цікава сфера для дослідження, оскільки вона не спирається на жодні критерії, що досягаються з точки зору завжди суб’єктивної свідомості.

“Сьогодні корпорації мають юридичні права і вважаються юридичними особами, в той час як більшість тварин такими не є”, – зазначає Юваль Ной Харарі, автор книг “Sapiens: Коротка історія людства” і “Homo Deus: Коротка історія завтрашнього дня”, – розповів нам Юваль Ной Харарі. “Навіть незважаючи на те, що корпорації явно не мають свідомості, особистості та здатності відчувати щастя і страждання, в той час як тварини є свідомими істотами”.

“Незалежно від того, чи розвине ШІ свідомість, можуть існувати економічні, політичні та юридичні причини для того, щоб надати йому особистість і права так само, як корпораціям надаються особистість і права. Дійсно, ШІ може домінувати над певними корпораціями, організаціями і навіть країнами. Цей шлях рідко обговорюється

Наразі ці теми все ще відгонять науковою фантастикою, але, як зазначає Харарі, вони можуть залишатися такими недовго. Виходячи з їх використання в реальному світі і дуже реальних зв’язків, які виникають з ними, такі питання, як хто несе відповідальність, якщо ШІ спричиняє смерть людини, або чи може людина одружитися зі своїм ШІ-помічником, безсумнівно, будуть вирішуватися ще за нашого життя.

Universal Pictures

“Рішення про надання індивідуальності будь-якому об’єкту значною мірою розпадається на два підпитання”, – сказав Данахер. “Чи слід розглядати цю істоту як морального агента, а отже, нести відповідальність за те, що вона робить? І чи слід ставитися до нього як до морального пацієнта, і, відповідно, захищати його від певних втручань і порушень його цілісності? Я вважаю, що до ШІ не слід ставитися як до моральних агентів, принаймні, поки що. Але я думаю, що можуть бути випадки, коли до них слід ставитися як до моральних пацієнтів. Я думаю, що люди можуть формувати значну прив’язаність до штучних компаньйонів і, відповідно, в багатьох випадках було б неправильно перепрограмувати або знищувати ці сутності. Це означає, що ми можемо бути зобов’язані перед ШІ не пошкоджувати і не порушувати їхню цілісність”.

Іншими словами, ми не повинні дозволяти компаніям обходити питання відповідальності, коли мова йде про інструменти ШІ, які вони створюють. Оскільки системи штучного інтелекту впроваджуються в реальний світ у всьому, від самокерованих автомобілів до фінансових трейдерів та автономних дронів і роботів у бойових ситуаціях, життєво важливо, щоб хтось відповідав за те, що вони роблять.

Водночас було б помилкою думати, що ШІ має такі ж стосунки з нами, які ми мали з попередніми нерозумними технологіями. Існує крива навчання, і якщо ми ще не досягли того технологічного рівня, коли нам потрібно турбуватися про жорстоке поводження зі штучним інтелектом, це не означає, що це неправильне питання, яке потрібно ставити.

Тож перестаньте кричати на Siri, коли вона не чує вас і запитує, чи хочете ви, щоб вона шукала в Інтернеті, добре?

Рекомендації редакції

Цього року я використовував чат-бота ChatGPT AI для святкового шопінгу

  • Я подав свою безглузду ідею стартапу роботові-інвестору
  • Як ми дізнаємося, коли АІ дійсно стане розумним?
  • Технологія АІ Zoom для розпізнавання емоцій під час дзвінків засмутила критиків
  • Останній штрих: як вчені наділяють роботів тактильними відчуттями, подібними до людських
  • ai особистість етика питання hanson robotics софія

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *