fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Безпека на дорозі з безпілотниками: час пригальмувати вагонетку

Зараз безпілотним автомобілем вже нікого не здивуєш. Здається, ось-ось настануть часи, коли роль водія за кермом повністю буде виконувати штучний інтелект. Чи готове людство до таких змін?
Як повинні працювати безпілотні авто? Чи повинні вони бути запрограмовані насамперед на те, щоб піклуватися про життя і здоров’я пішоходів, або навпаки, дбати про безпеку пасажирів? Останнім часом дуже популярним інструментом для з’ясування моральних аспектів використання таких автомобілів став уявний експеримент, який називають проблемою вагонетки.
Уявіть ситуацію: вагонетка зійшла з рейок і мчить у напрямку, де п’ять осіб виконують ремонтні роботи. Вони однозначно загинуть, якщо вагонетку не перевести на іншу колію, але на цьому шляху також працює одна людина. Натиснувши на стрілку, ви вб’єте одного робітника, а залишивши все як є, вб’єте аж п’ятьох. Якими будуть ваші дії? Власне, це найпопулярніша з версій цього уявного експерименту. Виникає питання, чи доречно застосовувати популярну в 1970-х роках філософську задачу в сучасних умовах і намагатися з її допомогою вирішити морально-етичні дилеми використання штучного інтелекту.
Уявний експеримент чи реальність
Вчений, автор і редактор видання The Atlantic Іен Богост (Ian Bogost) вважає, що задача про вагонетку не враховує всіх особливостей функціонування безпілотних автомобілів. Застосовуючи її для пошуку відповідей на питання щодо моральних і правових аспектів використання таких авто, ми ризикуємо отримати однобокі висновки.
Завдяки філософу Джудіт Джарвіс Томсон (Judith Jarvis Thomson), уявний експеримент про вагонетку набув неабиякої популярності у середині 1970 років, проте саму проблему ще в 1967 році сформулювала британка Філіпа Фут (Philippa Foot). Насамперед вона намагалася дослідити різницю між тим, що людина збирається зробити і тим, які наслідки вона передбачає. Вчений переконана, що необхідно розуміти різницю між дією і бездіяльністю, уникненням шкоди і наданням допомоги. Отже, центральною темою дослідження Філіппи Фут був саме моральний аспект поведінки.
Але коли мова йде про майбутнє безпілотних транспортних засобів, мораль і етика зазвичай залишаються поза увагою. Незважаючи на стрімкий розвиток технологій, людей в основному цікавлять саме наслідки використання робототехніки. У філософії такий підхід називається консеквенционализмом. Поки що головним аргументом на користь безпілотних авто є підвищення рівня безпеки на дорогах. У 2016 році в автокатастрофах в Америці загинуло понад 37 тис. осіб. Оскільки в 94% випадків причиною аварії стала помилка водія, заміна людини на машину має очевидну перевагу для суспільства. Але, зосереджуючись виключно на наслідки, ми ризикуємо залишити в стороні моральних аспектів функціонування робокаров.
Нещодавно в штаті Арізона безпілотник Über збив 49-річну Елейн Хертцберг (Elaine Hertzberg), і жінка померла в результаті нещасного випадку. Існує думка, що незабаром завдяки безпілотних авто кількість смертей пішоходів значно скоротиться або взагалі буде дорівнює нулю і що кожна смерть – це, звичайно, велике горе, але якщо завдяки безпілотних автомобілів можна буде запобігти тисячі летальних випадків, одну загибель все ж можна виправдати. З цієї позиції смерть Елейн Хертцберг нічим не відрізняється від загибелі численних пішоходів, збитих живими водіями.
Моральна статистика і моральна машина
Можливо, з точки зору статистики це так і є, але з точки зору етики – навряд чи. Щоб застосувати задачу про вагонетку до цього ДТП, треба бути повністю впевненими в тому, що транспортний засіб бачило пішохода, тому в цьому випадку проблема вагонетки – не дуже точний інструмент. До того ж, вона не враховує всіх обставин, які можуть виникнути в реальному житті. Сама автор експерименту говорила, що насправді вагонетка навряд чи б переїхала людини, тому що потенційна жертва могла б зійти з шляху перед зіткненням. У будь-якому випадку необхідно брати до уваги всі фактори і чинники, які можуть вплинути на наслідки, і врахувати всі можливі реакції, ситуації та фактори.
Саме такий підхід використовується на онлайн-платформі Moral Machine, яку розробили інженери з MIT. Тут люди можуть поділитися своїми думками про те, як у тих чи інших ситуаціях повинен діяти штучний інтелект. Це цілком відповідає принципам функціонування систем машинного навчання, адже тут ми маємо великий набір даних. Але існує також інший підхід, який передбачає розгляд певних проблем з точки зору найбільш відповідного морального аспекту.
Заплутана ситуація
У своєму дослідженні Філіпа Фут пропонує приклад, який більше підходить до ситуації, що сталася в Арізоні, ніж проблема вагонетки. Уявіть, що в лікарняній палаті знаходиться 5 пацієнтів. Їх можна вилікувати, запустивши в приміщення певну речовину, однак у той же час у сусідній палаті, де перебуває пацієнт, якого не можна рухати, відбудеться витік отруйних газів. В цьому випадку розрахунок наслідків такий само, як і в проблемі вагонетки, однак для багатьох людей висновки не настільки очевидні.
У задачі про вагонетку перед водієм постає важкий вибір: він повинен вирішити, кому жити, а хто повинен померти. У прикладі з лікарнею і газом лікар стикається з вибором між наданням допомоги та заподіянням шкоди. Ситуація з безпілотником Über ще більш заплутана, оскільки ні виробник, ні водій, який керує транспортним засобом у автономному режимі, ні законодавець, який повинен врегулювати відповідні відносини, не знає напевно, якої шкоди можуть заподіяти машини з штучним інтелектом. Враховуючи це, в даний час проблема полягає не стільки в тому, що буде завтра, скільки у недостатньому правовому регулюванні і нестачі інформації, яку надають свою продукцію виробники безпілотних транспортних засобів. Однак, на жаль, ці теми цікавлять менше, ніж вагонетка, що ось-ось когось переїде.
Моральна удача
Якщо ми хочемо використовувати ДТП в Арізоні як прецедент, можливо, краще розглядати його як приклад моральної вдачі – концепції, запропонованої філософом Томасом Нагелем (Thomas Nagel). Уявіть, що чоловік сів за кермо у нетверезому стані, але дістався до місця призначення, не заподіявши аварійної ситуації на дорозі. Інша, сівши за кермо напідпитку, вбив дитину, яка раптово вибіг на дорогу. На перший погляд здається, що друга особа заслуговує на більш суворе громадський осуд, ніж перший, однак в обох випадках водії добровільно зробили однакові дії. Різниця лише в наслідках.
За словами Ієна Богоста, жінка, яка загинула під колесами безпілотного авто, навряд чи є виправданою жертвою заради більшого блага. Натомість він стверджує, що переваги безпілотних автомобілів, в тому числі безпека, можуть бути прикладом моральної удачі, яка полягає в тому, що таким авто більше щастить уникати ДТП.
Коли мова йде про моральну вдачу у випадку з безпілотниками, треба розуміти, наскільки свідомо здійснюються ті або інші дії. Водій Über передбачав і розумів наслідки власних дій? Чи може людина втрутитися, коли авто рухається в автономному режимі? Винна служба Über у цій ситуації, враховуючи, що місцеві влади штату Арізона дозволили проводити такі експерименти на дорогах, де рухаються інші транспортні засоби і пішоходи? Для вирішення етичних проблем не існує універсальної формули, яку можна застосувати до будь-яких ситуацій. Розглядаючи проблему вагонетки як зручний підхід до осмислення роботи безпілотних автомобілів, ми не беремо до уваги складні етичні аспекти й умови, в яких працюють ці машини.
Уявні експерименти використовуються для оцінки можливих результатів і переосмислення усталених концепцій. Але це не готовий рецепт, який підкаже, як саме потрібно діяти. Дехто помилково вважає, що безпілотні авто – це надійна технологія, яку вже зараз можна сміливо використовувати. Проте від такого благоденства нас відділяють роки наполегливої праці. Тим часом виробники безпілотних авто повинні надавати більше інформації про власної продукції, законодавцям слід нарешті зайнятися нормативно-правовим регулюванням, а суспільству – серйозно задуматися про моральні і правові аспекти використання безпілотних автомобілів.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *