fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Технології

Дрони і безпілотні автомобілі як зброя: чому нам потрібно боятися хакерів

Якщо штучний інтелект потрапить не в ті руки, цивілізований світ може зануритися в хаос.
Ніхто не стане заперечувати, що штучний інтелект може вивести наше життя на новий рівень. ІЇ в змозі вирішити безліч проблем, які не під силу людині.
Однак багато хто вважає, що надрозум обов’язково захоче знищити нас, як SkyNet, або почне проводити досліди над людьми, як GLADoS з гри Portal. Іронія в тому, що зробити штучний інтелект добрим або злим можуть тільки люди.
Ну як не захопити світ після такого
Дослідники з Єльського університету, Оксфорда, Кембриджа і компанії OpenAI опублікували звіт на тему зловживання штучним інтелектом. У ньому говориться, що реальна небезпека виходить від хакерів. З допомогою шкідливого коду вони можуть порушити роботу автоматизованих систем під управлінням ШІ.
Дослідники побоюються того, що технології, створені з благими намірами, будуть використовуватися на шкоду. Наприклад, засоби спостереження можуть застосовувати не тільки для упіймання терористів, але і для стеження за простими громадянами. У дослідників також викликають занепокоєння комерційні дрони, які доставляють продукти харчування. Їх легко перехопити і підкласти щось вибухонебезпечне.
Ще один сценарій руйнівного використання ШІ — безпілотні автомобілі. Досить змінити кілька рядків коду, і машини почнуть ігнорувати правила безпеки.
У грі Watch Dogs хакер отримав контроль над усіма системами міста, і ось що з цього вийшло
Вчені вважають, що загроза може бути цифровою, фізичної та політичної.
Штучний інтелект вже використовується для вивчення вразливостей різних програмних кодів. В майбутньому хакери можуть створити такого бота, який обійде будь-який захист.
З допомогою ШІ людина може автоматизувати багато процеси: наприклад, управляти роєм безпілотників або групою автомобілів.
З допомогою таких технологій, як DeepFake, можна впливати на політичне життя держави, поширюючи неправдиву інформацію про світових лідерів з допомогою роботів в інтернеті.
?
Ці страхітливі приклади поки що існують лише в якості гіпотези. Автори дослідження не пропонують повної відмови від технологій. Замість цього, вони вважають, що уряди країн і великі компанії повинні подбати про безпеку, поки індустрія штучного інтелекту тільки зароджується.
Політики повинні вивчати технологію і працювати разом з експертами в цій області, щоб ефективно регулювати створення і використання штучного інтелекту.
Розробники, у свою чергу, повинні оцінювати небезпеку, витікаючу від високих технологій, передбачати гірші наслідки і попереджати про них світових керівників. У доповіді міститься заклик до розробників ІІ: об’єднатися з експертами з безпеки в інших областях і з’ясувати, чи можна використовувати принципи, що забезпечують безпеку цих технологій, для захисту штучного інтелекту.
Повний звіт описує проблему більш детально, але суть в тому, що ШІ — потужний інструмент. Всі зацікавлені сторони повинні вивчити нову технологію і переконатися, що вона не використовується в злочинних цілях.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *