fbpx

Каталог статей

Каталог статей для размещения статей информационного характера

Мобільні телефони та гаджети

Apple видаляє більшість згадок про спірні функції CSAM після оновлення iOS 15.2

Apple видаляє більшість згадок про спірні функції CSAM після оновлення iOS 15.2

Цього тижня Apple випустила iOS 15.2 з безліччю нових функцій, включаючи функцію безпеки спілкування в додатку “Повідомлення”, орієнтовану на захист дітей. Однак компанія не включила до неї суперечливу функцію сканування матеріалів про сексуальне насильство над дітьми в iCloud Photos і, схоже, видалила всі згадки про її існування.

Нагадаємо, що спочатку планувалося, що iOS 15.2 матиме функцію виявлення матеріалів сексуального насильства над дітьми (CSAM). Оновлення мало реалізувати функцію сканування на пристрої, спрямовану на перевірку фотобібліотеки користувача iCloud на наявність матеріалів, що містять сексуальне насильство над дітьми (CSAM). Компанія зазначила, що буде робити це на пристрої для забезпечення максимальної конфіденційності. Експерти з питань конфіденційності заперечили, зазначивши, що сама концепція сканування фототеки користувача на наявність заборонених матеріалів є порушенням конфіденційності, яке може поширитися і на інші матеріали після того, як буде створено прецедент.

“Раніше ми оголошували про плани щодо функцій, покликаних допомогти захистити дітей від хижаків, які використовують засоби комунікації для їх вербування та експлуатації, а також допомогти обмежити розповсюдження матеріалів із зображенням сексуального насильства над дітьми. Ґрунтуючись на відгуках клієнтів, правозахисних груп, дослідників та інших, ми вирішили взяти додатковий час протягом наступних місяців, щоб зібрати інформацію та внести поліпшення, перш ніж випустити ці критично важливі функції безпеки дітей”, – йдеться в примітці Apple, яку вона раніше додала на свою оригінальну сторінку безпеки дітей.

Як помітив MacRumors, з тих пір компанія видалила цей сегмент зі сторінки і будь-яку згадку про функцію сканування фотографій в iCloud. Ми звернулися до Apple за роз’ясненнями з цього приводу.

Apple також внесла деякі незначні зміни в безпеку спілкування у функції “Повідомлення”. Замість того, щоб автоматично повідомляти батьків, якщо дитина молодше 18 років вирішила переглянути або відправити зображення оголеної натури через додаток “Повідомлення”, компанія скасувала вимогу про повідомлення у відповідь на відгуки експертів.

Замість цього, всі особи, які не досягли 18 років, тепер будуть попереджатися про те, що зображення може містити чутливі матеріали, і отримуватимуть пояснення, що таке чутливі фотографії і як вони можуть бути використані для заподіяння шкоди, замість того, щоб вказувати на характер самої відвертої фотографій.

Рекомендації редакції

  • Як iPhone 14 Plus став одним з найбільших технологічних провалів 2022 року
  • У 2023 році Apple повинна виправити свій ганебний ліміт в 5 ГБ в iCloud
  • Apple може скасувати iPhone SE 4 в наступному році – і я радий цьому
  • Ця прихована функція iOS 16 перетворила мій iPhone в ідеальний гаджет для пошуку музики
  • Новий постійно включений дисплей iOS 16.2 змусив мене зненавидіти мій iPhone 14 Pro

Source: digitaltrends.com

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *