NewsUA

Apple відклала запуск перевірки контенту для iPhone на дитяче порно

Apple відклала запуск перевірки контенту для iPhone на дитяче порно

У компанії вирішили в найближчі місяці зібрати інформацію та внести вдосконалення перед випуском системи для безпеки дітей.


Американська корпорація Apple відкладає випуск інструментів для перевірки iPhone на наявність зображень із дитячою порнографією. У компанії побоюються, що нове програмне забезпечення може піддати користувачів масштабнішим ризикам у сфері захисту персональних даних, повідомляє Apple Insider.
У повідомленні техногіганта йдеться, що це реакція на критику її плану, про який було оголошено раніше.
В Apple планували запустити систему, що розпізнає зображення з дитячим забороненим контентом і сповіщає, якщо такі знімки були завантажені в хмарний сервіс iCloud через оновлення програмного забезпечення iPhone.
Apple стверджує, що програма не порушує законодавство про захист персональних даних і що компанія знайшла спосіб аналізувати тільки той контент, який підпадає під поняття забороненого.
Водночас стверджується, якщо такий контент не буде завантажено в хмарний сервіс, система його не маркуватиме.
Втім, у компанії взяли до уваги відгуки користувачів, експертів і правозахисних організацій та "вирішили взяти додатковий час протягом найближчих місяців, щоб зібрати інформацію та внести вдосконалення перед тим, як випустити інструменти для безпеки дітей".
Коли стануть доступними ці оновлення, в Apple не уточнили.
Про те, що Apple запускає моніторинг пристроїв для боротьби з дитячою порнографією, стало відомо в серпні. Відзначається, що нова система отримала назву neuralMatch. Вона подаватиме сигнал оператору в разі підозри на наявність "незаконних зображень". Це рішення викликало критику. Тому в компанії заявили, що система скануватиме iCloud і повідомлення та відзначатиме тільки тих користувачів, у кого знайшли хоча б 30 фото з насильством над дітьми. Тільки після цього Apple зможе провести перевірку користувача і повідомити владу про порушення.