Apple собирается сканировать фото на айфонах людей ради «безопасности детей»
Компания Apple установит на айфонах программное обеспечение, которое будет сканировать все фото на конкретном устройстве и в iCloud. Целью программы станет обнаружение фото жесткого обращения с детьми.
Об этом сообщает Financial Times и на своем сайте подтверждает Apple. В подтверждении корпорация пишет, что она расширит онлайн-безопасность детей и будет проверять телефоны на наличие изображений с детской порнографией и размывать откровенные снимки в сообщениях ребенка. Такая функция появится на всех системах Apple – iOs, iPadOS, macOS и watchOS.
Первоначально система заработает для пользователей в США. Но уже сейчас Apple сканирует изображения на iCloud на предмет жесткого обращения с детьми. Новая система, по данным Financial Times, будет называться neuralMatch. Она будет работать следующим образом: фото пользователя преобразуют в строку чисел с помощью технологии хеширования и сравнят ее с базой данных известных изображений сексуального насилия над детьми.
Всем фото на iCloud будут выдавать «ваучеры безопасности», а также указание – является ли фото подозрительным. Если подозрительных снимков будет много, Apple расшифрует их и передаст в правоохранительные органы.
«Такой инструмент может оказаться полезным для поиска детской порнографии в телефонах. Но представьте, что он может сделать в руках авторитарного правительства?» – задается вопросом доцент Института информационной безопасности Джона Хопкинса Мэтью Грин.
Написать комментарий