Алгоритмы Apple будут проверять фото пользователей для выявления случаев жестокого обращения с детьми

Но есть вопросы по поводу этой системы.

По словам Мэтью Грина, профессора криптографии в Университете Джона Хопкинса, Apple готовится запустить инструмент для обнаружения жестокого обращения с детьми на фотографиях.

Он автоматически проанализирует фотографии, которые пользователь хранит и создает на своем устройстве, в поисках признаков жестокого обращения с детьми. Проще говоря, это нейронная сеть, обученная на незаконном контенте и способная обнаруживать его на других изображениях.

Эта функция будет работать по тому же принципу, что и поиск фотографий в стандартном приложении "Галерея" в iOS. Все расчеты производятся на устройстве, чтобы гарантировать конфиденциальность пользователей — до тех пор, пока система не заметит что-то подозрительное. Фотографии, которые система сочтет, возможно, содержащими незаконный контент, уже будут отправлены на проверку людьми.

Однако Грин отмечает ряд потенциальных проблем с системой. В частности, современные алгоритмы несовершенны и могут обнаруживать множество ложноположительных совпадений. Если Apple позволит правительствам стран получить доступ к этой базе данных, они потенциально смогут использовать систему для обнаружения не только незаконного контента с детьми, но и для других целей — в частности, для контроля над политической оппозицией.

Единственный способ, которым Apple может внедрить новую систему и защитить пользователей,-это использовать сквозное шифрование при передаче данных. До сих пор компания не смогла реализовать его в iCloud, но, возможно, они сделают исключение для передачи спорного контента.

Грин сообщает, что Apple готовится объявить о новом алгоритме в ближайшие дни.

PriceMedia