Apple пытается погасить волну возмущения: на iPhone пока что можно хранить не больше 30 запрещённых фотографий

После недели критики по поводу новой системы обнаружения фотографий сексуального насилия над детьми (CSAM) Apple заявила в пятницу, что будет искать только те изображения, которые были отмечены информационными центрами в разных странах.

Первоначально Apple не подтвердила, сколько совпадающих изображений на телефоне или компьютере должно быть найдено, прежде чем операционная система уведомит Apple о необходимости проверки этого человека и о возможном сообщении властям. В пятницу Apple подтвердила, что изначально пороговое значение было установлено на уровне 30 изображений, но по мере совершенствования системы это число может быть уменьшено.

Apple также опровергла предположение о том, что новый механизм может быть использован для таргетирования отдельных лиц: список идентификаторов изображений универсален и будет одинаковым для любого устройства, к которому он будет применен.

Apple также объяснила, что новая система создает зашифрованную хэш-базу данных материалов о сексуальном насилии над детьми на устройстве, полученных по крайней мере от двух или более организаций, работающих под патронажем отдельных национальных правительств.

Apple признала, что плохо объяснила новую стратегию, что вызвало негативную реакцию влиятельных групп по вопросам технологической политики и даже ее собственных сотрудников, которые были обеспокоены тем, что компания ставит под угрозу свою репутацию с точки зрения защиты конфиденциальности потребителей.

Apple отказалась сообщить, повлияла ли эта критика на какую-либо политику или программное обеспечение, но заявила, что проект все еще находится в разработке и все еще будет претерпевать изменения.

PriceMedia