Ранее сегодня мы сообщали, что исследователи программного обеспечения смогли создать конфликт в системе поиска изображений, содержащих кадры жестокого обращения с детьми. Apple ответила на это сообщение, заявив, что энтузиасты получили доступ к коду только части системы, которая, к тому же, не является окончательной. Компания заверяет, что в окончательной версии программного обеспечения ложные срабатывания будут полностью исключены.
Apple объяснила, что ее технология намного сложнее, чем механизм нейронной связи, который является лишь ее частью. По данным компании, функция обнаружения незаконных изображений будет работать непосредственно на устройстве пользователя, в отличие от решений Google и Microsoft, которые работают в облаке. Система будет сканировать фотографии, загруженные пользователями в iCloud. Если она обнаружит более 30 незаконных изображений, она сообщит об этом в правоохранительные органы. Чтобы исключить ошибки, результаты будут проверены реальными людьми. Многоуровневая проверка должна полностью исключить ложные срабатывания.
Apple заявила, что версия NeuralHash, воссозданная и протестированная энтузиастами, не является окончательной. Компания также представила алгоритм, чтобы исследователи безопасности могли убедиться, что он работает должным образом. Apple обращает внимание на то, что один из этапов проверки изображений будет проводиться экспертами компании, поэтому, даже если злоумышленники смогут пометить обычные изображения как незаконные, эксперты отметят триггер как ложный.
С тех пор как Apple представила систему отслеживания изображений, содержащих кадры жестокого обращения с детьми, эксперты по безопасности и представители общественности выразили обеспокоенность возможными сценариями злоупотребления ее возможностями. Компания пытается развеять опасения, публикуя техническую документацию и поддерживая диалог со скептически настроенными пользователями.