Безопасна ли новая функциональность Apple?

Давайте рассмотрим потенциальные угрозы, создаваемые новой технологией Apple для блокировки нежелательного медиаконтента. Давайте изучим, какие методы используют другие компании для решения подобных проблем. Давайте оценим юридические последствия для владельцев устройств.

Введение

5 В августе 2021 года на брифинге Apple сотрудники компании сделали заявление о том, что они будут сканировать устройства пользователей на наличие запрещенного контента. Они аргументировали такое заявление заботой компании о противодействии распространению медиа-контента с насилием в отношении детей и детской порнографией. Эти действия вызвали волну негативных откликов со стороны пользователей продуктов компании, которые заподозрили ее в нарушении основных общественных свобод, таких как неприкосновенность частной жизни и конфиденциальность сообщений, гарантированных Конституциями многих стран, и в потенциальном нарушении конфиденциальности их устройств. Насколько безопасна новая функциональность, реализованная Apple для пользователей? Мы постараемся дать ответы на эти вопросы в этой статье.

Что говорит Apple?

Разумеется, после таких заявлений компания сразу же получила порцию резкой критики в свой адрес. И почти сразу же, вслед за неумолимым Хейтом в ее адрес, она опубликовала документ "Расширенные меры защиты детей, часто задаваемые вопросы", в котором описывается: как будет реализована эта технология.

Основными тезисами документа являются следующие заверения пользователей:

  • указано, что никакие данные не будут переданы правоохранительным органам;

  • сканироваться будут не сами устройства пользователей, а только мультимедийные файлы, резервные копии которых хранятся в облачном хранилище iCloud, и файлы, передаваемые с помощью iMessage;

  • Siri и Поиск будут иметь встроенные соответствующие механизмы, предотвращающие поиск контента, содержащего детскую порнографию и сцены жестокого обращения с детьми;

  • заявленная функциональность не работает с отключенной функцией фотографий iCloud и не сканирует мультимедийные файлы, расположенные на устройстве;

  • утверждается, что вероятность ложного обнаружения крайне низка;

  • переписка в iMessage остается такой же безопасной. Никто не получит доступ к сообщениям, которыми обмениваются пользователи;

  • компания заверяет пользователей, что никакие незаконные изображения не будут загружены на их устройства в качестве образцов для сравнения (прим. Автор: это соответствует логике алгоритма PhotoDNA, который будет рассмотрен ниже).

Компания видит два основных способа использования новой технологии:

Таким образом, владельцам устройств Apple предлагается не беспокоиться.

Конфиденциальность устройств будет сохранена. Никто из посторонних не получит доступа к данным, хранящимся на устройстве, или к переписке, передаваемой через iMessage. Никто не будет загружать незаконные мультимедийные файлы на устройства пользователей, и тогда их там не найдут.

Возможности фотоднк

Технология противодействия распространению незаконного мультимедийного * — * контента известна давно и широко используется в западных странах. Это основано на двух факторах:

  1. В связи с тем, что в ряде западных стран существует прецедентное право, изображение или видео, признанное судом хотя бы один раз незаконным контентом, автоматически признается таковым во всех последующих случаях его обнаружения.

  2. В ряде стран существует суровая уголовная ответственность не только за распространение такого контента, но даже за его хранение.

Каким бы нелепым это ни казалось, в силу двух вышеперечисленных причин, при задержании бандитов, убийц, насильников и других криминальных личностей на их устройствах, в первую очередь, полиция начинает искать не доказательства их преступлений, а незаконный медиаконтент. Если такое обнаруживается, то работа полиции с задержанными серьезно облегчается, а защитники соответственно усложняются.

Изначально для поиска такого контента использовался метод хэш-поиска. Для всех файлов, расположенных на устройствах задержанного, были рассчитаны хэш-значения сумм * — * (эти значения уникальны для каждого файла), которые были сопоставлены с базой данных хэшей незаконного медиаконтента. Такие базы данных, называемые "Хэш-наборами" (хэш-базами данных), поддерживаются и поддерживаются уполномоченными учреждениями (например, в Соединенных Штатах — это Национальная справочная библиотека программного обеспечения). Поскольку значение хэша не может быть использовано для восстановления исходного файла (с незаконным контентом), базы данных таких хэшей находятся в свободном доступе и доступны не только сотрудникам полиции, но и любому пользователю Интернета. Использование таких наборов хэшей интегрировано в любой более или менее продвинутый инструмент для криминалистического исследования компьютерных носителей данных.

Однако у этого метода есть один серьезный недостаток: изменение буквально одного байта в исходном файле приводит к тому, что файл будет иметь новое хэш-значение и, следовательно, программы судебной экспертизы не будут обнаруживать такое измененное изображение как незаконный контент. Распространители такого контента не преминули воспользоваться этим обстоятельством.

Чтобы противодействовать этому моменту, подразделение Microsoft-Microsoft Research и Хани Фарид (Hany Farid), разработало метод под названием PhotoDNA, который позволяет устранить этот недостаток. Суть метода заключается в том, что исходное незаконное изображение сегментируется и преобразуется. Каждый сегмент имеет свой собственный уникальный хэш, которые вместе образуют уникальный шаблон для изображения, что позволяет идентифицировать даже незаконное изображение, которое было изменено, подвергнуто: изменению размера, обрезке краев изображения, изменению яркости/контрастности изображения и т.д.

Эта технология широко используется в сервисах Microsoft (Bing и OneDrive) и других интернет-гигантов (Gmail, Twitter, Facebook, Adobe Systems, Reddit, NCMEC и др.) для автоматического удаления незаконного контента. Корпорация Майкрософт предоставляет доступ к этой технологии бесплатно.

Несмотря на то, что Apple не раскрывает подробностей, скорее всего, технология обнаружения нелегального медиаконтента, которую будет использовать компания, является своего рода производной технологии PhotoDNA (или непосредственно к ней).

Риски использования функций Apple

Опыт использования PhotoDNA мировыми интернет — гигантами составляет около 10 лет. В то же время общественность не слышала о громких скандалах, связанных с раскрытием данных владельцев большого количества нелегального контента. Это оставляет надежду на то, что владельцы устройств Apple, если на их устройствах будет обнаружен нелегальный контент, не будут привлечены к ответственности, и компания ограничится технической блокировкой (или банальным удалением) такого контента. Об этом также заявляют сами сотрудники Apple, заявляя, что "такая информация не будет передана правоохранительным органам".

Если это происходит именно так, как указано, то происходящее вызывает легкое недоумение, поскольку затраченные силы и средства явно не соответствуют тому результату, который планируется получить.
С другой стороны, можно однозначно заявить, что функции поиска такого контента будут интегрированы непосредственно в операционные системы Apple: iOS, macOS, watchOS и iPadOS. Это, в случае изменения политики компании, а мы видим, что это происходит сейчас, приведет к последствиям, которые в настоящее время невозможно предсказать. Например, если у владельца устройства сейчас обнаружится незаконный контент, а в будущем (через несколько лет) результаты сканирования будут переданы в правоохранительные органы, не приведет ли это к уголовному преследованию владельца устройства? Скорее всего, это приведет, поскольку такое преступление в ряде стран относится к тяжким преступлениям. Ограничит ли это свободу передвижения владельца устройства (ведь он не сможет въехать на территорию США и ряда других стран, где за подобные действия предусмотрена уголовная ответственность)? Не будет ли человек, купивший подержанный iPhone своими руками, на котором ранее был незаконный контент, привлечен к суду? Кто будет привлечен к ответственности, если незаконный контент будет обнаружен в облачном хранилище (Общий доступ к фотографиям iCloud), доступном нескольким владельцам устройств Apple? К сожалению, на сегодняшний день невозможно дать ответы на эти вопросы. Вы можете только следить за развитием ситуации.

Заключение

Объявление Apple о функции обнаружения и блокировки распространения медиаконтента с насилием в отношении детей и детской порнографией, безусловно, стоит всячески приветствовать. Следует четко понимать, что другие интернет — гиганты * — * (Microsoft, Google и т.д.) уже давно используют аналогичную функциональность для автоматического блокирования и удаления такого контента в своих сетях и на своих серверах. Тем не менее, по ряду причин Apple является особым игроком на рынке и предоставляет своим клиентам полную экосистему устройств и услуг, механизмы блокировки, реализованные компанией, по-прежнему вызывают вопросы как с точки зрения возможной технической реализации, так и с точки зрения возможных юридических последствий для владельцев устройств, содержащих незаконный контент, владельцев, имеющих доступ к определенным облачным папкам в iCloud, или покупателей устройств, на которых ранее размещался такой контент. Пока невозможно предсказать, как далеко зайдет компания в своем стремлении бороться с распространением нелегального медиаконтента

PriceMedia