Безопасна ли новая функциональность Apple?

Давайте рассмотрим потенциальные угрозы, создаваемые новой технологией Apple для блокировки нежелательного медиаконтента. Давайте изучим, какие методы используют другие компании для решения аналогичных проблем. Давайте оценим правовые последствия для владельцев устройств.

Введение

5 В августе 2021 года на брифинге Apple сотрудники компании сделали заявление о том, что они будут сканировать устройства пользователей на наличие запрещенного контента. Они аргументировали такое заявление заботой компании о противодействии распространению медиаконтента с насилием в отношении детей и детской порнографией. Эти действия вызвали волну негативных откликов со стороны пользователей продуктов компании, которые заподозрили ее в нарушении основных общественных свобод, таких как конфиденциальность личной жизни и конфиденциальность сообщений, гарантированных Конституциями многих стран, и в потенциальном нарушении конфиденциальности их устройств. Насколько безопасна новая функциональность, реализованная Apple для пользователей? Мы постараемся дать ответы на эти вопросы в этой статье.

Что говорит Apple?

Конечно, после таких заявлений компания сразу же получила порцию резкой критики в свой адрес. И почти сразу же, вслед за неумолимым Хейтом в ее адрес, она опубликовала документ "Расширенная защита часто задаваемых вопросов детям", в котором описывается: как будет реализована эта технология.

Основными тезисами документа являются следующие заверения пользователей:

  • указано, что никакие данные не будут переданы правоохранительным органам;

  • сканироваться будут не сами устройства пользователей, а только мультимедийные файлы, резервные копии которых хранятся в облачном хранилище iCloud, и файлы, передаваемые с помощью iMessage;

  • Siri и поиск будут иметь соответствующие встроенные механизмы для предотвращения поиска контента, содержащего детскую порнографию и сцены жестокого обращения с детьми;

  • заявленная функциональность не работает с отключенной функцией фотографий iCloud и не сканирует мультимедийные файлы, расположенные на устройстве;

  • утверждается, что вероятность ложного обнаружения крайне мала;

  • переписка в iMessage остается такой же безопасной. Никто не получит доступа к сообщениям, которыми обмениваются пользователи;

  • компания заверяет пользователей, что никакие незаконные изображения не будут загружены на их устройства в качестве образцов для сравнения (прибл. Автор: это соответствует логике алгоритма PhotoDNA, который будет обсуждаться ниже).

Компания видит два основных способа использования новой технологии:

Таким образом, владельцам устройств Apple предлагается не беспокоиться.

Конфиденциальность устройств будет сохранена. Никто из посторонних не получит доступа к данным, хранящимся на устройстве, или к переписке, передаваемой через iMessage. Никто не будет загружать незаконные мультимедийные файлы на устройства пользователей, и тогда их там не найдут.

Возможности PhotoDNA

Технология противодействия распространению незаконного мультимедийного * — * контента известна уже давно и широко используется в западных странах. Это основано на двух факторах:

  1. В связи с тем, что в ряде западных стран действует прецедентное право, изображение или видео, признанные судом хотя бы один раз незаконным контентом, автоматически признаются таковыми во всех последующих случаях его обнаружения.

  2. В ряде стран существует суровая уголовная ответственность не только за распространение такого контента, но даже за его хранение.

Каким бы нелепым это ни казалось, в силу вышеперечисленных двух причин, при задержании бандитов, убийц, насильников и других криминальных личностей на их устройствах, в первую очередь, полиция начинает искать не доказательства их преступлений, а незаконный медийный контент. Если такое будет обнаружено, работа полиции с задержанными серьезно облегчится, а защитники соответственно усложнятся.

Первоначально для поиска такого контента использовался метод поиска по хэшу. Для всех файлов, расположенных на устройствах задержанного, были рассчитаны хэш-значения сумм * — * (эти значения уникальны для каждого файла), которые были сопоставлены с базой данных хэшей незаконного медиаконтента. Такие базы данных, называемые "Хэш-наборами" (хэш-базами данных), поддерживаются и поддерживаются уполномоченными учреждениями (например, в США — это Национальная справочная библиотека программного обеспечения). Поскольку значение хэша не может быть использовано для восстановления исходного файла (с незаконным контентом), базы данных таких хэшей находятся в свободном доступе и доступны не только сотрудникам полиции, но и любому пользователю Интернета. Использование таких наборов хэшей интегрировано в любой более или менее продвинутый инструмент для криминалистического исследования компьютерных носителей данных.

Однако у этого метода есть один серьезный недостаток: изменение буквально одного байта в исходном файле приводит к тому, что файл будет иметь новое значение хэша и, следовательно, программы судебной экспертизы не обнаружат такое измененное изображение как незаконный контент. Распространители такого контента не преминули воспользоваться этим обстоятельством.

Чтобы противодействовать этому моменту, подразделение Microsoft-Microsoft Research и Хани Фарид (Hany Farid), разработало метод под названием PhotoDNA, который позволяет устранить этот недостаток. Суть метода заключается в том, что исходное незаконное изображение сегментируется и преобразуется. Каждый сегмент имеет свой собственный уникальный хэш, который в совокупности формирует уникальный шаблон для изображения, позволяющий идентифицировать даже незаконное изображение, которое было изменено: изменение размера, обрезка краев изображения, изменение яркости/контрастности изображения и т.д.

Эта технология широко используется в сервисах Microsoft (Bing и OneDrive) и других интернет-гигантах (Gmail, Twitter, Facebook, Adobe Systems, Reddit, NCMEC и др.) для автоматического удаления незаконного контента. Корпорация Майкрософт предоставляет доступ к этой технологии бесплатно.

Несмотря на то, что Apple не раскрывает деталей, скорее всего, технология обнаружения незаконного медиаконтента, которую будет использовать компания, является своего рода производной технологии PhotoDNA (или непосредственно к ней).

Риски использования функций Apple

Опыт использования PhotoDNA мировыми интернет — гигантами составляет около 10 лет. В то же время общественность не слышала о громких скандалах, связанных с разглашением данных владельцев большого количества нелегального контента. Это оставляет надежду на то, что владельцы устройств Apple, если на их устройствах будет обнаружен незаконный контент, не будут привлечены к ответственности, и компания ограничится технической блокировкой (или банальным удалением) такого контента. Об этом также заявляют сами сотрудники Apple, заявляя, что "такая информация не будет передана правоохранительным органам".

Если это происходит именно так, как указано, то происходящее вызывает легкое недоумение, так как затраченные силы и средства явно не соответствуют тому результату, который планируется получить.
С другой стороны, мы можем определенно сказать, что функции поиска такого контента будут интегрированы непосредственно в операционные системы Apple: iOS, macOS, watchOS и iPadOS. Это, в случае изменения политики компании, а мы видим, что это происходит сейчас, приведет к последствиям, которые в настоящее время невозможно предсказать. Например, если у владельца устройства сейчас обнаружится незаконный контент, а в будущем (через несколько лет) результаты сканирования будут переданы в правоохранительные органы, не приведет ли это к уголовному преследованию владельца устройства? Скорее всего, это приведет, поскольку такое преступление в ряде стран относится к тяжким преступлениям. Будет ли это ограничивать свободу передвижения владельца устройства (ведь он не сможет въехать на территорию США и ряда других стран, где предусмотрена уголовная ответственность за подобные действия)? Будет ли подан в суд человек, купивший подержанный iPhone из его рук, который ранее содержал незаконный контент? Кто будет привлечен к ответственности, если незаконный контент будет обнаружен в облачном хранилище (Общий доступ к фотографиям iCloud), доступном нескольким владельцам устройств Apple? К сожалению, на сегодняшний день дать ответы на эти вопросы невозможно. Вы можете только следить за развитием ситуации.

Заключение

Объявление Apple о функции обнаружения и блокирования распространения медиаконтента с насилием в отношении детей и детской порнографией, безусловно, заслуживает всяческого одобрения. Следует четко понимать, что другие интернет — гиганты (Microsoft, Google и т.д.) Уже давно используют аналогичную функциональность для автоматической блокировки и удаления такого контента в своих сетях и на своих серверах. Тем не менее, по ряду причин Apple является особым игроком на рынке и предоставляет своим клиентам полную экосистему устройств и сервисов, механизмы блокировки, реализованные компанией, по-прежнему вызывают вопросы как с точки зрения возможной технической реализации, так и с точки зрения возможных юридических последствий для владельцев устройств, содержащих незаконный контент, владельцев, имеющих доступ к определенным облачным папкам в iCloud, или покупателей устройств, на которых ранее размещался такой контент. До сих пор невозможно предсказать, как далеко зайдет компания в своем стремлении бороться с распространением незаконного медиаконтента

PriceMedia