Apple подтвердила, что с 2019 года сканирует почту iCloud на наличие запрещенных фотографий с сексуальным насилием над детьми (CSAM). Однако до сих пор компания не сканирует фотографии iCloud или резервные копии iCloud.
Эта информация появилась после того, как 9to5mac попросили прокомментировать странное заявление главы информационной службы компании Эрика Фридмана, в котором он отметил, что Apple является "величайшей платформой для распространения детского порно". Если Apple не сканировала фотографии пользователей, то откуда взялись такие выводы?
Apple стремится защищать детей во всей нашей экосистеме, где бы ни использовались наши продукты, и мы продолжаем поддерживать инновации в этой области. Мы разработали надежные инструменты безопасности на всех уровнях нашей программной платформы и по всей цепочке поставок. В рамках этого обязательства Apple использует технологию сопоставления изображений, чтобы помочь выявлять случаи эксплуатации детей и сообщать о них. Подобно спам-фильтрам в электронной почте, наши системы используют электронные подписи для обнаружения подозрений в эксплуатации детей. Мы проверяем каждый матч с помощью индивидуального обзора. Учетные записи с контентом, использующим детей, нарушают наши условия предоставления услуг, и любые учетные записи, которые мы обнаружим с этим материалом, будут отключены.
Эрик Фридман
Итак, Apple подтвердила, что с 2019 года она будет сканировать исходящую и входящую почту iCloud на предмет вложений CSAM. Электронная почта не зашифрована, поэтому сканирование вложений при передаче почты через серверы Apple было тривиальной задачей.
Apple также указала, что выполняет ограниченное сканирование других данных, но не уточнила, каких именно. В то же время было отмечено, что "другие данные" не включают резервные копии iCloud и фотографий iCloud.