Эндрю Орр (Andrew Orr, пользователь портала "Mac Observer") обнаружил, что 9 Мая 2019 Apple обновила политику конфиденциальности, и в разделе "Как мы используем личную информацию" появился следующий пункт:
Мы также можем использовать вашу личную информацию в целях обеспечения безопасности учетной записи и сети, в том числе для защиты наших сервисов в интересах всех наших пользователей, и предварительного просмотра или сканирования загруженного контента для выявления потенциально незаконного контента, в том числе материалов о сексуальной эксплуатации детей.
Пользователь предполагает, что Apple могла делать это годами, однако упоминание об этом в политике конфиденциальности появилось только сейчас. Эндрю использовал сервис Wayback Machine, чтобы убедиться что в предыдущих версиях политики этого пункта не было.
Так же Эндрю считает, что Apple использует технологию PhotoDNA, разработанную Microsoft в 2009 году. PhotoDNA в основном используется в профилактике детской порнографии, и работает путем вычисления уникального хеша изображения. Этот хэш вычисляется так, что он устойчив к изменениям в изображении, включая изменение размера и незначительные изменения цвета. Он работает следующим образом: преобразовывает изображение в черно-белое, изменяет его размер, разбивает его на сетку, и ищет градиенты интенсивности или края объектов. Данный алгоритм используется такими компаниями, как Facebook, Twitter, Google и другими. В основном, это работает путем создания хэша фотографии или видео, и дальнейшим сравнением его с известной базой хэшей в NCVIP.
Согласно FAQ о PhotoDNA, изображения мгновенно преобразуются в безопасный хэш и не могут быть восстановлены. PhotoDNA специально используется для детской порнографии и не может быть использована для поиска другого контента.
В обзоре системы безопасности iCloud Apple сообщает, что данные клиентов шифруются при передаче и на серверах iCloud. Это касается как приложения "Фото", так и содержимого, хранящегося в iCloud Drive. Поэтому Эндрю интересуется, в какой момент Apple сканирует контент. Ясно, что перед тем, как он будет зашифрован.
Apple также хранит ключи шифрования в облаке, в соответствии с Руководством [PDF] по юридическим процессам. Благодаря этому Apple дает пользователям возможность сбросить пароль, а так же предоставляет правоохранительным органам данные в рамках повесток. Далее, юридические условия Apple для iCloud гласят следующее:
C. Удаление Материалов
Вы подтверждаете, что Apple не несет ответственности ни за какие Материалы, предоставляемые другими лицами, и не обязана проверять такие Материалы. Однако компания Apple оставляет за собой право в любое время определять, являются ли Материалы допустимыми и соответствуют ли они данному Соглашению, и может в любое время просмотреть, переместить, отклонить, изменить и/или удалить Материалы без предварительного уведомления и по своему усмотрению, если эти Материалы нарушают данное Соглашение или нежелательны в других отношениях.
Как Apple может определить допустимый ли контент или нет, если они не сканируют контент iCloud, даже несмотря на то, что он зашифрован? Или, как предполагает Эндрю, они выполняют все это сканирование во время загрузки / до шифрования.
Так же Эндрю говорит, что термин "допустимый" должен иметь четкое определение, так как в 2012 году Apple удалила сценарий прикрепленный к электронному письму, потому что он содержал строчку описывающую персонажа, который смотрел рекламу порно-сайта на компьютере.
Важной деталью является то, что сквозное шифрование для контента iCloud включается только при включении двухфакторной аутентификации. Но это не относится к iCloud Drive или приложению "Фото".
Эндрю обратился к Apple за уточнениями, но пока не получил ответ.