Из-за шквала критики компания Apple все же решила отложить запуск новой системы, которая должна искать среди пользовательских фото в iCloud признаки сексуального насилия над детьми.
В начале августа 2021 года компания Apple сообщила, что скоро начнет искать среди пользовательских изображений признаки сексуального насилия над детьми.
В компании рассказывали, что инициатива будет состоять из нескольких частей. Во-первых, Apple будет проверять все сообщения в Messages, полученные и отправленные детьми, в поисках наготы, и оповещать родителей, если обнаружит слишком откровенные фото.
Во-вторых, все изображения на устройствах под управлением iOS и iPadOS, которые синхронизируются с iCloud, будут сличаться с базой CSAM (child sexual abuse materials; англ. материалы, содержащие признаки сексуального насилия над детьми), которую предоставляет Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC).
В-третьих, Siri и Search научатся «вмешиваться, когда пользователи выполняют поиск по запросам, связанным с CSAM», и «объяснят пользователям, что интерес к этой теме вреден и проблематичен, а также предоставят ссылки на ресурсы партнеров для получения помощи в решении этой проблемы».
В ответ на Apple обрушился шквал критики со стороны ИБ-экспертов, правозащитников, ученых и так далее. К примеру, специалисты «Фонда электронных рубежей» (Electronic Frontier Foundation, EFF), писали, что «даже тщательно задокументированный, продуманный и строго ограниченный бэкдор по-прежнему остается бэкдором». А также предупреждали, что в странах с авторитарным режимом эта система может использоваться отнюдь не для защиты детей.
Представители Apple попытались успокоить общественность и опубликовали FAQ, посвященное новой инициативе. Однако пояснения компании тоже не нашли понимания у специалистов.
Теперь Apple сообщила, что прислушалась к критике и решила отложить внедрение новой системы на неопределенный срок.
«В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от хищников, использующих средства связи для их вербовки и эксплуатации, а также ограничить распространение материалов, содержащих признаки сексуального насилия над детьми [CSAM]. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили в ближайшие месяцы выделить дополнительное время для сбора информации и внесения улучшений, прежде чем запускать эти критически важные функции для безопасности детей», — гласит пресс-релиз, который Apple разослала сегодня СМИ.
Журналисты отмечают, что пока неясно, каким образом Apple может реализовать новую систему так, чтобы избежать давления со стороны правительств, которые наверняка захотят получить доступ к большему количества пользовательского контента. В частности, журналисты Vice Motherboard напоминают, что недавно спрашивали у представителей Apple, уйдет ли компания с китайского рынка, если местное правительство потребует использовать новую систему для других целей. Представитель Apple уклончиво ответил, что подобные решения лежат за пределами его компетенции и уровня заработной платы.