В ответ на критику компания Apple опубликовала FAQ , в котором отвечает на вопросы, касающиеся новой инициативны компании по поиску изображений, имеющих признаки сексуального насилия над детьми.

Предыстория

В конце прошлой недели весь мир взбудоражила новость о том, что компания Apple скоро начнет искать среди пользовательских изображений признаки сексуального насилия над детьми.

В компании рассказали, что инициатива будет состоять из нескольких частей. Во-первых, Apple будет проверять все сообщения в Messages, полученные и отправленные детьми, в поисках наготы, и оповещать родителей, если обнаружит слишком откровенные фото.

Во-вторых, все изображения на устройствах под управлением iOS и iPadOS, которые синхронизируются с iCloud, будут сличаться с базой CSAM (child sexual abuse materials; англ. материалы, содержащие признаки сексуального насилия над детьми), которую предоставляет Национальный центр пропавших без вести и эксплуатируемых детей (NCMEC).

В-третьих, Siri и Search научатся «вмешиваться, когда пользователи выполняют поиск по запросам, связанным с CSAM», и «объяснят пользователям, что интерес к этой теме вреден и проблематичен, а также предоставят ссылки на ресурсы партнеров для получения помощи в решении этой проблемы».

Как мы уже рассказывали ранее, в ответ на Apple обрушился шквал критики со стороны ИБ-экспертов, правозащитников, ученых и так далее. К примеру, специалисты «Фонда электронных рубежей» (Electronic Frontier Foundation, EFF), писали, что «даже тщательно задокументированный, продуманный и строго ограниченный бэкдор по-прежнему остается бэкдором». А также предупреждали, что в странах с авторитарным режимом эта система может использоваться отнюдь не для защиты детей.

Эрик Рескорла (Eric Rescorla), технический директор Mozilla, и вовсе опубликовал технический анализ новой системы Apple, из которого следует, что безопасность такого сканирования в поисках CSAM-файлов полностью зависит от поведения Apple и доверия к компании. Дело в том, что ранее Apple заявила, что новая функциональность не будет работать, если у пользователей отключена синхронизация с iCloud, и не затронет «частные библиотеки фотографий на устройствах».

«Важно понимать, что в системе нет ничего, что помешало бы Apple сканировать фотографии, которые никогда не покидают устройство; они просто решили этого не делать», — объясняет Рескорла.

Также в сети уже появилось открытое письмо к Apple, которое подписали более 7000 физических лиц и множество организаций. В письме от Apple требуют пересмотреть позицию по поводу развертывания этой технологий и не «подрывать фундаментальные меры защиты конфиденциальности для всех пользователей продуктов Apple».

FAQ

Теперь представители Apple опубликовали FAQ, в котором попытались ответить на многочисленные вопросы, возникающие у специалистов и общественности, а также развеять опасения пользоватлей.

Один из вопросов  гласит: «Могут ли правительства вынудить Apple добавить в список хешей изображения, не относящиеся к CSAM?». И компания отвечает:

«Apple отклонит любые подобные требования. <…> Мы и ранее сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшат конфиденциальность пользователей, и упорно отказывались от таких требований. Мы продолжим отказывать им в будущем».

На юристов такой ответ не произвел  впечатления. Например, Элизабет Джо, профессор права Калифорнийского университета в Дэвисе, пишет вTwitter:

 «То есть, по сути, все, что стоит между пользователями и правительствами, требующими [добавления] в список хешей изображений, не относящихся к CSAM, —  это твердый отказ Apple?».

На это бывший заместитель генерального юрисконсульта Google Дафна Келлер, отвечает Джо:

 «Говорю как человек, который судился и проиграл именно по этому вопросу в трех разных странах (Великобритания, Германия, Франция), могу уверенно заявить, что твердый отказ добавлять новые фильтры, не относящиеся к CSAM, не имеет никакого значения перед лицом государственной власти».

 

Подписаться
Уведомить о
4 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии