Apple отсрочила запуск проверки фото на предмет детской порнографии
Американский производитель Apple перенес проект по сканированию фото пользователей в iCloud на предмет детской порнографии. Об этом сообщает пресс-служба компании.
Технологический гигант заявлял, что функция будет использоваться в целях выявления сексуального насилия над детьми среди пользователей iPhone. Проект получил название «Расширенная защита для детей». Запуск теперь планируется в 15-м крупном обновлении iOS, которое выйдет в 2022 году.
У Apple были причины, по которым внедрение функции отложили. Компания считает, что сначала необходимо изучить реакцию пользователей и доработать алгоритмы проверки.
«Учитывая обратную связь от пользователей, общественных движений, исследователей и других лиц, мы решили в ближайшие несколько месяцев собрать дополнительную информацию и внести улучшения перед тем, как вводить эти новые функции для детской безопасности», — сообщает пресс-служба Apple.
По словам представителей компании, аккаунт попадет под подозрение в случае обнаружения 30 и более совпадений «хэшей» изображений. Соответствие будет дополнительно проверяться по базам спецслужб. Уточняется, что сами фото видны не будут. Однако эксперты считают, что это поставит под вопрос защиту частной жизни пользователей.