Новости по-русски

Apple только что объявила об изменениях в обращении с материалами о жестоком обращении с детьми

Apple только что объявила об изменениях в обращении с материалами о жестоком обращении с детьми

Apple только что объявила об изменениях в обращении с материалами о жестоком обращении с детьми

Последние объявленные изменения pple в отношении использования конфиденциальности детей и незаконных материалов вызвали споры вокруг шифрования и права на неприкосновенность частной жизни. Но есть вероятность, что вы не заметите изменений в ежедневных текстовых сообщениях и фотосъемке.

В пятницу Apple объявила о новых изменениях в том, как она обрабатывает определенные изображения в своей библиотеке фотографий iCloud и определенные изображения, отправленные приложением «Сообщения». Внедрение намечено на конец этого года с выпуском iOS 15. Хотя изменения, разработанные для защиты детей от материалов откровенно сексуального характера, являются частью более серьезной борьбы с контентом о жестоком обращении с детьми, реализация компанией заставила многих утверждать, что компания ставя под угрозу его высокий стандарт шифрования. Столкнувшись с вопросами, Apple провела неделю, объясняя свои последние изменения в способах сканирования фотографий iCloud, а также изображений, отправляемых несовершеннолетним на iOS в сообщениях.

Новый инструмент Apple для обнаружения материалов о жестоком обращении с детьми начнет сканирование фотографий, загруженных в их резервную копию iCloud, на предмет материалов о жестоком обращении с детьми и заблокирует пользователей, если будет обнаружено несколько изображений. Также добавлен явный инструмент сканирования для молодых людей в сообщениях, чтобы и дети, и родители могли знать, когда они просматривают конфиденциальные изображения.

Функция сообщений, предназначенная для несовершеннолетних, будет предупреждать родителей, когда они делятся откровенно сексуальными изображениями, и, если они решат посмотреть, предупреждая родителей, чтобы они не просматривали контент, и предупреждая их, если они решат посмотреть. Apple утверждает, что инструмент сканирования изображений был обучен работе с порнографией и может обнаруживать контент сексуального характера.

Родители должны разрешить функцию безопасности общения в Сообщениях и будут уведомлены, если открыта явная картинка, если ребенку 13 лет или младше. Дети в возрасте от 13 до 17 лет по-прежнему будут получать предупреждение при открытии изображения, но их родители не получат уведомления, если изображение будет открыто.

Новый набор функций безопасности детей, созданный в сотрудничестве с Национальным центром пропавших без вести и эксплуатируемых детей , направлен на защиту детей от сексуальной активности и оскорбительных изображений. На первый взгляд может показаться, что Apple пошла на компромисс со своей намеченной целью повышения конфиденциальности пользователей с целью мониторинга изображений, и некоторые эксперты согласны с этим. Компания далеко не первая, кто проверяет активность пользователей в поисках материалов о сексуальном насилии над детьми?

Как инструмент обнаружения CSAM для фотографий iCloud, так и новое программное обеспечение для сканирования явных изображений людей считаются агрессивными защитниками конфиденциальности и экспертами по кибербезопасности. Некоторые видят в этом шаг к эрозии шифрования и конфиденциальности секретных файлов, когда доступ к библиотеке изображений пользователя любым способом может быть использован правительствами, желающими заставить Apple подыгрывать. Согласно New York Report, Apple уже разрешила гражданам Китая в китайском государстве запускать свой сервер, на котором хранятся личные данные пользователей iOS.

Новые инструменты также, похоже, противоречат твердой позиции Apple в отношении конфиденциальности и сокрытия запросов информации о клиентах из США от правоохранительных органов.

На своей странице «Безопасность детей» Apple подробно описывает изменения конфиденциальности, которые появятся в iOS и iPadOS. В нем говорится, что обнаружение фотографий будет в первую очередь использоваться для борьбы с оскорбительными изображениями и неприемлемыми материалами. В iOS будет загружено новое программное обеспечение для сканирования изображений, которое сканирует фотографии, загруженные в iCloud Photos для CSAM .

Apple , говорит , что инструмент будет сканировать изображения , прежде чем они загружены в ICloud фотографии и сравнить их в свою базу данных уникальных идентификаторов CSAM изображений с признанными отпечатками пальцев. Они указывают, что он будет сравнивать уникальные хэши изображений, а не сами изображения.

Apple заявляет, что может действовать только тогда, когда находит «коллекцию известных изображений CSAM после того, как они были загружены в вашу библиотеку фотографий iCloud». Apple заявляет, что при достижении «порога» коллекции она проверит содержимое изображений и сообщит об изображениях в NCMEC , заблокировав пользователю их Apple ID. Apple утверждает, что вероятность того, что пользователь будет помечен как ложное срабатывание, составляет один к одному триллиону.

Apple заявила, что сама по себе не просматривает фотографии, поэтому у кого-то нет шансов увидеть реальные изображения, если они не будут представлены на проверку человеком после выполнения определенных требований. Как база данных NCMEC, так и помеченные изображения не могут быть просмотрены Apple, и никто не может просматривать помеченные фотографии, пока коллекция CSAM пользователя не достигнет определенного порога изображений.

Apple не будет сканировать загруженные фотографии CSAM для приложения сообщений, а только те, которые отправлены в iCloud Photos . Только фотографии, включенные в базу данных, будут классифицированы, и никакие CSAM, найденные в базе данных, не будут помечены как таковые.

Кроме того, Apple сообщает в своих часто задаваемых вопросах, касающихся расширенной защиты, что « Apple ничего не узнает о других данных, хранящихся исключительно на устройстве.

Apple заявляет, что не намерена позволять правительствам или правоохранительным органам пользоваться преимуществами этого инструмента сканирования изображений: «Мы сталкивались с требованиями создать и внедрить санкционированные правительством изменения, которые ухудшают конфиденциальность пользователей, и мы упорно отказывались от этих требований.

Поскольку вся обработка выполняется на устройстве, Apple заявляет, что в системе сквозного шифрования нет никаких компромиссов, и наши пользователи по-прежнему защищены от подслушивания. Идея сканирования изображений на предмет неподходящих изображений уже создает тревожный эффект, поскольку в некотором роде за беседой ведется наблюдение.

Хотя каждое устройство iOS будет иметь эти инструменты, это не означает, что каждое устройство будет подвергаться сравнению изображений. Вы можете отключить загрузку фотографий в Фото iCloud, если не хотите, чтобы Apple сканировала ваши изображения. К сожалению, это серьезное препятствие, поскольку Apple заявляет, что фотографии iCloud действительно довольно популярны и являются ключевой особенностью службы iCloud, в частности.

Что касается функции безопасности в сообщениях, после включения новый инструмент сканирования изображений работает только при разговоре с пользователем младше 18 лет в общей учетной записи Apple Family.

Apple утверждает, что она внедряет эту политику сейчас из-за эффективности новых инструментов как для обнаружения CSAM, так и для сохранения конфиденциальности данных пользователей, насколько это возможно. Обнаружение CSAM происходит на устройстве, а это означает, что Apple не может видеть никаких изображений, даже CSAM , пока не будут обнаружены несколько экземпляров. Apple заявила, что инструмент сканирования изображений никогда не должен показывать Apple изображения, отличные от CSAM .

Компания не первая, которая сканирует такой контент: такие компании, как Facebook , Google и YouTube, также имеют политики CSAM , которые сканируют все загруженные изображения и видео на предмет аналогичной активности, используя аналогичную технологию «хеширования», которая сравнивает их с известной базой данных CSAM .

Многие защитники конфиденциальности и организации выражают озабоченность, когда дело доходит до сканирования фотографий пользователей и приверженности Apple конфиденциальности, несмотря на благие намерения. Критики считают, что любое программное обеспечение, которое сканирует зашифрованные данные, созданные пользователями, потенциально может быть использовано для злоупотреблений.

И у критиков последнего изменения Apple есть масса доказательств, подтверждающих их. Electronic Frontier Foundation в своем заявлении утверждает, что нет безопасного способа построить такую систему, не ставя под угрозу безопасность пользователей, и указывает, что аналогичные службы сканирования были перепрофилированы с небольшим надзором для сканирования изображений, связанных с терроризмом.

«Не заблуждайтесь: это новая функция, которая снижает конфиденциальность для всех пользователей iCloud Photos , а не улучшает ее», - говорится в заявлении организации, выступающей за конфиденциальность, в заявлении с критикой предыдущей функции.

Читайте на 123ru.net