Apple откладывает внедрение технологии по борьбе с жестоким обращением с детьми

Apple откладывает внедрение технологии по борьбе с жестоким обращением с детьми
Apple откладывает внедрение технологии по борьбе с жестоким обращением с детьми
Anonim

После многочисленных возражений как со стороны критиков, так и пользователей Apple откладывает принятие мер по борьбе с жестоким обращением с детьми.

В августе технический гигант первоначально объявил о новой политике, которая использует технологии для выявления потенциальных изображений жестокого обращения с детьми в iCloud и Messages, но за этим последовали опасения. Эксперты предупредили, что, несмотря на то, что Apple обещала конфиденциальность пользователей, эта технология в конечном итоге подвергнет риску всех пользователей Apple.

Image
Image

В пятницу Apple заявила, что полностью отложит развертывание технологии, чтобы внести улучшения и полностью обеспечить конфиденциальность пользователей.

«Основываясь на отзывах клиентов, групп защиты интересов, исследователей и других лиц, мы решили потратить дополнительное время в ближайшие месяцы на сбор информации и внесение улучшений, прежде чем выпускать эти критически важные функции безопасности детей», - говорится в сообщении Apple. обновленное заявление на своем веб-сайте.

Технология обнаружения материалов о сексуальном насилии над детьми должна была стать доступной позже в этом году в выпуске iOS 15, но сейчас неясно, когда эта функция появится и появится ли вообще.

Новая технология будет работать двумя способами: во-первых, путем сканирования изображения перед его резервным копированием в iCloud. Если это изображение соответствует критериям CSAM, Apple получит эти данные. Другая часть технологии использует машинное обучение для идентификации и размытия изображений сексуального характера, которые дети получают через Сообщения.

Однако после объявления новой политики защитники конфиденциальности и группы заявили, что Apple, по сути, открывает черный ход, которым злоумышленники могут злоупотребить.

Чтобы решить эти проблемы, Apple выпустила страницу часто задаваемых вопросов вскоре после анонса технологии CSAM. Apple объяснила, что технология не будет сканировать все фотографии, хранящиеся на устройстве, взломать сквозное шифрование в сообщениях и не будет ложно помечать невиновных людей перед правоохранительными органами.

Рекомендуемые: