При перепечатке материалов просим публиковать ссылку на портал Finversia.ru с указанием гиперссылки.
Apple анонсировала подробную информацию о системе поиска материалов о сексуальном насилии над детьми (CSAM) на устройствах клиентов из США.
Прежде чем изображение будет сохранено в iCloud Photos, технология выполнит поиск совпадений с уже известным массивом CSAM.
Apple заявила, что если совпадение будет найдено, рецензент оценит пользователя и сообщит о нем в правоохранительные органы.
Однако есть опасения по поводу конфиденциальности. Технология может быть расширена для сканирования телефонов на предмет запрещенного контента или даже политических высказываний.
Эксперты опасаются, что эту технологию могут использовать авторитарные правительства для слежки за своими гражданами.
Apple заявила, что в новых версиях iOS и iPadOS, которые должны быть выпущены в конце этого года, будут установлены «новые приложения криптографии, которые помогут ограничить распространение CSAM в интернете, при этом обеспечивая конфиденциальность пользователей».
Система работает путем сравнения изображений с базой данных известных изображений сексуального насилия над детьми, составленной Национальным центром США по пропавшим и эксплуатируемым детям (NCMEC) и другими организациями по безопасности детей.
Эти изображения переводятся в «хэши», числовые коды, которые можно «сопоставить» с изображением на устройстве Apple.
Apple заявляет, что технология также будет улавливать отредактированные, но похожие версии исходных изображений.
«Перед тем, как изображение будет сохранено в iCloud Photos, на устройстве выполняется процесс сопоставления этого изображения с известными хэшами CSAM», - сообщила Apple.
Компания заявила, что система имеет «чрезвычайно высокий уровень точности и гарантирует менее одного случая на один триллион в год неправильного определения для данной учетной записи».
Apple заявляет, что будет вручную проверять каждый отчет, чтобы подтвердить совпадение. Затем компания может предпринять шаги, чтобы отключить учетную запись пользователя и сообщить о нем в правоохранительные органы.
Компания заявляет, что новая технология предлагает «значительные» преимущества конфиденциальности по сравнению с существующими методами - поскольку Apple узнает о фотографиях пользователей только в том случае, если у них есть коллекция известных CSAM в своей учетной записи iCloud Photos.
Однако некоторые эксперты по конфиденциальности выразили обеспокоенность.
«Независимо от долгосрочных планов Apple, они послали очень четкий сигнал. По их (очень влиятельному) мнению, можно безопасно создавать системы, которые сканируют телефоны пользователей на предмет запрещенного контента», - сказал Мэтью Грин, специалист по вопросам безопасности университета Джона Хопкинса.
«Правы они или нет в этом вопросе - не имеет значения. Это сломает дамбу - правительства потребуют этого от всех», - подчеркнул эксперт.
Материалы на эту тему также можно прочитать:
- Apple to start checking iPhone and iCloud photos for child abuse imagery (CNN)
- Apple to scan iPhones for child sex abuse images (BBC)
обсуждение