Apple развернула новую функцию на основе ИИ, направленную на ограничение распространения контента, связанного с сексуальным насилием над детьми (CSAM).
Apple развернула в Австралии версию iOS, в которой была добавлена новая функция безопасности, подобная противоречивому инструменту для обнаружения CSAM, от которого компании пришлось отказаться несколько лет назад. На этот раз Apple будет выявлять запрещенный контент с помощью машинного обучения, а информация будет обрабатываться непосредственно на устройстве.
Системы компании будут сканировать фотографии и видео на iPhone и iPad в сообщениях, AirDrop, контактах (в программе «Телефон» или «Контакты») и видеосообщениях FaceTime. Кроме того, они будут сканировать «некоторые сторонние приложения», если изображением будут пытаться поделиться.
В случае обнаружения потенциального CSAM, фото или видео с обнаженными людьми будет размыто и появится предупреждение о том, что контент может быть конфиденциальным. Пользователю будет предложен выход из разговора, блокировка пользователя и доступ к ресурсам для помощи в Интернете. Если устройство использует ребенок в возрасте менее 13 лет, он не сможет продолжить использование гаджета, не введя пароль. Эта функция также отображает сообщение, которое уверяет ребенка, что можно не просматривать содержимое или покинуть чат. Также есть возможность отправить сообщение родителям или опекунам. Если ребенку 13 и более лет, он может подтвердить, что хочет продолжить после получения этих предупреждений — с повторением напоминаний о том, что можно отказаться и что доступна дополнительная помощь. Как пишет The Guardian, также будет опция сообщить Apple о проблемном изображении и видео.
Как пишет The Guardian, также будет опция сообщить Apple о проблемном изображении и видео. Устройство подготовит отчет, содержащий изображение или видео, а также сообщения, отправленные непосредственно перед и после изображения или видео. Он будет включать контактную информацию из обоих аккаунтов. Также пользователи смогут заполнить форму с описанием произошедшего. Отчет будет рассмотрен компанией Apple, которая может принять меры по учетной записи, например, отключить возможность этого пользователя отправлять сообщения через iMessage, а также сообщить о проблеме правоохранительным органам.
После теста в Австралии Apple планирует запустить функцию по всему миру. Как только она станет доступной везде, ее можно будет активировать в меню настроек «Безопасность связи».
https://techno.nv.ua/it-industry/apple-protiv-detskoy-pornografii-50461470.html