Компании в рамках программы Lantern будут обмениваться данными о потенциально противоправной деятельности и учетных записях, подозреваемых в нарушении политик в сфере безопасности детей, после чего собранная системой информация станет материалами для правоохранительных органов (стоит обратить внимание, что этот проект не связан с одноимённым VPN-сервисом Lantern).
Технологическая коалиция, куда входят Discord, Google, Mega, Meta, Quora, Roblox, Snap и Twitch, объявила о запуске программы Lantern, цель которой — усилить борьбу с сексуальной эксплуатацией и насилием над детьми в Интернете (Child Sexual Exploitation and Abuse, CSEA).
В рамках Lantern сервисы будут обмениваться данными о потенциально противоправной деятельности и учетных записях, подозреваемых в нарушении политик в сфере безопасности детей. Система позволит партнерам делиться «сигналами», которые могут включать электронные адреса, имена пользователей и ключевые слова, связанные с материалами CSAM и процессом купли-продажи этих материалов.
Сигналы, собранные в Lantern, предоставят основу для дальнейших расследований и будут служить доказательствами для правоохранительных органов, хотя сами по себе они не являются неопровержимым доказательством преступлений. Во время пилотной фазы проекта Mega предоставил URL-адреса, которые впоследствии использовались Meta для удаления более 10 000 профилей и страниц на Facebook и аккаунтов в Instagram, что подчеркивает эффективность совместных усилий.
После оценки исходной первой фазы программы Tech Coalition планирует расширить охват, пригласив новых партнеров. Решение основано на понимании того, что сексуальное насилие над детьми часто не имеет границ и ни одна компания в одиночку не способна полностью оценить вред, наносимый жертвам. Сотрудничество и обмен данными между разными платформами является ключевым для всестороннего реагирования и принятия мер.
Вопрос борьбы с CSEA остается сложным, учитывая необходимость баланса между безопасностью детей и конфиденциальностью онлайн. Проблема усугубляется распространением материалов об эксплуатации детей, включая контент, сгенерированный нейросетями. В 2022 году Национальный центр поиска и помощи пропавшим и эксплуатируемым детям получил свыше 32 млн. сообщений о CSAM, что свидетельствует о масштабе проблемы.
https://roskomsvoboda.org/post/obmen-info-o-childrenax/