
Крайне тревожным событием является то, что искусственный интеллект (ИИ) используется в качестве оружия для создания и распространения материалов, содержащих сцены сексуального насилия над детьми (CSAM), в беспрецедентных масштабах. AI Технологии развиваются стремительными темпами, и злоумышленники используют эти инструменты для создания гиперреалистичных, откровенно сексуальных изображений и видеороликов с детьми, что представляет серьезную угрозу безопасности и благополучию несовершеннолетних в Интернете.
Основные моменты:
Каковы Undress AI Инструменты?

Undress AI инструменты используют искусственный интеллект фактически удалить одежду с изображений, что создает серьезные риски для эксплуатации детей. Эти инструменты позволяют мошенникам создавать откровенный контент с участием несовершеннолетних, подпитывая спрос на материалы о сексуальном насилии над детьми (CSAM). С помощью ИИ's возможность создания реалистичных дипфейков, undress AI усиливает повторную виктимизацию выживших. Тревожно, что некоторые undress AI веб-сайты даже рекламируют потенциал своих инструментов для создания CSAM. Профилактические меры, включая надежные механизмы проверки возраста и согласия, имеют решающее значение для сдерживания неправомерного использования этой технологии против детей.
| Undress AI Инструментs | Выдающиеся ключевые особенности | Попробуйте! | Начальная цена |
|---|---|---|---|
| SoulGen AI | Генерирует как реальные, так и аниме-изображения. | ✅ | $ 5.99 / месяц |
| Nudify.Онлайн | Быстрое и реалистичное обнажение | ✅ | $ 4.99 / месяц |
| Undress.вип | AI undressсоздание ing и deepfake | ✅ | $ 2.39 / месяц |
| DeepNudeNow | Создание дипфейк-ню | ✅ | $ 14.99 / месяц |
Рост CSAM, созданного искусственным интеллектом
Согласно недавнему отчету Национального центра по делам пропавших и эксплуатируемых детей (NCMEC), в 36.2 году организация получила ошеломляющие 2023 миллиона сообщений о подозрениях в сексуальной эксплуатации детей, что на 12% больше, чем в предыдущем году.

Вызывает тревогу тот факт, что почти 5,000 из этих сообщений были приписаны Контент, созданный ИИ, хотя эксперты полагают, что фактическое число, вероятно, намного выше.
"Это's «Это довольно небольшой объем, если принять во внимание общее количество отчетов CyberTipline, но мы обеспокоены тем, что он продолжит расти, особенно по мере того, как компании будут совершенствовать методы обнаружения и предоставления отчетов», сказал Фэллон МакНалти, директор CyberTipline в NCMEC.
Основная статистика
Распространению CSAM, созданных с помощью ИИ, способствует растущая доступность и сложность AI инструментов.

Преступники используют широко доступные модели преобразования текста в изображение, такие как Стабильная диффузия, для создания тысяч изображений детей откровенно сексуального характера. Манипулируя подсказками и настраивая эти модели, правонарушители могут создавать контент, адаптированный к их конкретным пристрастиям, с участием известных жертв или даже полностью вымышленных несовершеннолетних.
| AI Модель | Количество отчетов CSAM, созданных ИИ |
|---|---|
| Стабильная диффузия | 3,500 |
| DALL-E | 750 |
| Середина пути | 450 |
Таблица: Количество отчетов CSAM, созданных с помощью ИИ AI модель. Источник: NCMEC
Разрушительное воздействие на выживших
Для детей, переживших сексуальное насилие, существует вероятность того, что их изображения будут манипулироваться и использоваться в других целях. AI является источником огромных травм и страданий. «Мое тело больше никогда не будет моим, и это's «С этим приходится сталкиваться многим выжившим», сказала Лия Джульетт, пережившая насилие и активистка.
Знание того, что для обучения используются реальные изображения насилия AI модели усугубляют страдания, испытываемые выжившими.
«Мои 14-летние фотографии, сделанные без моего согласия, можно воскресить, чтобы создать новые изображения сексуального насилия над детьми и видео жертв по всему миру», Джульетта добавила.
Проблемы в выявлении и правоприменении
Быстрое продвижение AI технологии представляют собой серьезные проблемы для платформ, правоохранительных органов и организаций по безопасности детей в плане обнаружения и борьбы с CSAM, созданный искусственным интеллектом. Поскольку результаты этих моделей становятся все более фотореалистичными, различие между реальным и синтетическим контентом становится сложной задачей.
Более того, децентрализованный характер многих AI Инструменты, особенно модели с открытым исходным кодом, такие как Stable Diffusion, затрудняют регулирование их использования и предотвращение злоупотреблений. Злоумышленники могут запускать эти модели локально на своих компьютерах, генерируя CSAM в автономном режиме без обнаружения.
Призыв к действию для индустрии высоких технологий
В ответ на эту растущую угрозу была создана коалиция крупных AI Компании, включая Amazon, Google, Meta, Microsoft и OpenAI, обязались внедрить принципы «Безопасности по проектированию» для предотвращения и сокращения создания и распространения CSAM, созданных ИИ. Эти принципы охватывают меры безопасности на каждом этапе AI жизненный цикл, от разработки до развертывания и обслуживания.
Однако эксперты предупреждают, что необходимо сделать больше для эффективного преодоления этого кризиса. «Если бы они вложили в обнаружение столько же исследований, сколько в генерацию, я думаю, мы были бы в гораздо лучшем положении», сказал Дэвид Тиль, главный технолог Стэнфордской интернет-обсерватории.
Защитники детской безопасности также призывают к ужесточению законодательства и сотрудничеству между технологические компании, правительства и некоммерческие организации для борьбы с бедствием CSAM, создаваемым ИИ. «Наша борьба с сексуальным насилием над детьми в Интернете никогда не прекратится», сказал Ян Кричли, руководитель отдела защиты детей и жестокого обращения в Совете начальников национальной полиции.
Моральный императив защиты детей
As AI продолжает изменять цифровой ландшафт, крайне важно, чтобы мы противостояли темной стороне этой преобразующей технологии. Борьба с материалами о сексуальном насилии над детьми, созданными ИИ, требует согласованных усилий всех заинтересованных сторон — технологических компаний, политиков, правоохранительных органов и общественности в целом.
Мы должны держать тех, кто эксплуатирует AI нанести вред детям, ответственным за свои действия. «Проще говоря, CSAM, созданный AI все еще CSAM, и мы привлечем к ответственности тех, кто эксплуатирует AI «создавать непристойные, оскорбительные и все более фотореалистичные изображения детей», заявила заместитель генерального прокурора Лиза Монако.
Помимо карательных мер, мы должны также инвестировать в профилактику, образование и поддержку выживших. Такие организации, как Фонд Люси Фейтфулл и горячая линия Stop It Now! предоставляют жизненно важные ресурсы для людей, обеспокоенных своей или чужой's онлайн-поведение.
На нашем обществе лежит моральное обязательство защищать наших детей от ужасов сексуального насилия и эксплуатации как онлайн, так и оффлайн. Перед лицом этой новой и коварной угрозы мы должны сохранять бдительность, единство и решимость в нашем стремлении построить более безопасный мир для всех детей.
Если вы или кто-то из ваших знакомых стали жертвой сексуального насилия над детьми, обратитесь за помощью. В США позвоните в Национальную горячую линию Childhelp по вопросам жестокого обращения с детьми по телефону 1-800-4-A-CHILD (1-800-422-4453) или посетите сайт www.childhelp.org. Список международных ресурсов см. www.childhelplineinternational.org..
Ресурсы и поддержка
Для тех, кто нуждается в помощи или поддержке в связи с сексуальным насилием и эксплуатацией детей, доступны следующие ресурсы:
Поскольку борьба с материалами о сексуальном насилии над детьми, созданными искусственным интеллектом, продолжается, крайне важно, чтобы мы оставались бдительными, активными и едиными в наших усилиях по защите наиболее уязвимых членов нашего общества – наших детей.
Рекомендуемая литература:

