
У надзвичайно тривожній ситуації штучний інтелект (ШІ) використовується як зброя для створення та розповсюдження матеріалів про сексуальне насильство над дітьми (CSAM) у безпрецедентних масштабах. AI Оскільки технології розвиваються шаленими темпами, зловмисники використовують ці інструменти для створення гіперреалістичних зображень та відео сексуального характеру дітей, що створює серйозну загрозу безпеці та благополуччю неповнолітніх в Інтернеті.
Основні моменти:
Які Undress AI Інструменти?

Undress AI використання інструментів штучний інтелект віртуально знімати одяг із зображень, що створює серйозні ризики експлуатації дітей. Ці інструменти дозволяють хижакам створювати відвертий контент за участю неповнолітніх, що підживлює попит на матеріали із сексуальним насильством над дітьми (CSAM). За допомогою штучного інтелекту's здатність створювати реалістичні діпфейки, undress AI посилює повторну віктимізацію тих, хто вижив. Тривожно, деякі undress AI веб-сайти навіть рекламують потенціал своїх інструментів для створення сексуального насильства. Профілактичні заходи, включаючи надійну перевірку віку та механізми згоди, мають вирішальне значення для обмеження зловживання цією технологією проти дітей.
| Undress AI Інструментs | Видатні ключові характеристики | Безкоштовна пробна | Початкова ціна |
|---|---|---|---|
| SoulGen AI | Створює як реальні, так і аніме-зображення | ✅ | $ 5.99 / місяць |
| Nudify.Online | Швидке та реалістичне оголення | ✅ | $ 4.99 / місяць |
| Undress.vip | AI undressстворення та дипфейків | ✅ | $ 2.39 / місяць |
| DeepNudeNow | Створення deepfake ню | ✅ | $ 14.99 / місяць |
Розвиток CSAM, створеного штучним інтелектом
Згідно з нещодавнім звітом Національного центру з питань зниклих і експлуатованих дітей (NCMEC), у 36.2 році організація отримала приголомшливі 2023 мільйона повідомлень про підозру в сексуальній експлуатації дітей, що на 12% більше, ніж у попередньому році.

Викликає занепокоєння те, що майже 5,000 з цих звітів були приписані Контент, створений AI, хоча експерти вважають, що реальна кількість, ймовірно, набагато більша.
"Це's досить невеликий обсяг, враховуючи загальну кількість звітів CyberTipline, але ми стурбовані тим, що ми продовжуватимемо спостерігати його зростання, особливо оскільки компанії вдосконалюють свої методи виявлення та звітності», сказав Феллон Макналті, директор CyberTipline в NCMEC.
Топ статистики
Поширенню згенерованих штучним інтелектом CSAM сприяє зростаюча доступність та складність AI інструментів.

Злочинці використовують широко доступні моделі перетворення тексту в зображення, наприклад Стабільна дифузія, щоб створити тисячі зображень дітей сексуального характеру. Маніпулюючи підказками та точно налаштовуючи ці моделі, правопорушники можуть створювати контент, адаптований до їхніх конкретних уподобань, із зображенням відомих жертв або навіть повністю вигаданих неповнолітніх.
| AI Модель | Кількість звітів про CSAM, згенерованих ШІ |
|---|---|
| Стабільна дифузія | 3,500 |
| DALL-E | 750 |
| Серед подорожі | 450 |
Таблиця: Кількість звітів про сексуальне насильство над дітьми, згенерованих штучним інтелектом, за AI модель. Джерело: NCMEC
Руйнівний вплив на тих, хто вижив
Для жертв сексуального насильства над дітьми існує ймовірність маніпулювання та переробки їхніх зображень AI є джерелом величезної травми та страждань. «Моє тіло більше ніколи не буде моїм, і це's з чим доводиться стикатися багатьом тим, хто вижив», сказала Лія Джульєтт, яка пережила та активістка.
Знання того, що для навчання використовуються реальні зображення насильства AI моделі посилюють страждання, які переживають ті, хто вижив.
«Незгодні зображення мене, коли мені було 14 років, можна воскресити, щоб створити нові зображення сексуального насильства над дітьми та відео жертв по всьому світу», — додала Джульєтта.
Проблеми у виявленні та правозастосуванні
Швидке просування AI технології створюють значні труднощі для платформ, правоохоронних органів та організацій із захисту дітей у виявленні та боротьбі з CSAM, створений штучним інтелектом. Оскільки результати цих моделей стають все більш фотореалістичними, розрізнення між реальним і синтетичним вмістом стає складним завданням.
Більше того, децентралізований характер багатьох AI Використання інструментів, зокрема моделей з відкритим кодом, таких як Stable Diffusion, ускладнює регулювання їх використання та запобігання зловживанням. Зловмисники можуть запускати ці моделі локально на своїх комп’ютерах, генеруючи матеріали із зображенням сексуального насильства над дітьми (CSAM) офлайн, без виявлення.
Заклик до дії для індустрії технологій
У відповідь на цю зростаючу загрозу, коаліція основних AI Компанії, включаючи Amazon, Google, Meta, Microsoft та OpenAI, зобов'язалися впроваджувати принципи «Безпека на етапі проектування», щоб запобігти створенню та зменшити створення та поширення сексуального насильства над дітьми, згенерованого штучним інтелектом. Ці принципи охоплюють запобіжні заходи на кожному етапі AI життєвий цикл, від розробки до розгортання та обслуговування.
Однак експерти застерігають, що для ефективного вирішення цієї кризи потрібно зробити більше. «Я думаю, що якби вони приділили стільки ж досліджень виявлення, скільки генерували, ми б опинилися в набагато кращому місці», сказав Девід Тіль, головний технолог Стенфордської Інтернет-обсерваторії.
Прихильники безпеки дітей також закликають до посилення законодавства та співпраці між ними технічних компаній, уряди та некомерційні організації для боротьби з лихом сексуального насильства над людьми, створеним штучним інтелектом. «Наша боротьба проти сексуального насильства над дітьми в Інтернеті ніколи не припиниться» сказав Ян Крітчлі, керівник відділу захисту дітей та насильства в Раді керівників національної поліції.
Моральний імператив захисту дітей
As AI продовжує змінювати цифровий ландшафт, вкрай важливо, щоб ми протистояли темній стороні цієї трансформаційної технології. Боротьба з матеріалами сексуального насильства над дітьми, створеними штучним інтелектом, вимагає узгоджених зусиль усіх зацікавлених сторін – технологічних компаній, політиків, правоохоронних органів та широкої громадськості.
Ми повинні стримувати тих, хто експлуатує AI завдавати шкоди дітям, несучи відповідальність за свої дії. «Простіше кажучи, матеріали із зображенням сексуального насильства, згенеровані AI все ще є CSAM, і ми притягнемо до відповідальності тих, хто експлуатує AI створювати непристойні, образливі та дедалі фотореалістичніші зображення дітей», – заявила заступник генпрокурора Ліза Монако.
Окрім каральних заходів, ми також повинні інвестувати в профілактику, освіту та підтримку постраждалих. Такі організації, як Фонд Люсі Фейтфулл та гаряча лінія «Зупиніть це зараз!», надають життєво важливі ресурси для людей, які стурбовані власним життям або життям когось іншого.'s поведінка в Інтернеті.
Як суспільство, ми маємо моральний обов’язок захищати наших дітей від жахів сексуального насильства та експлуатації, як онлайн, так і офлайн. Перед обличчям цієї нової та підступної загрози ми повинні залишатися пильними, єдиними та рішучими у своєму зобов’язанні створити безпечніший світ для всіх дітей.
Якщо ви або хтось із ваших знайомих є жертвою сексуального насильства над дитиною, зверніться по допомогу. У США зв’яжіться з національною гарячою лінією Childhelp щодо насильства над дітьми за номером 1-800-4-A-CHILD (1-800-422-4453) або відвідайте сайт www.childhelp.org. Перелік міжнародних ресурсів див www.childhelplineinternational.org.
Ресурси та підтримка
Для тих, хто потребує допомоги чи підтримки у зв’язку з сексуальним насильством та експлуатацією дітей, доступні такі ресурси:
Оскільки боротьба з матеріалами сексуального насильства над дітьми, створеними штучним інтелектом, триває, надзвичайно важливо, щоб ми залишалися пильними, активними та єдиними в наших зусиллях, щоб захистити найбільш уразливих членів нашого суспільства – наших дітей.
Рекомендована література:

