
De opkomst van Door AI gegenereerd materiaal over seksueel kindermisbruik (CSAM) vormt een significante bedreiging voor de onlineveiligheid en het welzijn van kinderen. Volgens het National Center for Missing and Exploited Children (NCMEC) zijn de meldingen van CSAM binnengekomen via hun CyberTipline steeg in 12 met 2023% en bereikte een duizelingwekkende 35.9 miljoen meldingen. Deze alarmerende toename wordt nog verergerd door de toestroom van door AI gegenereerde CSAM, die niet alleen de kinderen die in de originele inhoud worden afgebeeld opnieuw tot slachtoffer maakt, maar ook nieuwe mogelijkheden creëert voor uitbuiting en normalisering van seksueel misbruik van kinderen.
De omvang van het probleem
Volgens het National Center for Missing and Exploited Children (NCMEC) ontving de CyberTipline, een essentiële bron voor het melden van CSAM, in 35.9 maar liefst 2023 miljoen meldingen, een stijging van 12% ten opzichte van het voorgaande jaar. Deze stijging van het aantal meldingen wordt nog verergerd door de toestroom van Door AI gegenereerde CSAM, wat unieke uitdagingen met zich meebrengt bij het identificeren van echte slachtoffers en het maken van onderscheid tussen echte en synthetische inhoud.
De toename van door AI gegenereerde CSAM-bestanden belast niet alleen rechtshandhavingsinstanties die belast zijn met het doorzoeken van enorme hoeveelheden digitale content, maar roept ook zorgen op over de mogelijke uitbuiting van kwetsbare personen, met name kinderen. AI Naarmate de technologie vordert, neemt het risico op misbruik door daders toe en zijn proactieve maatregelen nodig om deze bedreiging te bestrijden.
Aanbevelingen en strategieën
Om de dreiging van door AI gegenereerde CSAM te bestrijden, hebben deskundigen uit de industrie en kinderveiligheidsorganisaties verschillende aanbevelingen en strategieën voorgesteld. Een opmerkelijke aanbeveling adviseert bedrijven om voorzichtig te zijn bij het selecteren van datasets die voor training worden gebruikt AI modellen, waarbij we ervoor kiezen om die uitsluitend uit gevallen van CSAM en volwassenen te vermijden seksuele inhoudDeze voorzorgsmaatregel is essentieel vanwege generatieve AI's neiging om deze twee categorieën met elkaar te vermengen.
Bovendien wordt er bij sociale-mediaplatforms en zoekmachines op aangedrongen om onmiddellijk links te verwijderen naar websites en apps die de verspreiding van illegale afbeeldingen van kinderen vergemakkelijken, waardoor de creatie van nieuwe voorbeelden van door AI gegenereerde CSAM online wordt tegengewerkt.
Uitdagingen bij de identificatie van slachtoffers
Slachtofferidentificatie, vaak omschreven als een “naald-in-de-hooiberg'-probleem is steeds uitdagender geworden als gevolg van de proliferatie van door AI gegenereerde CSAM. Wetshandhavingsinstanties moeten enorme hoeveelheden digitale inhoud doorzoeken om kwetsbare slachtoffers te identificeren en te beschermen, en de groeiende hoeveelheid door AI gegenereerd materiaal draagt alleen maar bij aan deze hooiberg, waardoor de taak intensiever en tijdrovender wordt.
Samenwerkingsinspanningen en veiligheid door ontwerpprincipes

Erkennend dat dit probleem urgent is, AI bedrijven, waaronder OpenAI, Microsoft, Google en Meta hebben zich verenigd met kinderveiligheidsorganisaties zoals Thorn en All Tech Is Human om de generatie en verspreiding van door AI gegenereerde CSAM te bestrijden. Dit baanbrekende initiatief heeft geleid tot de ontwikkeling van “Veiligheid door ontwerp”-principes, die tot doel hebben de creatie en verspreiding van door AI gegenereerde CSAM en andere seksuele schade aan kinderen te voorkomen.
De belangrijkste principes die zijn uiteengezet in de “Veiligheid door ontwerp voor generatieve AI: seksueel misbruik van kinderen voorkomen”papier omvat:
| Principe | Beschrijving |
|---|---|
| Ontwikkelen | Verantwoord trainingsdatasets verzamelen, CSAM/CSEM detecteren en verwijderen, feedbackloops integreren en misbruik door tegenstanders aanpakken tijdens de ontwikkeling van modellen. |
| Implementeren | Geef modellen vrij na evaluatie van de veiligheid van kinderen, bestrijd beledigende inhoud en moedig ontwikkelaars aan zich eigenaar te maken van de veiligheid. |
| Onderhouden | Begrijp en reageer actief op de risico's voor de veiligheid van kinderen, verwijder AIG-CSAM gegenereerd door slechte actoren, investeer in onderzoek en toekomstige oplossingen. |
Door deze principes in alle fasen van het proces te implementeren, AI Bij de ontwikkeling, implementatie en het onderhoud willen bedrijven het voor kwaadwillenden moeilijker maken om misbruik te maken van generatieve AI voor seksueel misbruik van kinderen.
De rol van wetgeving en beleidsmakers
Beleidsmakers en wetgevers spelen ook een cruciale rol bij de aanpak van dit probleem. De REPORT Act, onlangs aangenomen door de Amerikaanse Senaat, beoogt de melding en bestrijding van online seksuele uitbuiting van kinderen te verbeteren door de bewaartermijn van aanbieders voor gemelde content te verlengen en het NCMEC een beperkte aansprakelijkheid te verlenen.'s verkoper.
Er zijn echter zorgen geuit over de mogelijkheid van overrapportage, wat het toch al overbelaste CyberTipline-systeem verder onder druk zou kunnen zetten en onderzoekers ervan zou kunnen afleiden zich op legitieme zaken te concentreren.
als de dreiging van Door AI gegenereerde CSAM blijft evolueren, het is absoluut noodzakelijk dat beleidsmakers en belanghebbenden uit de sector samenwerken om verantwoorde kaders en richtlijnen te ontwikkelen. Deze raamwerken moeten bedrijven in staat stellen legaal en veilig te testen grote taalmodellen om de detectiemogelijkheden te verbeteren en tegelijkertijd prioriteit te geven aan de veiligheid van kinderen en onlinebescherming.
Op 12 maart 2024, John Shehan, NCMEC's Senior Vice President, Exploited Children Division & International Engagement, getuigde over de gevaren die deepfakes voor kinderen vormen.
Lees hier zijn volledige getuigenis
Voortdurende inspanningen en toekomstige uitdagingen
Hoewel de toewijding aan de Safety by Design-principes een belangrijke stap voorwaarts is, is de strijd tegen AI-gegenereerde CSAM nog lang niet voorbij. Bedrijven zijn overeengekomen om voortgangsupdates over hun inspanningen vrij te geven, waardoor transparantie en verantwoording worden gewaarborgd. Het snelle tempo van de technologische vooruitgang en de steeds evoluerende tactieken van slechte actoren vereisen echter voortdurende waakzaamheid en samenwerking tussen alle belanghebbenden, inclusief technologiebedrijven, wetshandhavingsinstanties en beleidsmakers.
As Dr. Rebecca Portnoff, Vice-president van Datawetenschap bij Thorn, benadrukt: “We staan op een kruispunt met generatieve AI, die zowel veelbelovend als risicovol is in ons werk om kinderen te beschermen tegen seksueel misbruik“. Om deze uitdaging aan te gaan, is een veelzijdige aanpak nodig, waarbij gebruik wordt gemaakt van zowel technologische als robuuste oplossingen wettelijke kaders om de meest kwetsbare leden van de samenleving te beschermen.

