hacker
© Guardian Design/Getty ImagesVolgens de IWF worden beelden van echte misbruikslachtoffers ingebouwd in AI-modellen, die daar vervolgens nieuwe afbeeldingen van maken.
De "ergste nachtmerries" over door kunstmatige intelligentie gegenereerde beelden van seksueel misbruik van kinderen worden werkelijkheid en dreigen het internet te overspoelen, zo waarschuwt een veiligheidstoezichthouder.

Toezichthouder Internet Watch Foundation (IWF) zei dat het bijna 3.000 door AI gemaakte beelden van misbruik had gevonden die inbreuk maakten op de Britse wet.

De in Groot-Brittannië gevestigde organisatie zei dat bestaande beelden van echte slachtoffers van misbruik werden ingebouwd in AI-modellen, die vervolgens nieuwe afbeeldingen van hen maakten.

De organisatie voegde eraan toe dat de technologie ook werd gebruikt om beelden te vervaardigen van beroemdheden die "jong gemaakt" werden en vervolgens werden afgebeeld als kinderen in scenario's van seksueel misbruik. Andere voorbeelden van kinderpornomateriaal (CSAM) omvatten het gebruik van AI-instrumenten om online gevonden foto's van aangeklede kinderen "naakt te maken."

De IWF waarschuwde afgelopen zomer dat bewijs beschikbaar begint te komen van door AI vervaardigd misbruik, maar zei dat het laatste rapport een versnelling in het gebruik van de technologie had aangetoond. Susie Hargreaves, directeur van de IWF, zei dat de "ergste nachtmerries van de toezichthouder bewaarheid zijn geworden."

"Eerder dit jaar waarschuwden we al dat AI-beelden binnenkort niet meer te onderscheiden zouden zijn van echte foto's van kinderen die seksueel misbruikt worden en dat we deze beelden in steeds grotere aantallen zouden kunnen zien verschijnen. Dat station zijn we nu gepasseerd," zei ze.

"Het is angstaanjagend om te zien dat criminelen hun AI doelbewust richten op beelden van echte slachtoffers die al misbruikt werden. Kinderen die in het verleden werden verkracht, worden nu opgenomen in nieuwe scenario's omdat iemand ergens dat wil zien."

De IWF zei ook bewijs te hebben gezien dat door AI gegenereerde beelden online worden verkocht.

De laatste bevindingen waren gebaseerd op een maandenlang onderzoek naar een forum voor kindermisbruik op het dark web, een deel van het internet dat alleen toegankelijk is met een speciale browser.

Er werden 11.108 afbeeldingen op het forum onderzocht, waarvan er 2.978 in strijd waren met de Britse wet door seksueel misbruik van kinderen af te beelden.

AI-gegenereerd kinderpornomateriaal is illegaal op grond van de Britse Protection of Children Act 1978, die het maken, verspreiden en in bezit hebben van een "onfatsoenlijke foto of pseudofoto" van een kind strafbaar stelt. De IWF zei dat de overgrote meerderheid van het gevonden illegale materiaal in strijd was met de Protection of Children Act, waarbij meer dan één op de vijf afbeeldingen geclassificeerd werd als categorie A, de meest ernstige vorm van inhoud, die verkrachting en seksuele marteling kan weergeven.

De Britse Coroners and Justice Act 2009 stelt ook niet-fotografische verboden afbeeldingen van een kind strafbaar, zoals strips of tekeningen.

De IWF vreest dat een vloedgolf van AI-gegenereerd kinderpornomateriaal wetshandhavingsinstanties zal afleiden van het opsporen van echt misbruik en het helpen van slachtoffers.

"Als we geen grip krijgen op deze dreiging, dreigt dit materiaal het internet te overspoelen," aldus Hargreaves.

Dan Sexton, technisch directeur van de IWF, zei dat het beeldgenererende instrument Stable Diffusion - een publiekelijk beschikbaar AI-model dat kan worden aangepast om kinderpornomateriaal te helpen produceren - het enige AI-product was dat op het forum werd besproken.

"We hebben discussies gezien over het maken van inhoud met behulp van Stable Diffusion, wat algemeen beschikbare software is."

Stability AI, het Britse bedrijf achter Stable Diffusion, heeft gezegd dat het "misbruik voor illegale of immorele doeleinden op onze platforms verbiedt, en ons beleid is duidelijk dat dit ook kinderpornomateriaal omvat."

De overheid heeft gezegd dat door AI gegenereerd kinderpornomateriaal onder het wetsvoorstel inzake online veiligheid zal vallen, dat binnenkort van kracht wordt, en dat sociale mediabedrijven moeten voorkomen dat dit op hun platforms verschijnt.

Zie: https://www.theguardian.com/technology/2023/oct/25/ai-created-child-sexual-abuse-images-threaten-overwhelm-internet