
Volgens de IWF worden beelden van echte misbruikslachtoffers ingebouwd in AI-modellen, die daar vervolgens nieuwe afbeeldingen van maken.
Toezichthouder Internet Watch Foundation (IWF) zei dat het bijna 3.000 door AI gemaakte beelden van misbruik had gevonden die inbreuk maakten op de Britse wet.
De in Groot-Brittannië gevestigde organisatie zei dat bestaande beelden van echte slachtoffers van misbruik werden ingebouwd in AI-modellen, die vervolgens nieuwe afbeeldingen van hen maakten.
De organisatie voegde eraan toe dat de technologie ook werd gebruikt om beelden te vervaardigen van beroemdheden die "jong gemaakt" werden en vervolgens werden afgebeeld als kinderen in scenario's van seksueel misbruik. Andere voorbeelden van kinderpornomateriaal (CSAM) omvatten het gebruik van AI-instrumenten om online gevonden foto's van aangeklede kinderen "naakt te maken."
De IWF waarschuwde afgelopen zomer dat bewijs beschikbaar begint te komen van door AI vervaardigd misbruik, maar zei dat het laatste rapport een versnelling in het gebruik van de technologie had aangetoond. Susie Hargreaves, directeur van de IWF, zei dat de "ergste nachtmerries van de toezichthouder bewaarheid zijn geworden."
Commentaar: En van TASS: De onbedoelde gevolgen van arrogantie. Zal er een soort echte pest in westerse landen uitbreken als gevolg van Amerikaanse hoogmoed?