Een aanzienlijke stijging van AI-deepfake-naaktdiensten, zoals gerapporteerd door Graphika, benadrukt een verontrustende trend in het gebruik van kunstmatige intelligentie voor het genereren van intieme beelden zonder wederzijds goedvinden, wat ernstige ethische en juridische zorgen oproept.
Groeiende populariteit van AI-uitkleedtools
Graphika, een bedrijf voor analyse van sociale media, heeft dat gedaan gerapporteerd een zorgwekkende toename van het gebruik van ‘AI-uitkleedtools’. Deze generatieve AI-tools worden nauwkeurig gekalibreerd om kleding te verwijderen uit afbeeldingen die door gebruikers zijn ingediend, met een duizelingwekkende toename van 2.408% in online verwijzingen naar deze diensten.
Bij synthetische, niet-consensuele intieme beelden (NCII) gaat het doorgaans om het genereren van expliciete inhoud zonder de toestemming van de afgebeelde personen. Deze instrumenten vormen de bedreiging van gerichte intimidatie, afpersing en de productie van materiaal over seksueel misbruik van kinderen (CSAM).
De Internet Watch Foundation (IWF), een in Groot-Brittannië gevestigd internetwaakhondbedrijf, heeft dat gedaan gemarkeerd de uitdaging om onderscheid te maken tussen door AI gegenereerde pornografie en authentieke beelden, wat de inspanningen om onlinemisbruik te bestrijden bemoeilijkt.
Internationale reactie
De Verenigde Naties hebben dat gedaan beschreven Door AI gegenereerde media als een “ernstige en urgente” bedreiging voor de informatie-integriteit. Als reactie hierop hebben het Europees Parlement en de Raad onlangs overeenstemming bereikt over regels voor het gebruik van AI in de EU.
Source: De toename van door AI gegenereerde deepfake-naaktdiensten doet alarm rinkelen