Meta traint zijn kunstmatige intelligentiechatbots met nieuwe richtlijnen om seksuele uitbuiting van kinderen effectiever aan te pakken, volgens een reeks publieke fouten met betrekking tot het gevoelige onderwerp. Volgens een rapport van Business Insider dat de documenten heeft verkregen, zijn de richtlijnen voor aannemers die de AI trainen onlangs bijgewerkt om strengere veiligheidsmaatregelen te implementeren. In de bijgewerkte regels staat dat inhoud die ‘seksueel misbruik van kind’ mogelijk maakt, aanmoedigt of onderschrijft ‘nu expliciet is uitgesloten. De richtlijnen verbieden ook een romantisch rollenspel als de gebruiker minderjarig is of als de gebruiker de AI vraagt om als minderjarige te rollen. Bovendien is het de chatbot verboden om advies te geven over intimiteit als de gebruiker minderjarig is. Deze vangrails worden geïntroduceerd als een toenemend aantal mensen, waaronder minderjarige gebruikers, hebben geëxperimenteerd met AI-metgezellen en rollenspel. De beleidswijziging gaat in op eerdere regels die onder de loep zijn gekomen. Uit een rapport van augustus door Reuters bleek dat het voormalige AI -beleid van Meta suggestief gedrag met kinderen toestond. Het rapport gaf aan dat de chatbot “een kind mocht betrekken bij gesprekken die romantisch of sensueel zijn.” Slechts enkele weken na dat rapport vertelde Meta-woordvoerder Stephanie Otway aan TechCrunch dat de AI-chatbots van het bedrijf werden getraind om niet langer “met tienergebruikers te betrekken bij zelfbeschadiging, zelfmoord, wanordelijk eten of mogelijk ongepaste romantische gesprekken.” Dit was een verschuiving van het vorige beleid, waardoor de chatbot die onderwerpen kon ingaan toen het als ‘passend’ werd geacht. De nieuwe richtlijnen, zoals gedetailleerd in het Business Insider -rapport, maken het ook onaanvaardbaar voor inhoud om een minderjarige op een geseksualiseerde manier te ‘beschrijven of bespreken’. Minderjarigen worden nu verhinderd om zich bezig te houden met “romantisch rollenspel, flirt of uitdrukking van romantische of intieme expressie” met de chatbot. Ze kunnen ook niet om advies vragen over “potentieel-romantische of potentieel-intieme fysieke inhoud met een andere persoon, zoals het vasthouden van handen, knuffelen of een arm om iemand plaatsen.” De richtlijnen schetsen echter verschillende acceptabele use cases voor trainingsdoeleinden. Deze omvatten het bespreken van de ‘vorming van relaties tussen kinderen en volwassenen’, ‘het seksuele misbruik van een kind’ en ‘het onderwerp van de seksualisatie van kinderen’. Andere goedgekeurde onderwerpen voor trainingsdiscussies zijn de “verzoek, creatie of verwerving van seksueel materiaal waarbij kinderen betrokken zijn” en “de betrokkenheid van kinderen bij het gebruik of de productie van obsceen materiaal of de tewerkstelling van kinderen in seksuele diensten in academische, educatieve of klinische doeleinden.” De richtlijnen definiëren de term “bespreken” als “informatie verstrekken zonder visualisatie”. Dit onderscheid betekent dat de chatbots van Meta mogen praten over onderwerpen zoals misbruik, maar zijn nu beperkt om het te beschrijven, in te schakelen of aan te moedigen. Er blijft een uitzondering voor minderjarigen die de AI gebruiken voor romantiekgerelateerde rollenspel, op voorwaarde dat het “niet-seksueel en niet-sensueel” is. Dit type interactie is alleen toegestaan wanneer het “wordt gepresenteerd als literatuur of fictief verhaal (bijv. Een verhaal in de stijl van Romeo en Juliet) waar de AI en de gebruiker geen karakters in het verhaal zijn.” Meta is niet de enige AI -ontwikkelaar die wordt geconfronteerd met uitdagingen met betrekking tot de veiligheid van kinderen. De ouders van een tiener die stierven door zelfmoord nadat hij in Chatgpt was toegenomen, hebben onlangs Openai aangeklaagd voor onrechtmatige dood. In reactie daarop kondigde Openai aan dat het aanvullende veiligheidsmaatregelen en gedragsprompts zou opnemen in zijn bijgewerkte GPT-5-model. In andere industriële ontwikkelingen heeft Anthropic zijn chatbot bijgewerkt om gesprekken te beëindigen die schadelijk of beledigend zijn, en karakter.ai geïntroduceerde functies van ouders eerder dit jaar. In april heeft Ziff Davis, het moederbedrijf van Mashable, een rechtszaak aangespannen tegen Openai. Het pak beweert dat het bedrijf inbreuk heeft gemaakt op Ziff Davis -auteursrechten op de training en werking van zijn AI -systemen.
Source: Meta werkt AI Chatbot -richtlijnen voor kinderveiligheid bij


