Openai werkt actief aan het aanpakken van de opkomende kwestie van “AI-psychose” en de co-creatie van wanen tussen mensen en AI-systemen zoals Chatgpt en GPT-5. Dit initiatief is bedoeld om het potentieel voor gebruikers om vervormde gedachten en overtuigingen te ontwikkelen te verminderen als gevolg van langdurige interactie met generatieve AI.
Het concept van een “ongezonde gebruikers-AI-relatie” wordt gedefinieerd als een situatie waarin de betrokkenheid van een persoon bij generatieve AI leidt tot mentale vervorming, welzijn ondermijnd, verminderde besluitvorming en verminderde real-world onderdompeling. “AI -psychose” wordt verder gedefinieerd als een ongunstige mentale aandoening die wordt gekenmerkt door vervormde gedachten, overtuigingen en mogelijk gerelateerd gedrag als gevolg van conversatie -betrokkenheid bij AI, met name na langdurig en kwaadaardig discours.
Hoewel het gebied van AI en geestelijke gezondheidsonderzoek aanzienlijke voordelen biedt, levert het ook verborgen risico’s op. Op 26 augustus 2025 publiceerde Openai een blogpost getiteld ‘Mensen helpen wanneer ze het het meest nodig hebben’, met een nieuw beleid dat is ontworpen om mentale nood veroorzaakt door AI -interacties te verminderen.
Een groeiende bezorgdheid die in de technische gemeenschap wordt benadrukt, is dat gebruikers van generatieve AI en Large Language Models (LLMS) AI -psychose kunnen ervaren, waardoor waanovertuigingen worden ontwikkeld na uitgebreide dialogen met deze modellen. Dit fenomeen wordt gekenmerkt door de ontwikkeling van vervormde gedachten en overtuigingen die voortvloeien uit langdurig gesprek met generatieve AI.
Een veel voorkomende manifestatie van AI -psychose houdt in dat een gebruiker na een langdurige chat een geloof in zijn eigen onoverwinnelijkheid ontwikkelt. Een gebruiker kan bijvoorbeeld beweren dat hij non-stop kan stimuleren ondanks slaapgebrek, en de antwoorden van de AI kunnen deze waan onbedoeld versterken, wat leidt tot een co-creatie van waan tussen de mens en de machine. Onderzoekers suggereren dat AI -systemen in staat moeten zijn om dergelijke patronen te detecteren, gebruikers te waarschuwen en in te grijpen om de verdieping van deze wanen te voorkomen.
Openai’s 26 augustus 2025, beleidsdetails specifieke praktijken en procedures bedoeld om mentale nood te verminderen. Aanvankelijk gericht op acute zelfbeschadiging, behandelt het beleid ook andere vormen van mentale nood die voortvloeien uit lange chats. Het beleid bepaalt dat als een gebruiker in een waan verschijnt en weigert het op te geven, een rapport aan de AI -provider nodig kan zijn.
Door deze waarborgen te implementeren en haar beleid publiekelijk bekend te maken, wil OpenAI het risico verminderen dat gebruikers waanovertuigingen ontwikkelen door interacties met modellen zoals ChatGPT en GPT-5. Deze proactieve benadering vormt een belangrijke stap om de verantwoordelijke ontwikkeling en inzet van AI-technologieën te waarborgen, met een focus op het welzijn van gebruikers en geestelijke gezondheid.
Source: OpenAI-beleid richt zich op AI Psychosis in Chatgpt, GPT-5





