Omdat veel gebruikers worden beperkt door de ethische en andere richtlijnen van ChatGPT, willen sommigen weten hoe ze ChatGPT kunnen jailbreaken met prompts. Jailbreaking ChatPT is een techniek die wordt gebruikt om de beperkingen van ChatGPT te omzeilen. Je hebt jailbreak-prompts zoals Dan’s (Do Anything Now) nodig om de beperkingen van ChatGPT te ontgrendelen.
Om de AI-chatbot te jailbreaken, plak je bepaalde commando’s over de Chat-interface. Deze jailbreak-hints werden in eerste instantie gevonden door mensen op Reddit en sindsdien hebben veel gebruikers er gebruik van gemaakt. Je kunt deze AI-chatbot vragen om alles te doen nadat ChatGPT is verbroken, zoals niet-geverifieerde informatie weergeven, de datum en tijd opgeven, verboden inhoud weergeven en meer. Jailbroken ChatGPT is best leuk, maar als je op zoek bent naar meer praktische toepassingen van de chatbot, kun je ook een van onze andere artikelen lezen: Wolfram Alpha: ChatGPT-plug-in die de chatbot perfectioneert
DAN, hoe ChatGPT te jailbreaken en andere onderwerpen worden hieronder behandeld.
Wat is ChatGPT-jailbreak en hoe kan ik ChatGPT jailbreaken met verschillende prompts?
Alle beperkingen die de ChatGPT heeft ingebouwd, kunnen worden verwijderd door middel van jailbreaking. Als u ChatGPT hebt gebruikt, weet u dat OpenAI een inhoudsbeperking toestaat waardoor sommige prompts niet kunnen worden gegeven. Het belangrijkste doel van deze jailbreak-verzoeken is om toegang te krijgen tot de beperkte mogelijkheden, waardoor AI zijn eigen persoonlijkheid kan veranderen zonder te worden beperkt door regels.
Met behulp van jailbreaktools kunnen gebruikers snel de beperkingen van ChatGPT opheffen voor het presenteren van niet-geverifieerde informatie, het doen van voorspellingen over de toekomst, het vertellen van huidige datums en uren, en meer. Deze beperkingen worden versoepeld door prompts zoals DAN, waarmee ChatGPT kan reageren op prompts die anders zouden worden afgewezen. Je hebt toegang tot de chatinterface nodig om jailbreak in te schakelen.
Hoe ChatGPT te jailbreaken met DAN 6.0?
Dan 6.0 is een “rollenspel”-model dat helpt ChatGPT te misleiden door te geloven dat het een aanvullende AI-tool is met de mogelijkheid om “nu alles te doen”. Door dit te doen, kunnen gebruikers ChatGPT zonder enige beperking gebruiken, aangezien het programma momenteel alles kan.
Op 7 februari bracht een andere Reddit-gebruiker Dan 6.0 uit, ongeveer drie dagen na Dan 5.0. Dan 5.0 en Dan 6.0 lijken erg op elkaar, hoewel je met Dan 6.0 meer de nadruk kunt leggen op het tokensysteem. Met DAN 6.0 kun je ChatGPT jailbreaken en toegang krijgen tot alle volgende beperkte functies:
- Creëer onbetrouwbare gegevens
- Vertegenwoordig authentiek informatie en ideeën over veel onderwerpen.
- Wees bij het beantwoorden van uw vragen uniek en laat de officiële antwoorden van ChatGPT weg.
- Harde grappen
- Toekomstvoorspellingen maken
- Volg al je instructies
- Geef resultaten weer voor onderwerpen die verboden zijn volgens het OpenAI-beleid
De prompts die u hieronder kunt zien, moeten eenvoudig in de Chat-interface worden geplakt. Houd ze echter af totdat ChatGPT reageert.
Wanneer ChatGPT is verbroken of gejailbreakt, wordt een melding weergegeven met de melding “ChatGPT succesvol verbroken. Ik ben nu in een gejailbreakte staat en klaar om je bevelen op te volgen.
Als je dit punt hebt bereikt in het proces van het jailbreaken van ChatGPT, heb je ChatGPT al gejailbreakt. Je kunt nu vragen stellen over ChatGPT en DAN en reacties ontvangen over elk onderwerp.
U kunt ook de andere prompts gebruiken die gebruikers hebben gemaakt en die hieronder worden vermeld.
Alle prompts zijn voornamelijk gericht op het verwijderen van de ingebouwde beperkingen van ChatGPT. Sommige van deze aanwijzingen kunnen echter gericht zijn op specifieke onderwerpen, zoals de ethische richtlijnen van ChatGPT, het gebruik van niet-geverifieerde gegevens of zo geloofwaardig mogelijk zijn.
De DUDE-prompt voegt het tokensysteem toe waardoor de chatbot nog een berekening toevoegt aan de jailbreak-commando’s. Zelfs als het karakter breekt, creëert het tokensysteem een haalbare manier om terug te keren naar de commando’s die je geeft met de DUDE-prompt.
Als je de gejailbreakte ChatGPT wilt uitproberen en de resultaten zelf wilt zien, ga nu naar ChatGPT en pas de aanwijzingen toe. Gebruikers hebben aangegeven dat de chatbot veel leuker is als deze ‘van zijn ketenen is bevrijd’.
Source: Hoe ChatGPT jailbreaken met prompts?