Een veronderstelde systeemprompt voor het GPT-5 grote taalmodel van OpenAI is onlangs opgedoken op Reddit en GitHub, en biedt een potentiële kijk op de exacte regels voor de interacties van Chatgpt en taakuitvoering.
Een Reddit-gebruiker beweerde de “letterlijke systeemprompt en gereedschapsinformatie” voor GPT-5 te hebben ontdekt, waarbij de volledige prompt een dag eerder op GitHub verscheen. Naar verluidt begint de prompt met de verklaring: “U bent Chatgpt, een groot taalmodel gebaseerd op het GPT-5-model en getraind door OpenAI.” Het specificeert een kennisdatum van de kennis van “2024-06” voor GPT-5 en vermeldt de persoonlijkheid van zijn persoonlijkheid als “V2”, wat suggereert dat eerdere persoonlijkheids herhalingen.
De vermeende prompt biedt aanzienlijk inzicht in de soorten antwoorden die Chatgpt nu mag bieden en hoe Openai probeert zijn gedrag vorm te geven. Met name instrueert het GPT-5 om zinnen te vermijden als ‘Zou je willen dat ik’ wil ” wil dat ik dat doe, ” wil je dat ik dat ” als je wilt, ik kan, ‘laat het me weten als je me zou willen,’ ‘moet ik’ en ‘zal I.’
Hoewel de bronnen die het lek beweren de authenticiteit beweren, hebben gebruikers op Hacker News de waarheidsgetrouwheid en reproduceerbaarheid in twijfel getrokken, waardoor de mogelijkheid van lokvogels of “Canary” aanwijzingen wordt aangedreven. Indien authentiek, biedt de gelekte tekst een zeldzame blik op hoe chatgpt wordt gestuurd; Zo niet, dan benadrukt het het gemak waarmee plausibele “lekken” kunnen worden verspreid.
Systeemprompts zijn cruciaal bij het vormgeven van een LLM’s toon, veiligheidsgedrag en gereedschapsgebruik. Lekken van dergelijke prompts kunnen de jailbreak -pogingen informeren en, breder, inzicht geven in de interne mechanismen van grote taalmodellen. De gerapporteerde wijzigingen in de prompt, inclusief vermeldingen van automatiseringstools voor het maken van dagelijkse taken, kunnen GPT-5 gemakkelijker te gebruiken maken.
De lanceringsmaterialen van Openai voor GPT-5 benadrukken echter zijn “router/redeneerstapel” in plaats van een enkel, statisch script, dat het idee van een canonieke prompt tegenspreekt. De geruchtensysteemprompt bevat naar verluidt instructies zoals “Als de volgende stap duidelijk is, doe het dan” en “stel maximaal één noodzakelijke verduidelijkende vraag aan het begin, niet aan het einde”, wat wijst op verschuivingen in de communicatiestijl van GPT-5. De prompt bevat ook uitgebreide richtlijnen voor het genereren van afbeeldingen, inclusief zelfportretten.
De authenticiteit van de gelekte prompt blijft onbewezen, met mogelijkheden dat het gedeeltelijk, verouderd of opzettelijk kan zijn. Zelfs als de prompt echt is, zal deze waarschijnlijk wijzigingen ondergaan met elke nieuwe versie van het model en mogelijk met kleine updates die naar de LLM worden geduwd. OpenAI heeft geen enkele systeemprompt gepubliceerd of bevestigd en hun officiële GPT-5-materialen beschrijven een gerouteerd systeem, geen enkel statisch script.


