Het debuut van OpenAI ChatGPT is tegenwoordig een van de meest besproken onderwerpen in AI-technologie.
Text-davinci-003 is een nieuw model in de GPT-3-familie van AI-aangedreven grote taalmodellen die het bedrijf maandag onthulde. Het is een lid van wat het de “GPT-3.5-serie” noemt, en naar verluidt presteert het beter dan zijn voorgangers door complexere instructies te verwerken en langere inhoud van hogere kwaliteit te genereren. Over het onderwerp, Twitter-gebruiker en datawetenschapper @minimaxir getweet:
GODVERDOMME @OpenAI STOP MET HET AANKONDIGEN VAN DINGEN IK HEB HET TE DRUK https://t.co/F7Xd511FAf
— Max Woolf (@minimaxir) 30 november 2022
Het nieuwe model verbetert ChatGPT door versterkend leren te integreren met menselijke feedback om taalmodellen beter af te stemmen op instructies van mensen. Davinci-003 is een echt model voor leren met menselijke feedback (RLHF), in tegenstelling tot davinci-002, dat gebruik maakt van gesuperviseerde fijnafstemming op door mensen geschreven demo’s en modelvoorbeelden met hoge scores om de generatiekwaliteit te verbeteren.
In de demo kan OpenAI ChatGPT ingewikkelde taken uitvoeren, zoals:
- V&A
- Grammatica correctie
- Een gesprek samenvatten
- Tekst naar het genereren van opdrachtprompts
- Engels naar andere talen vertaling
- Items classificeren
- Phyton vertalen naar natuurlijke taal
- Tweets classificeren
- Trefwoorden uit een tekst halen
- Maak een rekenblad
- Een studienotitie maken
Als u OpenAI ChatGPT zelf wilt uitproberen, klikt u op de link hier.
Veelbelovende demo van OpenAI ChatGPT
De onderzoeksversie van ChatGPT, een recent OpenAI-blogartikel stelt dat “de laatste stap in OpenAI’s iteratieve inzet van steeds veiligere en bruikbare AI-systemen.” De veiligheidsbeperkingen die voor deze release zijn ingevoerd, zijn gebaseerd op verschillende lessen die zijn geleerd door de inzet van eerdere modellen zoals GPT-3 en Codex, waaronder een aanzienlijke afname van schadelijke en onwaarachtige resultaten die zijn verkregen door de toepassing van versterkend leren van menselijke feedback (RLHF) .

In de blog zien we grote verbeteringen aan de OpenAI ChatGPT. AI kon een limerick opschrijven (een humoristisch vijfregelig gedicht met een rijmschema aabba.) en een samenvatting van het onderwerp waarover het met de gebruiker sprak.
Gebruiker:
schrijf er een limerick overChatGPT:
Er was eens een stelling van Fermat
Dat vonden velen best elegant
Er stond als je neemt
Een priemgetal en maak
De kracht van een niet deelbaar door het
Het resultaat, congruent, zal passen
In cryptografie is het best handig
Voor codering is het dandy
Kleine stelling van Fermat, oh zo netjes
In de getaltheorie kan het niet kloppen!Gebruiker:
vat het gesprek tot nu toe samenChatGPT:
De kleine stelling van Fermat stelt dat als pp een priemgetal is en aa een geheel getal is dat niet deelbaar is door pp, dan a^pa
(aa tot de macht pp) is congruent met aa modulo pp. Het wordt vaak gebruikt in cryptografie om modulaire machtsverheffen efficiënt uit te voeren en om privésleutels te genereren uit openbare sleutels. Het is ook een handig hulpmiddel in de getaltheorie om andere stellingen te bewijzen. Ik schreef ook een limerick over de kleine stelling van Fermat.Gesprek tussen gebruiker en ChatGPT – van OpenAI-blogpost
Beperkingen van OpenAI ChatGPT
Desondanks beschreef OpenAI de “beperkingen” van ChatGPT in zijn blogpost, inclusief het feit dat antwoorden af en toe plausibel klinken, maar verkeerd of absurd zijn. In de veronderstelling dat ChatGPT nog een vroege demo is, worden dit soort problemen verwacht. In hun blogpost verklaarde OpenAI:
“Dit probleem oplossen is een uitdaging, aangezien: (1) tijdens RL-training er momenteel geen bron van waarheid is; (2) het trainen van het model om voorzichtiger te zijn zorgt ervoor dat het vragen weigert die het correct kan beantwoorden; en (3) begeleide training misleidt het model omdat het ideale antwoord afhangt van wat het model weet, in plaats van wat de menselijke demonstrator weet.”
ChatGPT zal “soms reageren op schadelijke instructies of bevooroordeeld gedrag vertonen”, aldus Open AI. Hoewel we enkele valse negatieven en positieven verwachten, maken we voorlopig gebruik van de Moderatie-API om gebruikers te waarschuwen of specifieke categorieën gevaarlijke inhoud te verbieden. Om ons te helpen bij onze voortdurende inspanningen om dit systeem te verbeteren, verzamelen we graag input van gebruikers.
En dat omvat alle huidige updates van de OpenAI ChatGPT-demo. Het onderwerp AI en menselijke gesprekken, dat onlangs met Meta Galactica AI naar voren is gekomen, is echt interessant.
Houd je van AI-tools? Bekijk andere artikelen:
- Gratis MyHeritage Historische AI-alternatieven
- Interieur AI: herontwerp uw kamer moeiteloos
- Wat als je een Viking was? MyHeritage AI Time Machine weet het
- Meta’s Cicero AI behaalt prestaties op menselijk niveau in het bordspel Diplomacy
- Hoe lang helpt AI ons al?
We wensen je een fijne dag; blijf ons lezen voor meer AI-nieuws.
Source: OpenAI ChatGPT: de nieuwe chatbot van OpenAI uitgelegd





