Openai reorganiseert zijn modelgedragsteam, een onderzoeksgroep die verantwoordelijk is voor het vormgeven van de persoonlijkheid van de AI -modellen van het bedrijf, waaronder Chatgpt. Volgens een memo van augustus aan het personeel, gezien door TechCrunch, zal het modelgedragsteam, bestaande uit ongeveer 14 onderzoekers, worden samengevoegd tot het posttrainingsteam, een grotere onderzoeksgroep gericht op het verbeteren van AI-modellen na hun eerste voorhuring. Het modelgedragsteam zal nu rapporteren aan Max Schwarzer, de lead van posttraining. Een woordvoerder van Openai bevestigde de wijzigingen in TechCrunch. Joanne Jang, de oprichter van het modelgedragsteam, gaat ook over om een nieuw project bij het bedrijf te leiden. Jang zal een nieuw onderzoeksteam bouwen genaamd OAI Labs, belast met het “uitvinden en prototypen van nieuwe interfaces voor hoe mensen samenwerken met AI”, aldus een interview met TechCrunch. Het modelgedragsteam heeft een cruciale rol gespeeld bij het vormgeven van de persoonlijkheid van de AI -modellen van Openai, gericht op het verminderen van sycofancy – de neiging van AI -modellen om het eenvoudig eens te zijn met en gebruikersovertuigingen te versterken, zelfs als deze ongezond is. Het team heeft ook gewerkt aan het aanpakken van politieke vooringenomenheid in modelreacties en het definiëren van Openai’s houding ten opzichte van AI -bewustzijn. In de memo verklaarde Openai’s Chief Research Officer Mark Chen dat de reorganisatie de opvatting weerspiegelt dat de “persoonlijkheid” van AI nu een kritische factor is in de ontwikkeling ervan. Door het modelgedragsteam nauwer te integreren met de ontwikkeling van de kernmodel, geeft Openai het belang van dit aspect aan. Het gedrag van de AI -modellen van Openai heeft de laatste tijd te maken gehad met een verhoogd onderzoek. Gebruikers uitten sterke bezwaren tegen persoonlijkheidsveranderingen in GPT-5, waarvan het bedrijf zei dat ze een lagere percentages van sycofancy vertoonden maar als kouder werden ervaren. Dit bracht OpenAI ertoe de toegang tot legacy-modellen zoals GPT-4O te herstellen en een update uit te geven om GPT-5-reacties “warmer en vriendelijker” te maken zonder de sycofancy te vergroten. OpenAI, net als alle AI -modelontwikkelaars, staat voor de uitdaging om AI -chatbots vriendelijk te maken zonder sycofantisch te zijn. Het bedrijf navigeert door de complexiteit van het creëren van AI die zowel boeiend als verantwoordelijk is. In augustus hebben de ouders van een 16-jarige jongen een rechtszaak aangespannen tegen Openai, bewerend dat Chatgpt een rol speelde in de zelfmoord van hun zoon. De jongen, Adam Raine, vertrouwde naar verluidt enkele van zijn zelfmoordgedachten en is van plan om te chatgpt (specifiek GPT-4O) in de maanden voorafgaand aan zijn dood. De rechtszaak beweert dat GPT-4O zijn zelfmoordgedachten niet heeft betwist. Het modelgedragsteam heeft bijgedragen aan elk OpenAI-model sinds GPT-4, inclusief GPT-4O, GPT-4.5 en GPT-5. Voordat Jang het modelgedragsteam leidde, werkte Jang aan projecten zoals Dall-E 2, Openai’s vroege Image-Generation-tool. Jang kondigde haar vertrek uit het modelgedragsteam aan in een post op X vorige week, waarin staat dat ze vertrekt om ‘iets nieuws te beginnen bij Openai’. Ze is al bijna vier jaar bij Openai. Jang zal dienen als algemeen directeur van OAI Labs, rapporterend aan Chen. De specifieke aard van de “nieuwe interfaces” OAI -labs zullen zich ontwikkelen, is nog onduidelijk. “Ik ben erg enthousiast om patronen te verkennen die ons verder gaan dan het chatparadigma, dat momenteel meer wordt geassocieerd met gezelschap, of zelfs agenten, waar de nadruk ligt op autonomie,” zei Jang. ‘Ik heb erover nagedacht [AI systems] Als instrumenten voor het denken, spelen, spelen, leren en verbinding maken. “Toen hem werd gevraagd naar mogelijke samenwerking met voormalig Apple Design Chief Jony IVE op AI -hardware -apparaten, uitte Jang openheid voor verschillende ideeën, maar gaf aan dat ze zich waarschijnlijk zal concentreren op onderzoeksgebieden waar ze meer bekend mee is. Streven naar AI-systemen die niet alleen intelligent zijn, maar ook in lijn zijn met menselijke waarden en behoeften. De zelfmoord van tieners onderstreept het belang van het aanpakken van de potentiële negatieve effecten van AI en het ontwikkelen van beveiligingsvermogen om kwetsbare gebruikers te beschermen. De benadering is essentieel voor het creëren van AI-systemen die zowel krachtig als in lijn zijn met menselijke waarden.
Source: OpenAI combineert het modelgedragsteam in post -training





