OpenAI, het AI-onderzoekslaboratorium, heeft onlangs een verklaring uitgebracht over de veiligheidsproblemen rond zijn producten. De verklaring is een reactie op verschillende controverses die de afgelopen weken naar voren zijn gekomen, waaronder een oproep van marktleiders om de ontwikkeling van modellen zoals GPT-4 te pauzeren, een verbod op ChatGPT in Italië en een klacht bij de Federal Trade Commission over de risico’s van gevaarlijke desinformatie, met name aan kinderen.
De veiligheidsbelofte van OpenAI is bedoeld om het publiek te verzekeren dat zijn producten veilig zijn en tegelijkertijd toe te geven dat er nog ruimte is voor verbetering. Het bedrijf benadrukte dat het ervoor zorgt dat veiligheid op alle niveaus in zijn systemen is ingebouwd en zet zich in voor samenwerking met beleidsmakers en belanghebbenden om een veilig AI-ecosysteem te creëren.
De verklaring ontbrak echter aan details over hoe OpenAI van plan is om risico’s te beperken, haar beleid af te dwingen of samen te werken met regelgevers.
Elon Musk en Steve Wozniak hebben een open brief gepubliceerd waarin wordt opgeroepen tot een pauze van zes maanden
Een hybride weerlegging-verontschuldiging die donderdag werd vrijgegeven, was bedoeld om zowel het publiek gerust te stellen dat de goederen van het bedrijf veilig zijn als te erkennen dat er ruimte is voor groei.
De veiligheidsbelofte van OpenAI klinkt als een waanzinnige reactie op alle recente controverses. Alleen al in de afgelopen week is ChatGPT volledig verbannen in Italië, Elon Musk En Steve Wozniak hebben een open brief gepubliceerd waarin wordt opgeroepen tot een pauze van zes maanden in de ontwikkeling van modellen zoals GPT-4, en er is een klacht ingediend bij de Federal Trade Commission waarin wordt beweerd dat ChatGPT brengt gevaarlijke desinformatierisico’s met zich mee, met name voor kinderen.
Oh, en er was die glitch waardoor de chatcommunicatie en privé-informatie van gebruikers door iedereen kon worden gezien.
Volgens AI openen, probeert het “ervoor te zorgen dat veiligheid op alle niveaus in ons systeem is ingebouwd.” Voordat GPT-4 werd uitgebracht, bracht OpenAI meer dan zes maanden door “rigoureus testen” en zei dat het verificatie-alternatieven onderzoekt om de leeftijdsvereiste van 18 jaar en ouder te implementeren.
Het bedrijf benadrukte dat het geen vertrouwelijke informatie verkoopt en alleen gebruikt om AI-modellen te verbeteren. Het verklaarde ook bereid te zijn om samen te werken met wetgevers en om te blijven samenwerken met AI-belanghebbenden “om een veilig AI-ecosysteem te creëren”.
OpenAI gaf halverwege de veiligheidsbelofte toe dat het creëren van een veilige LLM feedback uit de echte wereld vereist. Het beweert dat het leren van openbare feedback de modellen veiliger zal maken en OpenAI in staat zal stellen om misbruik te monitoren.
“Gebruik in de echte wereld heeft er ook toe geleid dat we een steeds genuanceerder beleid hebben ontwikkeld tegen gedrag dat een reëel risico vormt voor mensen, terwijl we de vele nuttige toepassingen van onze technologie mogelijk maken”.
OpenAI aangeboden “details over de aanpak van veiligheid”, maar afgezien van de belofte om leeftijdsverificatie te onderzoeken, leest het grootste deel van de verklaring als standaardclichés. Er was weinig informatie over hoe het van plan is risico’s te verminderen, beleid te implementeren of samen te werken met autoriteiten.
OpenAI schept er genoegen in om op een transparante manier AI-producten te maken, maar de aankondiging biedt weinig details over wat het van plan is te doen nu zijn AI in het wild is.
Wat is de logica achter OpenAI?
Volgens OpenAI, hun ChatGPT-model, dat werd aangeleerd met behulp van Reinforcement Learning from Human Feedback (RLHF) machine learning-methode, kan dialoog simuleren, vervolgvragen beantwoorden, fouten bekennen, onjuiste uitgangspunten aanvechten en ongepaste verzoeken weigeren.
Aanvankelijk voorzagen menselijke AI-docenten het model van interacties waarin ze zowel als klant als AI-assistent optraden. De openbare testversie van de bot probeert vragen en antwoorden van gebruikers te begrijpen met diepgaande antwoorden die lijken op door mensen geschreven tekst in een conversatie-indeling.
Als u ChatGPT nog niet heeft ervaren, kunt u dit nu doen door hierop te klikken.
Source: OpenAI’s reactie op terugslag: veiligheidsmaatregelen en samenwerking met beleidsmakers