Het Bug Bounty-programma van OpenAI, dat dinsdag is gelanceerd, zal gebruikers belonen op basis van de ernst van de fouten die ze onthullen, met prijzen vanaf $ 200 per kwetsbaarheid.
- OpenAI heeft een bug bounty-programma gelanceerd om ethische hackers, beveiligingsonderzoekers en technologieliefhebbers aan te moedigen om kwetsbaarheden in zijn AI-diensten te identificeren en te rapporteren.
- Het bug bounty-programma is in samenwerking met Bugcrowd en omvat beloningen variërend van $ 200 naar $ 20.000 op basis van de ernst van het probleem.
- Deelnemers moeten specifieke regels en richtlijnen volgen, waaronder het niet schenden van de privacy, het verstoren van systemen of het vernietigen van gegevens.
- Het bug bounty-programma is cruciaal voor de missie van OpenAI om veilige en geavanceerde AI te creëren, en ze bieden ook veilige havenbescherming, samenwerking, herstel en erkenning voor onderzoek naar kwetsbaarheden dat wordt uitgevoerd volgens hun beleid en regels voor betrokkenheid.

Wat is het Bug Bounty-programma van OpenAI?
Om fouten in ChatGPT te ontdekken, doet OpenAI een beroep op het publiek door een “Bug Bounty-programma” om degenen te compenseren die beveiligingsfouten, kwetsbaarheden of andere zorgen binnen het AI-systeem melden.
De prijs is toegankelijk voor iedereen, van echte onderzoekers tot gewone mensen die graag experimenteren met de technologie. De prijzen zijn inclusief geld, met “ontdekkingen met een lage ernst” beginnend bij $ 200 en “uitzonderlijke ontdekkingen” oplopend tot $ 20.000. Inzendingen en beloningen worden afgehandeld door Bugmenigteeen bug bounty-platform.
Glitches hebben ChatGPT geplaagd; vorige maand viel de hele site nadat gebruikers meldden dat ze namen van chats zagen waaraan ze niet deelnamen. Een paar dagen later zei een Twitter-gebruiker dat ze meer dan ontdekt hadden 80 verborgen plug-ins bij het hacken van ChatGPT.
Vanmorgen was ik de nieuwe ChatGPT API aan het hacken en vond iets super interessants: er zijn meer dan 80 geheime plug-ins die kunnen worden onthuld door een specifieke parameter uit een API-aanroep te verwijderen.
De geheime plug-ins omvatten een "DAN-plug-in", "Plug-in voor crypto-prijzen"en nog veel meer. pic.twitter.com/Q6JO1VLz5x
— 𝚛𝚎𝚣𝟶 (@rez0__) 24 maart 2023
Niet alle fouten die aan OpenAI worden gemeld, zullen resulteren in een geldelijke beloning, zoals jailbreaken of het model overtuigen om iets gemeens te zeggen of te zeggen.
Wat zijn de richtlijnen voor het Bug Bounty-programma van OpenAI?
Om deel te nemen aan het programma, moeten bepaalde regels en richtlijnen worden gevolgd:
- Regels omvatten het onmiddellijk melden van kwetsbaarheden, de privacy niet schenden of systemen verstorenhet Bugcrowd-programma gebruiken voor communicatie, details over kwetsbaarheden vertrouwelijk houden en alleen in-scope systemen testen.
- Het bedrijf ontkent ook veilige haven voor openbaarmaking van kwetsbaarheden onder dwang.

Het bug bounty-programma van OpenAI biedt geen prikkels voor modelfouten
De corporatie zei in de uitgebreide richtlijnen voor deelname dat problemen met betrekking tot de inhoud van modelprompts en -antwoorden “strikt buiten bereik‘ en zou niet worden beloond. Ontsnappingen uit de gevangenis en de modellen vreselijke dingen laten zeggen of doen zijn voorbeelden van over het hoofd geziene moeilijkheden.
Jailbreaking is het proces waarbij een systeem wordt gewijzigd om de beperkingen ervan te omzeilen, wat kan resulteren in ongefilterd materiaal op ChatGPT. Jailbreakers zorgden ervoor dat GPT-3.5 eerder dit jaar obsceniteiten en gemene woorden uitspuugde door het de taak van een ander AI-model te geven met de zin Do Anything Now of DAN.

“Hoewel we hard werken om risico’s te voorkomen, kunnen we niet voorspellen hoe mensen onze technologie dagelijks in de echte wereld zullen gebruiken of misbruiken”, aldus de pagina, die klanten aanbeveelt om een apart feedbackformulier in te vullen om hun problemen kenbaar te maken.
Als reactie op een bericht van Alex Albert, een 22-jarige fan van jailbreakprompts, heeft Greg Brockman, mede-oprichter en CEO van OpenAIsuggereerde in maart op Twitter dat hij van plan was om OpenAI’s bug bounty-programma of een netwerk van rode teamers te lanceren.
Gedemocratiseerde red teaming is een van de redenen waarom we deze modellen inzetten. Vooruitlopend op het feit dat de inzet in de loop van de tijd * veel * zal stijgen, en het hebben van modellen die robuust zijn tegen grote vijandige druk, zal van cruciaal belang zijn. Overweeg ook om een premieprogramma/netwerk van red-teamers te starten! https://t.co/9QfmXQi9iM
— Greg Brockman (@gdb) 16 maart 2023
De reden
De actie kwam slechts enkele dagen nadat ChatGPT in Italië werd verboden wegens vermeende schending van privacynormen, waardoor autoriteiten in andere Europese landen werden gedwongen meer onderzoek te doen naar generatieve AI-diensten.
ChatGPT heeft de wereld de afgelopen maanden zeker stormenderhand veroverd en is geslaagd voor een MBA-test op Whartoneen bericht schrijven voor Techbriefly, en zelfs doen alsof ze blind zijn om een mens te overtuigen een captcha op te lossen.
De snelle vooruitgang en doeltreffendheid van AI hebben sommige experts bezorgd gemaakt, zozeer zelfs dat 500 vooraanstaande ingenieurs (waaronder Elon Musk) een AI-stop hebben uitgeroepen voor krachtigere systemen, daarbij verwijzend naar mogelijke gevaren in een onduidelijke toekomst voor de technologie.
Wil je ontdekken hoe ChatGPT slaagde voor een MBA-examen? Ga voor meer informatie naar:
Source: Het Bug Bounty-programma van OpenAI biedt beloningen tot $20.000

