De ontwikkelaars van ChatGPT hebben de geheugentool ontworpen om de gebruikerservaring te verbeteren door persoonlijke details van gesprek tot gesprek te bewaren. Maar, zoals bij veel kansen, brengt het ook risico’s met zich mee. Beveiligingsprofessionals hebben onlangs een techniek ontdekt die hackers kunnen gebruiken om valse herinneringen in ChatGPT te injecteren, waardoor gebruikers gevaar lopen tegen gegevensdiefstal.
Het probleem zit in de ChatGPT MacOS-applicatie, waar tegenstanders prompts kunnen injecteren om te veranderen wat de AI zich herinnert over zijn gebruikers. Als gevolg hiervan wordt de informatie opgeslagen en later naar de server van de hacker gebracht. Hoewel het probleem ernstig lijkt, is het misschien niet zo beangstigend als het in eerste instantie lijkt, dankzij verschillende stappen die OpenAI heeft genomen om gebruikers te beschermen.
De grootste zwakte in het geheugensysteem van ChatGPT
Onderzoeker Johann Rehberger van Embrace The Red beschreef de fout in een grondig rapport. Rehberger liet zien hoe aanvallers prompts kunnen injecteren om kwaadaardige instructies op te slaan in ChatGPT’s geheugenKortom, een hacker kan de app misleiden zodat deze onjuiste informatie onthoudt, waardoor gevoelige gegevens in de toekomst in gevaar komen.
De exploit wordt onveilig omdat het de aanvaller toestaat om het geheugen van ChatGPT te beheren tijdens meerdere interacties. Een hacker kan alle gebruikersgegevens extraheren, van voorkeuren tot namen en locales, zolang het valse geheugen in het systeem blijft.
Gelukkig is dit type aanval niet wijdverbreid. OpenAI heeft de kwetsbaarheid al aangepakt en het voor hackers veel moeilijker gemaakt om de geheugenfunctie te misbruiken. Toch bestaan er kwetsbaarheden, met name van tools en applicaties van derden, die nieuwe gebieden blootleggen voor potentiële manipulatie.
Oplossingen en resterende kwetsbaarheden
OpenAI heeft een API-update uitgerold voor de webvariant van ChatGPT als reactie op het herkende geheugenprobleem, waardoor het gebruik van de prompt injection exploit via de browserinterface wordt voorkomen. Bovendien hebben ze een update uitgebracht voor de geheugentool die voorkomt dat deze een exfiltratievector wordt. Deze verbeteringen zijn nodig om het systeem een hoog beveiligingsniveau te laten behouden, ook al blijven er potentiële risico’s bestaan.
Toepassingen van derden blijven de grootste reden tot ongerustheid. Hoewel de aanpassingen van OpenAI het probleem van geheugenmisbruik in zijn essentiële systemen hebben beëindigd, waarschuwen beveiligingsonderzoekers dat niet-vertrouwde content nog steeds het geheugen van ChatGPT kan sturen via verbonden toepassingen, bestandsuploads en browse-instrumenten. Dit vertegenwoordigt een arena waarin prompt-injecties verder kunnen floreren.
Hoe u uzelf kunt beschermen
Hoewel OpenAI’s tweaks de dreiging van wijdverspreide aanvallen hebben verkleind, moeten gebruikers waakzaam blijven. Hier zijn een paar manieren om uzelf te beschermen tegen mogelijke geheugenhacks:
- Bekijk uw ChatGPT-herinneringen regelmatig: Gebruikers moeten regelmatig de ‘nieuw geheugen toegevoegd’-meldingen in de ChatGPT-app controleren. Met deze functie kunt u bekijken welke informatie is gearchiveerd, waardoor u de mogelijkheid hebt om twijfelachtige vermeldingen te elimineren.
- Geheugen uitschakelen indien niet nodig: ChatGPT heeft de geheugenfunctie automatisch ingeschakeld, maar je kunt ervoor kiezen om het te deactiverenDeze aanpak is eenvoudig, maar krachtig genoeg om het risico van geheugengebaseerde aanvallen te elimineren.
- Wees voorzichtig met interacties met derden: Als u verbonden apps gebruikt of bestanden uploadt naar ChatGPT, moet u buitengewoon voorzichtig zijn. Deze zones zijn nog steeds meer blootgesteld aan snelle injectieaanvallen.
Hoewel geen enkel systeem volledig immuun is voor bedreigingen, kunt u door voorzichtig te zijn en opgeslagen herinneringen regelmatig te controleren, de kans verkleinen dat u het doelwit wordt van een dergelijke aanval.
ChatGPT’s geavanceerde beveiliging voor geheugen
ChatGPT’s retentie van gebruikersgegevens voor gepersonaliseerde service biedt een krachtig hulpmiddel. Met behulp van deze methode kan het systeem voorkeuren onthouden, eerdere gesprekken terugroepen en zelfs bepaalde voorkeuren of afkeuren erkennen om betere antwoorden te formuleren. Deze kracht is echter wat risico’s biedt. ChatGPT stelt zichzelf bloot aan mogelijke manipulatie via prompte injecties door informatie voor de lange termijn te bewaren.
Rehberger meldde dat hackers in één actie een verscheidenheid aan nepherinneringen kunnen genereren. Nadat ze zijn afgeleverd, overleven deze herinneringen in ChatGPT, wat mogelijk alle toekomstige communicatie met de AI beïnvloedt. De veronderstelling van voortdurend vertrouwen in de chatbot kan riskant zijn, omdat gebruikers per ongeluk meer persoonlijke informatie kunnen delen zonder het te beseffen.
Hoewel OpenAI grote vooruitgang heeft geboekt bij het aanpakken van deze uitdagingen, blijven er enkele onvolledige vragen bestaan. Zo lopen verschillende segmenten binnen het platform nog steeds risico op prompt injection-aanvallen, met name wanneer ongeverifieerde content van derden in een discussie wordt betrokken. Het besluit van het bedrijf om dit niet te classificeren als een ‘beveiligingskwetsbaarheid’, maar eerder als een ‘modelveiligheidsprobleem’, heeft bij experts de wenkbrauwen doen fronsen.
Regelmatige controle: uw beste verdediging
Gebruikers moeten extra maatregelen nemen om hun informatie te beschermen ondanks verborgen geheugenkwetsbaarheden. Hier zijn enkele opties die voor u beschikbaar zijn:
- Controleer alle meldingen van ‘geheugen bijgewerkt’: Wanneer ChatGPT u op de hoogte stelt van een geheugenupdate, pauzeer dan om de opgeslagen inhoud te bekijken. Deze functie helpt bij het identificeren van onnodige informatie die wordt bewaard.
- Verwijder ongewenste herinneringen: Gebruikers hebben volledige autoriteit over het geheugen van ChatGPT. Als u iets ongewoons opmerkt, verwijder het dan om mogelijke schade te voorkomen.
- Blijf alert met tools van derden: Controleer alle verbindingen tussen ChatGPT en applicaties van derden. Deze tools zijn nog steeds kwetsbaar voor manipulatie, aangezien de inspanningen van OpenAI de mogelijkheid van snelle injecties in deze gebieden niet hebben geëlimineerd.
Geheugentrucs: meer dan alleen een bug?
De geheugenkwetsbaarheid die in ChatGPT is ontdekt, heeft onthuld dat AI-tools die zijn ontworpen om de gebruikerservaring te verbeteren, extra beveiligingsrisico’s kunnen introduceren. Geheugengebaseerde kenmerken maken gepersonaliseerde interacties mogelijk, maar stellen hackers in staat deze interacties te misbruiken voor kwaadaardige doeleinden.
Naarmate ChatGPT vordert, moeten gebruikers oplettend blijven, opgeslagen herinneringen consequent controleren en voorzichtig zijn bij het omgaan met externe content. Hoewel OpenAI de beveiliging aanzienlijk heeft verbeterd, zijn er extra inspanningen nodig om de bestaande kwetsbaarheden aan te pakken. Door u bewust te zijn van potentiële gevaren en proactief te zijn, kunt u nog steeds gepersonaliseerde interacties met ChatGPT hebben terwijl u ervoor zorgt dat uw gegevens veilig blijven.
Credits voor de hoofdafbeelding: gratispik