Deze week kreeg OpenAI te maken met twee grote beveiligingsproblemen die ernstige zorgen opriepen over de manier waarop het bedrijf omgaat met cyberbeveiliging:
Eerste probleem: beveiligingslek in de ChatGPT Mac-app
Pedro José Pereira Vieito ontdekte een ernstig gebrek in de ChatGPT Mac-app. Hij ontdekte dat de app gebruikersgesprekken in platte tekst opsloeg op de computer zonder enige encryptie. Dit is een groot probleem omdat de app alleen beschikbaar is via de website van OpenAI en niet voldoet aan de beveiligingsvereisten van Apple. Deze vereisten, bekend als sandboxing, helpen voorkomen dat apps problemen veroorzaken voor de rest van het systeem.
De OpenAI ChatGPT-app op macOS is niet sandboxed en slaat alle gesprekken op in **platte tekst** op een niet-beschermde locatie:
~/Bibliotheek/Application Support/com.openai.chat/conversations-{uuid}/
In principe kan elke andere app/malware al uw ChatGPT-gesprekken lezen: foto.twitter.com/IqtNUOSql7
— Pedro José Pereira Vieito (@pvieito) 2 juli 2024
Plain text storage betekent dat iedereen met toegang tot de computer deze conversaties gemakkelijk kan lezen, waardoor ze kwetsbaar zijn voor andere apps of malware. Nadat Vieito’s bevindingen werden gerapporteerd door De randOpenAI bracht snel een update uit om de opgeslagen chats te versleutelen.
Tweede probleem: bredere zorgen over cyberveiligheid
Het tweede probleem dateert uit 2023, maar kwam deze week weer in de schijnwerpers te staan. Afgelopen voorjaar kreeg een hacker toegang tot de interne berichtensystemen van OpenAI en stal hij gevoelige bedrijfsinformatie. Leopold Aschenbrenner, een technisch programmamanager bij OpenAI, sloeg alarm over deze hack en zei dat het ernstige beveiligingslekken aan het licht bracht die door buitenlandse vijanden konden worden uitgebuit.
Aschenbrenner gerapporteerd deze zorgen aan de raad van bestuur van OpenAI. Hij beweerde later dat hij was ontslagen omdat hij deze kwesties aan het licht had gebracht. OpenAI ontkende dit echter en verklaarde dat zijn vertrek niet te wijten was aan zijn klokkenluiden, hoewel ze zijn toewijding aan AI-veiligheid erkenden.
Implicaties voor OpenAI
Beveiligingsproblemen komen bij veel techbedrijven voor, maar deze incidenten zijn met name zorgwekkend voor OpenAI vanwege de mate waarin ChatGPT wordt gebruikt. Deze problemen roepen vragen op over de vraag of OpenAI zijn gegevens veilig kan houden, vooral omdat ChatGPT steeds meer wordt geïntegreerd in belangrijke services.
De reactie van OpenAI op deze problemen is cruciaal voor het behouden van het publieke vertrouwen. Hun beveiligingspraktijken en transparantie worden nu onder de loep genomen, en hoe ze met deze zorgen omgaan, zal hun toekomstige reputatie bepalen.
OpenAI kampt met aanzienlijke beveiligingsuitdagingen. De recente problemen met de ChatGPT Mac-app en bredere cyberbeveiligingskwetsbaarheden benadrukken de noodzaak van betere beveiligingsmaatregelen en duidelijke communicatie. Nu OpenAI blijft innoveren, is het aanpakken van deze beveiligingsproblemen essentieel om vertrouwen te behouden en veilige AI-ontwikkeling te garanderen.
Bron van de hoofdafbeelding: Eray Eliaçık/Bing
Source: OpenAI’s dubbele dosis beveiligingsproblemen in één week