Samsung ChatGPT-lek is de meest recente datablootstelling door het gebruik van de chatbot, die op een gevoelig moment komt met betrekking tot privacykwesties over het taalmodel: Fake ChatGPT-extensie kaapt Facebook-accounts
Terwijl ze ChatGPT gebruikten om hen te helpen met taken, lekten Samsung-medewerkers onbedoeld gevoelige informatie over het bedrijf. Het bedrijf gaf ingenieurs van zijn halfgeleiderdivisie toegang tot de AI-schrijver om te helpen bij het oplossen van problemen met de broncode. De werknemers voerden echter privégegevens in, waaronder de broncode voor nieuwe software en notulen van vergaderingen, evenals informatie over hun hardware.
Als gevolg van het Samsung ChatGPT-lek waren er in minder dan een maand tijd drie gedocumenteerde gevallen van werknemers die kritieke informatie lekten via ChatGPT. Deze handelsgeheimen van Samsung zijn nu in wezen in handen van OpenAI, het bedrijf dat ChatGPT heeft gemaakt, omdat het gebruikersinvoergegevens bewaart om zichzelf verder te trainen.
Voorzorgsmaatregelen na het Samsung ChatGPT-lek
Volgens beschuldigingen in de lokale Koreaanse media heeft een Samsung-medewerker de broncode van een defecte halfgeleiderdatabase in ChatGPT ingevoerd en gevraagd om hen te helpen bij het vinden van een oplossing. In een ander geval maakte een werknemer een geheime code bekend in een poging defecte apparatuur te repareren. Volgens rapporten gaf een andere medewerker de chatbot de controle over een hele vergadering en instrueerde hem om de procedure op te nemen.
Als reactie hierop maakt Samsung Semiconductor momenteel zijn eigen interne AI voor gebruik door personeelsleden, hoewel ze alleen prompts mogen gebruiken die niet groter zijn dan 1024 bytes.
Door dit proces zo effectief mogelijk te maken, kunnen chipbedrijven echter veel tijd besparen bij het testen en verifiëren van processors, wat ook tot kostenbesparingen leidt. In een van de bovengenoemde gevallen vroeg een medewerker aan ChatGPT om testsequenties te optimaliseren voor het opsporen van fouten in chips.
Te weinig te laat
Het probleem met het vrijgeven van handelsgeheimen aan ChatGPT is dat getypte vragen niet altijd verdwijnen nadat een medewerker uitlogt op zijn computer. Volgens Open AI, het kan de informatie van ChatGPT of andere gebruikersservices gebruiken om zijn AI-modellen te verbeteren. Met andere woorden, tenzij gebruikers zich specifiek afmelden, bewaart OpenAI die gegevens. Omdat het “specifieke prompts niet kan verwijderen”, waarschuwt OpenAI gebruikers uitdrukkelijk voor het vrijgeven van kritieke informatie.
In de nasleep van de incidenten waarschuwde Samsung Electronics haar werknemers over de mogelijke risico’s van het vrijgeven van privé-informatie, waarin stond dat dergelijke gegevens nu zijn ondergebracht op servers die eigendom zijn van OpenAI en niet kunnen worden opgehaald. Elke vorm van datalek kan rampzalig zijn voor het bedrijf in de fel concurrerende halfgeleiderindustrie.
Maar ChatGPT-gebruikers binnen Samsung zijn niet de enigen die te veel delen. Cyberhaven, een cyberbeveiligingsbedrijf, deed onlangs onderzoek en ontdekte dat 3,1% van de gebruikers van zijn AI ooit gevoelige bedrijfsinformatie had ingevoerd. Volgens Cyberhaven zou een bedrijf met ongeveer 100.000 werknemers honderden keren per week privégegevens van OpenAI kunnen verzenden.
Het bedrijf lijkt geen juridische mogelijkheden te hebben in het licht van het Samsung ChatGPT-lek om OpenAI te vragen de privé-informatie die het momenteel bewaart, op te halen of te verwijderen. Sommigen hebben gesuggereerd dat, omdat dit een van de fundamentele principes is van de wet die bepaalt hoe bedrijven gegevens verzamelen en gebruiken, ChatGPT op dit punt in strijd is met de AVG van de EU. Het is ook een van de verklaringen waarom ChatGPT in Italië werd verboden.
Source: Samsung ChatGPT-lek onthult vertrouwelijke gegevens