Samsung-arbejderes brug af ChatGPT fører til lækage af fortrolige data

Untitled-design-3 (1).png

Samsungs semiconductordivision stole hjælp af ChatGPT til at hjælpe med at løse problemer i deres kildekode. Imidlertid afslørede de ved et uheld fortrolige oplysninger, som f.eks. kildekoden til et nyt program og interne mødenoter om deres hardware, mens de brugte AI-chatbotten. Desværre var dette ikke en isoleret hændelse, da der blev rapporteret om tre episoder inden for en måned.

For at undgå lignende overtrædelser i fremtiden arbejder Samsung nu på at udvikle deres egen AI-værktøj, der ligner ChatGPT og kun er til intern brug af medarbejdere. Dette vil give deres fabriksarbejdere hurtig hjælp samtidig med at beskytte virksomhedens følsomme oplysninger. Dog vil dette nye værktøj kun behandle prompter, der er 1024 bytes eller mindre i størrelse.

Problemet opstod, fordi ChatGPT styres af et tredjepartsselskab, der bruger eksterne servere. Derfor, da Samsung indtastede deres kode, testsekvenser og interne mødeindhold i programmet, lækkede det data. Samsung informerede straks deres ledere og medarbejdere om risikoen for kompromitteret fortrolig information. Indtil den 11. marts tillod Samsung ikke deres medarbejdere at bruge chatbotten.

Ikke kun Samsung kæmper med dette problem. Mange virksomheder begrænser brugen af ​​ChatGPT, indtil de har etableret en klar politik angående brugen af generativ AI. Selvom ChatGPT giver en fravalgsmulighed for indsamling af brugerdata, er det værd at bemærke, at oplysningerne, der sendes til tjenesten, stadig kan tilgås af dens udvikler.

Hvad er ChatGPT og hvordan fungerer det?

ChatGPT er en AI-applikation udviklet af OpenAI, der bruger dyb læring til at producere tekst, der ligner menneskers, som svar på brugerforespørgsler. Den kan generere tekst i forskellige stilarter og til forskellige formål, herunder at skrive tekster, besvare spørgsmål, skrive e-mails, holde samtaler, oversætte naturligt sprog til kode og forklare kode på forskellige programmeringssprog.

ChatGPT fungerer ved at forudsige det næste ord i en given tekst ved hjælp af de mønstre, den har lært fra en stor mængde data under sin træningsproces. Ved at analysere konteksten for prompten og dens tidligere læring genererer ChatGPT et svar, der sigter mod at være så naturligt og sammenhængende som muligt.

Hvilke tiltag har Samsung taget for at undgå fremtidige lækager?

Følgende data lækager forårsaget af ChatGPT har fået Samsung til at træffe flere foranstaltninger for at forhindre, at sådanne hændelser sker igen. For det første har virksomheden rådet sine medarbejdere til at udvise forsigtighed ved deling af data med ChatGPT. De har også implementeret en begrænsning af længden på de spørgsmål, der sendes til tjenesten, med en begrænsning på 1024 bytes.

Derudover er Samsung i øjeblikket ved at udvikle et AI-værktøj, der ligner ChatGPT, men udelukkende til intern brug af medarbejdere. Dette vil sikre, at fabriksarbejdere får hurtig hjælp samtidig med at sikre følsom virksomhedsinformation. Indtil udviklingen af dette værktøj har Samsung advaret sine medarbejdere om de potentielle risici ved at bruge ChatGPT. De har også fremhævet, at data, der indtastes i ChatGPT, transmitteres og gemmes på eksterne servere, hvilket gør det umuligt for virksomheden at kontrollere dataene, når de er overgivet.

Hvad var konsekvenserne for de ansatte, der lækkede fortrolige oplysninger?

Konsekvenserne for Samsung-medarbejderne, der lækkede fortrolige data til ChatGPT, er ikke blevet eksplicit angivet i de tilgængelige oplysninger. Dog træffer Samsung Electronics foranstaltninger for at forhindre yderligere læk af følsom information gennem ChatGPT, herunder indførelse af en begrænsning på 1024 byte for størrelsen af ​​indsendte spørgsmål. Virksomheden har også advaret sine medarbejdere om de potentielle risici ved at bruge ChatGPT.

Derudover udvikler Samsung Semiconductor sit eget AI-værktøj til intern brug af medarbejdere, som vil være begrænset til at håndtere forespørgsler under 1024 bytes. Disse handlinger indikerer, at Samsung tager beskyttelsen af sin fortrolige information alvorligt og implementerer foranstaltninger for at mindske risikoen ved brugen af ChatGPT.

Hvilken type fortrolig information blev lækket?

Hvor mange gange har Samsung-ansatte lækket fortrolige data til ChatGPT?

Ifølge søgeresultaterne har Samsung-medarbejdere lækket fortrolige virksomhedsoplysninger til ChatGPT mindst tre gange.

Relaterede Artikler

Se mere >>

Lås op for AI-kraften med HIX.AI!