L'utilisation de ChatGPT par un employé de Samsung entraîne des fuites de données confidentielles

Untitled-design-3 (1).png

La division des semi-conducteurs de Samsung a fait appel à ChatGPT pour l'aider à résoudre des problèmes dans leur code source. Cependant, lors de l'utilisation du chatbot IA, ils ont divulgué accidentellement des informations confidentielles telles que le code source d'un nouveau programme et les notes de réunion internes relatives à leur matériel. Malheureusement, il ne s'agissait pas d'un événement isolé, car trois incidents ont été signalés en l'espace d'un mois.

Pour éviter de futures violations similaires, Samsung travaille actuellement sur le développement de son propre outil d'IA similaire à ChatGPT, exclusivement destiné à une utilisation interne par les employés. Cela permettra aux travailleurs de l'usine de recevoir une assistance rapide tout en sécurisant les informations sensibles de l'entreprise. Cependant, cet outil ne traitera que les demandes dont la taille est inférieure ou égale à 1024 octets.

Le problème est survenu car ChatGPT est géré par une entreprise tierce qui utilise des serveurs externes. Ainsi, lorsque Samsung a entré son code, ses séquences de test et son contenu de réunion interne dans le programme, des données ont été divulguées. Samsung a rapidement informé sa direction et ses employés du risque que des informations confidentielles soient compromises. Jusqu'au 11 mars, Samsung n'avait pas autorisé ses employés à utiliser le chatbot.

Samsung n'est pas la seule entreprise confrontée à ce problème. De nombreuses entreprises restreignent l'utilisation de ChatGPT jusqu'à ce qu'elles établissent une politique claire concernant l'utilisation de l'IA générative. Bien que ChatGPT propose une option de refus de collecte des données utilisateur, il faut noter que les informations fournies au service peuvent toujours être consultées par son développeur.

Qu'est-ce que ChatGPT et comment ça marche?

ChatGPT est une application d'IA développée par OpenAI qui utilise l'apprentissage profond pour produire un texte semblable à celui d'un être humain en réponse aux sollicitations des utilisateurs. Il peut générer du texte dans différents styles et à des fins diverses, notamment la rédaction de textes, la réponse aux questions, la rédaction d'e-mails, les conversations, la traduction du langage naturel en code et l'explication du code dans différents langages de programmation.

ChatGPT fonctionne en prédisant le prochain mot dans un texte donné en utilisant les modèles qu'il a appris à partir d'une grande quantité de données pendant son processus de formation. En analysant le contexte de la demande et son apprentissage antérieur, ChatGPT génère une réponse destinée à être aussi naturelle et cohérente que possible.

Quelles mesures Samsung a-t-il prises pour éviter de futures fuites ?

Suite aux fuites de données causées par ChatGPT, Samsung a pris plusieurs mesures pour éviter que de tels incidents se reproduisent. Tout d'abord, l'entreprise a conseillé à ses employés d'être prudents lorsqu'ils partagent des données avec ChatGPT. Ils ont également mis en place une restriction sur la longueur des questions soumises au service, les limitant à 1024 octets.

De plus, Samsung développe actuellement un outil d'IA similaire à ChatGPT, mais exclusivement destiné à une utilisation interne par les employés. Cela permettra aux travailleurs de l'usine de recevoir une assistance rapide tout en sécurisant les informations sensibles de l'entreprise. Jusqu'au développement de cet outil, Samsung avait averti ses employés des risques potentiels liés à l'utilisation de ChatGPT. Ils ont également souligné que les données saisies dans ChatGPT sont transmises et stockées sur des serveurs externes, rendant impossible pour l'entreprise de contrôler les données une fois qu'elles sont transmises.

Quelles ont été les conséquences pour les employés ayant divulgué des données confidentielles ?

Les conséquences pour les employés de Samsung qui ont divulgué des données confidentielles à ChatGPT n'ont pas été explicitement mentionnées dans les informations disponibles. Cependant, Samsung Electronics prend des mesures pour empêcher de nouvelles fuites d'informations sensibles via ChatGPT, notamment en imposant une limite de 1024 octets à la taille des questions soumises. La société a également mis en garde ses employés sur les risques potentiels liés à l'utilisation de ChatGPT.

De plus, Samsung Semiconductor développe ses propres outils d'IA pour une utilisation interne par ses employés, qui sera limitée au traitement de demandes de moins de 1024 octets. Ces actions indiquent que Samsung accorde une grande importance à la protection de ses informations confidentielles et met en place des mesures pour atténuer les risques associés à l'utilisation de ChatGPT.

Quel type d'informations confidentielles a été divulgué?

Combien de fois les employés de Samsung ont-ils divulgué des données confidentielles à ChatGPT ?

Selon les résultats de la recherche, des employés de Samsung ont divulgué des informations confidentielles de l'entreprise à ChatGPT à au moins trois reprises.

Articles connexes

Voir Plus >>

Libérez la puissance de l'IA avec HIX.AI !