Microsoft, le géant de la technologie, a involontairement exposé les messages privés de ses employés. Cette violation imprévue de la confidentialité a suscité des inquiétudes quant à la sécurité des données et à la vie privée.
La divulgation de messages confidentiels:
Au sein de l’immensité du cyberespace, Microsoft a commis une grave erreur en accordant un accès non intentionnel à une base de données contenant de nombreux fichiers confidentiels et des messages internes de ses employés.
L’aveu de Microsoft et la découverte:
Le 18 septembre, Microsoft a ouvertement admis sur son blog officiel qu’il avait exposé une énorme quantité de données, soit 38 téraoctets, comprenant des clés privées, des mots de passe et des messages internes sur Microsoft Teams. La violation a été découverte pour la première fois par des chercheurs en cybersécurité de la startup Wiz, sur la plateforme de développement largement utilisée, GitHub.
Microsoft partage régulièrement ses recherches en intelligence artificielle sur cette plateforme, permettant aux experts de télécharger des fichiers via un lien. Malheureusement, la dernière URL a accordé un accès non autorisé à l’ensemble du compte de stockage, permettant ainsi la navigation involontaire dans une base de données beaucoup plus importante et confidentielle. Étonnamment, cet accès a été accordé par erreur par un employé il y a près de trois ans, lors de la publication initiale du lien.
Collaboration et conséquences:
Dès qu’elle a identifié la violation, Wiz a rapidement partagé ses conclusions avec Microsoft le 22 juin. Deux jours plus tard, le 24 juin, Microsoft a révoqué l’accès aux données compromises. La société a ensuite mené une enquête approfondie sur l’impact organisationnel potentiel, qui s’est conclue le 16 août. Cependant, les répercussions de cette divulgation accidentelle sont considérables et peuvent avoir des conséquences graves tant pour Microsoft que pour ses employés.
Les dangers entourant la divulgation de recherches en intelligence artificielle:
L’étendue réelle des dommages causés par cette fuite de données reste incertaine. Avec les immenses quantités de données traitées par les data scientists et les ingénieurs lors du développement de solutions d’intelligence artificielle, il est impératif de mettre en place des mesures de sécurité et des contrôles supplémentaires. Ami Luttwak, co-fondateur et CTO de Wiz, souligne la nécessité d’une sécurité renforcée, en particulier lors de la collaboration sur des projets open source ou le partage d’informations entre les équipes de développement. OpenAI, l’entreprise à l’origine de ChatGPT, a déjà exprimé son intention de limiter la publication de ses recherches afin d’éviter une utilisation malveillante de la technologie de l’intelligence artificielle. Au fur et à mesure que l’enquête se poursuit, il devient crucial de déterminer qui a accédé aux données exposées et les implications potentielles de leurs actions.