chatbot

Des outils d’IA générative mettaient les données d’un détaillant en péril — voici comment Proofpoint l’a aidé

Share with your network!

Cet article de blog fait partie d’une série de trois articles qui explique pourquoi les entreprises choisissent les solutions Proofpoint de sécurité des données. Il se concentre sur les défis uniques auxquels sont confrontés différents secteurs en ce qui concerne la protection des données.

Dans le cadre de l’adoption d’outils d’IA générative, les entreprises peuvent être exposées à des risques importants de fuite de données. Bien que de nombreuses entreprises souhaitent adopter des outils tels que ChatGPT, Microsoft Copilot et Google Gemini, les équipes de sécurité ne sont pas toujours prêtes à affronter les risques associés. Après tout, il est facile pour les utilisateurs d’exposer par inadvertance des données sensibles et des éléments de propriété intellectuelle à des copilotes d’IA. De nombreuses entreprises ne disposent d’aucun processus de gouvernance ni d’aucun contrôle de données robuste pour les en empêcher.

Dans cet article, nous allons voir comment un grand détaillant américain a adopté des outils d’IA générative en toute sécurité en utilisant les solutions Proofpoint de sécurité des données et ZenGuide pour appliquer ses règles d’utilisation acceptable de l’IA et protéger ses données.

L’absence de gouvernance de l’IA met le code source en péril

L’e-commerce représente une part importante des activités de ce détaillant. Il utilise donc du code développé en interne pour soutenir ses opérations. Récemment, le responsable de la protection et de la gouvernance des données de l’entreprise a découvert avec consternation que les développeurs de logiciels utilisaient des outils d’IA générative d’une manière qui exposait du code source sensible et des mots de passe. Il a également constaté que les équipes de l’entreprise utilisaient des outils comme Grammarly et ChatGPT pour créer des contenus.

Pour réduire le risque de fuite de données, il a commencé à bloquer l’accès à ces outils via la passerelle Web sécurisée (SWG) de l’entreprise. Toutefois, après discussion, l’équipe de sécurité et les parties prenantes de l’entreprise ont décidé qu’une approche plus complète était nécessaire. C’est ainsi que le projet de gouvernance de l’IA de l’entreprise est né.

Apprendre aux collaborateurs à utiliser l’IA générative en toute sécurité

L’entreprise souhaitait prévenir l’exposition de ses données via des outils d’IA générative, ainsi que conserver son agilité métier. Pour atteindre ces deux objectifs, l’équipe de sécurité a mis en œuvre les mesures suivantes en s’appuyant sur les solutions Proofpoint de sécurité des données, ZenGuide et une passerelle SWG tierce :

  • Blocage de l’accès aux outils d’IA générative non approuvés. L’équipe a créé des règles SWG afin de bloquer l’accès général à une liste de plus de 600 sites d’IA générative sélectionnés par Proofpoint, dont ChatGPT, Microsoft Copilot, DeepSeek, Google Gemini et Claude. Des exceptions individuelles ont été définies après que l’équipe a discuté avec le responsable de chaque service.
  • Formation des utilisateurs à la sécurité de l’IA générative. Un programme de formation et de sensibilisation à la sécurité informatique a été lancé en collaboration avec les équipes juridiques et RH pour apprendre aux collaborateurs à utiliser l’IA générative en toute sécurité. Seuls les utilisateurs ayant suivi la formation Proofpoint ZenGuide se sont vus octroyer un accès aux outils d’IA générative.
  • Surveillance des invites d’IA. L’équipe a utilisé Proofpoint Endpoint DLP et l’extension de navigateur pour surveiller les activités des utilisateurs et les mouvements de données sur certains sites d’IA générative sélectionnés par Proofpoint. Si des développeurs ne suivaient pas la formation ou utilisaient les outils de manière inappropriée et exposaient du code propriétaire ou des mots de passe, des alertes étaient générées et les responsables de services étaient informés.
  • Identification des personnes qui utilisent des outils d’IA générative. L’équipe s’est appuyée sur Proofpoint People Risk Explorer pour comprendre comment les collaborateurs, les services et d’autres groupes utilisaient les outils d’IA générative. Ce tableau de bord a permis au responsable de la protection des données de signaler facilement les risques aux responsables de services, par exemple lorsque des collaborateurs saisissent d’importants volumes de données dans des outils d’IA ou utilisent ces outils sans formation adéquate.
  • Identification des applications d’IA non approuvées. L’équipe a utilisé Proofpoint CASB afin de surveiller et de contrôler les autorisations OAuth pour les applications d’IA non autorisées ou à risque telles que Grammarly.

Trouver le juste équilibre entre innovation et sécurité

Proofpoint a mis ses technologies et son expertise à disposition de ce détaillant, qui a ainsi pu tirer parti des avantages des outils d’IA générative tout en réduisant les risques pour la sécurité de ses données. En combinant visibilité, formation et contrôles ciblés, Proofpoint s’est assuré que les outils d’IA générative étaient adoptés de manière sûre et efficace.

En savoir plus

Pour découvrir comment d’autres entreprises utilisent Proofpoint pour protéger leurs données sensibles contre leurs utilisateurs à risque, lisez les autres articles de cette série :

Vous souhaitez empêcher vos collaborateurs de mettre vos données en péril avec des outils d’IA générative ? Découvrez comment les technologies de sécurité des données de Proofpoint peuvent vous aider à garantir une utilisation acceptable de l’IA générative.