Collaboration_Press_Release

Les six principes d’une IA responsable selon Proofpoint

Share with your network!

En seulement quelques années, l’intelligence artificielle (IA) est devenue omniprésente dans nos vies. Des recommandations de films aux voitures autonomes, tout est optimisé par l’IA. Si les progrès de l’IA ont permis d’améliorer la cybersécurité, le développement rapide et l’utilisation accrue de cette technologie comportent des risques.

Les systèmes d’IA améliorent l’évolutivité, la rapidité et la qualité des services. Ils doivent traiter des données sensibles et prendre des décisions rapidement, souvent sans supervision humaine directe. Face à ce constat, comment assurer la protection adéquate, la gouvernance efficace et l’utilisation responsable des systèmes d’IA ?

Ces considérations font partie de nos priorités, car nous développons et déployons des systèmes d’IA. Nous souhaitons renforcer la protection des utilisateurs contre les risques de cybersécurité et réduire les dangers potentiels de l’IA. Nous avons donc adopté une IA responsable, dans l’objectif de positionner notre entreprise en tant que leader dans ce domaine en pleine évolution.

Nous souhaitons faire preuve de transparence dans notre approche et servir de modèle à d’autres entreprises. Cet article décrit les six principes qui nous guident et explique comment nous en assurons le respect. Avant toute chose, nous resituerons le contexte, expliquerons pourquoi ces principes sont fondamentaux et soulignerons l’importance d’une IA responsable.

Contexte

Proofpoint a à cœur de préserver la confiance de ses clients, un engagement qui se reflète dans nos six principes fondamentaux pour une IA responsable.

  1. Responsabilité
  2. Transparence
  3. Explicabilité
  4. Confidentialité
  5. Sécurité
  6. Impartialité

Ces principes s’alignent sur nos valeurs fondamentales et soulignent notre détermination à maintenir notre approche centrée sur les personnes. Nous avons donc mis en œuvre un processus d’évaluation afin de déterminer le niveau de préparation de nos systèmes d’IA pour un déploiement responsable en production.

Nous avons également mis sur pied un organisme de surveillance, le Proofpoint Responsible AI Council (RAIC), pour aider nos équipes d’IA à respecter ces principes. Ces initiatives visent à s’assurer que les personnes internes et externes à notre entreprise adhèrent à notre approche responsable de l’IA.

L’importance d’une IA responsable

Les systèmes d’IA peuvent apprendre et prédire des informations sans intervention humaine, mais ne disposent pas des capacités de jugement propres aux humains, telles que la pensée critique, la compréhension éthique et l’intuition. Ces systèmes ne font que refléter leur architecture et leurs données d’entraînement.

Ces limites sont une des raisons pour lesquelles il est aussi important d’intégrer l’éthique de l’IA aux systèmes d’IA. En général, cette éthique englobe les concepts étroitement liés de l’IA responsable et de l’IA éthique :

  • L’IA responsable fait référence à la conception, au développement et au déploiement de l’IA avec des protections appropriées.
  • L’IA éthique désigne les implications sociétales et morales de l’IA, comme les cas d’utilisation « bons » et « mauvais » des systèmes d’IA.

Pour garantir une IA responsable et éthique, les failles doivent être corrigées dans les ensembles de données d’entraînement qui optimisent les systèmes d’IA. En effet, ces failles peuvent entraîner la réplication ou l’amplification de biais, ce qui peut se traduire par des dommages collectifs et individuels. Cet aspect de l’IA fait régulièrement les gros titres, comme on a pu le voir avec l’outil de recrutement sexiste d’Amazon, le logiciel de reconnaissance faciale raciste de Google et les biais algorithmiques de Facebook.

L’évolution de l’utilisation des systèmes d’IA va de pair avec une évolution des risques associés. C’est la raison pour laquelle il est essentiel de tenir compte du rôle des systèmes d’IA à toutes les étapes du développement et du déploiement de produits.

Nos principes en matière d’IA responsable

Proofpoint s’est appuyé sur les concepts de l’IA responsable pour définir les six principes ci-dessous. Ceux-ci font partie intégrante de chaque action que nous effectuons dans le cadre de notre utilisation de l’IA. Ils soutiennent nos engagements centrés sur les personnes et les valeurs de notre entreprise. Ils sont en outre conçus pour trouver écho auprès des personnes internes et externes à notre entreprise.

Nous sommes ravis de partager ces principes avec vous. Nous espérons qu’ils vous aideront à adopter une approche responsable des systèmes d’IA.

1. Responsabilité

« Nous assurons une supervision et une responsabilité humaines sur les systèmes d’IA. »

Qu’est-ce que cela implique ?

La responsabilité est l’idée que les personnes impliquées dans le développement, le déploiement et l’utilisation des systèmes d’IA doivent prendre la responsabilité des résultats et des répercussions de ces systèmes. Cela inclut d’expliquer et de justifier les principales décisions et mesures prises pendant le cycle de vie du modèle.

Comment assurons-nous le respect de ce principe ?

Grâce à une gouvernance établie, Proofpoint dispose de mécanismes d’exécution permettant de garantir la responsabilité (p. ex. des évaluations des systèmes d’IA), ainsi que d’opportunités de correction en cas de conséquences négatives.

2. Transparence

« Nous sommes clairs et honnêtes concernant notre utilisation des systèmes d’IA. »

Qu’est-ce que cela implique ?

La transparence fait référence à l’ouverture et à la clarté dans la conception, le développement et le déploiement des systèmes d’IA. Il s’agit de s’assurer que chaque processus de prise de décision de l’IA est compréhensible et accessible aux personnes qui utilisent les systèmes.

Comment assurons-nous le respect de ce principe ?

Nous assurons la transparence en communiquant clairement sur nos systèmes d’IA aux parties prenantes concernées. Nous communiquons tout au long du cycle de vie des systèmes, notamment en expliquant clairement nos processus de prise de décision et en fournissant des détails algorithmiques.

3. Explicabilité

« Notre objectif est d’expliquer comment et pourquoi nos systèmes d’IA prennent leurs décisions. »

Qu’est-ce que cela implique ?

L’explicabilité désigne la capacité des systèmes d’IA à expliquer clairement leurs processus de prise de décision d’une façon facilement compréhensible.

Comment assurons-nous le respect de ce principe ?

Nous nous employons à respecter ce principe en rendant les rouages internes de nos systèmes d’IA aussi transparents que possible. Nous aidons les utilisateurs, les parties prenantes et les organismes de réglementation à comprendre les facteurs qui influencent les résultats du système au moyen de données complémentaires si nécessaire.

4. Confidentialité

« Nous concevons et déployons des systèmes d’IA dans une optique de confidentialité. »

Qu’est-ce que cela implique ?

Le principe de confidentialité exige que les données personnelles et les informations confidentielles de l’entreprise soient protégées. Il requiert également que l’architecture de conception et de déploiement des systèmes d’IA contribue à protéger les systèmes contre les menaces de cybersécurité.

Comment assurons-nous le respect de ce principe ?

Proofpoint préserve la confidentialité des systèmes d’IA grâce à un programme établi de protection des données dès la conception et à un programme de sécurité des informations. Ces programmes reflètent notre engagement envers la confidentialité dans tous les aspects de notre activité. (Consultez nos engagements en matière de confidentialité et de confiance.)

5. Sécurité

« Nous évaluons les risques potentiels associés à l’utilisation de systèmes d’IA et les réduisons de façon appropriée. »

Qu’est-ce que cela implique ?

La sécurité consiste à concevoir et à déployer des systèmes d’IA d’une façon qui réduit les dommages, les risques et les conséquences imprévues.

Comment assurons-nous le respect de ce principe ?

Nous respectons ce principe en mettant en œuvre des protocoles rigoureux de test et d’évaluation des risques. Ces mesures nous aident à identifier et à réduire les dommages potentiels associés aux systèmes d’IA. Notre engagement envers la sécurité implique de déployer des systèmes d’IA avec des protections permettant une intervention humaine rapide.

6. Impartialité

« Nous réduisons les biais indésirables dans nos systèmes d’IA dans la mesure du possible. »

Qu’est-ce que cela implique ?

L’impartialité consiste à s’assurer que les systèmes d’IA sont conçus et mis en œuvre d’une manière qui évite les biais et les discriminations involontaires.

Comment assurons-nous le respect de ce principe ?

Nous respectons ce principe en traitant et en réduisant activement les biais dans les données et les algorithmes. Il convient de noter que nous reconnaissons l’existence de biais inhérents dans les données compte tenu du paysage des cybermenaces. Dans ce cas, nous analysons les données et les implications de ces biais pour les réduire autant que possible.

Nos engagements en faveur d’une IA responsable

Nous nous engageons à appliquer ces principes d’IA responsable dans tous nos produits et systèmes d’IA. Nous avons converti les six principes en orientations pratiques qui façonnent chaque étape du développement et du déploiement de produits. Nous avons également constitué un comité de surveillance.

Évaluation de l’IA responsable

Pour opérationnaliser nos principes d’IA, nous avons créé une évaluation de l’IA responsable et une fiche modèle permettant de nous assurer que tous les systèmes d’IA sont alignés sur nos normes et nos bonnes pratiques. Les questions abordent tous les principes. Elles favorisent la responsabilité au sein des équipes de développement et garantissent que le comité de surveillance a une compréhension approfondie de nos systèmes d’IA.

Exemples de questions :

  • Quel impact les faux positifs et les faux négatifs peuvent-ils avoir sur la finalité du système, les performances et les cibles de l’analyse ?
  • Comment assurez-vous de manière continue la sécurité du système d’IA en production ?
  • Dans quelle mesure les données avec lesquelles le système d’IA est entraîné sont-elles représentatives du cas d’utilisation prévu ?

Les réponses, ainsi qu’un examen ultérieur de l’évaluation, nous permettent d’identifier les mesures à prendre avant de déployer un système d’IA dans nos produits. Nous associons une fiche modèle à chaque système d’IA pour résumer les informations clés et expliquer les capacités et limites du système.

Proofpoint Responsible AI Council (RAIC)

Le RAIC est un comité central multidisciplinaire qui favorise et soutient une culture de l’IA responsable chez Proofpoint. Il fournit des conseils, un soutien et une supervision concernant nos systèmes d’IA et leur conception, leur développement et leur déploiement responsables.

Au travers de notre engagement envers nos six principes d’IA responsable, nous espérons contribuer activement à façonner un avenir positif pour l’utilisation de l’IA dans le monde.

Rejoignez l’équipe Proofpoint

Nos collaborateurs, et la diversité de leurs expériences et parcours, sont l’élément moteur de notre réussite. Nous nous sommes donné pour mission de protéger les personnes, les données et les marques contre les menaces avancées actuelles et les risques de non-conformité.

Nous recrutons les meilleurs talents pour :

  • Développer et améliorer notre plate-forme de sécurité éprouvée
  • Allier innovation et vitesse au sein d’une architecture cloud en constante évolution
  • Analyser les nouvelles menaces et fournir des informations détaillées grâce à une threat intelligence axée sur les données
  • Collaborer avec nos clients pour résoudre leurs défis de cybersécurité les plus complexes

Si vous souhaitez en savoir plus sur les possibilités de carrière chez Proofpoint, consultez notre page dédiée.

 

À propos des auteurs

Othman Benchekroun, Proofpoint TAM

Othman Benchekroun est Technical Project Manager chez Proofpoint. À ce titre, il favorise la collaboration transversale et promeut l’innovation. M. Benchekroun possède une solide expérience dans le domaine de l’IA et de l’apprentissage automatique, ainsi qu’un master en science des données de l’École polytechnique fédérale de Lausanne en Suisse.

Tetiana Kodliuk, AI Engineering

Tetiana Kodliuk dirige l’équipe d’ingénierie en IA pour la protection des informations et la sécurité du cloud chez Proofpoint. Avec sa talentueuse équipe, Mme Kodliuk stimule l’innovation et pilote la stratégie d’IA pour plusieurs produits Proofpoint Sigma (DLP, Data Classification, ITM, CASB), ce qui a donné lieu à neuf brevets ainsi qu’à diverses publications et participations à d’importantes conférences sur l’IA. Tetiana Kodliuk est passionnée par l’utilisation responsable de l’IA et par la mise en œuvre d’une IA éthique dans le secteur de la cybersécurité. Elle possède un doctorat en mathématiques de l’Académie nationale des sciences d’Ukraine.

Kimberly Pavelich, PSAT Senior Product Manager

En tant que Proofpoint Security Awareness and Training (PSAT) Senior Product Manager, Kimberly Pavelich est responsable de la distribution de contenus de formation et de sensibilisation à la cybersécurité attrayants et axés sur les menaces. Pour élaborer son approche de la formation de sensibilisation à la cybersécurité, elle tire parti de sa grande expérience acquise au cours d’une décennie de travail dans le secteur de la threat intelligence au Canada et dans diverses communautés internationales en situation de post-conflit. Mme Pavelich possède un master en études stratégiques de l’Université de Calgary et prépare actuellement un doctorat en sciences politiques à l’Université Carleton.