En solo unos años la inteligencia artificial (IA) se ha convertido en algo omnipresente en nuestras vidas; la utilizamos para todo, desde recomendaciones sobre películas hasta vehículos autónomos. Sin embargo, aunque es cierto que los avances en la IA han ampliado la ciberseguridad, su rápido desarrollo y su uso generalizado también introduce riesgos que son inherentes a esta tecnología.
Los sistemas de IA mejoran la escala, velocidad y calidad de los servicios, y necesitan procesar datos confidenciales y tomar decisiones rápidamente, con frecuencia sin la supervisión directa de un humano. Esto nos lleva a una pregunta crucial: ¿cómo garantizar una protección adecuada, una administración eficaz y un uso responsable de estos sistemas?
Proofpoint considera que estas condiciones son prioritarias en el desarrollo y despliegue de sistemas de IA. Nuestro objetivo es mejorar la protección de los usuarios contra los riesgos de ciberseguridad y mitigar daños potenciales causados por la IA. Por eso, hemos adoptado un uso responsable de la IA, con vistas a posicionar a nuestra empresa entre los líderes en este campo en pleno desarrollo.
Queremos ser transparentes en nuestro enfoque y servir a otros como modelo. En este artículo, describimos los seis principios en los que basamos este enfoque y explicamos cómo los cumplimos. Pero antes, veamos los antecedentes y en qué radica la importancia de estos principios y del uso responsable de la IA.
Contexto
Proofpoint se ha comprometido a preservar la confianza de nuestros clientes y esto se refleja en nuestros seis principios básicos para el empleo de una IA responsable.
- Responsabilidad
- Transparencia
- Explicabilidad
- Privacidad y seguridad
- Protección
- Imparcialidad
Estos principios concuerdan con nuestros valores fundamentales y subrayan nuestra dedicación a fomentar un enfoque centrado en las personas. Para ser fieles a ellos, hemos implementado un proceso de evaluación que nos permite determinar si nuestros sistemas de IA están preparados para el despliegue en producción de manera responsable.
También hemos creado un comité de supervisión, denominado Proofpoint Responsible AI Council (RAIC), para asistir a nuestros equipos de IA en el cumplimiento de estos principios. Estas iniciativas se han diseñado para garantizar que tanto el personal interno como externo en nuestra empresa respeten nuestro enfoque responsable de la IA.
La importancia de una IA responsable
Los sistemas de IA pueden aprender y predecir información sin intervención humana, sin embargo, carecen de juicio o criterio, es decir, no poseen pensamiento crítico o ético, ni tampoco intuición. Estos sistemas básicamente reflejan su arquitectura y los datos con los que han sido entrenado.
Estas limitaciones son uno de los motivos por los que es tan importante incorporar la ética en los sistemas de IA. Los principios éticos comprenden normalmente conceptos interrelacionados sobre el uso responsable y justo de la inteligencia artificial:
- La IA responsable se refiere al diseño, desarrollo y despliegue de la IA con las salvaguardas adecuadas.
- La IA ética está relacionada con las implicaciones morales y cívicas de esta tecnología, por ejemplo, con hacer un uso "bueno" o "malo" de los sistemas de IA.
Sin perder de vista estas consideraciones sobre la ética y la responsabilidad, se deben solucionar los defectos en los conjuntos de datos de entrenamiento en los que se basan los sistemas de IA. Dichos defectos pueden provocar la replicación o la amplificación de los sesgos en la información, lo que, a su vez, puede perjudicar a colectivos e individuos. Estos casos son habituales en las noticias, por ejemplo, la herramienta de captación de personal sexista de Amazon, el software de reconocimiento facial racista de Google y las burbujas de noticias de Facebook que polarizan la opinión pública.
A medida que avanza el uso de sistemas de IA, también aumentan los riesgos asociados. Por eso es esencial reflexionar sobre el papel de los sistemas de IA en todas las fases del desarrollo y el despliegue de productos.
Nuestros principios de IA responsable
Proofpoint usó los conceptos de IA responsable para establecer los seis principios que se describen a continuación. Estos principios son fundamentales para toda acción que emprendamos en relación con el uso que hacemos de la IA y reafirman nuestro compromiso con el enfoque centrado en las personas y los valores de nuestra empresa. Deben ser respetados por los miembros internos de nuestra empresa, así como por el personal externo.
Nos gustaría que los conozca y esperamos que le sean de utilidad para desarrollar un enfoque responsable de los sistemas de IA.
1: Responsabilidad
“Garantizamos la supervisión humana y el uso responsable de los sistemas de IA”.
¿Esto qué implica?
Se refiere a la idea de que las personas encargadas del desarrollo, despliegue y uso de los sistemas de IA deben asumir la responsabilidad del resultado y el impacto de dichos sistemas. Esto incluye explicar y justificar las decisiones clave y las medidas que se toman durante el ciclo de vida del modelo.
¿Cómo garantizamos esto?
Con el procedimiento establecido, Proofpoint ha implementado mecanismos para facilitar la responsabilidad (por ejemplo, evaluaciones de sistemas de IA), así como oportunidades para efectuar las correcciones necesarias, en caso de que se obtengan consecuencias negativas.
2: Transparencia
“Informamos del uso que hacemos de los sistemas de IA con claridad y honestidad”.
¿Esto qué implica?
La transparencia se refiere a ser abierto y claro en cuanto al diseño, desarrollo y despliegue de los sistemas de IA. Esto significa garantizar que las personas que utilicen los sistemas de IA entiendan y puedan acceder a todos los procesos de toma de decisiones sobre IA.
¿Cómo garantizamos esto?
Proofpoint garantiza la transparencia mediante la comunicación clara de la información sobre nuestros sistemas de IA a los interesados relevantes. Mantenemos la comunicación durante todo el ciclo de vida de nuestros sistemas. Esto incluye una explicación clara de nuestros procesos de toma de decisiones y la comunicación de nuestros datos de algoritmos.
3: Explicabilidad
“Nuestro objetivo es explicar cómo y por qué toman sus decisiones nuestros sistemas de IA”.
¿Esto qué implica?
La explicabilidad se refiere a la capacidad de los sistemas de IA de explicar sus procesos de toma de decisiones, de manera clara y fácilmente comprensible.
¿Cómo garantizamos esto?
Proofpoint pone todo su empeño en respetar este principio, para que el funcionamiento interno de nuestros sistemas de IA sea totalmente transparente. Ayudamos a los usuarios, partes interesadas y organismos reguladores a conocer los factores que influyen en los resultados del sistema, proporcionándoles los datos necesarios.
4: Privacidad y seguridad
“Diseñamos y desplegamos sistemas de IA teniendo presentes la privacidad y la seguridad”.
¿Esto qué implica?
Los principios de privacidad y seguridad exigen que los datos personales y la información organizativa se mantenga a salvo. Además, requiere que la arquitectura de diseño y despliegue de los sistemas de IA ayude a proteger los sistemas frente las amenazas de ciberseguridad.
¿Cómo garantizamos esto?
Proofpoint protege la privacidad y la seguridad de los sistemas de IA mediante un programa de “privacidad por diseño” y un programa de seguridad de la información. Estos programas reflejan el compromiso de nuestra empresa con la privacidad y la seguridad en todos los aspectos de la organización. (Consulte nuestros compromisos de privacidad y confianza.)
5: Protección
“Evaluamos los riesgos potenciales del uso de los sistemas de IA y los mitigamos como corresponde”.
¿Esto qué implica?
La protección se refiere a diseñar y desplegar sistemas de IA de manera que se minimicen los daños, riesgos y consecuencias no deseadas.
¿Cómo garantizamos esto?
Proofpoint respeta este principio mediante la implementación de protocolos exhaustivos de evaluación de riesgos y pruebas. Estas medidas nos permiten identificar y mitigar los daños potenciales asociados a los sistemas de IA. Nuestro compromiso con la protección incluye desplegar sistemas de IA con mecanismos de seguridad y salvaguardias que permitan una rápida intervención humana.
6: Imparcialidad
“Mitigamos los sesgos no deseados en nuestros sistemas de IA en la medida de lo posible”.
¿Esto qué implica?
La imparcialidad es el compromiso de garantizar que los sistemas de IA están diseñados e implementados de manera que se eviten la discriminación y los sesgos no intencionados.
¿Cómo garantizamos esto?
Proofpoint respeta este principio de IA actuando para abordar y mitigar los sesgos en los datos y algoritmos. Es importante destacar que reconocemos que hay en los datos prejuicios inherentes derivados del panorama cibernético. En estos casos, analizamos los datos y las implicaciones de esta parcialidad y hacemos todo lo posible por mitigarla.
Nuestros compromisos de uso de IA responsable
Proofpoint se ha comprometido a aplicar estos principios de IA responsable en todos nuestros productos y sistemas de IA. Hemos traducido los seis principios en instrucciones prácticas para cada etapa del desarrollo y el despliegue de los productos. Además, hemos creado un comité de supervisión.
Evaluación de la IA responsable
Para facilitar la aplicación de nuestros principios sobre la inteligencia artificial, Proofpoint creó una evaluación de IA responsable y una tarjeta de modelo, con el fin de garantizar que todos los sistemas de IA se ajusten a nuestros estándares y mejores prácticas. Las preguntas cubren todos los principios y ayudan a promover la responsabilidad entre los equipos de desarrollo y a asegurar que el comité de supervisión tenga un conocimiento detallado de nuestros sistemas de IA.
Estos son algunos ejemplos de las preguntas de la evaluación:
- ¿Qué impacto tendrían los falsos positivos y negativos en el propósito del sistema, su rendimiento y los objetivos afectados del análisis?
- ¿Cómo se garantiza la protección permanente del sistema de IA en la fase de producción?
- ¿Hasta qué punto son los datos utilizados para entrenar el sistema de IA representativos del uso que se pretende?
Las respuestas, junto con una revisión posterior de la evaluación, nos permiten identificar las medidas necesarias antes de desplegar un sistema de IA en nuestros productos. Vinculamos una tarjeta de modelo a cada sistema de IA en la que se resume la información clave y se explican las funciones y limitaciones del sistema.
Proofpoint Responsible AI Council (RAIC)
El Proofpoint Responsible AI Council (RAIC) es un comité interdisciplinar que promueve y apoya una cultura de uso responsable de la IA en Proofpoint. Este organismo ofrece orientación, asistencia y supervisión para nuestros sistemas de IA y su diseño, desarrollo y despliegue.
A través de nuestro compromiso con el cumplimiento de nuestros seis principios de uso responsable de la IA, Proofpoint pretende contribuir de forma activa a la creación de un futuro positivo para la inteligencia artificial en el mundo.
Únase al equipo
En Proofpoint, consideramos que nuestro personal, con su amplia variedad de experiencias y condicionantes vitales, son la fuerza motriz de nuestro éxito. Nos dedicamos en cuerpo y alma a proteger a las personas, los datos y las marcas contra las amenazas avanzadas actuales y los riesgos de incumplimiento normativo.
Contamos con los mejores profesionales del sector para:
- Crear y ampliar nuestra plataforma de seguridad demostrada.
- Combinar innovación y velocidad en una arquitectura cloud que evoluciona constantemente.
- Analizar nuevas amenazas y ofrecer información detallada a través de inteligencia basada en datos.
- Colaborar con nuestros clientes para resolver los principales retos para su ciberseguridad.
Si está interesado en obtener información sobre las oportunidades de empleo en Proofpoint, visite la página de carreras en Proofpoint.
Acerca de los autores
Othman Benchekroun es director de proyectos técnicos en Proofpoint. Se encarga de facilitar la colaboración entre los equipos y promover la innovación. Othman tiene experiencia en IA y aprendizaje automático y cuenta con una licenciatura (MSc) en Ciencia de Datos por la Federal Polytechnic School de Lausanne (Suiza).
Tetiana Kodliuk dirige el equipo de Ingeniería de IA para Protección de la Información y Seguridad Cloud en Proofpoint. Junto a su equipo de expertos, Tetiana se encarga de la innovación y la mejora de la estrategia de IA en varios productos Proofpoint Sigma (DLP, Data Classification, ITM y CASB), con el resultado de nueve patentes y varias publicaciones y participaciones en destacadas conferencias sobre IA. Tetiana es ferviente defensora del uso responsable y ético de la inteligencia artificial y pone todo su empeño en impulsarlo en el sector de la ciberseguridad. Tetiana cuenta con un doctorado (Ph.D.) en Matemáticas por la National Academy of Science de Ucrania.
Kimberly Pavelich es responsable de la generación de contenido relevante, basado en amenazas, para la concienciación y formación en seguridad, como directora sénior de productos de Proofpoint Security Awareness and Training (PSAT). Para dar el enfoque adecuado a la formación y concienciación en materia de seguridad, aprovecha la extensa experiencia acumulada durante más de una década en el sector de la inteligencia en Canadá, así como en varias comunidades posconflicto a nivel internacional. Kimberly posee una licenciatura en Estudios Estratégicos por la Universidad de Calgary y un doctorado en Ciencias Políticas por la Carleton University.