In pochi anni, l’intelligenza artificiale (IA) è diventata onnipresente nelle nostre vite. Dal suggerimento di film alle vetture autonome, tutto è ottimizzato dall’IA. Se i progressi dell’IA hanno permesso di migliorare la sicurezza informatica, il rapido sviluppo e l’utilizzo crescente di questa tecnologia introducono dei rischi.
I sistemi di IA migliorano la scalabilità, la velocità e la qualità dei servizi. Devono elaborare dati sensibili e prendere decisioni rapidamente, spesso senza una supervisione umana diretta. In questa situazione, come garantire una protezione adeguata, una governance efficace e un utilizzo responsabile dei sistemi di IA?
Queste considerazioni fanno parte delle nostre priorità mentre sviluppiamo e implementiamo sistemi di IA. Desideriamo rafforzare la protezione degli utenti contro i rischi di sicurezza informatica e ridurre i pericoli potenziali dell’IA. Abbiamo perciò adottato un’IA responsabile, con l’obiettivo di posizionare la nostra azienda come leader in questo campo in evoluzione.
Desideriamo dimostrare trasparenza nel nostro approccio e fornire un modello per altre aziende. In questo articolo, descriviamo i sei principi che ci guidano e spieghiamo come ne garantiamo il rispetto. Ma in primo luogo, forniremo il contesto, spiegheremo perché questi principi sono fondamentali e sottolineeremo l’importanza di un’IA responsabile.
Contesto
Proofpoint è impegnata a preservare la fiducia dei suoi clienti, un impegno che si riflette nei sei principi fondamentali per un’IA responsabile.
- Responsabilità
- Trasparenza
- Spiegabilità
- Privacy
- Sicurezza
- Imparzialità
Questi principi si allineano sui nostri valori fondamentali e sottolineano la nostra determinazione a mantenere il nostro approccio incentrato sulle persone. Abbiamo quindi implementato un processo di valutazione per determinare il livello di preparazione dei nostri sistemi di IA per un’implementazione responsabile in produzione.
Abbiamo inoltre creato un organismo di sorveglianza, il Proofpoint Responsible AI Council (RAIC), per aiutare i nostri team dell’IA a rispettare questi principi. Queste iniziative sono volte a garantire che le persone interne e esterne alla nostra azienda siano allineate al nostro approccio responsabile dell’IA.
L’importanza di un’IA responsabile
I sistemi di IA possono apprendere e prevedere le informazioni senza un coinvolgimento umano, ma non dispongono delle capacità di giudizio tipiche degli umani, come il pensiero critico, la comprensione etica e l’intuizione. Questi sistemi non fanno che riflettere la loro architettura e i loro dati di formazione.
Questi limiti sono uno dei motivi per cui è così importante integrare l’etica dell’IA nei sistemi di IA. In generale, questa etica incorpora i concetti interconnessi dell’IA responsabile e dell’IA etica:
- L’IA responsabile si riferisce alla progettazione, allo sviluppo e all’implementazione dell’IA con protezioni appropriate.
- L’IA etica designa le implicazioni sociali e morali dell’IA, come i casi d’uso “buono” e “cattivo” per i sistemi di IA
Per garantire un’IA responsabile e etica, le carenze devono essere corrette nei set di dati della formazione che ottimizzano i sistemi dell’IA. In effetti, tali carenze possono portare alla replica o all’amplificazione dei pregiudizi, il che può tradursi in danni collettivi e individuali. Questo aspetto dell’IA conquista spesso i titoli dei giornali, come nel caso dello strumento di assunzione sessista di Amazon, il software di riconoscimento facciale razzista di Google e i pregiudizi algoritmici di Facebook.
L’evoluzione dell’utilizzo dei sistemi di IA va di pari passo con l’evoluzione dei rischi associati. Questo è il motivo per cui è fondamentale tenere in considerazione il ruolo dei sistemi di IA in tutte le fasi dello sviluppo e dell’implementazione dei prodotti.
I nostri principi in tema di IA responsabile
Proofpoint ha utilizzato i concetti dell’IA responsabile per definire i sei principi qui di seguito. Fanno parte integrante di ogni azione che compiamo nell’ambito del nostro utilizzo dell’IA. Supportano il nostro impegno verso le persone e i nostri valori aziendali. Sono inoltre concepite per avere risonanza con le persone interne e esterne alla nostra azienda.
Siamo lieti di condividere questi principi con te. Ci auguriamo che ti aiuteranno a adottare un approccio responsabile dei sistemi di IA.
1. Responsabilità
“Assicuriamo una supervisione e una responsabilità umane sui sistemi di IA.”
Che cosa significa?
La responsabilità è l’idea che le persone coinvolte nello sviluppo, implementazione e utilizzo dei sistemi di IA debbano assumersi la responsabilità dei risultati e delle ripercussioni di questi sistemi. Include spiegare e giustificare le principali decisioni e misure adottate durante il ciclo di vita del modello.
Come garantiamo il rispetto di questo principio?
Grazie a una governance definita, Proofpoint dispone di meccanismi di esecuzione che permettono di garantire la responsabilità (per esempio delle valutazioni dei sistemi di IA), nonché opportunità di correzione in caso di conseguenze negative.
2. Trasparenza
“Siamo chiari e onesti in merito al nostro utilizzo dei sistemi di IA.”
Che cosa significa?
La trasparenza fa riferimento a apertura e chiarezza nelle fasi di creazione, sviluppo e implementazione dei sistemi di IA. Si tratta di garantire che ogni processo decisionale dell’IA sia comprensibile e accessibile alle persone che utilizzano i sistemi.
Come garantiamo il rispetto di questo principio?
Assicuriamo la trasparenza comunicando chiaramente in merito ai nostri sistemi di IA alle parti interessate rilevanti. Comunichiamo durante l’intero ciclo di vita dei sistemi, spiegando chiaramente il nostro processo decisionale e fornendo dettagli algoritmici.
3. Spiegabilità
“Il nostro obiettivo è di spiegare come e perché i nostri sistemi di IA prendono le loro decisioni.”
Che cosa significa?
La spiegabilità designa la capacità dei sistemi di IA di spiegare chiaramente i loro processi decisionali in un modo che sia facilmente comprensibile.
Come garantiamo il rispetto di questo principio?
Proofpoint è impegnata a sostenere questo principio rendendo i funzionamenti interni dei nostri sistemi di IA il più trasparenti possibile. Aiutiamo utenti, parti interessate e enti normativi a comprendere i fattori che influenzano i risultati dei sistemi tramite dati complementari se necessario.
4. Privacy
“Creiamo e implementiamo sistemi di IA in un’ottica di privacy”.
Che cosa significa?
Il principio della privacy richiede che i dati personali e le informazioni riservate dell’azienda siano protetti. Richiede anche che la progettazione e l’implementazione dei sistemi di IA contribuiscano a proteggere i sistemi dalle minacce di sicurezza informatica.
Come garantiamo il rispetto di questo principio?
Proofpoint protegge la privacy dei sistemi di sicurezza di IA grazie a un programma definito di protezione dei dati fin dalla progettazione e a un programma di sicurezza delle informazioni. Tali programmi riflettono il nostro impegno verso la privacy in tutti gli aspetti della nostra attività. (Consulta le nostre dichiarazioni di impegno in materia di privacy e fiducia.)
5. Sicurezza
“Valutiamo i rischi potenziali associati all’utilizzo dei sistemi di IA e li riduciamo in modo appropriato.”
Che cosa significa?
La sicurezza consiste nel progettare e implementare sistemi di IA in un modo che riduca i danni, i rischi e le conseguenze impreviste.
Come garantiamo il rispetto di questo principio?
Rispettiamo questo principio implementando protocolli rigorosi di test e valutazione dei rischi. Queste misure ci aiutano a identificare e ridurre i danni potenziali associati ai sistemi di IA. Il nostro impegno verso la sicurezza include l’implementazione di sistemi di IA con protezioni che permettono un rapido intervento umano.
6. Imparzialità
“Riduciamo i pregiudizi indesiderabili nei nostri sistemi di IA per quanto possibile.”
Che cosa significa?
L’imparzialità consiste nel garantire che i sistemi di IA siano concepiti e implementati in modo da evitare i pregiudizi e le discriminazioni involontarie.
Come garantiamo il rispetto di questo principio?
Rispettiamo questo principio gestendo e riducendo attivamente i pregiudizi nei dati e negli algoritmi. È importante notare che riconosciamo l’esistenza di pregiudizi intrinseci nei dati in base al panorama delle minacce informatiche. In tali casi, analizziamo i dati e le implicazioni di questi pregiudizi per ridurli il più possibile.
Il nostro impegno a favore di un’IA responsabile
Ci impegniamo a applicare questi principi di IA responsabile in tutti i nostri prodotti e sistemi di IA. Abbiamo tradotto i sei principi in linee guida pratiche che modellano ogni fase dello sviluppo e dell’implementazione dei prodotti. Abbiamo anche creato un comitato di sorveglianza.
Valutazione dell’IA responsabile
Per rendere operativi i nostri principi di IA, abbiamo creato una valutazione dell’IA responsabile e una scheda modello che permette di garantire che tutti i sistemi di IA siano allineati con i nostri standard e le nostre best practice. Le domande riguardano tutti i principi. Favoriscono la responsabili all’interno dei team di sviluppo e assicurano che il comitato di sorveglianza abbia una comprensione approfondita dei nostri sistemi di IA.
Esempi di domande:
- Quale impatto possono avere i falsi positivi e falsi negativi sulla finalità del sistema, le prestazioni e gli obiettivi dell’analisi?
- Come assicuriamo continuamente la sicurezza dei sistemi di IA in produzione?
- In quale misura i dati con cui il sistema di IA viene addestrato sono rappresentativi del caso di utilizzo previsto?
Le risposte, nonché un esame ulteriore della valutazione, ci permettono di identificare le misure da prendere prima di implementare un sistema di IA nei nostri prodotti. Associamo una scheda modello a ogni sistema di IA per riassumere le informazioni chiave e spiegare le capacità e i limiti del sistema.
Proofpoint Responsible AI Council (RAIC)
Il RAIC è un comitato centrale multidisciplinare che favorisce e sostiene una cultura dell’IA responsabile in Proofpoint. Fornisce consigli, supporto e supervisione relativamente ai nostri sistemi di IA e alla loro progettazione, sviluppo e implementazione responsabili.
Attraverso il nostro impegno verso i nostri sei principi di IA responsabile, ci auguriamo di contribuire attivamente a modella un futuro positivo per l’utilizzo dell’IA nel mondo.
Unisciti al team Proofpoint
I nostri collaboratori, e la diversità delle loro esperienze e percorsi, sono l’elemento trainante del nostro successo. La nostra missione è proteggere le persone, i dati e i marchi contro le minacce avanzate attuali e i rischi di non conformità.
Assumiamo i migliori talenti per:
- Sviluppare e migliorare la nostra piattaforma di sicurezza comprovata
- Combinare innovazione e velocità in un’architettura cloud in costante evoluzione
- Analizzare le nuove minacce e offrire informazioni dettagliata grazie a una threat intelligence basata sulle minacce
- Collaborare con i nostri clienti per risolvere le loro sfide di sicurezza informatica più complesse
Se sei interessato a saperne di più sulle opportunità di lavoro in Proofpoint, visita la nostra pagina dedicata.
Informazioni sugli autori
Othman Benchekroun è Technical Project Manager in Proofpoint. Nel suo ruolo, favorisce la collaborazione trasversale e promuove l’innovazione. Vanta una solida esperienza nell’ambito dell’IA e del machine learning e ha un master in scienza dei dati del Politecnico federale di Losanna in Svizzera.
Tetiana Kodliuk dirige il team dell’ingegneria dell’IA per la protezione delle informazioni e la sicurezza del cloud in Proofpoint. Insieme al suo team di talenti, stimola l’innovazione e guida la strategia dell’IA per diversi prodotti Proofpoint Sigma (DLP, Data Classification, ITM, CASB), che ha portato a nove brevetti e a diverse pubblicazioni e partecipazioni a importanti conferenze sull’IA. Tetiana Kodliuk è appassionata dell’utilizzo responsabile dell’IA e dell’implementazione di un’IA etica nel settore della sicurezza informatica. Possiede un dottorato in matematica dell’Accademia nazionale delle scienze in Ucraina.
In qualità di Proofpoint Security Awareness and Training (PSAT) Senior Product Manager, Kimberly Pavelich è responsabile della distribuzione di contenuti di formazione e di sensibilizzazione alla sicurezza informatica coinvolgenti e basati sulle minacce. Per elaborare il suo approccio alla formazione di sensibilizzazione alla sicurezza informatica, ha attinto dalla sua grande esperienza acquisita nel corso di un decennio di lavoro nel settore della threat intelligence in Canada e in diverse comunità internazionali post-conflitto. Possiede un master in studi strategici dell’Università di Calgary e sta preparando un dottorato in scienze politiche presso l’Università di Carleton.