I pericoli dei robot che si evolvono al di fuori del nostro controllo sono ben documentati nei film e nella TV di fantascienza: Lei, Black Mirror, Il mondo dei replicanti, I, Robot, dobbiamo andare avanti?
Sebbene i film e le serie TV possano sembrare una fantasia lontana, il rapporto State of Responsible AI del 2021 della FICO ha rilevato che il 65% delle aziende in realtà non è in grado di spiegare in che modo vengono prese decisioni o vengono fatte previsioni specifiche secondo il modello dell’intelligenza artificiale.
Negli ultimi anni il progresso dell’intelligenza artificiale ha senza dubbio avuto un impatto sulle nostre attività e la nostra società, facendoci viaggiare alla velocità della luce. Eppure abbiamo anche visto a quali esiti negativi può portare una mancanza di supervisione.
Molti studi hanno dimostrato che il processo decisionale guidato dalla intelligenza artificiale può portare a risultati distorti, come la profilazione razziale negli algoritmi di polizia predittiva o le discriminazioni sessiste nelle decisioni prese in fase di assunzione.
Via via che i governi e le aziende adottano gli strumenti di intelligenza artificiale a un ritmo sempre più crescente, la questione etica riguarderà molti aspetti della società. Tuttavia, secondo il rapporto della FICO, il 78% delle aziende ha affermato di essere “scarsamente attrezzato per fronteggiare le implicazioni etiche dell’utilizzo di nuovi sistemi di intelligenza artificiale” e solo il 38% disponeva di misure di rilevamento e mitigazione del bias dei dati.
Come accade sempre con le tecnologie dirompenti, la velocità dello sviluppo dell’intelligenza artificiale ha rapidamente superato la velocità della sua regolamentazione. Tuttavia, le autorità atte ad una regolamentazione stanno ora recuperando terreno. Sono già state intentate numerose azioni legali contro le aziende che hanno sviluppato o semplicemente fatto uso di algoritmi di intelligenza artificiale distorti.
Le aziende iniziano a sentire il peso della regolamentazione
Quest’anno l’Unione Europea ha presentato la direttiva sulle responsabilità derivanti dall’utilizzo dell’intelligenza artificiale, un disegno di legge che renderà più facile citare in giudizio le aziende per i danni causati, parte di una più ampia spinta per impedire alle aziende di sviluppare e implementare intelligenza artificiale dannosa. Il disegno di legge aggiunge un ulteriore livello alla legge esistente, che richiederà controlli aggiuntivi per gli usi “ad alto rischio” dell’intelligenza artificiale, come nell’uso da parte della polizia, nell’ambito delle assunzioni o dell’assistenza sanitaria. Il disegno di legge presentato all’inizio del mese dovrebbe diventare legge nei prossimi anni.
Mentre alcuni temono che la direttiva possa mettere un freno all’innovazione, lo scopo è proprio quello di responsabilizzare le aziende di intelligenza artificiale alle quali verrà chiesto di spiegare come funzionano i loro sistemi di intelligenza artificiale. Le società tecnologiche che non si conformano rischiano class actions a livello europeo.
Mentre gli Stati Uniti sono stati più lenti nell’adottare politiche protettive, all’inizio di questo mese la Casa Bianca ha rilasciato il progetto per una Carta dei diritti sull’intelligenza artificiale che delinea come i consumatori dovrebbero essere protetti dall’IA dannosa:
- L’intelligenza artificiale dovrebbe essere sicura ed efficace
- Gli algoritmi non dovrebbero discriminare
- La privacy dei dati deve essere protetta
- I consumatori dovrebbero sapere che stanno utilizzando l’intelligenza artificiale
- I consumatori dovrebbero poter scegliere di non volerla utilizzare e di parlare invece con un essere umano
Ma c’è un problema. “È importante rendersi conto che la Carta dei diritti dell’IA non è una legislazione vincolante”, scrive Sigal Samuel, giornalista senior di Vox. “Si tratta di una serie di raccomandazioni che le agenzie governative e le società tecnologiche possono decidere di rispettare o meno. La Carta dei diritti è infatti stata creata dall’Office of Science and Technology Policy, un organismo della Casa Bianca che consiglia il presidente ma non può avanzare leggi effettive”.
Indipendentemente dall’esistenza o meno di normative ufficiali sull’intelligenza artificiale, numerose aziende e organizzazioni americane hanno già dovuto affrontare azioni legali per l’uso improprio dell’IA.
E non sono solo le spese legali di cui le aziende devono preoccuparsi. La fiducia pubblica nell’IA sta diminuendo. Uno studio del Pew Research Center ha chiesto a 602 innovatori tecnologici, sviluppatori, leader aziendali e politici: “Entro il 2030, la maggior parte dei sistemi di intelligenza artificiale utilizzati da organizzazioni di ogni tipo impiegherà principi etici incentrati principalmente sul bene pubblico?” Il 68% ha risposto negativamente.
Indipendentemente dall’esito di un procedimento giudiziario per accuse di intelligenza artificiale distorta, il danno alla reputazione di un’azienda che tali eventi possono causare può essere altrettanto dannoso.
Sebbene ciò possa gettare un’ombra sul futuro dell’IA, non tutto è perduto. Il Global AI Adoption Index di IBM ha rilevato che l’85% dei professionisti IT concorda sul fatto che i consumatori siano più propensi a preferire le aziende che forniscono chiarezza e trasparenza sulla creazione, il controllo e l’utilizzo dei loro modelli di IA.
Le aziende che adottano protocolli etici di intelligenza artificiale potrebbero trarre notevoli vantaggi. Perché allora molti esitano a fare il salto di qualità?
Il problema potrebbe essere che, mentre molte aziende vogliono adottare pratiche di IA etiche, molte altre non sanno da dove cominciare. Abbiamo parlato con Priya Krishnan, che è a capo del team di gestione dei prodotti di intelligenza artificiale di IBM, per scoprire come la creazione di un solido modello di governance potrebbe essere d’aiuto.
La governance dell’IA
Secondo IBM, “la governance dell’IA è il processo di definizione delle politiche e assunzione delle responsabilità per guidare la creazione e l’implementazione dei sistemi di intelligenza artificiale in un’organizzazione”.
“Prima della governance, le persone passavano direttamente dagli esperimenti alla produzione nell’IA”, afferma Krishnan. “Ma poi si sono resi conto che non potevano spiegare perché l’intelligenza artificiale stesse prendendo determinate decisioni apparentemente in modo autonomo.”
La governance dell’IA consiste nell’assicurarsi che le aziende siano consapevoli di ciò che stanno facendo i loro algoritmi e dispongano della documentazione per sostenerlo. Ciò significa tenere traccia e registrare come viene addestrato un algoritmo, i parametri utilizzati nell’addestramento e qualsiasi metrica utilizzata durante le fasi di test.
Tutto questo controllo rende facile per le aziende capire cosa sta succedendo sotto la superficie dei loro sistemi di intelligenza artificiale e consente loro di estrarre facilmente la documentazione in caso di audit. Krishnan ha sottolineato che questa trasparenza consente una libera circolazione di informazioni e di conoscenza all’interno di un’azienda.
“Se un data scientist lascia l’azienda senza fare un passaggio di consegne, il risultato è che non si avrà accesso alle informazioni passate dei processi, e la situazione potrebbe diventare molto difficile da gestire. Chi dovrà mettere mano nel sistema non avrà a disposizione uno storico da cui partire. Quindi questo processo di documentazione fornisce una panoramica di base su ciò che sta accadendo e rende più facile spiegarlo ad altri reparti all’interno dell’organizzazione (come i gestori del rischio).”
Mentre la normativa è ancora in fase di sviluppo, adottare una governance dell’IA ora è un passo importante verso il futuro:
“[La normativa] sta arrivando velocemente e con forza. Ora la gente sta producendo manuali per scopi di audit”, afferma. Invece, iniziare a creare documentazione ora può aiutare le aziende a tenersi pronte per eventuali normative imminenti.
Il dibattito tra innovazione e governance
Dato che le aziende potrebbero dover affrontare una crescente concorrenza per innovare rapidamente ed essere le prime sul mercato, dedicare tempo alla governance dell’IA non rischia di rallentare questo processo e soffocare l’innovazione?
Krishnan sostiene che la governance dell’IA non ferma l’innovazione più di quanto i freni impediscano a qualcuno di guidare: “In un’auto ci sono sia il controllo della trazione che i freni. E’ stato tutto progettato per farti andare più veloce, in sicurezza. Lo stesso vale per la governance dell’IA. E’ dunque possibile ottenere il massimo dall’intelligenza artificiale, muovendosi tra innovazione e sicurezza.
Tutto questo è perfettamente in linea con la ragione principale che spinge ad adottare la governance dell’IA: dare un senso al business. Nessuno vuole prodotti e servizi difettosi. Stabilire standard di documentazione chiari e trasparenti, punti di controllo e processi di revisione interna per mitigare i bias può in definitiva aiutare le aziende a creare prodotti migliori e migliorare la velocità di immissione sul mercato.
Non sapete ancora da dove cominciare?
Proprio questo mese IBM ha lanciato la sua Governance di IA, una soluzione completa per le aziende che lottano per comprendere meglio cosa sta succedendo sotto la superficie di questi sistemi. Lo strumento utilizza un software automatizzato per lavorare con la piattaforma di data science delle aziende per sviluppare un processo coerente e trasparente di gestione del modello algoritmico, tenendo traccia del tempo di sviluppo, dei metadati, del monitoraggio post-distribuzione e dei flussi di lavoro personalizzati. Questo aiuta a ridurre la pressione che spesso opprime i team di data science, consentendo loro di concentrarsi su altre attività. Lo strumento aiuta inoltre i leader aziendali ad avere sempre una visione dei loro modelli e supporta la documentazione appropriata in caso di audit.
Questa opzione è particolarmente adatta per quelle aziende che utilizzano l’intelligenza artificiale in tutti i settori dell’organizzazione e non sanno su cosa concentrarsi prima.
“Prima di acquistare un’auto, solitamente la si vuole provare. In IBM, abbiamo investito in un team di ingegneri che aiutano i nostri clienti a testare la governance dell’IA in modo da iniziare a utilizzarla. In poche settimane, il team di supporto ai clienti è in grado di aiutarli a innovare con la più recente tecnologia di Governance utilizzando i loro modelli di business e i loro dati. Co-creare rapidamente utilizzando la tecnologia IBM è un investimento per i nostri clienti in modo che possano iniziare rapidamente”, afferma Krishnan.