In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni
Leggi

IA, carta dei diritti Usa. Cosa c'è e cosa manca

IA, carta dei diritti Usa. Cosa c'è e cosa manca
Le raccomandazioni sull’impiego delle IA pubblicate dalla Casa Bianca sono quasi del tutto inverse a quelle europee. Gli Usa non vorrebbero porre limiti chiari per non bloccare lo sviluppo delle imprese americane del settore
4 minuti di lettura

Lo scorso 4 ottobre l’Office of Science and Technology Policy della Casa Bianca ha emanato le raccomandazioni in materia di Intelligenza artificiale (IA) che, in linea teorica, dovrebbero mettere al riparo le persone da potenziali danni derivanti dall’automazione.

Raccomandazioni, nulla più di quante ne abbiano già adottate aziende tech, associazioni di categoria e altre agenzie governative le quali hanno redatto decine di documenti simili negli ultimi anni, alcuni dei quali sono riportati in un’apposita appendice al documento rilasciato dall’amministrazione Biden che si limita a formulare desiderata ricorrendo al condizionale, sottolineando cosa dovrebbero fare algoritmi e software per evitare discriminazioni. Niente che ponga confini chiari, se non fosse che la Magna Carta dell’IA è stata attesa per oltre un anno dai soggetti del settore che, ora, si potrebbero muovere al riparo da vere e proprie restrizioni.

 

I punti principali

Le raccomandazioni sull’uso delle IA, tutte al condizionale, possono essere riassunte in cinque punti principali.

·        Le persone dovrebbero essere protette da sistemi automatizzati sicuri
·        Le persone non dovrebbero subire discriminazioni attuate da algoritmi, con riferimento soprattutto alla loro etnia, al colore della pelle o al genere
·        Le persone non dovrebbero essere esposte all’uso indiscriminato dei dati e all’uso non autorizzato di tecnologie di sorveglianza
·        Le persone dovrebbero essere informate quando sono confrontate con un’IA e dovrebbero essere messe in grado di capire come questa prende decisioni
·        Le persone dovrebbero essere messe in condizione di rinunciare all’uso di sistemi IA e preferire l’intervento umano anche in materia di giustizia, istruzione, salute e occupazione.

Sono linee guida di difficile interpretazione anche per quanto riguarda la platea a cui si rivolgono. Non pongono limiti a chi sviluppa le IA e non sanciscono in modo inequivocabile i diritti di chi, volente o meno, ne fa uso. Per cercare di capire il senso del lavoro presentato dalla Casa Bianca ci siamo avvalsi del parere di Alessandro Piva, direttore dell’Osservatorio Artificial Intelligence del Politecnico di Milano, secondo il quale le linee guida Usa: “Rispondono alla logica dell’approccio americano all’Intelligenza artificiale, sono linee guida attese da tempo e che sembrano favorire lo sviluppo delle IA a supporto delle aziende del settore, anche per continuare nell’affermare la superiorità delle aziende Usa – le Big tech in primis – e dare libertà alle aziende che vogliono intraprendere un percorso di adozione delle tecnologie IA all’interno dei propri processi. Non vengono dati pareri vincolanti o obblighi particolari”.

Quello che c’è e quello che manca

Il documento presentato dal governo Usa è difettoso, secondo le voci più critiche, non tiene conto dell’uso che le autorità fanno delle IA in materia di armi intelligenti e di sicurezza pubblica e nazionale. Altre voci meno severe ritengono accettabile che le linee guida facciano affidamento sui soggetti che adottano l’IA (aziende e agenzie governative incluse) affinché conducano test e ne rendano pubblici i risultati, offrendoli così alle analisi di tutte le parti interessate, e venga scelta una “via mediana” ritenuta percorribile dal maggiore numero possibile di fronti coinvolti.

Il documento del governo americano inizia sottolineando che le raccomandazioni non intendono vietare o limitare le attività delle agenzie governative, delle forze dell’ordine e delle agenzie di intelligence. Alondra Nelson, direttrice ad interim dell’Office of Science and Technology Policy, incalzata da alcuni media americani, respinge le accuse secondo le quali il documento rischia di non tenere conto dei diritti umani, limitandosi a dire che il lavoro svolto ha il solo scopo di offrire suggerimenti al presidente degli Stati Uniti.

Quello che manca nelle linee guida americane è una presa di posizione del governo: gli Usa rimandano le responsabilità ai soggetti che operano sul mercato delle IA mentre l’Europa, al contrario, si fa carico di centralizzare su sé stessa le norme che devono imperare.

A riprova di questo aspetto, gli Usa hanno accettato di sostenere i principi internazionali stabiliti nel 2019 dall’Organizzazione per la cooperazione e lo sviluppo economico che, di fatto, invitano (e non obbligano) le aziende che fanno uso di sistemi IA a valutare in piena coscienza come questi possano avere ricadute sull’impiego e sull’economia. La Casa Bianca ritiene ragionevole che, in seguito alla pubblicazione delle indicazioni di massima, le agenzie federali si impegnino ognuna per conto proprio al fine di ridurre discriminazioni negli ambiti di pertinenza, tra i quali la sanità e l’istruzione.

Per quanto riguarda l’ambito delle armi autonome, le voci critiche nei confronti del documento rilasciato dalla Casa Bianca andrebbero ridimensionate perché ricorda Piva: “Nel 2020 sotto l’amministrazione Trump sono state formulate linee guida vincolanti, su questo punto le critiche non sono condivisibili”.

Il regolamento europeo

Va sottolineato che le linee guida dell’amministrazione Biden arrivano proprio nel momento in cui l’Unione europea si sta avvicinando a una regolamentazione dei sistemi IA in base al criterio di rischio che questi comportano e, anche da questo angolo di osservazione, il fatto che gli Usa non si stiano avvicinando a un pacchetto di norme, lascia per lo meno perplessi.

La bozza del regolamento europeo dimostra una maggiore attenzione verso i limiti che un’IA non deve oltrepassare. Alessandro Piva parla di due linee quasi opposte: “L’approccio europeo è abbastanza diverso da quello americano. Con l’Artificial Intelligence Act è stata proposta una logica di valutazione dei rischi delle IA in base a principi etici stabiliti dalla stessa Ue. La bozza europea è un passo avanti rispetto a quella americana anche se una sua applicazione troppo stringente in termini di controlli e sanzioni può rallentare lo sviluppo delle IA in Europa. L’importante è che l’applicazione del futuro regolamento europeo non provochi rallentamenti sulle dinamiche dell’uso delle IA nei processi aziendali, mentre è chiaro che quando si parla di diritti umani è opportuno che ci siano paletti molto chiari al di là dei quali non si possa andare e, da questo punto di vista, la bozza Ue è molto più esplicita rispetto a quella degli Usa”.

Quindi, da una parte troppa libertà non garantisce l’efficienza e la trasparenza delle IA e, dall’altra parte, troppi controlli e restrizioni ne limitano lo sviluppo. Trovare un equilibrio potrebbe essere impervio ma, a tale proposito, Alessandro Piva offre uno spunto: “L’approccio americano è più libero e occorre confrontarsi con il panorama. Se in Europa si è troppo restrittivi e negli Usa viene permesso di muoversi come si vuole, il rischio potrebbe essere quello di limitare lo sviluppo delle IA in Europa a favore di altre economie concorrenti”.

 

Un senso di incompiuto

Le IA hanno un elevato potenziale trasformativo e questo impone la necessità di nuove leggi, peraltro di difficile definizione perché la natura stessa delle IA è di difficile regolamentazione. Quando, ormai un quarto di secolo fa, internet ha cominciato a diffondersi, nessuno ha previsto le declinazioni negative che si sarebbe portata dietro e, di fatto, ci siamo lasciati sorprendere dalle fake news, dalle ingerenze nella privacy e persino nelle democrazie. Come prevedere le minacce e le opportunità con cui le IA ci confronteranno? Riuscire a scrivere norme che non siano troppo permissive e che non tarpino le ali all’innovazione è complesso e dovrebbe essere un processo di regolamentazione costante.