Intelligenza artificiale, prima viene sempre l’uomo
di Paola Severino
Con il varo del Regolamento europeo sulla intelligenza artificiale si è aperta una nuova era, caratterizzata da regole comuni volte ad individuare i rischi connessi all’uso dell’intelligenza artificiale, ma anche a valutarne e mitigarne la portata, nel riconoscimento di un inarrestabile e velocissimo progresso. Il documento, come ha ben sintetizzato la vice-presidente della Commissione europea Margrethe Vestager, appare destinato a “spianare la strada a una tecnologia etica in tutto il mondo e rimanere competitiva”. Esso si differenzia da altri documenti elaborati in sede internazionale, come ad esempio lo studio della National security Commission on Artificial Intelligence poiché inquadra un tema apparentemente solo tecnologico in un contesto “incentrato sull’uomo”. Propone poi una dimensione normativa volta a governare i rischi connessi all’uso di macchine mostruosamente evolute, senza comprimerne le potenzialità di sviluppo. Prospetta regole da applicare in maniera uniforme in tutti gli Stati membri, a partire da una definizione di intelligenza artificiale “a prova di futuro”. Sottolinea che l’uso dell’intelligenza artificiale può portare vantaggi competitivi alle imprese e può stimolare il raggiungimento di risultati vantaggiosi per l’uomo e per l’ambiente. Ma è anche volto a contrastare gli utilizzi della tecnologia che possano mettere in pericolo i diritti fondamentali e la sicurezza dei cittadini europei.
Proprio per questi motivi la proposta della Commissione europea individua in primo luogo i rischi connessi a forme di I.A. che utilizzino tecniche subliminali volte ad influire sui comportamenti umani, ovvero sfruttino le vulnerabilità collegate all’età o alla disabilità, oppure siano dirette ad assegnare un “punteggio sociale” ai cittadini, monitorando il loro comportamento nella società o le loro caratteristiche personali.
Al tempo stesso, però, il regolamento pone ambiziosi obiettivi strategici per l’Europa, promuovendo lo sviluppo dell’I.A., garantendone la destinazione al bene della società, rendendo l’U.E. un laboratorio di crescita dalla ricerca al mercato, ponendo i presupposti per costruire una leadership strategica in settori ad alto impatto.
Per realizzare questi obiettivi la Commissione propone tre ambiti normativi da sviluppare nei prossimi anni, trasformando la proposta in un vero e proprio regolamento comune per gli Stati membri. In primo luogo, un quadro giuridico condiviso per tutelare i diritti fondamentali rispetto ai rischi dell’I.A. per il sistema europeo di sicurezza. Poi, norme sulle responsabilità collegate all’uso ed alla evoluzione autoalimentata dalle macchine. Infine, una completa revisione della normativa in materia di sicurezza, che preveda una valutazione di impatto dei sistemi di I.A. “ad alto rischio” sulla protezione dei dati; un costante monitoraggio sulla accuratezza dei meccanismi che li governano; l’obbligo per i fornitori di rendere noti eventuali incidenti o malfunzionamenti che possano dar luogo a violazioni di leggi europee.
In sintesi, l’Europa si appresta a dare un assetto totalmente innovativo ad una materia che può portare con sé sfide interne ed internazionali,stimoli ad una crescita economica del tutto rivoluzionaria, ma anche rischi di attentati alla sicurezza ed ai valori fondanti dell’Unione. Aspetti positivi e negativi, da tenere in un difficile equilibrio, che però dovranno vedere, secondo la condivisibile impostazione della Commissione, l’uomo e il legislatore europeo al governo di sistemi di I.A. e non viceversa.
Una presa di posizione “epocale” nel momento in cui attraversiamo le colonne d’Ercole che segnano il passaggio dalla regolamentazione dei comportamenti umani a quella delle iniziative di intelligenza artificiale.
(Articolo pubblicato precedentemente su La Repubblica e su Luiss Open)