L’Intelligenza Artificiale (AI) è sempre più al centro dell’attenzione globale, con l’Organizzazione delle Nazioni Unite e l’Unione Europea che stanno guidando il dibattito sulla sua regolamentazione.
Due importanti iniziative, la Risoluzione dell’ONU sull’AI e l’AI Act dell’UE, promettono di orientarne il futuro con obiettivi comuni: promuovere un utilizzo etico dell’AI, garantire il rispetto dei diritti umani e della privacy, definire norme chiare per lo sviluppo e l’uso dell’AI, assicurare la sicurezza e la trasparenza, e favorire la cooperazione internazionale.
La Risoluzione dell’ONU sull’AI, adottata all’unanimità lo scorso 21 marzo dall’Assemblea Generale, non è vincolante ed esorta gli Stati membri e le parti interessate a sviluppare quadri normativi e di governance inclusivi per creare un ecosistema favorevole all’innovazione responsabile nell’AI.
Così ha già fatto l’Unione europea, che lo scorso 13 marzo ha approvato la prima legge al mondo sull’intelligenza artificiale, l’AI Act. Il testo (a questo link si può leggere la versione integrale) si basa su un’approfondita valutazione dei rischi associati all’uso dell’AI, imponendo una serie di doveri e responsabilità sia ai fornitori che agli utilizzatori di questi sistemi avanzati.
L’Unione Europea ha, dunque, compiuto un passo storico diventando la prima istituzione a regolamentare l’Intelligenza Artificiale (IA) a livello mondiale. Insieme al GDPR, al Digital Markets Act e al Digital Services Act, questa legge pionieristica conferma l’UE come punto di riferimento per la regolamentazione dell’economia digitale.
Architettura dei rischi
L’AI Act divide i sistemi di intelligenza artificiale sulla base di quattro categorie di rischio: minimo, limitato, alto e inaccettabile. Maggiore è il rischio, maggiori sono le responsabilità e i limiti per chi sviluppa o usa questi sistemi, fino ad arrivare ai modelli troppo pericolosi per essere autorizzati. Tra gli impieghi vietati si trovano le tecnologie subliminali per manipolare i comportamenti delle persone, la categorizzazione biometrica che fa riferimento a dai sensibili, la raccolta massiccia e illimitata di foto di volti da internet, il riconoscimento delle emozioni sul posto di lavoro o a scuola, i sistemi di punteggio sociale o social scoring e la polizia predittiva, cioè l’uso di dati sensibili per calcolare le probabilità che una persona commetta un reato.
Le regole non si applicano solo nel caso di attività di ricerca e sviluppo che precedono la vendita, ai sistemi destinati esclusivamente a scopi militari, di difesa o sicurezza nazionale e ai modelli gratuiti e open-source, che non siano modelli di intelligenza artificiale con “rischi sistemici”.
Obblighi di trasparenza
Ai sistemi di AI con finalità generali, come ChatGPT, le nuove leggi impongono maggiori requisiti di trasparenza, compreso il rispetto delle norme europee sul copyright e la pubblicazione delle fonti utilizzate per generare i contenuti. I sistemi più potenti, che potrebbero generare “rischi sistemici”, dovranno anche proporre strategie per mitigare i rischi e pubblicare report periodici sugli “incidenti” dei sistemi. Immagini, audio o video prodotti con l’IA (i cosiddetti deepfakes) dovranno essere etichettate chiaramente come contenuti artificiali.
Sostegno all’innovazione
Sarà obbligatorio per i Paesi UE istituire agenzie di supervisione e spazi di sperimentazione per le PMI, permettendo loro di testare sistemi basati sull’IA prima della loro immissione sul mercato.
Tempistiche e sanzioni
Le regole dell’AI Act entreranno in vigore gradualmente nei prossimi due anni, con divieti immediati, norme per modelli fondativi e sanzioni per chi non le rispetta. Le sanzioni vanno dall’1,5% al 7% del fatturato globale.