Il 2025 segna un momento cruciale per l’adozione e l’applicazione dell’Intelligenza Artificiale (IA) in Europa. Il Regolamento Europeo sull’Intelligenza Artificiale (noto come AI Act), approvato formalmente dal Consiglio dell’Unione Europea nel maggio 2024, sta progressivamente entrando in vigore, introducendo il primo quadro normativo completo al mondo per l’IA. Questa legislazione mira a garantire che i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente, promuovendo al contempo l’innovazione e affermando la leadership europea nel settore.

Cos’è il Regolamento Europeo sull’Intelligenza Artificiale (AI Act)?
L’AI Act è una legge pionieristica che stabilisce obblighi per fornitori e utenti di sistemi di IA, differenziandoli in base al livello di rischio che l’IA può comportare per la salute, la sicurezza o i diritti fondamentali delle persone. L’obiettivo è duplice:
- Tutelare i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto impatto.
- Stimolare l’innovazione e fare dell’Europa un leader nello sviluppo di un’IA affidabile e antropocentrica.
Dopo la sua pubblicazione nella Gazzetta Ufficiale dell’UE, l’AI Act entra in vigore in modo progressivo, con diverse scadenze per l’applicazione delle sue norme. (Fonte: Commissione Europea – Regulatory framework on AI e il testo ufficiale su EUR-Lex – EU AI Act – cercare il testo finale del Regolamento sull’Intelligenza Artificiale).
L’Approccio Basato sul Rischio: I 4 Livelli
L’AI Act classifica i sistemi di IA in quattro categorie di rischio:
1. Rischio Inaccettabile (Pratiche Vietate)
Alcune applicazioni di IA che rappresentano una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone sono completamente vietate nell’UE. Queste disposizioni sono tra le prime ad entrare in applicazione, circa 6 mesi dopo l’entrata in vigore del regolamento (quindi già operative da fine 2024/inizio 2025). Esempi includono:
- Sistemi di “social scoring” da parte di autorità pubbliche.
- Manipolazione comportamentale cognitiva di persone o gruppi vulnerabili (es. giocattoli con assistenza vocale che incoraggiano comportamenti pericolosi).
- Sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico per finalità di contrasto, con limitate eccezioni.
- Categorizzazione biometrica basata su caratteristiche sensibili (razza, orientamento politico, ecc.). (Fonte: European Parliament – EU AI Act: first regulation on artificial intelligence).
2. Rischio Alto
I sistemi di IA identificati come “ad alto rischio” sono quelli che possono avere un impatto significativo sulla sicurezza o sui diritti fondamentali. Questi sistemi sono ammessi, ma devono rispettare obblighi stringenti prima di poter essere immessi sul mercato o messi in servizio. La piena applicazione di molti di questi obblighi avverrà 24-36 mesi dopo l’entrata in vigore, quindi le aziende nel 2025 devono essere in fase avanzata di preparazione. Esempi:
- Infrastrutture critiche (es. trasporti, energia).
- Componenti di sicurezza dei prodotti (es. applicazioni mediche).
- Sistemi per l’istruzione e la formazione professionale (es. valutazione esami).
- Occupazione, gestione dei lavoratori e accesso al lavoro autonomo (es. software per selezione CV).
- Accesso e fruizione di servizi pubblici e privati essenziali (es. valutazione del credito).
- Forze dell’ordine, gestione della migrazione, amministrazione della giustizia. Gli obblighi includono: sistemi di gestione dei rischi, governance dei dati, documentazione tecnica, trasparenza e informazione agli utenti, sorveglianza umana, robustezza, accuratezza e cibersicurezza.
3. Rischio Limitato
Per i sistemi di IA a “rischio limitato”, gli obblighi sono principalmente legati alla trasparenza. Gli utenti devono essere consapevoli che stanno interagendo con una macchina. Esempi:
- Chatbot e assistenti virtuali (devono informare che si tratta di IA).
- Sistemi che generano “deepfake” o contenuti manipolati (devono etichettare il contenuto come artificiale). Queste norme sulla trasparenza diventano operative progressivamente, con un focus importante già nel 2025.
4. Rischio Minimo o Nullo
La stragrande maggioranza dei sistemi di IA attualmente in uso (es. filtri antispam, videogiochi con IA) rientra in questa categoria. Non ci sono obblighi specifici, ma i fornitori possono aderire volontariamente a codici di condotta.
Focus sull’IA Generativa e i Modelli di Grandi Dimensioni (GPAI)
L’AI Act introduce regole specifiche anche per i modelli di IA per finalità generali (General Purpose AI – GPAI), inclusa l’IA generativa (come ChatGPT).
- Obblighi di Trasparenza per tutti i GPAI: I fornitori devono redigere documentazione tecnica, rispettare la legislazione UE sul copyright e diffondere sommari dettagliati dei contenuti usati per l’addestramento. Alcuni di questi requisiti iniziano ad applicarsi 12 mesi dopo l’entrata in vigore (quindi entro metà 2025).
- Obblighi Aggiuntivi per GPAI con “Rischio Sistemico”: I modelli più potenti, che potrebbero comportare rischi su larga scala, dovranno sottoporsi a valutazioni approfondite, segnalare incidenti gravi e garantire adeguati livelli di cibersicurezza.
Governance e Applicazione: L’AI Office e le Autorità Nazionali
- European AI Office: Istituito all’interno della Commissione Europea, questo nuovo organismo supervisionerà l’applicazione delle norme sui modelli GPAI, coordinerà l’azione delle autorità nazionali e svilupperà standard. Nel 2025, l’AI Office sarà pienamente operativo.
- Autorità Nazionali di Vigilanza: Ogni Stato membro designerà una o più autorità nazionali competenti per monitorare l’applicazione e il rispetto del regolamento. In Italia, si attende la definizione precisa dell’autorità o delle autorità competenti, ma il Garante per la Protezione dei Dati Personali ha già un ruolo significativo nelle intersezioni tra IA e privacy (Garante Privacy – Intelligenza Artificiale).
Sanzioni per Non Conformità
Le sanzioni per la violazione dell’AI Act possono essere molto pesanti, arrivando fino a 35 milioni di euro o il 7% del fatturato globale annuo dell’azienda (a seconda di quale sia l’importo maggiore) per le violazioni più gravi, come la commercializzazione di pratiche IA vietate.
Cosa Significa l’AI Act per le Imprese e i Cittadini Italiani nel 2025?
- Per le Imprese: Il 2025 è un anno di transizione e preparazione attiva. Le aziende che sviluppano, forniscono o utilizzano sistemi di IA (specialmente quelli che potrebbero rientrare nelle categorie ad alto rischio o GPAI) devono:
- Effettuare un’attenta valutazione dei propri sistemi rispetto ai criteri di rischio dell’AI Act.
- Iniziare ad implementare i requisiti di gestione del rischio, governance dei dati e trasparenza.
- Monitorare lo sviluppo degli standard armonizzati e degli atti di esecuzione.
- Per i Cittadini: L’AI Act mira a rafforzare la fiducia nell’IA. Nel 2025, i cittadini inizieranno a beneficiare di una maggiore trasparenza (es. sapendo quando interagiscono con un chatbot o vedono un deepfake) e della messa al bando delle pratiche IA più pericolose. Avranno anche il diritto di presentare reclami alle autorità nazionali riguardo a sistemi di IA che ritengono violino i loro diritti.
Conclusione
Il Regolamento Europeo sull’IA è una legislazione complessa ma fondamentale che modella il futuro dell’intelligenza artificiale nell’UE e potenzialmente a livello globale. Il 2025 rappresenta una tappa importante nel suo percorso di implementazione, con le prime norme già attive e una crescente consapevolezza degli obblighi futuri. Per le imprese è tempo di agire e prepararsi, mentre per i cittadini si aprono nuove prospettive di tutela e fiducia nell’era dell’IA.

Giornalista e analista, scrive di economia italiana, innovazione e imprese. Appassionato di tecnologia e finanza, racconta il presente e il futuro delle aziende che fanno muovere il Paese.