Guida al EU AI Act

Tutto quello che devi sapere sul Regolamento Europeo sull'Intelligenza Artificiale: classificazione del rischio, obblighi, scadenze e come prepararsi.

Gli Aspetti Chiave

I punti fondamentali del Regolamento Europeo sull'Intelligenza Artificiale che ogni organizzazione deve conoscere.

Approccio Basato sul Rischio

Il EU AI Act classifica i sistemi AI in 4 livelli di rischio: inaccettabile, alto, limitato e minimo. Ogni livello ha obblighi specifici proporzionati al rischio.

Pratiche Vietate

Alcune applicazioni AI sono vietate: social scoring, manipolazione subliminale, sfruttamento di vulnerabilità di gruppi specifici, e identificazione biometrica remota in tempo reale.

Obblighi di Documentazione

I sistemi ad alto rischio devono avere documentazione tecnica completa, sistema di gestione del rischio, dataset di addestramento documentati e log automatici.

Conformity Assessment

Prima dell'immissione sul mercato, i sistemi ad alto rischio devono superare una valutazione di conformità che può essere interna o effettuata da un organismo notificato.

Sorveglianza Umana

Obbligo di human oversight: i sistemi ad alto rischio devono essere progettati per essere supervisionati da persone fisiche durante il loro utilizzo.

Scadenze Progressive

L'entrata in vigore è graduale: divieti da febbraio 2025, obblighi GPAI da agosto 2025, obblighi completi per sistemi ad alto rischio da agosto 2026.

I 4 Livelli di Rischio

Il EU AI Act adotta un approccio basato sul rischio: maggiore è il rischio, più stringenti sono gli obblighi.

Inaccettabile

Vietato. Social scoring, manipolazione subliminale, sfruttamento vulnerabilità.

Divieto assoluto

Alto

Sistemi in ambiti critici: biometria, infrastrutture critiche, istruzione, occupazione, servizi essenziali, giustizia.

Conformity assessment, documentazione tecnica, monitoraggio post-market

Limitato

Sistemi con obbligo di trasparenza: chatbot, deepfake, sistemi di categorizzazione biometrica.

Obblighi di trasparenza verso l'utente

Minimo

La maggior parte dei sistemi AI: filtri spam, videogiochi, sistemi di inventario.

Nessun obbligo specifico (best practice consigliate)

Scadenze Chiave

Il EU AI Act si applica in modo progressivo. Ecco le date da segnare in calendario.

Agosto 2024

Entrata in vigore del Regolamento

Febbraio 2025

Divieto delle pratiche AI vietate (Art. 5)

Agosto 2025

Obblighi per modelli AI General Purpose (GPAI)

Agosto 2026

Obblighi completi per sistemi AI ad alto rischio

Agosto 2027

Obblighi per sistemi AI integrati in prodotti regolamentati

Domande Frequenti

Le risposte alle domande più comuni sul EU AI Act.

Quando entra in vigore il EU AI Act?+
Il EU AI Act è entrato in vigore il 1° agosto 2024. Le disposizioni si applicano progressivamente: i divieti delle pratiche AI vietate sono effettivi da febbraio 2025, gli obblighi per i modelli GPAI da agosto 2025, e gli obblighi completi per i sistemi ad alto rischio da agosto 2026.
Chi deve conformarsi al EU AI Act?+
Il Regolamento si applica a fornitori (developer), deployer (utilizzatori), importatori e distributori di sistemi AI immessi sul mercato europeo o il cui output è utilizzato nell'UE, indipendentemente dalla sede dell'organizzazione.
Quali sono le sanzioni previste?+
Le sanzioni possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo globale per le violazioni più gravi (pratiche vietate), fino a 15 milioni o 3% per altre violazioni, e fino a 7,5 milioni o 1% per informazioni inesatte.
Come si classifica il rischio di un sistema AI?+
La classificazione dipende dall'uso previsto del sistema AI e dal settore in cui opera. L'Allegato III del EU AI Act elenca le categorie di sistemi ad alto rischio. AI Compliance automatizza questa classificazione analizzando le caratteristiche del sistema.
Qual è la differenza tra fornitore e deployer?+
Il fornitore (provider) è chi sviluppa o fa sviluppare un sistema AI e lo immette sul mercato. Il deployer è chi utilizza un sistema AI sotto la propria autorità. Gli obblighi variano significativamente tra i due ruoli.
I modelli open source sono esenti?+
I modelli open source hanno esenzioni parziali per i fornitori, ma non per i deployer. Inoltre, i modelli GPAI con rischio sistemico (come i modelli foundation di grandi dimensioni) hanno obblighi specifici indipendentemente dalla licenza.

Verifica la compliance dei tuoi sistemi AI

Usa AI Compliance per classificare il rischio e mappare i requisiti normativi automaticamente.

Inizia Gratis