Classificazione del Rischio nel Regolamento UE sull'IA: I Quattro Livelli Spiegati
Approfondimento sul sistema di classificazione del rischio a quattro livelli del Regolamento UE sull'IA — rischio inaccettabile, alto, limitato e minimo. Scoprite in quale categoria rientra il vostro sistema di IA e cosa è richiesto.
Il sistema di classificazione del rischio del Regolamento UE sull'IA costituisce il fondamento architetturale dell'intero regolamento. Anziché trattare tutti i sistemi di IA in modo uniforme, il Regolamento 2024/1689 istituisce quattro livelli di rischio — inaccettabile, alto, limitato e minimo — ciascuno con obblighi proporzionati. La logica è lineare: maggiore è il potenziale danno che un sistema di IA può causare, più rigide sono le norme che lo disciplinano.
Comprendere in quale livello rientra il proprio sistema di IA è il primo passo essenziale verso la conformità. Una classificazione errata può portare a un onere inutile oppure, più pericolosamente, alla mancata conformità a requisiti che comportano sanzioni significative.
Il quadro dei quattro livelli di rischio
Il Regolamento UE sull'IA organizza i sistemi di IA in quattro categorie in base al livello di rischio che presentano per la salute, la sicurezza e i diritti fondamentali. Ciascun livello comporta requisiti normativi distinti.
Rischio inaccettabile: pratiche di IA vietate
Unacceptable RiskAl vertice della piramide del rischio si trovano le pratiche di IA considerate così dannose da essere del tutto vietate. L'Articolo 5 del Regolamento sull'IA elenca tali pratiche, che rappresentano un limite invalicabile per qualsiasi organizzazione.
Tecniche subliminali, manipolative e ingannevoli (Articolo 5, paragrafo 1, lettera a)): sistemi di IA che impiegano tecniche che operano al di sotto della soglia di coscienza, o che sono volutamente manipolative o ingannevoli, con l'obiettivo o l'effetto di distorcere materialmente il comportamento e causare o rischiare ragionevolmente di causare un danno significativo.
Sfruttamento delle vulnerabilità (Articolo 5, paragrafo 1, lettera b)): sistemi di IA che prendono di mira specifiche vulnerabilità delle persone — dovute all'età, alla disabilità o a una particolare situazione sociale o economica — per distorcere materialmente il loro comportamento in modo tale da causare o rischiare di causare un danno significativo.
Social scoring (Articolo 5, paragrafo 1, lettera c)): sistemi di IA utilizzati dalle autorità pubbliche (o per loro conto) per valutare o classificare persone fisiche in base al loro comportamento sociale o a caratteristiche personali note, dedotte o previste, quando il punteggio sociale risultante determina un trattamento pregiudizievole in contesti non correlati o un trattamento sproporzionato.
Polizia predittiva basata esclusivamente sulla profilazione (Articolo 5, paragrafo 1, lettera d)): sistemi di IA che valutano il rischio che una persona fisica commetta un reato basandosi esclusivamente sulla profilazione o sulla valutazione dei tratti e delle caratteristiche della personalità. Tale divieto non si applica quando l'IA è utilizzata a supporto di valutazioni umane già basate su fatti oggettivi e verificabili direttamente collegati all'attività criminosa.
Raccolta indiscriminata per il riconoscimento facciale (Articolo 5, paragrafo 1, lettera e)): sistemi di IA che creano o ampliano banche dati di riconoscimento facciale attraverso la raccolta indiscriminata di immagini facciali da Internet o da telecamere a circuito chiuso.
Riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole (Articolo 5, paragrafo 1, lettera f)): sistemi di IA che deducono le emozioni delle persone fisiche nei luoghi di lavoro o negli istituti di istruzione, salvo che siano utilizzati per motivi medici o di sicurezza.
Categorizzazione biometrica per caratteristiche sensibili (Articolo 5, paragrafo 1, lettera g)): sistemi di IA che categorizzano le persone fisiche individualmente sulla base di dati biometrici per dedurre o inferire la razza, le opinioni politiche, l'appartenenza sindacale, le convinzioni religiose o filosofiche, la vita sessuale o l'orientamento sessuale. Si applicano eccezioni limitate per le forze dell'ordine.
Identificazione biometrica remota in tempo reale negli spazi pubblici per le forze dell'ordine (Articolo 5, paragrafo 1, lettera h)): uso di sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico per l'attività di contrasto, salvo nelle situazioni strettamente necessarie che coinvolgono ricerche mirate di vittime, prevenzione di specifiche minacce imminenti o indagini su reati gravi.
Le pratiche vietate comportano le sanzioni più elevate previste dal Regolamento sull'IA: fino a 35 milioni di EUR o il 7% del fatturato mondiale totale annuo, se superiore. Questi divieti sono in vigore dal 2 febbraio 2025.
Implicazioni pratiche
Le organizzazioni dovrebbero effettuare un audit immediato per assicurarsi di non gestire alcun sistema che rientri nell'Articolo 5. Sebbene molte di queste pratiche siano poco comuni nelle applicazioni aziendali tradizionali, alcuni casi limite meritano un'analisi attenta. Ad esempio, gli algoritmi di personalizzazione che superano il confine delle tecniche manipolative, o gli strumenti di monitoraggio dei dipendenti che potrebbero essere interpretati come riconoscimento delle emozioni sul luogo di lavoro, richiedono un esame approfondito.
Alto rischio: requisiti completi
High RiskI sistemi di IA ad alto rischio costituiscono il fulcro della regolamentazione. Si tratta di sistemi consentiti ma soggetti a requisiti estensivi prima di poter essere immessi sul mercato o messi in servizio.
Il Regolamento sull'IA definisce i sistemi di IA ad alto rischio attraverso due percorsi ai sensi dell'Articolo 6:
Percorso 1 — Componenti di sicurezza di prodotti regolamentati (Articolo 6, paragrafo 1): un sistema di IA è ad alto rischio se è un componente di sicurezza di un prodotto, o è esso stesso un prodotto, disciplinato dalla legislazione di armonizzazione dell'UE elencata nell'Allegato I, e il prodotto deve essere sottoposto a valutazione della conformità da parte di terzi ai sensi di tale legislazione. Ciò comprende l'IA integrata in dispositivi medici, macchinari, giocattoli, ascensori, veicoli, sistemi aeronautici e altri prodotti regolamentati.
Percorso 2 — Sistemi autonomi in ambiti sensibili (Articolo 6, paragrafo 2 e Allegato III): un sistema di IA è ad alto rischio se rientra in uno dei casi d'uso elencati nell'Allegato III. Le otto aree definite nell'Allegato III sono:
1. Biometria (Allegato III, punto 1): sistemi di identificazione biometrica remota (esclusi quelli vietati ai sensi dell'Articolo 5), sistemi di IA per la categorizzazione biometrica per attributi sensibili o protetti, e sistemi di IA per il riconoscimento delle emozioni.
2. Infrastrutture critiche (Allegato III, punto 2): sistemi di IA utilizzati come componenti di sicurezza nella gestione e nel funzionamento di infrastrutture digitali critiche, del traffico stradale e dell'approvvigionamento idrico, del gas, del riscaldamento e dell'energia elettrica.
3. Istruzione e formazione professionale (Allegato III, punto 3): sistemi di IA utilizzati per determinare l'accesso o l'ammissione agli istituti di istruzione, per valutare i risultati dell'apprendimento, per valutare il livello di istruzione appropriato e per monitorare comportamenti vietati durante gli esami.
4. Occupazione, gestione dei lavoratori e accesso al lavoro autonomo (Allegato III, punto 4): sistemi di IA utilizzati per la selezione del personale (filtraggio delle candidature, valutazione dei candidati), per decisioni che influenzano i rapporti di lavoro (promozione, cessazione, assegnazione dei compiti) e per il monitoraggio o la valutazione delle prestazioni e del comportamento dei lavoratori.
5. Accesso a servizi privati essenziali e a servizi e prestazioni pubbliche (Allegato III, punto 5): sistemi di IA utilizzati per valutare l'idoneità all'assistenza pubblica o ai servizi pubblici, valutare il merito creditizio (salvo per l'individuazione di frodi finanziarie), valutare e classificare le chiamate di emergenza e valutare i rischi nell'ambito dell'assicurazione vita e malattia.
6. Attività di contrasto (Allegato III, punto 6): sistemi di IA utilizzati dalle forze dell'ordine per la valutazione individuale del rischio, poligrafi o strumenti analoghi, valutazione dell'affidabilità delle prove, valutazione del rischio di recidiva, profilazione durante le indagini e analisi criminale.
7. Migrazione, asilo e gestione delle frontiere (Allegato III, punto 7): sistemi di IA utilizzati per strumenti tipo poligrafo nelle procedure migratorie, valutazione del rischio di migrazione irregolare, rischi per la sicurezza o la salute, esame delle domande di asilo, visto o permesso di soggiorno e individuazione di persone nella gestione delle frontiere.
8. Amministrazione della giustizia e processi democratici (Allegato III, punto 8): sistemi di IA utilizzati dalle autorità giudiziarie per la ricerca e l'interpretazione dei fatti e del diritto e per l'applicazione della legge a fattispecie concrete, o da utilizzare nella risoluzione alternativa delle controversie.
Non tutti i sistemi di IA utilizzati in questi ambiti sono automaticamente ad alto rischio. L'Articolo 6, paragrafo 3, prevede un'importante eccezione: un sistema di IA elencato nell'Allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno alla salute, alla sicurezza o ai diritti fondamentali. Il fornitore deve documentare questa valutazione, che è soggetta a verifica da parte delle autorità di vigilanza del mercato.
Requisiti per i sistemi ad alto rischio
I sistemi di IA ad alto rischio devono soddisfare i requisiti stabiliti negli Articoli da 8 a 15, che riguardano:
- Sistema di gestione dei rischi (Articolo 9)
- Dati e governance dei dati (Articolo 10)
- Documentazione tecnica (Articolo 11)
- Conservazione delle registrazioni e registrazione automatica (Articolo 12)
- Trasparenza e fornitura di informazioni ai deployer (Articolo 13)
- Misure di sorveglianza umana (Articolo 14)
- Accuratezza, robustezza e cybersicurezza (Articolo 15)
I fornitori devono inoltre implementare un sistema di gestione della qualità (Articolo 17), sottoporsi alla valutazione della conformità (Articolo 43), registrare i propri sistemi nella banca dati dell'UE (Articolo 49) e condurre la sorveglianza post-commercializzazione (Articolo 72).
Need auditable AI for compliance?
Ctrl AI provides full execution traces, expert verification, and trust-tagged outputs for every AI decision.
Learn About Ctrl AIRischio limitato: obblighi di trasparenza
Limited RiskLa categoria a rischio limitato comprende i sistemi di IA che interagiscono con le persone o generano contenuti in modi che potrebbero essere fuorvianti se la natura IA del sistema o dei suoi output non viene resa nota. L'Articolo 50 stabilisce obblighi di trasparenza specifici per questi sistemi.
Chi deve conformarsi
Fornitori di sistemi di IA progettati per interagire con persone fisiche (Articolo 50, paragrafo 1): i sistemi come i chatbot devono essere progettati per garantire che la persona sia informata di interagire con un sistema di IA, a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo.
Fornitori di sistemi di IA che generano contenuti sintetici (Articolo 50, paragrafo 2): i sistemi di IA che generano contenuti sintetici audio, immagini, video o testuali devono contrassegnare l'output in un formato leggibile da dispositivo automatico che ne riveli la generazione o manipolazione artificiale. L'implementazione tecnica deve essere efficace, interoperabile, robusta e affidabile.
Deployer di sistemi di riconoscimento delle emozioni o di categorizzazione biometrica (Articolo 50, paragrafo 3): laddove tali sistemi non siano classificati come ad alto rischio, i deployer devono informare le persone fisiche esposte al sistema del suo funzionamento e trattare i dati personali in conformità con la normativa applicabile sulla protezione dei dati.
Deployer di sistemi di deepfake (Articolo 50, paragrafo 4): i deployer che pubblicano o consentono l'accesso a contenuti generati o manipolati dall'IA (deepfake) devono rendere noto che il contenuto è stato generato o manipolato artificialmente. Esiste un'eccezione per i contenuti che fanno parte di un'opera manifestamente artistica, creativa, satirica o di finzione, sebbene anche in tal caso la divulgazione non debba impedire la visualizzazione del contenuto.
Esempi pratici
- Un chatbot di assistenza clienti su un sito di e-commerce deve informare gli utenti che stanno conversando con un'IA, non con un operatore umano.
- Uno strumento di IA che genera immagini di marketing deve incorporare metadati leggibili da dispositivo automatico che indichino che le immagini sono generate dall'IA.
- Un'azienda che utilizza l'IA per analizzare il tono emotivo delle chiamate dei clienti (dove non ad alto rischio) deve informare i chiamanti.
- Un'organizzazione mediatica che pubblica articoli generati dall'IA deve etichettarli come tali.
Gli obblighi di trasparenza possono sembrare semplici, ma i requisiti tecnici — in particolare quelli relativi al contrassegno leggibile da dispositivo automatico dei contenuti generati dall'IA — richiedono un impegno di implementazione. Le organizzazioni dovrebbero pianificare questi requisiti con largo anticipo rispetto alla scadenza dell'agosto 2026.
Rischio minimo: conformità volontaria
Minimal RiskLa stragrande maggioranza dei sistemi di IA rientra nella categoria a rischio minimo. Si tratta di applicazioni di IA che presentano un rischio scarso o nullo per i diritti fondamentali e la sicurezza. Il Regolamento UE sull'IA non impone requisiti obbligatori su questi sistemi al di là della legislazione vigente.
Esempi di IA a rischio minimo
- Filtri antispam
- Sistemi di raccomandazione basati sull'IA (per servizi non essenziali)
- Videogiochi potenziati dall'IA
- Sistemi di gestione dell'inventario
- Correttori ortografici e grammaticali assistiti dall'IA
- Sistemi di manutenzione predittiva per attrezzature manifatturiere
- Motori di ricerca basati sull'IA (per uso generico)
Codici di condotta volontari
Sebbene i sistemi di IA a rischio minimo non siano soggetti a requisiti obbligatori ai sensi del Regolamento sull'IA, l'Articolo 95 incoraggia i fornitori e i deployer ad applicare volontariamente i requisiti previsti per i sistemi ad alto rischio o a sviluppare i propri codici di condotta. Tali codici possono riguardare questioni come:
- La sostenibilità ambientale dei sistemi di IA
- L'alfabetizzazione sull'IA tra i portatori di interesse
- La progettazione inclusiva e diversificata
- L'accessibilità per le persone con disabilità
La Commissione e gli Stati membri facilitano lo sviluppo di questi codici volontari, e la loro adesione può servire come elemento di differenziazione sul mercato per le organizzazioni che desiderano dimostrare pratiche responsabili nell'uso dell'IA.
Come classificare il proprio sistema di IA
La corretta classificazione del proprio sistema di IA richiede un approccio sistematico. Ecco un quadro pratico per procedere nella classificazione.
Fase 1: Verifica rispetto alle pratiche vietate
Confrontate il vostro sistema di IA con ciascuna pratica vietata nell'Articolo 5. Se il vostro sistema rientra in una qualsiasi di queste categorie, deve essere immediatamente dismesso — nessuna eccezione o soluzione alternativa consentirà la conformità.
Fase 2: Verifica dell'Allegato I (legislazione sulla sicurezza dei prodotti)
Se il vostro sistema di IA è un componente di sicurezza di un prodotto, o è esso stesso un prodotto, disciplinato dalla legislazione di armonizzazione dell'UE elencata nell'Allegato I, verificate se tale prodotto richiede una valutazione della conformità da parte di terzi. In caso affermativo, il sistema di IA è ad alto rischio ai sensi dell'Articolo 6, paragrafo 1.
Fase 3: Verifica dell'Allegato III (casi d'uso sensibili)
Verificate se la finalità prevista del vostro sistema di IA rientra in una delle otto categorie dell'Allegato III. È qui che si originano la maggior parte delle classificazioni autonome ad alto rischio.
Fase 4: Applicazione dell'eccezione dell'Articolo 6, paragrafo 3
Se il vostro sistema è elencato nell'Allegato III ma non presenta un rischio significativo di danno, potete argomentare che non è ad alto rischio in base all'eccezione dell'Articolo 6, paragrafo 3. Tuttavia, ciò richiede una giustificazione documentata ed è soggetto a verifica normativa. L'eccezione non si applica se il sistema di IA esegue la profilazione di persone fisiche.
Fase 5: Verifica degli obblighi di trasparenza
Se il vostro sistema non è ad alto rischio, determinate se interagisce con persone fisiche, genera contenuti sintetici, effettua il riconoscimento delle emozioni o produce contenuti deepfake. In tal caso, rientra negli obblighi di trasparenza per il rischio limitato.
Fase 6: Classificazione predefinita come rischio minimo
Se il vostro sistema non rientra in nessuna delle categorie sopra indicate, è classificato come a rischio minimo senza obblighi obbligatori ai sensi del Regolamento sull'IA.
La classificazione del rischio non è un esercizio statico. Se modificate la finalità prevista del vostro sistema di IA, ne ampliate l'ambito o cambiate il contesto in cui opera, dovete rivalutarne la classificazione. L'Articolo 6, paragrafo 3, richiede esplicitamente che la valutazione venga aggiornata quando vi è un cambiamento nella finalità prevista del sistema di IA.
Casi particolari e considerazioni
Modelli di IA per finalità generali
I modelli di IA per finalità generali (GPAI) sono regolamentati separatamente nel Capo V del Regolamento sull'IA. Un modello GPAI non è di per sé classificato secondo il sistema a quattro livelli di rischio. Tuttavia, quando un modello GPAI è integrato in un sistema di IA, quel sistema è classificato in base alla sua finalità prevista e al suo caso d'uso.
Ad esempio, un modello linguistico di grandi dimensioni è disciplinato dalle disposizioni sui GPAI. Ma se tale modello è utilizzato per alimentare uno strumento di screening per la selezione del personale, il sistema di IA risultante sarebbe classificato come ad alto rischio ai sensi dell'Allegato III, punto 4.
Sistemi di IA con usi multipli
Alcuni sistemi di IA possono servire a molteplici finalità. La classificazione dovrebbe basarsi su ciascuna finalità prevista individualmente. Un sistema di IA utilizzato sia per applicazioni a rischio minimo (come l'analisi generale dei clienti) sia per applicazioni ad alto rischio (come la valutazione del merito creditizio) deve conformarsi ai requisiti ad alto rischio per quest'ultimo utilizzo.
Modifiche dopo l'immissione sul mercato
Se un fornitore modifica sostanzialmente un sistema di IA dopo la sua immissione sul mercato, il sistema modificato potrebbe dover essere riclassificato e sottoposto a una nuova valutazione della conformità. Analogamente, i deployer che utilizzano un sistema di IA per una finalità non prevista dal fornitore dovrebbero condurre la propria valutazione del rischio.
Conclusione
Il sistema di classificazione del rischio a quattro livelli del Regolamento UE sull'IA fornisce un quadro normativo proporzionato che concentra gli obblighi di conformità dove sono più necessari. Distinguendo tra sistemi di IA a rischio inaccettabile, alto, limitato e minimo, il regolamento evita di imporre oneri inutili sulle applicazioni a basso rischio, garantendo al contempo protezioni solide dove l'IA può incidere significativamente sulla vita delle persone.
Per le organizzazioni che si orientano in questo quadro, una classificazione accurata è la base di ogni decisione di conformità successiva. Essa determina quali requisiti si applicano, quali scadenze hanno priorità e quali risorse allocare. Dedicare il tempo necessario a classificare correttamente i propri sistemi di IA — e documentare tale classificazione in modo approfondito — consentirà di risparmiare notevoli sforzi e incertezze nel prosieguo del percorso.
Make Your AI Auditable and Compliant
Ctrl AI provides expert-verified reasoning units with full execution traces — the infrastructure you need for EU AI Act compliance.
Explore Ctrl AIArticoli correlati
Sistemi di IA ad Alto Rischio: Requisiti Completi ai sensi del Regolamento UE sull'IA
Guida dettagliata ai requisiti per i sistemi di IA ad alto rischio previsti dal Regolamento UE sull'IA — gestione del rischio, governance dei dati, documentazione, sorveglianza umana, accuratezza e cybersicurezza.
Sanzioni del Regolamento UE sull'IA: Ammende fino a 35 Milioni di Euro
Analisi completa delle sanzioni previste dal Regolamento UE sull'IA — da 35 milioni di EUR per le pratiche vietate a 7,5 milioni per informazioni inesatte. Il regime sanzionatorio e come evitare le penalità.
Calendario del Regolamento UE sull'IA: Date Chiave dal 2024 al 2027
Calendario completo delle tappe di applicazione del Regolamento UE sull'IA — dall'entrata in vigore nell'agosto 2024 alla piena conformità per i sistemi ad alto rischio entro agosto 2027. Scoprite esattamente quando si applica ciascun requisito.