AI   |   Buone Pratiche  

Pubblicato il

Prime disposizioni dell’AI Act in vigore: l’art. 5 e le Linee Guida sulle pratiche di IA vietate

Le Linee Guida della Commissione Europea del 4 febbraio 2025 relative alle pratiche di intelligenza artificiale vietate, adottate in attuazione del Regolamento (UE) 2024/1689 (AI Act) rappresentano un’importante integrazione normativa al Regolamento sull’Intelligenza Artificiale, fornendo criteri interpretativi utili per la sua applicazione concreta.

La loro strutturazione appare coerente con la necessità di delineare un quadro regolatorio chiaro, capace di prevenire utilizzi dell’IA che possano mettere a rischio i diritti fondamentali, la sicurezza pubblica e il principio di non discriminazione.

Il documento si apre con una contestualizzazione normativa e un inquadramento degli obiettivi perseguiti, evidenziando come la regolamentazione si fondi sull’articolo 5 dell’AI Act divenuto già obbligatorio, che stabilisce un elenco tassativo di pratiche vietate. È apprezzabile l’attenzione dedicata alla definizione del perimetro di applicazione, sia sotto il profilo materiale che sotto quello soggettivo, precisando con rigore quali attori rientrino nella sfera di responsabilità e quali ambiti siano esclusi dalla disciplina del Regolamento.

Uno degli aspetti più rilevanti del documento riguarda la delimitazione della nozione di “proibizione” e la sua interazione con le categorie di rischio previste dall’AI Act. L’intenzione del legislatore europeo di differenziare nettamente le pratiche vietate dai sistemi di IA classificati come ad alto rischio è ben evidenziata nelle Linee Guida, ma permane una certa complessità nell’applicazione pratica, specialmente per quanto concerne gli scenari borderline in cui un sistema di IA potrebbe essere qualificato sia come high-risk che come prohibited practice.

Il cuore del documento è dedicato all’analisi delle pratiche vietate, articolata in più livelli di approfondimento. Particolare rilievo assume il divieto di utilizzo di tecniche subliminali o manipolative, così come di sistemi che sfruttano vulnerabilità individuali, sociali o economiche.

La normativa distingue con precisione tra manipolazione illecita e persuasione legittima, evitando un’applicazione indiscriminata del divieto a pratiche di marketing o a tecniche di persuasione commerciale che non comportano un pregiudizio rilevante. La soglia di valutazione del danno, tuttavia, rimane un elemento delicato che potrebbe prestarsi a interpretazioni divergenti da parte delle autorità di vigilanza nazionali.

Un altro aspetto rilevante è il divieto di social scoring, che nelle Linee Guida viene definito con una maggiore granularità rispetto al testo normativo dell’AI Act. Il documento spiega come il divieto non riguardi qualsiasi forma di classificazione algoritmica, ma si applichi esclusivamente ai sistemi che generano effetti negativi ingiustificati e sproporzionati in ambiti distinti da quelli nei quali è stato originariamente calcolato il punteggio. In altre parole, un sistema di rating finanziario non rientrerebbe automaticamente nel divieto, a meno che i suoi risultati non siano utilizzati in modo improprio in altri contesti sociali. Questo chiarimento è cruciale per evitare un’applicazione eccessivamente restrittiva della normativa, ma allo stesso tempo apre a possibili aree grigie, soprattutto nei casi in cui i dati raccolti da un determinato servizio vengano utilizzati per condizionare altri aspetti della vita di un individuo.

Il documento affronta anche l’interazione tra le proibizioni e le normative preesistenti nell’ordinamento dell’Unione, un aspetto fondamentale per garantire coerenza giuridica. La relazione con il GDPR e la normativa sulla protezione dei dati personali è trattata in modo approfondito, riconoscendo il ruolo centrale del principio di minimizzazione e della necessità di garantire un controllo effettivo sui dati utilizzati dai sistemi di IA. Tuttavia, il coordinamento con altri strumenti normativi, come il Digital Services Act e il Data Governance Act, avrebbe potuto essere meglio dettagliato, considerando l’importanza crescente della regolazione dell’ecosistema digitale europeo.

Le Linee Guida individuano alcune importanti esclusioni dall’ambito di applicazione del regolamento, tra cui quelle relative alla sicurezza nazionale, alla difesa e alle attività di ricerca e sviluppo. La scelta di escludere questi ambiti è comprensibile dal punto di vista politico, ma apre il dibattito sulla possibilità che tecnologie pericolose possano essere sviluppate e testate in contesti privi di regolamentazione specifica.

Un ulteriore punto critico riguarda le IA open-source, che in alcuni casi potrebbero essere esentate dalle proibizioni previste dal regolamento, con il rischio di elusione normativa da parte degli operatori di mercato.

La sezione relativa all’enforcement e ai poteri delle autorità di vigilanza fornisce indicazioni chiare sui meccanismi di supervisione e sulle sanzioni applicabili in caso di violazioni. La previsione di un sistema di sorveglianza del mercato, con poteri specifici per le autorità competenti, è un elemento positivo, ma l’effettiva efficacia dipenderà dalla capacità di armonizzare l’azione dei diversi Stati membri e di garantire un’effettiva cooperazione tra le autorità nazionali.

Nonostante la qualità complessiva delle Linee Guida, alcuni aspetti meriterebbero un ulteriore approfondimento. Ad esempio, la definizione di sistemi di IA generali e la loro possibile inclusione nel novero delle pratiche vietate è ancora un tema controverso. L’evoluzione tecnologica recente ha reso i modelli di IA sempre più versatili e polifunzionali, rendendo difficile determinare ex ante il loro possibile utilizzo illecito. Sarebbe stato utile un maggior dettaglio sulle modalità con cui questi sistemi dovrebbero essere valutati in sede di applicazione della normativa.

Anche la questione delle sanzioni potrebbe essere articolata in modo più preciso. Le Linee Guida indicano che le violazioni delle pratiche vietate comportano conseguenze gravi, ma non dettagliano in modo analitico le diverse fasce di penalità e la loro applicazione concreta nei vari contesti. Una maggiore trasparenza sulle soglie sanzionatorie potrebbe favorire una migliore compliance da parte delle aziende e ridurre il rischio di contenziosi.

Infine, l’aspetto relativo alla convergenza con altre normative internazionali meriterebbe un ulteriore approfondimento. L’Unione Europea ha adottato una posizione pionieristica nella regolamentazione dell’IA, ma la sua efficacia dipenderà anche dalla capacità di stabilire un dialogo costruttivo con altre giurisdizioni, in particolare gli Stati Uniti e la Cina, che stanno sviluppando approcci normativi differenti.

Le Linee Guida rappresentano indubbiamente un contributo significativo alla chiarezza normativa dell’AI Act, fornendo strumenti interpretativi utili per la sua applicazione concreta. La loro strutturazione rigorosa e l’attenzione dedicata alle interazioni con il diritto europeo esistente ne fanno un documento di riferimento essenziale per i professionisti del settore. Tuttavia, alcune questioni aperte, come l’applicazione delle proibizioni ai modelli di IA generali e il coordinamento con altre normative, richiederanno ulteriori chiarimenti per garantire un’applicazione coerente ed efficace.

 

Articolo da LeAutonomie






Correlati


torna all'inizio del contenuto