Da domenica 2 febbraio è iniziata l'applicazione delle prime disposizioni del Regolamento (UE) 2024/1689, comunemente noto come "AI Act", che disciplina l'uso dell'Intelligenza Artificiale all'interno dell'Unione Europea.
Le disposizioni includono la definizione ufficiale di un sistema di IA, la promozione della conoscenza e consapevolezza sull'uso dell'Intelligenza Artificiale, oltre a un numero ristretto di applicazioni specifiche che sono state vietate in quanto considerate a rischio inaccettabile per l'Unione Europea. L'AI Act segue infatti un approccio basato sul rischio, classificando i sistemi AI in quattro categorie:
-
Rischio inaccettabile – AI vietata (Articolo 5)
-
Alto rischio – AI soggetta a requisiti rigorosi
-
Rischio limitato – AI con obblighi di trasparenza
-
Rischio minimo o nullo – AI non regolamentata
A distanza di pochi giorni, la Commissione Europea ha pubblicato le prime linee guida ufficiali, con particolare attenzione alle pratiche vietate definite nell'Articolo 5, per chiarirne l’interpretazione e garantire trasparenza e applicazione uniforme tra gli Stati membri.
Le pratiche vietate dall'AI Act (Prohibited AI practices)
L'Articolo 5 dell'AI Act stabilisce una serie di divieti su pratiche considerate dannose per la sicurezza, i diritti fondamentali e i valori dell'Unione Europea. L'AI act vieta 8 pratiche:
-
Tecniche subliminali volutamente manipolative o ingannevoli
-
Sfruttamento di vulnerabilità legate a età, disabilità o a condizioni socioeconomiche
-
Social scoring (valutazione delle persone basata su comportamenti sociali o caratteristiche personali che possa portare a discriminazioni)
-
Valutazione o previsione del rischio di commissione di reato utilizzando esclusivamente la profilazione o i tratti e le caratteristiche della personalità (salvo il caso in cui i sistemi di IA siano utilizzati a sostegno della valutazione umana)
-
Raccolta indiscriminata di immagini facciali da internet o CCTV per creare o espandere database di riconoscimento facciale
-
Riconoscimento delle emozioni nei luoghi di lavoro e negli istituti di istruzione (salvo motivi di sicurezza o sanitari)
-
Categorizzazione biometrica per dedurre determinate caratteristiche sensibili come orientamento politico o religioso
-
Identificazione biometrica remota in tempo reale negli spazi pubblici per scopi di polizia (salvo eccezioni specifiche come la ricerca di persone scomparse o la prevenzione di attacchi terroristici)
Tra i divieti che impattano il settore giustizia, troviamo il n. 4, la valutazione o predizione del rischio criminale: sono quindi vietati i sistemi AI che valutino il rischio di commettere crimini basandosi esclusivamente su dati biometrici o profili personali, senza considerare altri elementi di contesto o fattori oggettivi legati al comportamento effettivo dell’individuo. Questo tipo di tecnologia, se utilizzato, potrebbe infatti condurre a valutazioni non contestualizzate e potenzialmente discriminatorie, escludendo la possibilità di un’analisi basata su prove dirette e circostanze verificabili.
Definizione di un sistema AI e implicazioni per le aziende
Le linee guida offrono anche una maggiore chiarezza sulla definizione di "sistema AI" secondo l'AI Act. Un sistema AI è un sistema automatizzato che funziona con un certo grado di autonomia per generare output come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali.
Questa definizione ha implicazioni importanti per le aziende, che dovranno valutare attentamente se i loro prodotti o servizi rientrano nelle categorie regolamentate e, conseguentemente, adottare le misure più opportune.
Monitoraggio e sanzioni: cosa succede in caso di violazione?
Le sanzioni per la violazione delle pratiche vietate sono significative, con multe che possono arrivare fino a 35 milioni di euro o al 7% del fatturato globale annuo per le imprese. Tuttavia, il regime di monitoraggio e l'effettiva applicazione delle sanzioni sono ancora in fase di definizione.
L'impatto su Genova e sulle realtà locali
L'AI Act non è solo una questione di regolamentazione europea, ma ha evidentemente ripercussioni dirette anche sul tessuto economico di realtà come Genova. La città, con il suo ecosistema di innovazione tecnologica e marittima, dovrà confrontarsi con le nuove norme, specialmente per quanto riguarda l’uso di AI nei settori della logistica, della sicurezza urbana e dell’analisi dei dati.
Quali saranno le sfide per le aziende genovesi che operano con l'Intelligenza Artificiale? Come si concilieranno innovazione e regolamentazione? E soprattutto, il pubblico è pronto ad accogliere le nuove restrizioni a tutela dei diritti fondamentali?
Le risposte a queste domande emergeranno nei prossimi mesi, mentre il quadro normativo si consolida e le aziende si adattano al nuovo scenario.