Commenti

3 minuti e 30 secondi di lettura
di Annalisa Olivieri*
Da domenica 2 febbraio è iniziata l'applicazione delle prime disposizioni del Regolamento (UE) 2024/1689, comunemente noto come "AI Act", che disciplina l'uso dell'Intelligenza Artificiale all'interno dell'Unione Europea.
 
Le disposizioni includono la definizione ufficiale di un sistema di IA, la promozione della conoscenza e consapevolezza sull'uso dell'Intelligenza Artificiale, oltre a un numero ristretto di applicazioni specifiche che sono state vietate in quanto considerate a rischio inaccettabile per l'Unione Europea. L'AI Act segue infatti un approccio basato sul rischio, classificando i sistemi AI in quattro categorie:
  1. Rischio inaccettabile – AI vietata (Articolo 5)
  2. Alto rischio – AI soggetta a requisiti rigorosi
  3. Rischio limitato – AI con obblighi di trasparenza
  4. Rischio minimo o nullo – AI non regolamentata
A distanza di pochi giorni, la Commissione Europea ha pubblicato le prime linee guida ufficiali, con particolare attenzione alle pratiche vietate definite nell'Articolo 5, per chiarirne l’interpretazione e garantire trasparenza e applicazione uniforme tra gli Stati membri.
 
Le pratiche vietate dall'AI Act (Prohibited AI practices)
L'Articolo 5 dell'AI Act stabilisce una serie di divieti su pratiche considerate dannose per la sicurezza, i diritti fondamentali e i valori dell'Unione Europea. L'AI act vieta 8 pratiche:
  1. Tecniche subliminali volutamente manipolative o ingannevoli
  2. Sfruttamento di vulnerabilità legate a età, disabilità o a condizioni socioeconomiche
  3. Social scoring (valutazione delle persone basata su comportamenti sociali o caratteristiche personali che possa portare a discriminazioni)
  4. Valutazione o previsione del rischio di commissione di reato utilizzando esclusivamente la profilazione o i tratti e le caratteristiche della personalità (salvo il caso in cui i sistemi di IA siano utilizzati a sostegno della valutazione umana)
  5. Raccolta indiscriminata di immagini facciali da internet o CCTV per creare o espandere database di riconoscimento facciale
  6. Riconoscimento delle emozioni nei luoghi di lavoro e negli istituti di istruzione (salvo motivi di sicurezza o sanitari)
  7. Categorizzazione biometrica per dedurre determinate caratteristiche sensibili come orientamento politico o religioso
  8. Identificazione biometrica remota in tempo reale negli spazi pubblici per scopi di polizia (salvo eccezioni specifiche come la ricerca di persone scomparse o la prevenzione di attacchi terroristici)
Tra i divieti che impattano il settore giustizia, troviamo il n. 4, la valutazione o predizione del rischio criminale: sono quindi vietati i sistemi AI che valutino il rischio di commettere crimini basandosi esclusivamente su dati biometrici o profili personali, senza considerare altri elementi di contesto o fattori oggettivi legati al comportamento effettivo dell’individuo. Questo tipo di tecnologia, se utilizzato, potrebbe infatti condurre a valutazioni non contestualizzate e potenzialmente discriminatorie, escludendo la possibilità di un’analisi basata su prove dirette e circostanze verificabili.
 
Definizione di un sistema AI e implicazioni per le aziende
Le linee guida offrono anche una maggiore chiarezza sulla definizione di "sistema AI" secondo l'AI Act. Un sistema AI è un sistema automatizzato che funziona con un certo grado di autonomia per generare output come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali.
Questa definizione ha implicazioni importanti per le aziende, che dovranno valutare attentamente se i loro prodotti o servizi rientrano nelle categorie regolamentate e, conseguentemente, adottare le misure più opportune.
 
Monitoraggio e sanzioni: cosa succede in caso di violazione?
Le sanzioni per la violazione delle pratiche vietate sono significative, con multe che possono arrivare fino a 35 milioni di euro o al 7% del fatturato globale annuo per le imprese. Tuttavia, il regime di monitoraggio e l'effettiva applicazione delle sanzioni sono ancora in fase di definizione.
 
L'impatto su Genova e sulle realtà locali
L'AI Act non è solo una questione di regolamentazione europea, ma ha evidentemente ripercussioni dirette anche sul tessuto economico di realtà come Genova. La città, con il suo ecosistema di innovazione tecnologica e marittima, dovrà confrontarsi con le nuove norme, specialmente per quanto riguarda l’uso di AI nei settori della logistica, della sicurezza urbana e dell’analisi dei dati.
Quali saranno le sfide per le aziende genovesi che operano con l'Intelligenza Artificiale? Come si concilieranno innovazione e regolamentazione? E soprattutto, il pubblico è pronto ad accogliere le nuove restrizioni a tutela dei diritti fondamentali?
 
Le risposte a queste domande emergeranno nei prossimi mesi, mentre il quadro normativo si consolida e le aziende si adattano al nuovo scenario.
 
*Annalisa Olivieri, avvocata esperta di legal tech
 
Iscriviti ai canali di Primocanale su WhatsAppFacebook e Telegram. Resta aggiornato sulle notizie da Genova e dalla Liguria anche sul profilo Instagram e sulla pagina Facebook

ARTICOLI CORRELATI

Giovedì 30 Gennaio 2025

Intelligenza artificiale contro liste d'attesa, progetto ligure modello per l'Italia

Scelto dal dipartimento per la trasformazione digitale della presidenza del Consiglio dei Ministri con 6,5 milioni di euro
Martedì 19 Novembre 2024

Lombardi, neo assessore al Turismo: "L'intelligenza artificiale potrà aiutare le Cinque Terre"

Il nuovo assessore regionale al Turismo della Liguria Luca Lombardi è intervenuto per la prima volta a Primocanale. Ospite del Programma Politico ha parlato del problema dell''overtourism nelle Cinque Terre. "Si tratta di problematica estremamente importante - spiega Lombardi - bisogna mettersi sub