GENOVA - "Sarebbe come chiedersi se esiste o no il rischio di sentirsi sminuiti perché stiamo usando Google per fare una ricerca e capire qualcosa e informarci. Sarà uguale con quelle che vengono chiamate ChatGpt piuttosto che le altre forme di intelligenza artificiale. Il mondo si dividerà tra quelli che ne sapranno fare un uso consapevole e smart e quelli che invece per qualche motivo ne avranno paura o timore e si rifiuteranno di utilizzarli, non dico che arrancheranno ma probabilmente faranno più fatica" così il professore dell'Università di Genova Alessandro Verri. A Palazzo Ducale il docente ha tenuto un convegno dal titolo: "Un punto di vista eretico sull’intelligenza artificiale”. Verri è docente del Dipartimento di informatica, bioingegneria, robotica e ingegneria dei sistemi.
Si discute da tempo sui vari aspetti positivi e quelli negativi portati dalle nuove strumentazioni di intelligenza artificiale oggi a disposizione di tutti. I vari strumenti sono una risorsa in più per tanti settori ma mostrano anche alcuni elementi di incertezza. "Quello che io chiamo un aspetto che dovrebbe far riflettere é la grande fortuna di queste tecnologie legate alla disponibilità di enormi quantità di dati per quelli che sono i problemi, le applicazioni in ambito di aspetto di quelle che chiamano la visione, il parlato e il linguaggio naturale. Questa fortunata coincidenza non ha molti eguali nel resto delle tecnologie" spiega il professor Verri.
Secondo il docente dell'Università di Genova questa mole di dati non è sempre vera, ci sono campi di studio in cui la stessa IA è limitata. "Nel campo medico non sarà mai vero, perché ci sono diverse frammentazioni e stratificazioni. Un'altra osservazione che si può fare è che c'è un limite a quanto si possa essere bravi nell'imparare dai dati, si tratta di un limite che è noto a tutti quelli che si occupano di questi aspetti. Se nel linguaggio o la visione è vicino alla perfezione, in altri (il limite ndr) è legato a quello che la natura ci consente di fare. Quindi, tanto per dirne una, non ci sarà mai un sistema intelligente capace di aiutarci a gestire in borsa".
Secondo i dati il mercato dell’intelligenza artificiale in Italia nel 2023 fa segnare +52% di investimenti. Si parla di 760 milioni di euro. Nella maggior parte dei casi gli investimenti riguardano soluzioni di analisi e interpretazione testi per ricerca semantica, di classificazione, sintesi e spiegazione di documenti o agenti conversazionali tradizionali. Mentre solo un 5% riguarda progetti di generazione di Intelligenza Artificiale. Sei grandi imprese italiane su dieci hanno già avviato un qualche progetto di IA.
Secondo l'economista Tito Boeri diverse categorie di lavoratori verranno colpite dalla diffusione dell'IA. Si tratta di doppiatori, docenti, intellettuali, personale impiegato in lavori che prevedono azioni ripetitive di analisi costante dei dati. A giovarne saranno invece medici e i ricercatori. Secondo uno studio realizzato da Ernst & Young 8 professioni su 10 verranno rivoluzionate dall'intelligenza artificiale. Sempre secondo le ricerche di mercato quasi 4 milioni di posti di lavoro in Italia sarebbero a rischio.
Ma la storia dell'umanità è caratterizzata da innovazioni scientifiche che più volte hanno rivoluzionato la società. Tuttavia il numero di abitanti sul Pianeta è andato sempre aumentando. Il professor Verri analizza: "Non credo che ci siano dei rischi diversi da quelli che ci sono tutte le volte che si sviluppa una tecnologia. Penso che anche chi è più giovane di me possa dormire sonni tranquilli ancora per un po'. Le tecnologie nucleari hanno dei rischi connaturati, è l'uomo che decide di poter fare un utilizzo rischioso o malevolo di alcune tecnologie".
Un altro aspetto da affrontare sembra essere quello legato alla regolamentazione giuridica delle applicazioni delle nuove tecnologie. Un esempio si tutti riguarda gli aspetti legati alla formazione delle prove in un processo. "Ci sono due aspetti fondamentali da chiarire quando si fa uso dell'IA, chiarire se ad esempio questa è un'intervista vera o se a parlare è il mio avatar e poi chiedere sempre al sistema di intelligenza artificiale su quali dati è stato addestrato". In sintesi due punti su cui è necessario mettere mano: comunicare in maniera esplicita che si tratta di un documento o altro prodotto dall'IA e avere informazioni su quali dati l'IA è stata 'addestrata' e ha formulato la sua espressione.
IL COMMENTO
Ddl vittime incuria, speriamo la norma non venga usata mai più
Situazione drammatica, presidente Meloni serve incontro urgente