GENOVA - Ogni giorno che passa crescono le capacità dell'intelligenza artificiale e crescono gli interrogativi da parte di tutti i settori su quelle che potranno essere le conseguenze, positive e negative, di questo sviluppo tecnologico che negli ultimi mesi ha vist una grande accelerazione. Ecco perché il Collegio degli Emeriti di Unige ha organizzato un convegno dal titolo "L'intelligenza artificiale a Genova e in Liguria, passato e presente" per analizzare prospettive e problematiche, ma anche per rivendicare un ruolo centrale che l'ateneo ha rivestito negli anni per arrivare a questo progresso tecnologico. Tra i relatori il genovese Tommaso Poggio, oggi professore al Mit di Boston, e Guido Alpa, che ora ha la cattedra di diritto civile alla Sapienza di Roma.
L'ateneo genovese negli anni ha costruito il futuro attraverso le ricerche di importanti accademici, tra cui Vincent Torre o Antonio Borsellino, partendo dal progetto pionieristico Papa (programmatore automatico e analizzatore di probabilità) e arrivando oggi a costruire Malga, il machine learning Genoa Center, un centro che mette insieme informatica e matematica. E proprio il machine learning ha portato al progresso che conosciamo oggi. "Alla base di innovazioni come ChatGpt ci sono il deep learning e il reinforcement learning, un addestramento che punta a far predire alla macchina la parola più probabile", spiega Poggio, considerato uno dei papà dell'AI.
"Abbiamo addestrato noi le macchine, ma non sappiamo dire come facciano a funzionare così bene"
Ed è forse per questo motivo che gli scienziati appaiono dubbiosi e cauti sulle prospettive dell'AI, il cui miglioramenti potrebbero essere esponenziali - come dimostrato dai passi in avanti degli ultimi tempi - o potrebbero arrestarsi. Tra i pericoli più grandi per i prossimi mesi c'è la diffusione di fake news e non è chiaro come togliere contenuti falsi già immessi nel database "senza dover azzerare tutto il lavoro di training già fatto in passato". Nel frattempo al Mit di Boston, assieme alle università e alle aziende come Google Deepmind, "si sta facendo ricerca per analizzare se ci siano dei 'piani nascosti' in questi modelli di AI, si cerca di capire quali possano essere gli aspetti più pericolosi e correggerli".
La preoccupazione principale resta però quella del lavoro. Secondo Poggio "tanti lavori, alcuni più di altri, cambieranno e il numero di persone di cui ci sarà bisogno per fare quel lavoro diminuirà perché ci sarà una cooperazione coi Llm, i large language models. Altri spariranno come già adesso non esistono più i traders di Wall Street per le vie di New York, ma si fa tutto nel silenzio dei propri computer: certi lavori sono particolarmente difficili per le macchine, come il cuoco, il giardiniere, soprattutto l'idraulico". Anche il sindaco Marco Bucci, intervenuto nel corso del pomeriggio, ha una visione molto ottimistica dell'AI. "Non dobbiamo avere paura, è un mezzo per ottenere una migliore qualità di vita e dominarla. Dobbiamo cavalcare l'onda e cogliere le opportunità di business".
"Io già immagino le prime navi senza equipaggio entrare nel porto di Genova. E tutta questa tecnologia creerà nuovi posti di lavoro, non ne toglierà. A Genova l'anno scorso abbiamo avuto 4500 posti di lavoro non coperti perché mancavano le professionalità: dobbiamo farci trovare preparati per i mestieri del futuro"
Ottimismo condiviso anche da Camera di Commercio che nel panel successivo che ha visto a confronto Confindustria, IIT, Leonardo, Liguria Digitale ha ricordato come la metà delle 600 pagine redatte da Enrico Castanini, commissario per l'innovazione digitale della pubblica amministrazione in ambito regionale, su Pnrr e digitalizzazione riguardino la sanità. A sottolinearlo è stato Maurizio Caviglia, il segretario generale della Camera di Commercio, che ha aggiunto come sia importante il "ruolo predittivo dell'AI che potrà aiutare a fare previsioni utili, ad esempio come nel report Excelsior, che mette a confronto le previsioni di assunzioni degli imprenditori liguri, le effettive assunzioni e il fabbisogno per i prossimi anni".
Tutto questo però richiede anche normative chiare. L'Europa a marzo ha approvato l'AI act. I primi divieti potrebbero entrare in vigore già entro la fine dell'anno. Ma il panorama è vasto: tutela della privacy, tutela dei dati sanitari, rischio di diffamazione tramite la diffusione di fake news, profilazione delle preferenze dei consumatori, diritto ad una informazione corretta, diritto a preservare l'integrità fisica, diritto d'autore, diritto dei lavoratori, sicurezza, investimenti finanziari. Sono tantissimi gli ambiti che devono essere tutelati, così come deve essere normata la responsabilità degli errori commessi anche attraverso l'utilizzo dell'intelligenza artificiale. Il professor Guido Alpa, che di recente ha preso parte al "G7 dell'avvocatura", ha portato all'attenzione anche problemi di carattere giuridico e morale, come la 'scelta' a cui una macchina a guida autonoma potrebbe trovarsi "se le viene impedito di proseguire per la sua strada e qualsiasi direzione potrebbe fare del male ad un essere umano o ad un altro".