Storie di persone - 02 ottobre 2024, 09:19

«L’IA ce l’ha insegnata Turing»

«L’IA ce l’ha insegnata Turing»

L’uomo al centro, sempre. Anche (e soprattutto) quando parliamo di intelligenza artificiale. È un leitmotiv che abbiamo ben interiorizzato nel corso della chiacchierata con il prof. Roberto Flor, docente di Diritto penale del dipartimento di Scienze giuridiche dell’Università di Verona. Esperto di Cybercrime Law, Cybersecurity Law e Artificial Intelligence Law, Flor è stato inserito da “La Repubblica” nella lista dei “500 italiani e italiane che contano nell’intelligenza artificiale”, dove si trovano le personalità più influenti nell’ambito dell’AI presenti all’interno di università, startup, grandi aziende e istituzioni politiche e culturali. La sua attenzione per l’IA, infatti, non nasce in conseguenza di recenti mode, bensì in tempi non sospetti, quando era ancora “cosa di pochi”, ma, di fatto, esisteva già da decenni. D’altronde - ci ha spiegato - i pionieri dell’informatica, come Alan Turing, la via per “Chat GPT” l’avevano già preparata da un pezzo.

Professore, iniziamo con una domanda personale: chi è Roberto Flor?

Sono nato in un paesino della Val di Non, in Trentino, e ho iniziato ad appassionarmi dei rapporti tra diritto e tecnologia durante i miei studi universitari a Trento. È stato un amore a prima vista e da lì ho deciso di dedicarmi alla ricerca in questi campi. Erano gli anni ’90, quando internet era in piena fase di sviluppo in Italia, e mi sono dedicato alla tecnologia da autodidatta anche per approfondire gli aspetti tecnici. Sulla materia, però, mi sono formato soprattutto durante i miei studi in Germania, negli Stati Uniti e in Inghilterra.

Che cosa l’ha affascinata di questo mondo, che all’epoca, appunto, era un settore ancora per pochi?

Mi ha affascinato molto la rapidità dell'evoluzione tecnologica e quanto la tecnologia possa davvero essere al servizio dell'uomo. Soprattutto mi interessavano gli aspetti tecnici e la necessità di una regolamentazione della tecnologia, perché non tutto ciò che è possibile fare tecnologicamente è ammesso dal diritto. Nel 1993, infatti, è nata la prima legge sul cybercrime e la stessa giurisprudenza ha dovuto adattarsi a queste nuove figure di reato che dovevano essere interpretate.

In generale, tenere il passo con l’evoluzione della tecnologia è complicato. Siamo destinati ad arrivare sempre in ritardo, come è successo anche con il “boom” dell’intelligenza artificiale?

Sicuramente in Europa, oggi, stiamo assistendo ad un interventismo del legislatore europeo e anche nazionale. Basta pensare a tutta la regolamentazione in materia di cybersecurity e di residenza informatica o al regolamento europeo in materia di intelligenza artificiale. Anche in Italia abbiamo una proposta di legge in materia di intelligenza artificiale che, per ora, è più una dichiarazione di principi. Però, ciò che non dobbiamo mai dimenticare, in particolare quando parliamo di intelligenza artificiale, è che l'approccio deve essere umano centrico, quindi al servizio dell'uomo e per l'uomo.

Ad oggi, in effetti, se parliamo di intelligenza artificiale, è come parlare di un “cavallo pazzo” che stiamo ancora cercando di “domare”. È fattibile secondo lei?

Dobbiamo comprendere che non si torna più indietro. Si può solo andare avanti e quindi è necessario che cerchiamo dei modelli di regolamentazione che considerino tutti questi aspetti etici, filosofici, tecnici, oltre agli aspetti giuridici. Ha fatto bene il legislatore europeo, ad esempio, a vietare alcune tipologie di intelligenza artificiale, anche perché noi abbiamo a diposizione infinite intelligenze artificiali, infinite applicazioni e infiniti sistemi che si differenziano anche solo sulla base del modello di apprendimento. Questi regolamenti sono un primo passo per poter definire alcuni paletti oltre i quali l’utilizzo e la progettazione dell’intelligenza artificiale non possono andare.

Nell’ambito del diritto, come può essere sfruttata l’intelligenza artificiale?

L’IA può essere d’ausilio nella ricerca delle fonti, nell’organizzazione degli uffici giudiziari, nella raccolta della prova o nella ricerca della prova come mezzo di investigazione che aiuta ad esempio a ricercare degli elementi illeciti. Un esempio è il centro interuniversitario creato con l’Università di Verona e l’Università di Trento, dove abbiamo progettato una piattaforma di intelligenza artificiale, finanziata dal Ministero dell’Agricoltura, che aiuta a individuare quelle che sono le frodi e la contraffazione dei marchi alimentari nei mercati online. Questo è uno strumento molto importante perché facilita il lavoro dell’ispettore, ma la valutazione ultima rimane all’uomo.

Non c’è il rischio di un “impigrimento” da parte dell’uomo che sarà sempre più abituato a usare l’intelligenza artificiale?

Questo è un argomento molto interessante, perché è un rischio che viene evidenziato soprattutto in alcuni contributi scientifici in campo medico, in cui si parla di perdita di competenze da parte dell’uomo che fa troppo affidamento alla macchina.

Lei usa l'intelligenza artificiale nel suo quotidiano?

Ormai tanti strumenti sono basati sull'intelligenza artificiale e li utilizziamo senza nemmeno saperlo. Io, ad esempio, uso soprattutto Chat GPT.

Quindi non è un elemento da demonizzare.

No, anzi: ci sono anche molte professioni che nascono grazie all’intelligenza artificiale, così come nuove branche del sapere che riguardano la raccolta dei dati e che si accertano che questa raccolta avvenga in modo trasparente, sicuro e affidabile. Lo sviluppo, comunque, è rapidissimo, perché ormai si parla di nuove forme di intelligenza artificiale basate su metodi di apprendimento che l'uomo difficilmente riuscirà a comprendere. E questo lo capì Alan Turing durante la Seconda Guerra Mondiale con “Enigma”, quando capì che l’unico modo per decriptare una macchina era usare un’altra macchina.

Giorgia Preti

SU