Alessandro Farinelli

Alessandro Farinelli: «In sanità l’IA supporta le decisioni, non le sostituisce»

di Claudio Capitini | 27 Marzo 2026

L’intelligenza artificiale è entrata negli ospedali, negli studi medici e, sempre più spesso, nelle tasche dei pazienti. Eppure tra ciò che l’IA sa fare davvero e ciò che i cittadini si aspettano da essa esiste ancora un divario enorme, fatto di aspettative mal riposte, rischi sottovalutati e opportunità concrete che spesso restano invisibili. A fare chiarezza su questo scenario è stato Alessandro Farinelli, direttore del Dipartimento di Informatica dell’Università di Verona, ospite di Verona Salute su Radio Adige TV, nella puntata dedicata al tema IA e salute: opportunità o rischi?

Quando si parla di intelligenza artificiale in sanità, che cosa si intende?

È importante sottolineare che l’intelligenza artificiale non coincide con i chatbot: è una disciplina nata negli anni Cinquanta per simulare capacità umane nella risoluzione di problemi complessi. Negli ultimi anni si è sviluppato l’apprendimento automatico, che consente ai sistemi di imparare dai dati invece di seguire regole fisse. Da qui derivano due grandi approcci: l’IA non generativa, che analizza dati per supportare le decisioni, e quella generativa, che produce contenuti e interagisce in linguaggio naturale. In ambito sanitario, queste due tipologie hanno applicazioni molto diverse e vanno tenute distinte.

Sono già esistenti applicazioni che permettono concretamente la cura dei pazienti?

Le applicazioni più rilevanti sono spesso poco visibili ai pazienti. L’IA non generativa è già utilizzata da anni nella diagnostica: per esempio, può analizzare una TAC e individuare rapidamente un ictus, permettendo di attivare subito la stroke unit e scegliere l’intervento più adeguato. È impiegata anche nel triage in pronto soccorso, dove analizza radiografie e assegna rapidamente le priorità. Si tratta di soluzioni già operative – in alcuni casi dal 2018 – la cui diffusione varia tra paesi e sistemi sanitari.

Il sistema sanitario pubblico riesce a tenere il passo con questi sviluppi?

In Italia, la distanza tra pubblico e privato negli investimenti in intelligenza artificiale è meno marcata di quanto si pensi. Il privato è generalmente più rapido nell’adozione, mentre il pubblico tende a puntare su sperimentazioni su larga scala e sulla costruzione di infrastrutture più solide. 

Crede che l’AI Act europeo sia uno strumento efficace per regolamentare l’intelligenza artificiale?

L’AI Act europeo è, nel complesso, uno strumento ragionevole. Introduce un sistema di regole basato sul livello di rischio dei sistemi – basso, medio o alto – e vieta alcune applicazioni considerate inaccettabili, come le armi autonome o il controllo comportamentale dei cittadini. L’approccio è centrato sulla tutela della persona, ma resta un nodo aperto: la possibile frammentazione tra gli Stati membri nell’applicazione delle norme. Alcuni obblighi entreranno pienamente in vigore entro il 2 agosto 2026.

Perchè sempre più persone si rivolgono ai chatbot per domande sulla salute?

È una tendenza comprensibile, ma da non incoraggiare. La facilità d’uso, la disponibilità continua e il linguaggio naturale li rendono molto attrattivi, creando però l’illusione di interagire con un esperto. In realtà non è così: i chatbot sono progettati per generare risposte fluide e coerenti, non per garantire accuratezza clinica. Le loro risposte possono essere plausibili, ma non sono affidabili per decisioni sanitarie.

La sfida principale dell’IA in sanità è tecnologica o organizzativa?

Non è solo una questione tecnica o organizzativa: la vera sfida è politica e culturale. La tecnologia è un mezzo, non un fine. Conta come viene adottata, da chi è sviluppata e la velocità con cui si diffonde. Il rischio è usare questi strumenti senza comprenderli davvero.

Come dovrebbero comportarsi i cittadini e i professionisti sanitari di fronte a questi strumenti?

Per i cittadini, il punto fermo è uno solo: non delegare mai a un chatbot una decisione clinica importante. Questi sistemi possono offrire una prima indicazione, ma la responsabilità delle decisioni ricade sempre sulla persona, non sul sistema. Per i professionisti sanitari, le sfide sono diverse: valutare correttamente i sistemi di IA e i dati su cui sono stati addestrati, integrare questi strumenti nel processo clinico mantenendo sempre un punto di riferimento umano e responsabile. Per tutti, cittadini e operatori è di necessaria importanza una cosa: non perdere mai la curiosità di capire come questi sistemi funzionano. Chiedersi “come fa a fare questa cosa?” è il primo passo per usarli bene, invece di subirli.