© Pint of Science, 2025. All rights reserved.
All’alba dell’era dell’Intelligenza Artificiale (IA), le reti neurali profonde hanno ottenuto successi grandiosi: dal riconoscimento di molteplici cose nelle immagini, alla generazione di immagini realistiche o fantasy, e al dialogo come esperti. Tuttavia, la loro complessità le rende delle "black box" agli occhi umani. Come possiamo comprendere e fidarci delle conclusioni e decisioni dell’IA?
L’esigenza dell'eXplainable Artificial Intelligence (XAI)
Vincenzo Taormina
(Ricercatore in Informatica presso il Dipartimento di Matematica e Informatica dell’Università di Palermo)
Vincenzo Taormina ha conseguito la laurea magistrale in Ingegneria Informatica presso l'Università di Palermo nel 2012. Ha conseguito il dottorato di ricerca in Information and Communication Tecnologies nel 2021. Attualmente è ricercatore (RTDa) in Informatica presso il Dipartimento di Matematica e Informatica dell’Università di Palermo. Il machine learning, l'elaborazione delle immagini e le Convolutional Neural Network (CNN) sono state le principali aree di ricerca. La sua attuale linea di ricerca è focalizzata sull'intelligenza artificiale spiegabile (XAI) e sul transfer learning.
Map data © OpenStreetMap contributors.