Seminar: Explainable Artificial Intelligence

Seminar: Explainable Artificial Intelligence: how to build interpretable and trustworthy intelligent systems

 

Marco Lippi, Dipartimento di Ingegneria dell'Informazione (DINFO), University of Florence

2025, May 26th, 10:00 am

 

The adoption of artificial intelligence (AI) is rapidly expanding across various sectors, including healthcare, finance, transportation, manufacturing, and entertainment. Its growing popularity in recent years is largely due to its ability to automate complex tasks, such as processing large volumes of data or identifying patterns, and its increasing accessibility to the public.

However, despite the widespread use of AI, many systems still function in ways that are opaque to all parties involved: the developers who create the systems, the organizations that implement them, and the individuals impacted by their use. In many cases, even the providers cannot fully explain how their AI systems arrive at specific decisions or outcomes. This issue is commonly known as the "black box" problem.

Explainable Artificial Intelligence (XAI) seeks to address this challenge by enabling AI systems to offer clear, understandable explanations for their actions and decisions. Its main objective is to make the behavior of AI systems transparent and comprehensible to humans by revealing the underlying mechanisms that drive their decision-making processes.

Considering these challenges, Marco Lippi, Professor of Computer Engineering at the University of Florence, will present methods for designing interpretable and trustworthy intelligent systems using Explainable Artificial Intelligence approaches.

 

Seminario: Explainable Artificial Intelligence: come costruire sistemi intelligenti interpretabili e affidabili

 

Marco Lippi, Dipartimento di Ingegneria dell'Informazione (DINFO), University of Florence

26 Maggio 2025, ore 10:00

L’adozione dell’intelligenza artificiale (IA) sta crescendo rapidamente in diversi settori, tra cui sanità, finanza, trasporti, manifattura ed intrattenimento. La sua crescente popolarità negli ultimi anni è dovuta in gran parte alla capacità di automatizzare compiti complessi, come l’elaborazione di grandi quantità di dati o l’identificazione di schemi, e alla sua crescente accessibilità al grande pubblico.

Tuttavia, nonostante l’uso sempre più diffuso dell’IA, molti sistemi continuano a operare in modi poco trasparenti per tutte le parti coinvolte: i soggetti che li sviluppano, le organizzazioni che li adottano e le persone influenzate dal loro utilizzo. In molti casi, persino i provider non sono in grado di spiegare con precisione come i loro sistemi giungano a determinate decisioni o risultati. Questo fenomeno è comunemente noto come il problema della “Black Box”.

L’Intelligenza Artificiale Spiegabile (XAI) si propone di affrontare questa sfida, rendendo i sistemi di IA capaci di fornire spiegazioni chiare e comprensibili delle loro azioni e decisioni. Il suo obiettivo principale è rendere il comportamento di tali sistemi trasparente e comprensibile per gli esseri umani, chiarendo i meccanismi alla base dei processi decisionali.

Alla luce di queste sfide, Marco Lippi, professore di Ingegneria Informatica all’Università degli Studi di Firenze, presenterà metodi per progettare sistemi intelligenti interpretabili e affidabili attraverso approcci di Intelligenza Artificiale Spiegabile.


Attachments: