Skip to main content

l’intelligenza artificiale corre veloce, ma quanto è davvero “imparziale” ciò che definiamo intelligente? L’Università per gli Adulti, in collaborazione con UDI Cesenatico e il gruppo di lettura della biblioteca “Leggermente”, invita la cittadinanza a un momento di riflessione profonda su uno dei temi più urgenti della nostra contemporaneità.

Unisciti al canale WhatsappUnisciti al canale Telegram

L’appuntamento è fissato per giovedì 12 marzo, alle ore 16:00, nella suggestiva cornice del Museo della Marineria di Cesenatico.

Quando la tecnologia non è neutrale: il problema dei pregiudizi algoritmici

Siamo abituati a pensare alle macchine come a entità logiche e oggettive. Tuttavia, l’Intelligenza Artificiale (IA) non nasce nel vuoto: viene addestrata su dati prodotti dagli esseri umani. Se questi dati contengono pregiudizi, l’IA finirà inevitabilmente per riflettere e amplificare stereotipi e disuguaglianze di genere.

Durante l’incontro verrà spiegato, con un linguaggio semplice e accessibile a tutti, cos’è il cosiddetto “bias degli algoritmi”. Capire questo fenomeno è il primo passo fondamentale per rivendicare e costruire tecnologie più giuste, inclusive e realmente al servizio di una società paritaria.

Gli ospiti

Il tema sarà sviscerato grazie al contributo di esperti del settore che aiuteranno il pubblico a orientarsi tra innovazione ed etica:

  • Flavia Marzano: Protagonista dell’incontro, Marzano è una figura di spicco della Fondazione Ampio Raggio e Presidente del Caffè della Scienza di Livorno. Da anni si occupa di trasformazione digitale e inclusione.

  • Antonio Lombardi: Il giornalista sarà presente per moderare il dibattito e facilitare il dialogo tra i relatori e la platea.

Perché partecipare a questo appuntamento

Partecipare significa acquisire gli strumenti critici per comprendere come l’IA influenzi già oggi la nostra vita quotidiana: dalle ricerche su internet ai processi di selezione del personale, fino ai suggerimenti sui social media. L’obiettivo dell’iniziativa è sensibilizzare la comunità sulla necessità di una tecnologia che non escluda nessuno, L’AI infatti “impara” analizzando enormi quantità di dati e se questi dati riflettono i pregiudizi della società, l’algoritmo li assorbirà come verità assoluta. L’algoritmo è fenomenale nel trovare correlazioni statistiche, ma non capisce il perché delle cose. Non sa distinguere tra una “verità statistica” (quello che accade oggi) e un “valore etico” (quello che vorremmo accadesse in futuro).

Leave a Reply