Uno dei temi più attuali del machine learning: la tutela della privacy.


Il seminario mira a fornire una panoramica del Federated Learning e delle sfide che questo nuovo paradigma di apprendimento pone, affrontandolo da prospettive sia teoriche che pratiche, con scenari applicativi reali. In particolare, uno spazio dedicato mostra una dimostrazione tecnica con l’utilizzo di TensorFlow Federated (TFF), un framework open source di Machine Learning su dati decentralizzati.


Il Federated Learning (FL) è attualmente uno degli argomenti più scottanti nella comunità del machine learning. Introdotto da Google nel 2016, l’interesse dei ricercatori per questo nuovo paradigma di apprendimento è cresciuto enormemente in breve tempo.
Il FL consente il training collaborativo di modelli di machine learning tra diversi collaboratori con restrizioni sulla privacy. La tutela della privacy è infatti una caratteristica indispensabile per un’intelligenza artificiale affidabile e il FL è un enorme passo in avanti verso questa direzione.





Gli Speaker: Mirko Polato e Ivan Nardini

Mirko Polato: ricercatore presso il Dipartimento di Informatica dell’Università di Torino. In precedenza, è stato ricercatore post doc presso l’Università di Padova, dove ha conseguito il dottorato di ricerca in Brain, Mind, and Computer Science nel 2018. Attualmente, la sua ricerca si concentra su argomenti relativi all’area Trustworthy Artificial Intelligence come il federated learning e l’explainable machine learning. I suoi interessi di ricerca includono anche recommender systems, kernel methods e deep learning. Collabora con l’AI Lab di Intesa Sanpaolo Innovation Center.


Ivan Nardini: customer engineer di Google Cloud Italia specializzato sui temi AI, ML e MLOps. In passato ha avuto esperienze nel mondo della Data Science ai fini di Marketing consulting a valle di studi condotti presso l’Universita’ Luigi Bocconi di Milano e GSE di Barcellona. Dopo circa due anni presso SAS Institute dove si e’ occupato dei processi di model governance, attualmente collabora con data scientist, data engineer, sviluppatori IT ed esperti open source per definire e implementare sistemi di machine learning nell’ambito delle operations che permettano di trasformare i modelli in assets per le aziende.