Machine Learning Fundamentals
Il corso “Machine Learning Fundamentals” fornisce una panoramica completa dei concetti e delle tecniche fondamentali nel campo del Machine Learning. Il primo giorno del corso, gli studenti saranno introdotti all’ambiente Jupyter Notebook. Successivamente, verranno esplorati concetti chiave come la rappresentazione del modello, le funzioni di costo, la discesa del gradiente e la vettorizzazione. Attraverso una serie di lezioni pratiche, gli studenti acquisiranno competenze nell’applicazione di tecniche come la regressione lineare multipla, l’ottimizzazione del tasso di apprendimento e l’ingegneria delle caratteristiche utilizzando Python e la libreria Scikit-Learn.
Il secondo giorno, il corso approfondirà argomenti come la regressione logistica, le reti neurali, le macchine a vettori di supporto e gli alberi decisionali. Attraverso laboratori interattivi ed esercizi di coding, i partecipanti implementeranno questi algoritmi da zero e otterranno informazioni sulle loro applicazioni pratiche. Il corso tratterà anche i concetti essenziali della valutazione dei modelli, tra cui la convalida incrociata, il bias-variance tradeoff e la regolazione degli iperparametri.
CODE: DSAI200
Category: Corso Intelligenza Artificiale
Metodologia didattica
Il corso prevede laboratori didattici in cui ogni studente potrà svolgere esercizi di formazione che forniranno esperienza pratica nell’uso dello strumento, per ognuno degli argomenti trattati durante il corso.
Prerequisiti
- Capacità di programmazione di base in Python
- Familiarità con i concetti fondamentali dell’algebra lineare e del calcolo
- Comprensione delle statistiche di base e della teoria della probabilitÃ
- Esperienza con librerie di manipolazione dei dati come NumPy e Pandas
- Conoscenza delle tecniche di visualizzazione dei dati utilizzando librerie come Matplotlib e Seaborn
La seguente è una panoramica dei contenuti del corso:
Giorno 1:
- Notebook: Introduzione ai Notebook per il calcolo interattivo e l’analisi dei dati.
- Rappresentazione dei modelli: Comprendere come vengono rappresentati e strutturati i modelli di apprendimento automatico.
- Funzione di costo: Esplorazione del concetto di funzioni di costo e del loro ruolo nell’ottimizzazione dei modelli.
- Discesa del gradiente: Apprendere l’algoritmo di ottimizzazione utilizzato per minimizzare la funzione di costo e aggiornare i parametri del modello.
- Vettorizzazione: Introduzione alla vettorizzazione per un calcolo efficiente negli algoritmi di Machine Learning.
- Regressione lineare multipla: Implementazione e comprensione dei modelli di regressione lineare multipla per la previsione di risultati continui.
- Tasso di apprendimento: Esplorazione dell’importanza del parametro del tasso di apprendimento nell’ottimizzazione della discesa del gradiente.
- Ingegneria delle caratteristiche: Tecniche per selezionare, trasformare e creare caratteristiche per migliorare le prestazioni del modello.
- Regressione lineare: Ulteriore esplorazione e applicazione dei modelli di regressione lineare nelle attività di apprendimento automatico.
Giorno 2:
- Classificazione: Introduzione ai problemi di classificazione e alla distinzione tra classi diverse.
- Regressione logistica: Comprensione dei modelli di regressione logistica per compiti di classificazione binaria.
- Confine decisionale: esplorazione del concetto di confine decisionale e del suo significato negli algoritmi di classificazione.
- Perdita logistica: comprensione della funzione di perdita logistica utilizzata nella regressione logistica per la valutazione dei modelli.
- Funzione di costo per la regressione logistica: Funzione di costo specifica per i modelli di regressione logistica.
- Discesa del gradiente per la regressione logistica: Applicazione dell’ottimizzazione della discesa del gradiente alla regressione logistica per la stima dei parametri.
- Regressione logistica con Scikit-Learn: Implementazione di modelli di regressione logistica utilizzando la libreria Scikit-Learn per Python.
- Overfitting: Comprendere il concetto di overfitting e le sue implicazioni nelle prestazioni dei modelli di machine learning.
- Regolarizzazione: Tecniche per prevenire l’overfitting aggiungendo termini di penalità alla funzione di costo.
Gli studenti acquisiranno concetti su:
- Jupyter Notebook.
- Concetti di rappresentazione del modello.
- Funzione di costo.
- Discesa del gradiente.
- Concetto di vettorizzazione.
- Regressione lineare multipla.
- Importanza del tasso di apprendimento.
- Ingegneria delle caratteristiche.
- Implementazione della regressione lineare con Scikit-Learn.
- Valutazione delle competenze acquisite il primo giorno.
- Concetti di classificazione.
- Regressione logistica.
- Concetto di confine decisionale.
- Perdita logistica.
- Funzione di costo per la regressione logistica.
- Discesa del gradiente per la regressione logistica.
- Implementazione della regressione logistica con Scikit-Learn.
- Analisi dell’overfitting.
- Costo e gradiente regolarizzati.
- Valutazione delle competenze acquisite nel secondo giorno.
Durata – 2 giorni
Erogazione – in aula, in loco, da remoto
Requisiti PC e SW:
- Connessione a Internet
- Browser web, Google Chrome
- Zoom
Lingua
- Istruttore: Italiano
- Laboratori: Inglese
- Slides: Inglese