Nella mattina di sabato 24 marzo 2018 si è svolto un evento introduttivo sul Machine Learning organizzato dal nostro chapter. L’evento, aperto a studenti del Politecnico di Torino e non, ha trattato alcune delle tematiche cardine del Machine Learning, offrendo una panoramica sui tool di analisi più diffusi.
Il primo speaker é stato Daniele Reda, tesista presso la “University of California” di Berkeley. Dopo una breve spiegazione sulla differenza tra supervised e unsupervised learning, ci ha parlato del Reinforcement Learning. Con questa tecnica l’apprendimento avviene tramite interazioni con l’ambiente circostante, condite da una serie di “prove ed errori”. Discriminante, nella scelta dell’azione da compiere tra le n possibili nello stato in cui ci si trova, è la ricompensa che si ottiene compiendo tale azione. Volendo trovare una similitudine nella vita di tutti i giorni, si puó pensare ad un bambino che sta imparando a camminare e cerca di ripetere le azioni che lo fanno rimanere in piedi piuttosto che quelle che lo fanno cadere: prima di imparare a camminare dovrà cadere più e più volte. Quali sono i limiti di questa tecnica? Sicuramente il tempo di apprendimento e la determinazione della corretta ricompensa.
Oscar Pistamiglio, Senior Consultant presso Blue Replay, ci ha invece parlato della piattaforma IBM Watson nell’ambito del processamento del linguaggio naturale (NLP). Dato un testo scritto, relativo ad un determinato dominio (ospedaliero, assicurativo, ecc..), il sistema è in grado di distinguere differenti parti del testo con l’ausilio di un vocabolario tematico opportunamente costruito con esperti di quel dominio.
Martino Mensio, tesista presso l’ “Istituto Superiore Mario Boella”, ci ha parlato del Deep Learning per la Comprensione del Linguaggio Naturale, dominio a metà strada tra l’informatica e la linguistica e quindi di notevole complessità e al contempo interesse. La trattazione ha riguardato la classificazione testuale, estrazione di entità, analisi statistica e traduzione. Strumento essenziale per questa analisi sono le Recurrent Neural Network (RNN) che a differenza di schemi lineari presentano dei cicli per correlare informazioni temporalmente distanti. Cosa dare in pasto alle reti neurali? Le parole, filtrate con regole di stemming e lemmatization, sono trasformate in modo da diventare vettori ortogonali di numeri reali in uno spazio multidimensionale (word embeddings). Esempio simpatico ed efficace di operazione su tali vettori è : RE – UOMO + DONNA = REGINA
Andrea Marcelli, Ph. D. Student al DAUIN, ci ha infine illustrato tecniche di Machine Learning in Python con Scikit-learn e AutoML, sottolineando l’importanza di Python e R in questo ambito. Primo passo, fondamentale, è una pre-elaborazione dei dati da analizzare per il supervised learning, seguita da training, validation e testing del modello scelto. A seguire c’é stato un workshop in cui ci ha spiegato come utilizzare gli strumenti di cui sopra per lo svolgimento di esercizi su Linear Regression e Classification.
Slide dell’evento disponibili sul nostro Drive:
https://drive.google.com/drive/u/2/folders/1zSxNH7XkwiWaCUWri4jC8HCLfmj7NfgU