Intelligenza artificiale
Apprendimento automatico, deep learning ed infrastrutture collaborative
Questa attività di ricerca è dedicata allo sviluppo di infrastrutture per l’immagazzinamento e l’elaborazione di grandi quantità di dati (big data); specifica cruciale per i programmi di medicina personalizzata. L’obiettivo principale è quello di sviluppare nuovi algoritmi di apprendimento automatico e di deep learning per l’intelligenza artificiale ed i big data. Questi metodi ci consentiranno di decifrare le informazioni nascoste in set di dati sempre più complessi e strutturati. Queste informazioni possono quindi essere utilizzate per produrre nuovi modelli interpretabili e, in definitiva, teorie scientifiche per le scienze della vita e per sviluppare nuove tecnologie per l’intelligenza artificiale e la robotica.
Le sfide chiave da affrontare sono:
- sviluppare sistemi di apprendimento che possano imparare strutture multi-scala con dati sempre più complessi ed eterogenei;
- studiare tecniche di apprendimento che consentono di trasferire le conoscenze acquisite da compiti precedentemente appresi per risolvere in modo più efficiente nuovi compiti; e
- sviluppare una teoria del deep learning, basandosi sull’apprendimento della rappresentazione, sull’apprendimento multitask e sull’apprendimento permanente, che sono ancora scarsamente studiati.
In particolare, per l’apprendimento permanente si svilupperanno sistemi che possano migliorare nel tempo adattandosi dinamicamente e rapidamente a compiti o circostanze impreviste, per i quali non sono stati specificamente addestrati o programmati.
E’ stata realizzata una piattaforma on-line per il data mining e la modellazione, integrata con un’interfaccia web per l’accesso alle informazioni, l’integrazione e l’analisi.
La piattaforma è utilizzata per raccogliere i dati biologici, comportamentali e neuro-fisiologici multisensoriali e multiscala a livelli di profondità e ampiezza differenti. La piattaforma consentirà l’implementazione dei modelli sviluppati, concentrandosi su schemi di correlazione e interazioni tra fattori causali a diverse scale temporali. Dati e modelli saranno resi pubblicamente disponibili tramite la piattaforma on line, consentendo agli scienziati di avere accesso alle informazioni grezze ed elaborate.
Creando un ponte tra la valutazione in tempo reale della risposta dei singoli soggetti, i loro modelli di abilità cognitive correlate e la ricerca di base sui modelli neurobiologici e funzionali del cervello della sua diversità e dei disturbi ad esso ascrivibili, al fine di sviluppare protocolli diagnostici precoci e trattamenti più efficaci e personalizzati.
Al fine di ottimizzare l’elaborazione delle informazioni ottenute da dati multi-scala, svilupperemo modelli di apprendimento automatico in grado di cercare di identificare i meccanismi di azione genetici e neurobiologici associati agli interventi, nonché di estrarre informazioni sensoriali e decisionali.
I modelli da sviluppare integreranno vari livelli di informazione al fine di esplorare le dimensioni di base collegando diversi strati di informazioni – geni, molecole, cellule, circuiti, fisiologia, comportamento, autoregolazione e paradigmi sperimentali – in una matrice con costrutti e sotto-costruzioni, che troverà ispirazione dalle recenti direttive del National Institute of Mental Health (NIMH) statunitense. L’NIMH sottolinea la necessità di identificare i meccanismi di azione genetici e neurobiologici associati agli interventi. Sebbene gli studi clinici randomizzati continueranno a valutare l’efficacia in termini di endpoint clinici tradizionali, tali studi dovranno incorporare misure quantificabili.