NanoArchitetture Neurali Artificiali per Imitare l’apprendimento del Cervello Umano

Un articolo pubblicato sulla prestigiosa rivista Nature Materials illustra la scoperta di un team di ricercatori dei Politecnici di Torino e Milano e dell’INRiM nel campo dell’intelligenza artificiale Questo [...] ..

NanoArchitetture Neurali Artificiali per Imitare l'apprendimento del Cervello Umano

  • Un articolo pubblicato sulla prestigiosa rivista Nature Materials illustra la scoperta di un team di ricercatori dei Politecnici di Torino e Milano e dell’INRiM nel campo dell’intelligenza artificiale

Questo sforzo conoscitivo senza precedenti è alla base del boom dell’Intelligenza Artificiale, grazie alla quale supercomputer di IBM e Google hanno battuto campioni di giochi di strategia (scacchi, Jeopardy, Go), e grazie alla quale i nostri computer e telefoni sono dotati di software sempre più intelligenti, in grado di imparare dalle nostre esperienze.

Nonostante questi incredibili progressi, la capacità del cervello umano di processare informazioni spazio-temporali in parallelo e a bassissimo consumo rimane inarrivabile per gli attuali approcci computazionali (il consumo del supercomputer Watson di IBM è circa un milione di volte maggiore di quello del nostro cervello).

Un team del Politecnico di Torino coordinato da Carlo Ricciardi – docente del Dipartimento di Scienze Applicate e Tecnologia-DISAT – insieme a Daniele Ielmini del Politecnico di Milano e a Gianluca Milano dell’Istituto Nazionale di Ricerca Metrologica-INRiM in un recente studio pubblicato sulla prestigiosa rivista Nature Materials propongono un approccio hardware, partendo dall’evidenza che anche le più complesse funzioni del cervello, come memoria e apprendimento sono espressione di un comportamento collettivo di connessioni (sinapsi) e unità di processo (neuroni) che hanno una natura fisica e materiale.

I dispositivi messi a punto da Ricciardi, Ielmini e Milano si basano su reti di nanofili (nanowires) memresistivi, cioè architetture su scala nanometrica (la stessa delle sinapsi biologiche) che mostrano le tipiche funzioni neurali come adattabilità, plasticità e correlazione spaziotemporale.

In particolare, nell’articolo appena pubblicato su Nature Materials viene proposto un sistema composto da due architetture, entrambe memresistive: la rete di nanofili reagisce agli input, producendo un output spazio-temporale a dimensionalità ridotta e transitorio, il quale viene poi processato da una matrice di RAM resistive non volatili, grazie alle quali si possono implementare funzioni di classificazione e inferenza usando le semplici leggi di Ohm e Kirchoff (physical in-memory computing).

Poiché la maggior parte del consumo energetico nei sistemi basati su Intelligenza Artificiale è relativa all’addestramento (training) della rete (come capita anche per le reti neurali biologiche), questa compressione dei parametri operata dalla rete di nanofili comporta una notevole diminuzione del consumo complessivo. Nella prospettiva di sfruttare industrialmente tali potenzialità, i tre gruppi hanno già depositato un brevetto congiunto.

“Abbiamo mostrato che è possibile implementare ‘in materia’ – spiega Carlo Ricciardila dinamica dei processi cognitivi che da un lato sfruttano la memoria operativa a breve termine per richiamare e confrontare immagini, idee e simboli, mentre dall’altro classificano i risultati in variazioni strutturali delle nostre connessioni (memoria a lungo termine). Inoltre, tali dispositivi possono implementare paradigmi computazionali che necessitano di un addestramento limitato come il reservoir computing, aprendo la strada non solo a computer sempre più intelligenti e a basso consumo, ma anche a protesi neurali impiantabili, che un domani potrebbero consentire il recupero o il contenimento di funzioni neurali in regressione.”