Negli ultimi anni, sempre più scienziati di diverse discipline che vanno dalla Biologia alla Fisica, dalla Matematica all’Ingegneria, stanno unendo le proprie forze per affrontare la madre di tutte le sfide scientifiche: la comprensione della mente umana.

Questo sforzo conoscitivo senza precedenti è alla base del boom dell’Intelligenza Artificiale, grazie alla quale supercomputer di IBM e Google hanno battuto campioni di giochi di strategia, e grazie alla quale i nostri computer e telefoni sono dotati di software sempre più intelligenti, in grado di imparare dalle nostre esperienze. Nonostante questi incredibili progressi, la capacità del cervello umano di processare informazioni spazio-temporali in parallelo e a bassissimo consumo rimane inarrivabile per gli attuali approcci computazionali.

Un team del Politecnico di Torino coordinato da Carlo Ricciardi insieme a Daniele Ielmini del Politecnico di Milano e a Gianluca Milano dell’Istituto Nazionale di Ricerca Metrologica-INRiM in un recente studio pubblicato sulla prestigiosa rivista “Nature Materials” propongono un approccio hardware, partendo dall’evidenza che anche le più complesse funzioni del cervello, come memoria e apprendimento sono espressione di un comportamento collettivo di connessioni e unità di processo che hanno una natura fisica e materiale. I dispositivi messi a punto da Ricciardi, Ielmini e Milano si basano su reti di nanofili memresistivi, cioè architetture su scala nanometrica che mostrano le tipiche funzioni neurali come adattabilità, plasticità e correlazione spaziotemporale.

In particolare, nell’articolo appena pubblicato su “Nature Materials” viene proposto un sistema composto da due architetture, entrambe memresistive: la rete di nanofili reagisce agli input, producendo un output spazio-temporale a dimensionalità ridotta e transitorio, il quale viene poi processato da una matrice di RAM resistive non volatili, grazie alle quali si possono implementare funzioni di classificazione e inferenza usando le semplici leggi di Ohm e Kirchoff. Poiché la maggior parte del consumo energetico nei sistemi basati su Intelligenza Artificiale è relativa all’addestramento della rete, questa compressione dei parametri operata dalla rete di nanofili comporta una notevole diminuzione del consumo complessivo. Nella prospettiva di sfruttare industrialmente tali potenzialità, i tre gruppi hanno già depositato un brevetto congiunto.

“Abbiamo mostrato che è possibile implementare ‘in materia’ – spiega Carlo Ricciardi – la dinamica dei processi cognitivi che da un lato sfruttano la memoria operativa a breve termine per richiamare e confrontare immagini, idee e simboli, mentre dall’altro classificano i risultati in variazioni strutturali delle nostre connessioni. Inoltre, tali dispositivi possono implementare paradigmi computazionali che necessitano di un addestramento limitato come il reservoir computing, aprendo la strada non solo a computer sempre più intelligenti e a basso consumo, ma anche a protesi neurali impiantabili, che un domani potrebbero consentire il recupero o il contenimento di funzioni neurali in regressione.”

Share Button