L’Intel sta da un po’ di tempo lavorando ai chip neuromorfici, microprocessori che emulano le risposte del sistema nervoso umano. Un altro passo (da gigante) per l’evoluzione dell’intelligenza artificiale. A che punto siamo? E cosa dobbiamo aspettarci dal prossimo futuro?
Perché abbiamo bisogno di chip neuromorfici?
L’Intelligenza Artificiale (AI) non è ancora giunta a riprodurre la complessità del pensiero umano, e secondo molti ricercatori non ci riuscirà mai. Sappiamo che il processo di deep learning, che permette a un software qualsiasi di imparare a svolgere compiti e dare risposte sulla base di dati caricati, non potrà mai essere confrontata con la capacità di intuizione dell’uomo. Ma l’informatica si avvia ad una svolta epocale: sta per arrivare una nuova tecnologia chiamata calcolo neuromorfico, non più basata sulle elaborazioni schematiche dei linguaggi matematici ma sulle dinamiche d’impulso usate dal cervello quando elabora le informazioni. Avremo in pratica a che fare con una miriade di neuroni digitali che lavoreranno in parallelo per inviare impulsi elettrici a reti di altri neuroni. Siamo pronti alla rivoluzione dei chip neuromorfici?
Inter e i chip che imitano i neuroni
La Intel sta sviluppando nuovi microprocessori ispirati ai neuroni umani. Prima di capire che cosa sta succedendo facciamo un passo indietro. Che cos’è un microprocessore? Si tratta di una minuscola piastra, generalmente in silicio, su cui vengono implementati uno o più circuiti elettronici integrati, che sono in grado di accogliere input e generare output (ossia risposte in uscita).
In gergo, questi microprocessori vengono chiamati chip. E se il chip ha un solo circuito, allora siamo al cospetto di un microprocessore monolitico. Se invece il chip è programmato per scopi generali (general purpose), il microprocessore dovrà essere inserito in un computer e collegato quindi ad altri chip. Se è programmato per scopi specifici (special purpose), diventerà il perno di un sistema embedded, ossia la centralina di elaborazione che regola l’attività di un device elettronico (come un telefonino, un videogame, un POS, un elettrodomestico…).
POTREBBE ANCHE INTERESSARTI >>> Minecraft | Creata biblioteca digitale senza censura
Ogni chip contiene una CPU, ossia un’unità centrale di elaborazione, che è connessa alla RAM (memoria di sistema ed esecuzione) e alla ROM (memoria d’archivio). Tale connessione avviene tramite il bus, cioè a piccoli segmenti di rame (piste) che inviano e accolgono impulsi elettrici.
Computazione tradizionale e ragionamento umano
Tutti questi impulsi viaggiano secondo i ritmi imposti dalla computazione tradizionale. E tanto più è potente la CPU, quante più elaborazioni potrebbero essere svolte. In ogni segmento, anche se brevissimo, di tempo, il chip può lavorare solo ad un’elaborazione. Il nostro cervello, invece, lavora attraverso processi elettrochimici e su una rete di circa ottantasei miliardi di neuroni. I neuroni sono collegati fra loro da sinapsi. E per ogni neurone si calcolano fra le cinquemila e le centomila sinapsi. Il numero è variabile perché le sinapsi si creano e rimodellano continuamente, in relazione alle interazioni con l’esterno. Non sono sempre attive o produttive al 100%: si mettono in azione solo quando ce n’è bisogno.
Ecco che cosa rende il nostro pensiero così veloce ed elastico. Insomma, il nostro pensiero spreca pochissima energia ma elabora miliardi di dati al secondo. Mentre un computer, per fare lo stesso lavoro, dovrebbe spendere almeno 10 o 15 GW di energia, non riuscendo a spostare i dati e i comandi solo ai chip selezionati.
La rivoluzione di Intel e dei chip neuromorfici
Ecco, i chip neuromorfici vogliono appunto imitare il funzionamento dei neuroni. E per farlo si ispirano alla struttura e al lavoro delle reti neurali naturali della corteccia cerebrale, che normalmente elaborano i dati sensibili (quelli tattili, olfattivi, uditivi, visivi). Dunque, i chip neuromorfici possono conformarsi come microprocessori ad autoapprendimento che funzionano grazie alle reti neurali artificiali. Si tratta di sistemi di computazione per connessioni simili a reti plastiche, che cambiano i pesi delle connessioni a seconda dell’interazione con l’esterno. Proprio come fanno le sinapsi naturali. Dare un “peso” a ogni dato e a ogni elaborazione è ciò che un chip tradizionale non può mai fare, per via del limite della logica binaria del linguaggio di programmazione (che procede per on-off, yes-no, in-out, e così via).
Questa tecnologia è stata sviluppata prima da IBM poi dal MIT e infine da Intel, che l’ha portata a dei risultati stupefacenti. Le reti neurali di apprendimento artificiale di Intel sono composte da più livelli (layer) di astrazione progressiva: ogni livello elabora i dati del precedente e li fornisce al successivo.
POTREBBE ANCHE INTERESSARTI >>> Dalla Cina 2 supercomputer quantistici che non hanno rivali
Con la tecnologia Loihi, la Intel ha sfruttato neuroni di silicio che si attivavano solo quando ricevevano impulsi sufficienti e trasmettevano poi la loro eccitazione ad altri neuroni-chip, in modo da attivare e costruire nuove connessioni (mentre venivano eliminate quelle che non servivano al momento).
Ma ora la Intel ha rilasciato la seconda generazione del suo chip neuromorfo, chiamato Loihi2. Contiene un milione di neuroni artificiali che si collegano tra loro attraverso centoventi milioni di sinapsi.
I test “olfattivo” della Intel con Loihi2
Durante i test i ricercatori hanno provato ad addestrare un chip Loihi2 per riconoscere l’odore di dieci sostanze chimiche pericolose in un mix di composti di fondo. Sempre questi scienziati hanno registrato le letture di settantadue sensori chimici in una galleria del vento mentre i profumi si diffondevano attraverso di essa. Hanno fornito i dati a Loihi2, che ha utilizzato un algoritmo per rappresentare e analizzare gli odoranti come flussi di impulsi elettrici.
POTREBBE ANCHE INTERESSARTI >>> Apple I – Il primo computer di Steve Jobs venduto all’asta: cifra esorbitante
Cosa è successo? Loihi2 è stato in grado di identificare ogni odore dopo l’analisi di un solo campione. Il chip classico, basato sul deep learning, ha necessitato di tremila campioni prima di raggiungere lo stesso livello di accuratezza. Straordinario, no?