La fantascienza del cervello riprodotto dai supercomputer del futuro
Pare che l’ultima frontiera della neuroscienza teorica sia ricreare al computer il funzionamento dell’intelligenza umana, neurone dopo neurone, al fine poi di riuscire a ricostruire i processi neurali che portano a un pensiero, a un ricordo, a un sentimento. Con un problema attualmente insormontabile: non esistono computer abbastanza potenti per gestire una elaborazione di calcolo così complessa, tant’è che lo stesso computer K dell’Advanced Institute for Computational Science di Kobe, in Giappone, può affrontare al massimo il 10% dei neuroni e relative sinapsi nella corteccia celebrale.
In soccorso dell’“algoritmo lento” stanno arrivando – per essere operativi tra qualche anno – i “supercomputer exascale”. E qui, per i più, serve un inciso. La potenza di un supercomputer viene misurata in FLOPS, che sta per “floating point operation per second”, traducibile con “operazioni in virgola mobile al secondo”. E ovviamente più è alto il numero e più è potente il computer. Con la tecnologia odierna che ragiona in quadrilioni di calcoli al secondo e quindi viene indicata con il prefisso “petaflop” (i relativi sistemi sono definiti “petascale”). Mentre il prossimo step è appunto “exaflop” ed “exascale”: quintilioni di dati al secondo. Che in soldoni saranno “fionde” da 10 a 100 volte più potenti dei super computer di oggi. E, soprattutto, saranno macchine più adatte all’ottenimento di questo obiettivo pazzesco, ossia simulare al computer le reti cerebrali, come evidenzia anche “Frontiers in Neuroinformatics”.
I supercomputer attuali sono composti da centinaia di migliaia di sottodomini chiamati nodi, con centri di elaborazione in grado di supportare diversi neuroni virtuali insieme alle loro connessioni. E uno dei problemi principali nella simulazione del cervello è quello di rappresentare con efficacia milioni di neuroni e relative connessioni all’interno di questi centri di elaborazione per ridurre tempi e utilizzo della potenza necessaria. Con un problema sostanziale. Per ogni coppia neuronale, il modello memorizza tutte le informazioni sulla connettività in ciascun nodo che ospita il neurone ricevente, il neurone postsinaptico. Intanto, il neurone presinaptico, che emette impulsi elettrici, sta gridando nel vuoto, perché l’algoritmo deve capire da dove proviene un particolare messaggio guardando unicamente al neurone ricevente e ai dati memorizzati all’interno del suo nodo. Quindi il nodo mittente trasmette il suo messaggio a tutti i nodi del neurone ricevente. Ciò significa che ogni nodo ricevente deve ordinare ogni singolo messaggio nella rete, anche quelli destinati ai neuroni ospitati in altri nodi. Ciò significa che una grande porzione di messaggi viene gettata via in ogni nodo, perché il neurone destinatario non è presente in quel particolare nodo. In sintesi, anche se è tutto molto complicato, ci viene incontro ancora una volta Singularity, con un esempio significativo.
È come se il personale di un ufficio postale locale dovesse cercare la posta relativa al suo codice di avviamento postale tra tutta la posta nazionale. L’inefficienza è folle e il parallelo è molto simile a ciò che accade ora nella simulazione computeristica del cervello.
Segue e termina lunedì 18 giugno.
FORCHIELLI DELLA SERA
Estrema utopia: il cervello umano digitale (I parte)
Alberto Forchielli15 Giugno 20180
Lascia un commento