I pensieri delle persone già oggi vengono “letti” in via sperimentale dall’Università di Kyoto
Anche questa – ennesima notizia sempre in arrivo da Singularity – è una roba che mi fa andare giù di testa. Un gruppo di ricercatori dell’Università di Kyoto ha utilizzato una rete neurale per “leggere” i pensieri delle persone. Non è il primo esperimento in questo senso ma è il più complesso – in precedenza si è cercato di decostruire le immagini sulle loro forme basiche –, grazie alla nuova tecnica denominata “Deep image reconstruction” (Ricostruzione dell’immagine profonda), che arriva a decodificare le immagini che hanno più livelli di colore e struttura. “Il nostro cervello – spiega lo scienziato Yukiyasu Kamitani – elabora le informazioni visive estraendo gerarchicamente diversi livelli di caratteristiche o componenti di diverse complessità. E queste reti neurali o modelli di intelligenza artificiale possono essere utilizzate come proxy per la struttura gerarchica del cervello umano”.
Lo studio – della durata di dieci mesi – consisteva nel monitoraggio di tre persone che vedevano per diversi periodi di tempo le immagini di tre diverse categorie: fenomeni naturali (come animali o persone), forme geometriche artificiali e lettere dell’alfabeto.
L’attività cerebrale delle tre cavie è stata misurata sia quando guardavano le immagini e sia dopo, quando è stato chiesto loro di pensare alle immagini che avevano visto. A quel punto l’attività cerebrale è stata inserita in una rete neurale che ha decodificato i dati, ossia ha “re-interpretato” i loro pensieri.
Come per tutti i mammiferi, anche nell’uomo la corteccia visiva si trova nella parte posteriore del cervello, nel lobo occipitale, proprio sopra al cervelletto. E tale attività è stata misurata utilizzando la RMF (Risonanza magnetica funzionale o fMRI, che sta per Functional Magnetic Resonance Imaging) e poi “tradotta” in caratteristiche gerarchiche di rete neurale profonda.
Ovviamente, visto l’argomento, la questione è piuttosto complicata però l’aspetto sorprendente è che il sistema elaborato dal team dell’Università di Kyoto non ha solo abbinato l’attività cerebrale a esempi esistenti, ma è stato in grado di ricostruire forme artificiali e quindi ha effettivamente generato le immagini in base all’attività cerebrale. Con la fase più difficile rappresentata dal ricordo delle immagini rispetto alla visione in diretta, probabilmente perché il nostro cervello non riesce a ricordare ogni dettaglio e il ricordo è inevitabilmente un poco confuso.
In futuro le immagini riprodotte acquisteranno sempre più qualità e gli scenari sono immaginifici, come, per esempio, l’analisi accurata della fase onirica o più concretamente permettere, attraverso un’interfaccia cervello-computer, la comunicazione di pazienti che non sono in grado di farlo. E questo viene già sperimentato, anche da Neuralink, azienda dell’onnipresente – in questioni futuristiche – Elon Musk, che crede ciecamente nella interconnessione tra persone e computer.
A prescindere dai delicatissimi aspetti etici di questi sviluppi, per noi italiani lo scenario appare ancora più fantascientifico. Ci pensate? Poter monitorare costantemente l’attività cerebrale dei nostri politici consentirebbe il trionfo della legalità o, più probabilmente, il contrario (fate voi)!
Qui il PDF
Lascia un commento