Dalla mente umana intuizioni ignote all’intelligenza artificiale

In un nostro precedente editoriale su questo giornale avevamo affrontato il tema delle difformità tra intelligenza umana ed intelligenza artificiale soprattutto in fatto di creatività. Contrariamente alle credenze ampiamente diffuse, ma in larga misura ingannevoli, l’intelligenza artificiale non riproduce quella umana. Pertanto lo sviluppo di reti neuronali sempre più estese e sofisticate non porterà alla creazione di una versione digitale più potente del nostro cervello.
Anzi, questo approccio erroneo rischia di spingere la ricerca sull’intelligenza artificiale verso direzioni che ostacolano l’innovazione e inibiscono le scoperte scientifiche.
Pertanto è fondamentale approfondire l’essenza di questa difformità per gettare luce sul mondo futuro, dove le varie forme di IA diventeranno sempre più pervasive, e sui ruoli che gli umani vi ricopriranno man mano che interagiranno più intensamente con esse.
Alcuni suggeriscono di considerare i ChatBot basati sui Large Language Model (LLM) come una forma di intelligenza alternativa a quella umana (anzi una delle molteplici che emergeranno), con caratteristiche ancora inesplorate. Un riferimento per scandagliare il senso di tali caratteristiche ce lo fornisce il libro di Erik Larson The Myth of Artificial Intelligence: Why Computers Can’t Think the Way We Do (Il mito dell’intelligenza artificiale: perché i computer non possono pensare come noi, Ed. Belknap Press).
I ricercatori di IA basano i loro sistemi su due tipi di inferenza: deduttiva e induttiva. L’inferenza deduttiva sfrutta le conoscenze pregresse per esaminare un problema o un interrogativo. È la base dell’intelligenza artificiale simbolica, l’obiettivo perseguito dai ricercatori nei primi decenni dell’IA, un insieme predefinito di regole, dati e fatti, su l’IA “ragiona”.
L’inferenza induttiva, che nell’ultimo decennio ha preso il sopravvento, consiste nell’acquisizione di conoscenze attraverso algoritmi di apprendimento automatico. Ad esempio, un modello di machine learning addestrato su dataset con trilioni di informazioni individua schemi che mappano le relazioni tra input e output. Negli ultimi anni, i ricercatori di intelligenza artificiale hanno potenziato l’apprendimento automatico, con big data e processori avanzati (tipo quelli di Nvidia), per “addestrare” i modelli a compiti che oltrepassano le capacità risolutive dei sistemi simbolici.
Ma gli umani effettuano anche un terzo tipo di inferenza, quella abduttiva, identificata nel XIX secolo dallo scienziato americano Charles Sanders Peirce. L’abduzione è un tipo di ragionamento logico in cui si cerca la spiegazione più plausibile di un fenomeno o di un insieme di dati. In pratica, si parte da un risultato osservato e si cerca di capire quali possibili cause potrebbero portare a quel risultato. È il tipo di ragionamento a cui ci si affida in contesti scientifici e investigativi per formulare ipotesi e trarre conclusioni basate su elementi incompleti, distorti o ambigui. L’inferenza abduttiva è l’abilità cognitiva che consente di elaborare intuizioni, concepire ipotesi, immaginare congetture che esulano dai sentieri battuti e dalle convenzioni.
L’inferenza abduttiva seleziona le ipotesi più promettenti, elimina rapidamente quelle fallaci, ne cerca di nuove e giunge a una conclusione affidabile, per quanto provvisoria. Sintetizza Larson: «indoviniamo, in un contesto di possibilità effettivamente infinite, quali ipotesi ci sembrano probabili o plausibili».
Invece gli algoritmi LLM manipolano la sintassi dei simboli senza avere una comprensione semantica profonda. Possono condurre ragionamenti deduttivi e alcuni induttivi, ma si arenano quando si tratta di ragionamenti abduttivi, perché dipendono dai modelli e dalle informazioni esplicite su cui sono stati addestrati.
Al contrario, la mente umana sin dalla nascita costruisce attivamente un modello del mondo assorbendo oltre all’insegnamento scolastico un ampio spettro di stimoli, visivi, uditivi, sensoriali, sentimentali. È un processo fondamentalmente diverso dall’apprendimento che gli algoritmi dei LLM strutturano modellando la sintassi di enormi quantità di linguaggio scritto, la cui qualità non è sempre affidabile in mancanza di un sistema di selezione. In sintesi, gli esseri umani nel corso della loro esistenza accumulano conoscenze non verbali e intuizioni attraverso esperienze di vita non codificabili o comunicabili ad un’IA. E da ciò scaturiscono conseguenze di ampia portata che espliciteremo in un prossimo contributo.

Il nuovo articolo scritto a 4 mani con Fabio Scacciavillani e pubblicato su Il Sole 24 Ore

QUI IL PDF