Andrea Signorelli – Milanese, classe 1982, giornalista freelance. Scrive di innovazione digitale e del suo impatto sulla società per La Stampa, Wired Italia, Domani, Il Tascabile, Esquire Italia, cheFare e altri.
Da una parte Midjourney, il software di intelligenza artificiale che comprende i nostri comandi e crea illustrazioni (a volte di ottima qualità) su richiesta. Dall’altra, l’ormai celebre ChatGPT, che interagisce con noi per via testuale in una maniera talmente complessa da darci la sensazione di star davvero dialogando con qualcuno che capisce ciò che diciamo.
L’impressione, inevitabilmente, è che questi strumenti di Generative AI (intelligenza artificiale generativa: in grado di creare immagini, testi, musica e altro) stiano diventando realmente intelligenti. Che rappresentino il primo passo verso la tanto attesa AGI (artificial general intelligence): l’intelligenza artificiale di livello pari o superiore a quello dell’essere umano.
Visto così, ChatGPT sembra rappresentare l’inizio di una nuova epoca , che ci porterà a breve a vivere in un mondo in cui l’umanità dovrà convivere con i primi esseri intelligenti di origine artificiale.
Come abbiamo già visto , le cose in realtà non stanno così. Tutti gli strumenti basati su deep learning – ChatGPT, ma anche l’algoritmo di Amazon che vi consiglia gli acquisti o quelli in grado di vincere a scacchi – si limitano a sfruttare statisticamente il materiale usato per il loro addestramento , senza avere nessuna vera comprensione di ciò che stanno facendo.
AlphaZero sarà anche in grado di sconfiggere qualunque campione di scacchi, ma in realtà non fa altro che individuare nel suo database la mossa che, in una data situazione, ha statisticamente avuto la maggiore probabilità di condurre alla vittoria; senza nessuna consapevolezza di ciò che sta facendo.
Allo stesso modo, per quanto ChatGPT possa rispondere alle nostre domande in maniera coerente, in realtà si sta limitando a scovare nei testi usati per il suo addestramento le parole che hanno la maggiore probabilità di essere coerenti con ciò che abbiamo detto, senza avere la più pallida idea del loro significato.
In questo articolo parleremo di:
Iscriviti alla nostra newsletter
Unisciti agli oltre 10.00 iscritti che leggono la nostra newsletter per approfondire le tematiche legate alla trasformazione digitale a 360 gradi.
Origine del concetto di intelligenza artificiale
Ma se le cose stanno così, di cosa abbiamo bisogno per conquistare la vera intelligenza artificiale? Per dare vita a macchine dotate di consapevolezza e autocoscienza? Insomma, qual è la strada da seguire per arrivare alla AGI e quali studi stanno conducendo i più importanti esperti del settore nei più avanzati laboratori del mondo?
Prima di tutto, va fatta un’importante premessa: sono quasi 70 anni che l’essere umano è convinto di essere sul punto di trovare il Sacro Graal tecnologico e dare vita a una vera intelligenza artificiale. È una storia che infatti inizia nel 1956, quando gli scienziati informatici John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon invitarono una manciata di colleghi a riunirsi con loro al college di Dartmouth, nel New Hampshire.
L’obiettivo, stando alla presentazione di quella conferenza , era studiare “come ogni aspetto dell’apprendimento o qualunque altra caratteristica dell’intelligenza potesse, in linea di principio, essere descritta in maniera talmente precisa da permettere di costruire una macchina in grado di simularla”.
Già negli anni Cinquanta, insomma, l’obiettivo esplicito – che quegli scienziati pensavano di poter conquistare nel giro di qualche settimana – era creare una vera e propria AI , in grado, spiegavano sempre gli organizzatori della conferenza, “di usare il linguaggio, creare delle astrazioni e dei concetti, risolvere vari tipi di problemi riservati agli esseri umani e migliorarsi autonomamente”.
È proprio durante questa conferenza che venne coniato il termine “intelligenza artificiale” , ma questo fu anche l’unico traguardo conquistato dai pionieri di Darthsmouth. Il fallimento di McCarthy e soci – che, con il senno di poi, era assolutamente inevitabile – non fermò però la ricerca sul settore che (tra alti e bassi, in cui questi ultimi sono noti come “inverni dell’intelligenza artificiale”) proseguì senza sosta portando anche alla nascita dell’Artificial Intelligence Laboratory del MIT di Boston.
Martin Minsky e la sua teoria sull’intelligenza artificiale
Il laboratorio è stato fondato e a lungo diretto da uno dei partecipanti alla conferenza, Marvin Minsky, che ancora negli anni Settanta era certo di poter in breve tempo conquistare l’intelligenza artificiale: “Nel giro di tre o al massimo otto anni avremo una macchina dotata della stessa intelligenza dell’essere umano medio”, affermò infatti Minsky nel 1970. “Una macchina in grado di leggere Shakespeare, di lucidare un’automobile, di gestire un’azienda, di raccontare una barzelletta e di litigare. A quel punto la macchina inizierà ad addestrare se stessa a una velocità incredibile. Nel giro di pochi mesi, raggiungerà il livello di genio e a quel punto, in breve, conquisterà dei poteri incalcolabili”.
In poche parole, negli anni Settanta Marvin Minsky sosteneva le stesse posizioni che negli ultimi anni hanno contraddistinto Ray Kurzweil , ingegnere capo di Google e soprattutto teorico della “singolarità tecnologica” , la tesi secondo cui la conquista di una superintelligenza artificiale arriverà attorno al 2045 e rappresenterà “l’ultima invenzione dell’essere umano”, perché a quel punto la AI sarà in grado di inventare tutto in autonomia. Una posizione simile è stata riscontrata ancora nel 2012, in una ricerca che ha coinvolto 550 esperti e in cui è stato rivelato come il 50% di essi ritenesse probabile l’avvento di una AGI entro il 2040.
Tutti gli strumenti basati su deep learning si limitano a sfruttare statisticamente il materiale usato per il loro addestramento, senza avere nessuna vera comprensione di ciò che stanno facendo.
Intelligenza artificiale oggi: cosa è cambiato?
Dagli anni Cinquanta a oggi, insomma, la sensazione è che la grande svolta sia sempre dietro l’angolo. Eppure, ancora ai nostri giorni, tutte le intelligenze artificiali basate su deep learning che abbiamo a disposizione sono ancora del tipo “narrow”: sistemi limitati , in grado di svolgere uno e un solo compito per volta (con qualche parziale eccezione).
Di conseguenza, per raggiungere l’intelligenza artificiale generale il primo traguardo tecnologico da conquistare è riuscire a dotarla della generalizzazione : la capacità – estremamente sviluppata nell’essere umano – di sfruttare quanto appreso in un campo per poi riutilizzarlo in un altro.
Ci sono però altri due elementi che vengono sempre sottolineati quando si parla delle qualità mancanti alle macchine:
La capacità di astrazione
Il buon senso
Con la prima si intende la capacità, per esempio, di astrarre il concetto di “mobile” dalla miriade di tavoli, armadi, casse e quant’altro: una capacità cruciale, che però alla macchina manca completamente. Il buon senso e l’intuito sono invece abilità che derivano dalla nostra capacità di astrarre e generalizzare : sono ciò che ci permette di affrontare nel modo corretto delle situazioni impreviste, sfruttando per l’appunto quanto appreso in precedenza.
Tutto ciò indica quindi la necessità che le intelligenze artificiali compiano un progresso non più quantitativo, ma qualitativo. Fino ad oggi, infatti, tutti i progressi nel campo del deep learning sono stati fatti soprattutto grazie alla disponibilità sempre crescente di dati e di potere computazionale.
Quali capacità devono apprendere le AI?
La maggior parte degli esperti è però convinta che non sia sufficiente proseguire su questa strada per conquistare una vera intelligenza. È invece necessario trovare il modo di dotare le AI delle tre capacità appena citate. A che punto siamo?
Le nevrosi del mondo moderno: intervista a Marco Terranova
1. Capacità di generalizzazione
Partiamo allora da quella (apparentemente) più semplice da conquistare: la generalizzazione, ovvero la capacità di un algoritmo di svolgere molteplici compiti. Tra i vari esperti che stanno lavorando a questo aspetto dell’evoluzione delle intelligenze artificiali troviamo Demis Hassabis, CEO di DeepMind: il laboratorio per la ricerca avanzata di proprietà di Google.
Secondo Hassabis, la chiave per arrivare a un’intelligenza artificiale di uso generale (il che non significa necessariamente più intelligente, ma capace di fare più cose) è la tecnica informatica nota come “transfer learning”. In sintesi estrema, il “trasferimento dell’apprendimento” permetterebbe di riutlizzare per un secondo obiettivo un modello già impiegato per portare a termine un compito precedente, senza cancellare tutto ciò che ha precedentemente appreso.
“L’idea alla base è che questa conoscenza precedente, conquistata grazie al primo compito, permetterà alla AI di ottenere una performance migliore, di essere addestrata più rapidamente e con meno dati rispetto a una rete neurale addestrata da zero solo sul secondo compito”, si legge su Hacker Noon .
Se si vuole arrivare alla AGI sfruttando questa tecnica , il transfer learning dev’essere applicato in ambiti molto distanti tra di essi. Solo così verrebbe dimostrato che la macchina possiede (o almeno può simulare) la capacità di astrarre quanto imparato in un campo per poi riutilizzarlo in un altro.
Per ora, però, si sono ottenuti risultati significativi solo nel trasferimento di conoscenze tra loro strettamente collegate (per esempio, ci sono modelli di deep learning che sono in grado di giocare a svariati videogiochi).
Aumenta il potenziale della tua azienda. Un messaggio alla volta.
2. Capacità di astrazione
Per astrarre la nostra conoscenza dai singoli eventi o dalle singole abilità è però necessario un altro cruciale elemento: la comprensione del rapporto di causa ed effetto tra due eventi collegati. Per esempio, se si vuole comprendere come funziona la pioggia è necessario sapere che sono le nuvole a provocarla.
Al momento, invece, le intelligenze artificiali sono in grado soltanto di stabilire – tramite la statistica – che c’è una correlazione tra la presenza delle nuvole e la presenza della pioggia, senza però sapere quale sia la causa e quale l’effetto.
“Comprendere la causa e l’effetto è un grosso aspetto di ciò che chiamiamo ‘buon senso’ ed è un’area in cui, oggi, i sistemi di intelligenza artificiale sono completamente incapaci”, ha spiegato Elias Bareinboim , direttore del laboratorio di Causal Artificial Intelligence della Columbia University. Come detto, inoltre, la comprensione della causalità si combina perfettamente alla necessità di astrarre la conoscenza , perché – spiega sempre Bareinboim – “se le macchine potessero capire che alcune cose conducono ad altre non dovrebbero ripartire da capo ogni volta che devono imparare qualcosa di nuovo”.
3. Buon senso
È qui che entra in gioco Yoshua Bengio, scienziato informatico vincitore nel 2018 del Turing Award per il ruolo fondamentale giocato nello sviluppo del deep learning. Il lavoro di Bengio si concentra anche su una forma di addestramento chiamato “meta-apprendimento” . Per capire di che si tratta, bisogna però fare prima un passo indietro: per insegnare alle macchine a distinguere le persone che ballano da quelle che corrono, oggi è necessario mostrare alla macchina centinaia di migliaia di immagini in cui ci sono alternativamente persone che compiono una o l’altra attività. Seguendo un processo di “tentativi ed errori”, la macchina impara infine a distinguere le due azioni correttamente.
Non c’è comprensione di cosa distingua le due attività, ma soltanto la capacità statistica di trovare correlazioni nelle immagini in cui le persone danzano e altre, differenti, in quelle in cui corrono; imparando così a separarle l’una dall’altra. L’obiettivo di Bengio è invece insegnare alla macchina che alcuni movimenti delle gambe causano la corsa e altri causano invece la danza. Questo stesso concetto si potrebbe poi applicare per comprendere che è sempre grazie alle gambe che le persone saltano, camminano o calciano un pallone. Sarebbe un primo passo verso la comprensione del rapporto di causa ed effetto e anche verso una generalizzazione della conoscenza.
“Per raggiungere l’intelligenza artificiale generale il primo traguardo tecnologico da conquistare è riuscire a dotarla della capacità di generalizzazione, di astrazione e buon senso.”
L’esperienza è un fattore da considerare nel deep learning?
Quelli citati sono sviluppi – a volte ancora in fase embrionale – di cruciale importanza per fare progressi qualitativi nel campo del deep learning e più in generale dell’intelligenza artificiale.
C’è però un altro aspetto da prendere in considerazione: noi esseri umani, come anche gli animali, impariamo a effettuare alcuni comportamenti dopo aver fatto esperienza diretta degli ambienti in cui viviamo. Ci muoviamo fisicamente nello spazio, tocchiamo, vediamo: insomma, ci relazioniamo con ciò che ci circonda e con le altre persone.
I bambini, per esempio, imparano a conoscere il mondo percependolo, facendo domande e associando le informazioni ottenute con ciò che vedono, con i suoni e con altre informazioni sensoriali; costruendosi così un modello sofisticato del mondo che permette, tra le altre cose, di navigare ambienti non familiari e di inserire ciò che hanno appreso, e le esperienze fatte, in un contesto più ampio, conquistando così intuito, buon senso e tutto il resto.
Questo è un elemento fondamentale del nostro processo di apprendimento: saremmo in grado di sviluppare una conoscenza anche solo parziale se venissimo istruiti da un educatore restando sempre chiusi in una stanza, senza poter fare alcuna esperienza diretta di ciò che ci si chiede di imparare?
Seguendo questa teoria, l’unico modo per creare una macchina davvero intelligente sarebbe creare un robot dotato dei cinque sensi, del linguaggio e della capacità di mettere in relazione ciò che vede con ciò che tocca, ecc. È difficile dire se questa strada possa essere vincente, anche perché al momento è una prospettiva troppo distante. È però interessante notare come proprio questa era una delle strade sperimentate dal già citato pioniere della AI Marvin Minsky, che – come spiega Simone Arcagni in “L’occhio della macchina” (Einaudi) – nel 1966 aveva proposto al suo assistente Gerald Jay Sussman di “passare l’estate provando a connettere una videocamera a un computer per poi chiedere alla macchina di descrivere cosa ‘vede’. Minsky sa che il processo di apprendimento che prefigura la costruzione di una qualche forma di intelligenza, a partire dall’immagazzinamento di dati e informazioni, fino alla loro trasformazione ed elaborazione, avviene fondamentalmente attraverso la vista. L’intuizione è quella di dotare il computer di questa facoltà”. Ovviamente, era un esperimento ingenuo per i canoni di oggi e che inevitabilmente fallì. Allo stesso tempo, ci mostra come l’idea di dover fare esperienza diretta del mondo fosse già considerato un elemento cruciale per la creazione di una vera intelligenza artificiale.
Quando l’intelligenza artificiale generale diventerà realtà?
Potrebbero volerci ancora decenni prima di riuscire a trasformare queste teorie in qualcosa di concreto. Peggio ancora, potremmo anche non riuscirci mai. Secondo un filosofo come John Searle (tra i più ascoltati in materia), le macchine potranno ragionare a livello umano solo quando saremo in grado di fornire loro una configurazione materiale di complessità almeno equivalente a quella del nostro cervello. Insomma, quando riusciremo a creare una simulazione completa del cervello umano. E questa – anche alla luce dei recenti fallimenti di programmi come lo Human Brain Project – è una prospettiva ancora davvero lontanissima.