Fai una donazione

Questo sito è autofinanziato. L'aumento dei costi ci costringe a chiedere un piccolo aiuto ai lettori. CHI NON HA O NON VUOLE USARE UNA CARTA DI CREDITO può comunque cliccare su "donate" e nella pagina successiva è presente (in alto) l'IBAN per un bonifico diretto________________________________

Amount
Print Friendly, PDF & Email

iltascabile

L’uomo che ha insegnato alle macchine il ragionamento analogico

di Diego Viarengo

Una riflessione sull’opera e il pensiero di Geoffrey Hinton, padre spirituale delle reti neurali e dell’apprendimento profondo

Luomo che ha insegnato alle macchine il ragionamento analogico.jpgCredo che il Nobel del 2024 per la fisica a Geoffrey Hinton, un informatico, abbia due significati. Il primo è scientifico, perché le reti neurali vengono riconosciute come fondamento del successo delle intelligenze artificiali generative. Il secondo, politico, è nell’avvertimento che Hinton ha pronunciato durante il discorso di accettazione del premio: possiamo avere un enorme beneficio dagli assistenti artificiali, ma dobbiamo guardarci dai rischi cruciali a breve (l’inquinamento del dibattito pubblico con contenuti creati per dividere, la sorveglianza delle persone da parte di regimi autoritari, le frodi informatiche) e a lungo termine (le armi letali che decidono autonomamente chi uccidere e il generale pericolo di perdere il controllo dei sistemi autonomi, capaci di assegnarsi da soli obiettivi e strategie).

 

Due macchine pensanti

Non era scontato che le reti neurali ad apprendimento profondo potessero funzionare, soprattutto non lo era quando Hinton, negli anni Settanta, iniziò il suo dottorato di ricerca. Il campo dell’intelligenza artificiale (IA) era occupato vittoriosamente dalla corrente simbolica che provava a riprodurre artificialmente il pensiero partendo da uno dei suoi prodotti: le frasi, le relazioni significative tra le proposizioni. La corrente connessionista voleva invece ricreare il modello della percezione biologica, proponendo sistemi matematici ispirati alle connessioni tra neuroni, da cui il nome.

Laddove la corrente simbolica provava a riprodurre artificialmente il pensiero partendo da uno dei suoi prodotti, quella connessionista voleva invece ricreare il modello della percezione biologica.

Possiamo scegliere come data di inizio del conflitto tra simbolici e connessionisti il 1958, quando le due parti credevano di aver posto le basi per la costruzione di una macchia pensante.

Allen Newell, John Clifford Shaw e Herbert Simon inviarono il rapporto sul General problem-solving program (GPS), un programma informatico in teoria capace di affrontare ogni tipo di problema, di trovare soluzioni non note manipolando oggetti e relazioni legittime tra oggetti. Il GPS traduce il mondo in oggetti e relazioni legittime tra oggetti. Uno stato di cose può essere un oggetto e una relazione legittima tra stati di cose può fungere da “operatore”. Per esempio, in una partita a scacchi il problema è come raggiungere la posizione di scacco matto e battere l’avversario. Una posizione della scacchiera è un oggetto e ogni mossa legittima degli scacchi è un operatore che permette di passare da un oggetto a un nuovo oggetto. È così che pensiamo? Più che altro è così che si può formalizzare il pensare: con operazioni logiche. Newell, Shaw e Simon erano convinti di aver creato un programma per computer capace di pensare in termini non numerici, una macchina pensante.

Sempre nel 1958 veniva presentata una versione completamente diversa di una macchina pensante: il perceptron dello psicologo Frank Rosenblatt, la prima ‒ elementare ‒ rete che simulava il funzionamento neuronale, in grado di riconoscere immagini e, soprattutto, di imparare attraverso le azioni, o le esperienze. “I computer possono risolvere problemi più velocemente delle persone ma solo se imboccati dai programmatori” diceva Rosenblatt al New Yorker “noi, per la prima volta, abbiamo creato un oggetto non biologico in grado di interagire con l’ambiente in modo significativo, un sistema che si organizza in modo autonomo, come fa il cervello”. La caratteristica distintiva del perceptron è che interagendo con l’ambiente forma concetti che non erano stati preparati per lui da agenti umani.

Per tutti gli anni Sessanta e Settanta la corrente connessionista dell’IA è stata relegata ai margini, con pochi finanziamenti e l’ostracismo dei centri di ricerca.

Il matematico e filosofo americano Daniel Andler, in Il duplice enigma (2024), ha sintetizzato una differenza sostanziale tra la corrente simbolica e quella connessionista: “un modello simbolico non apprende, si limita ad applicare le istruzioni che ha ricevuto (il che non esclude sorprese quando lo fa), mentre una rete di apprendimento profondo acquisisce una capacità nuova a partire da informazioni ‘corretto/scorretto’ molto meno ricche rispetto a indicazioni complete per fornire la risposta esatta”. In altre parole “l’addestramento simbolico consiste nell’istruire il modello, nel comunicargli un sapere, l’addestramento connessionista nell’esporlo a esempi, nell’inculcargli un saper-fare”. Se ti chiedi come mai un’intelligenza artificiale generativa dia risposte diverse alla stessa domanda: potrebbe essere perché ha imparato da sola quali sono le risposte giuste (a parte quelle vietate dai programmatori).

 

Una sorta di padre spirituale

Hinton è abituato a sentirsi l’unico che ha ragione nella stanza da quando i genitori, atei come lui, lo mandarono in una scuola cattolica. È anche abituato al conflitto. Suo padre, eminente entomologo in una famiglia di illustri scienziati, era solito ripetergli: “se ti impegnerai il doppio di me, quando avrai il doppio dei miei anni, potresti arrivare alla metà dei miei risultati”. Non è andata così: Hinton è oggi lo studioso con più citazioni nella scienza informatica, e il secondo tra gli psicologi. Nel 2012 con Alex Krizhesvky e Ilya Sutskever è riuscito a catalogare un milione e duecentomila immagini, in circa mille classi, con un margine di errore che migliorava sensibilmente i risultati ottenuti fino a quel momento. Un successo che è stato reso possibile grazie alla mole di dati a disposizione su internet, all’etichettatura umana delle immagini e alle invenzioni disseminate nella carriera di Hinton. Nel 2018, con Yann Le Cun e Yoshua Bengio ha vinto il Turing Prize.

Per tutti gli anni Sessanta e Settanta la corrente connessionista dell’IA è stata relegata ai margini, con pochi finanziamenti e l’ostracismo dei centri di ricerca. Il cambiamento è avvenuto negli anni Ottanta, con l’apporto di alcune modellizzazioni della fisica dei solidi, applicate alle reti: ecco perché insieme a Hinton è stato premiato John Hopfield e perché il Nobel è quello per la fisica. “C’era un continuo scambio di idee”, ricorda Giorgio Parisi, il fisico italiano premio Nobel nel 2021. Hinton ha aggiunto al modello di Hopfield i cosiddetti livelli nascosti, creando la macchina di Boltzmann e pochi anni dopo l’algoritmo di retropropagazione. Sono le invenzioni chiave che permettono all’idea connessionista, dalla percezione all’esecuzione di compiti complessi tramite apprendimento autonomo, di diventare realtà, che nei termini dell’IA vuol dire macchine che “funzionano”, cioè che capiscono se una certa immagine rappresenta un cane o un gatto, per esempio, o se un contratto assicurativo sia o meno una frode. Per le sue invenzioni, e per aver tenuta accesa la fiamma del connessionismo, ci si riferisce spesso a Hinton come al padre spirituale dell’apprendimento profondo e delle reti neurali, che oggi sono diventati sinonimi di intelligenza artificiale.

 

È un gatto o un cane?

Come dicevamo, una rete neurale è in grado di distinguere se un’immagine proposta rappresenti un gatto o un cane. Quello che la rete “vede” è un insieme di pixel ma, opportunamente addestrata con una mole enorme di aggregazioni di pixel che significano “gatto” e altri che significano “cane”, è in grado di dare la risposta adeguata: le informazioni passano sui nodi della rete, ogni nodo è un interruttore acceso/spento, il numero di accensioni stabilisce un peso, e determina il risultato finale.

Per le sue invenzioni, e per aver tenuta accesa la fiamma del connessionismo, ci si riferisce spesso a Hinton come al padre spirituale dell’apprendimento profondo e delle reti neurali.

In un tentativo di spiegazione senza formule matematiche, Jerry Kaplan suggerisce di immaginare una rete neurale come una successione di livelli dal basso verso l’alto. Abbiamo chiesto alla rete di riconoscere un’immagine: «In un classificatore ben progettato i livelli nascosti più in basso riconoscono le caratteristiche base dell’immagine input, come contorni e forme. Risalendo la gerarchia, ogni neurone [nodo della rete] identifica le caratteristiche sempre più complesse, come la pelliccia, le vibrisse, gli occhi. Una volta arrivati in vetta ogni neurone rappresenta un cane o un gatto».

L’addestramento della rete avviene per mezzo di un algoritmo di retropropagazione, un sistema iterativo che valuta quali neuroni e connessioni contribuiscano maggiormente agli errori, così da calibrare la rete per il riconoscimento dell’immagine. Questo tipo di apprendimento può essere supervisionato, nel caso in cui la risposta giusta sia nota; o non supervisionato, nel qual caso cercherà di individuare autonomamente i pattern.

Alessandro Aresu, in Geopolitica dell’intelligenza artificiale (2024), fa ironicamente riferimento al mestiere che Hinton ha brevemente praticato quando era indeciso sul percorso accademico, dicendo che ora è diventato un capo-falegname. Come un falegname, in effetti, Hinton “addestra la rete neurale, tagliando e adattando i pesi sinaptici attraverso la retropropagazione, che ottimizza i pesi per ridurre l’errore tra l’output previsto e quello effettivo […], collega i vari strati di neuroni o layer, per costruire la struttura della rete neurale, dove ogni strato ha una funzione specifica, come riconoscere bordi o texture di un’immagine”. All’inizio della sua carriera Hinton voleva capire come funzionasse il cervello; una volta a capo della falegnameria ha costruito un modello che riproduce una delle sue funzioni principali.

 

Macchine che fanno analogie

Con il suo “saper-fare”, nel discorso di accettazione del Nobel, Hinton ha riassunto la portata del suo trionfo in una frase: “questa nuova forma di IA eccelle nel riprodurre l’intuizione umana più che il ragionamento”. È una frecciata al partito dell’IA simbolica. Ma perché “intuizione”? Simone Weil nelle Lezioni di filosofia del 1933-34, scrive che se un metodo esiste per produrre analogie sembra avere a che fare con l’“intuizione, il caso”. Intervistato da Joshua Rothman per il New Yorker, Hinton ha spiegato la sua idea di come pensiamo:

Per anni la corrente simbolica dell’intelligenza artificiale ha sostenuto che la nostra natura sia quella di macchine che ragionano. Non ha senso: la nostra natura è di macchine che fanno analogie, con un po’ di ragionamento montato in cima, per accorgerci quando le analogie ci danno la risposta sbagliata e correggerla.

Che cosa vuol dire che siamo macchine analogiche? Paragonare un essere umano a una macchina può trarre in inganno se ci si concentra sull’aspetto meccanico, inteso come automatico, non autonomo e programmato dall’esterno. Ma non è questo il caso: dire che le persone sono macchine riprende un’idea atea e materialista, che spiega il pensiero senza ricorrere all’anima, all’ispirazione divina o a una sostanza non materiale. È l’idea che Julien Offroy de La Mettrie ha illustrato nel trattato L’uomo macchina del 1747.

Paragonare un essere umano a una macchina può trarre in inganno se ci si concentra sull’aspetto meccanico, inteso come automatico, non autonomo e programmato dall’esterno.

L’analogia è una comparazione tra oggetti, o insiemi di oggetti, che evidenzia gli aspetti che si ritengono simili. In Concetti fluidi e analogie creative (1996) Douglas Hofstadter ne dava questa definizione:

È utile dividere il pensiero analogico in due componenti base: primo, il processo di percezione di una situazione, che consiste nel considerare i dati relativi a una situazione, quindi filtrarli, e organizzarli in vari modi per arrivare a una rappresentazione appropriata al contesto particolare. Secondo, il processo di proiezione per mappe, che consiste nel considerare le rappresentazioni di due situazioni e nel trovare le corrispondenze appropriate tra gli elementi dell’una e quelli dell’altra, creando così l’accoppiamento che chiamiamo analogia.

Hofstadter e Melanie Mitchell ricercano una posizione intermedia tra approccio simbolico e connessionistico dell’intelligenza artificiale, un “ibrido tra le due” con al centro l’analogia come concetto fluido, nello spirito kantiano per cui percezione e concetto non stanno l’una senza l’altra. Il loro programma Copycat

esplora un territorio intermedio della simulazione cognitiva, posto tra quello dei sistemi simbolici di alto livello e quello dei sistemi connessionistici di basso livello; la ragione per cui si sostiene questo approccio è che il suo livello intermedio è al momento il più utile per trattare la natura fluida dei concetti e delle percezioni, aspetti centrali della mente che emergono con la massima chiarezza nel fare analogie.

 

Analogico contro logico

Tutti praticano l’analogia quotidianamente, è una componente indispensabile del pensiero, eppure è poco presente nella letteratura scientifica. Scriveva il filosofo Enzo Melandri in La linea e il circolo. Studio logico-filosofico sull’analogia nel 1968: tanto grande la pratica, quanto piccola la teoria. L’analogia è costretta a una guerra continua con la logica: una guerra civile, in cui nessuno dei due contendenti riporta una vittoria definitiva. La lotta tra logica e analogia è una metafora che Melandri usa per sottolineare quanto per pensare siano necessarie entrambe, con una delle due, la logica, che cerca però di farsi dominatrice assoluta e negare l’importanza dell’altra, fino a oscurarne la rilevanza.

Hofstadter e Melanie Mitchell ricercano una posizione intermedia tra approccio simbolico e connessionistico dell’intelligenza artificiale, un “ibrido tra le due” con al centro l’analogia come concetto fluido.

L’analogia fa parte dell’esperienza quotidiana: “il riconoscimento percettivo, l’identificazione delle ‘stesse’ cose, la continuità del ‘sé’ che ne fa esperienza, tutto questo e quanto ne deriva presuppone l’uso di un principio di comportamento di carattere analogico, piuttosto che logico”. Il punto per Melandri non è stabilire una gerarchia ma riconoscere la necessaria complementarità tra logica e analogia. Quello di Melandri, diceva Gianni Celati in Alì Babà: progetto di una rivista 1968-1972 (1998), è un pensiero che “fa retroagire le conclusioni sulle premesse”. Dal punto di vista concettuale, c’è una chiara similitudine con l’algoritmo di retropropagazione di Hinton, che aggiusta i pesi per correggere le risposte in uscita delle reti neurali.

Secondo il senso comune, ragionare è calcolare logicamente, la rilevanza dei procedimenti analogici di percezione, riconoscimento, esemplarità, proporzione e differenziazione sono dati per scontati, forse perché funzionano bene, apparentemente senza fatica. La logica funziona bene nei sistemi chiusi, mentre l’analogia li riapre indefinitamente. Melandri in L’analogia, la proporzione, la simmetria racconta l’analogia come gioco linguistico, dove c’è un rilancio trasgressivo che costruisce inedite associazioni, la cui “molla” è “l’intelligenza intesa come atto creativo, produttivo, innovatore”. Dall’altra parte, la componente del controllo, nella dinamica del gioco analogico, è un tentativo di normalizzazione operato dalla “cultura intesa come atto critico, inibitore, riassimilativo”, che verifica la legittimità e tenuta della nuova associazione.

 

Giochi chiusi e giochi aperti

Gli scacchi compaiono spesso nella storia dell’intelligenza artificiale, questo perché sono un sistema formale che ben si presta a essere tradotto in problema da affrontare con simboli e operatori logici. Ma non tutti i giochi sono sistemi formali, anzi i giochi sono diversissimi tra loro: scacchi, giochi con la palla, carte e computer, eppure siamo in grado di distinguere un gioco quando lo vediamo. Nelle Ricerche filosofiche, nel famoso paragrafo sulla somiglianza di famiglia, Ludwig Wittgenstein scrive: “non pensare ma osserva!”, esortando a osservare “somiglianze emergere e sparire”. Il percorso di Wittgenstein, dalla fiducia nella logica come chiusura dei discorsi e il successivo rilancio verso la costruzione di analogie, traccia un possibile parallelo con il conflitto tra la scuola simbolica e quella connessionista della ricerca sull’intelligenza artificiale. Le somiglianze che vediamo sorgere e sparire sono quelle in base alle quali costruiamo analogie.

La logica funziona bene nei sistemi chiusi, mentre l’analogia li riapre indefinitamente.

Dicevamo che nel senso comune il pensare viene inteso come calcolo logico, anche perché garantisce stabilità e definitezza, mentre l’analogia non è chiusa per sempre e quando è vera è vera per gradi. Gli scacchi sono un sistema compiutamente formale, altri giochi, come i giochi linguistici, non lo sono. L’intelligenza artificiale ha avuto successo quando ha mostrato di eccellere fuori dai sistemi formali.

 

Analogie intorno a noi

Nota sin da Aristotele, l’analogia fino alla seconda metà del Ventesimo secolo riceve poca attenzione. Eppure è dappertutto, usata migliaia di volte al giorno, non solo nei processi cognitivi. Per esempio in giurisprudenza: la common law si basa sul principio analogico, ma non solo. In generale la proporzionalità è uno dei criteri con cui giudichiamo continuamente ‒ quasi senza rendercene conto ‒ l’adeguatezza delle azioni. Decidiamo che qualcosa è sbagliato, non è adeguato, proporzionato al contesto. A un livello più alto di considerazione decidiamo che qualcosa è ingiusto, contrario a una buona norma, perché contravviene o eccede una misura; il modo in cui verifichiamo l’eccedenza è la proporzione tra quanto noi consideriamo accettabile e il fenomeno con cui ci confrontiamo. Sono esempi che vediamo circolare quotidianamente. Il procedimento mentale “per mezzo dell’esempio” è analogico, Aristotele nella Retorica lo chiama “paradigmatico”.

 

La scelta, come prerogativa umana

Il secondo significato del Nobel a Hinton è politico. Nel discorso di accettazione lo scienziato dice che l’IA ha il potere di migliorare la produttività in quasi tutti i campi umani e questi benefici se distribuiti in modo equo saranno straordinari, ma che dobbiamo guardarci dai pericoli a breve e lungo termine; da chi possiede le IA e intende usarle per il proprio guadagno immediato.

Come impedire ai sistemi ad apprendimento autonomo di volere più controllo? Nessuno ha la risposta.

Dopo il successo ottenuto nel 2012, con la rete neurale capace di riconoscere più di un milione di immagini, un momento da alcuni ribattezzato “Big Bang dell’IA”, Hinton decise di creare una piccola startup con tre dipendenti, nessun prodotto, quasi nessuna storia e di metterla in vendita con un’asta, tenuta via email, tra Google, Microsoft, Baidu e DeepMind. Alla fine della giornata i contendenti rimasti erano l’americana Google e la cinese Baidu. L’offerta più alta erano i 44 milioni di dollari di Google. Dopo averci dormito sopra, Hinton e i suoi due studenti-colleghi decisero di accettare e sospendere le offerte. Invece di massimizzare il guadagno Hinton ha scelto il compratore, ha deciso dove portare la sua ricerca.

Nel 2023 ha dato le dimissioni da Google, per poter esprimere liberamente i propri timori sulle nuove forme di intelligenza artificiale: “È difficile vedere come impedire che l’IA sia usata per scopi malvagi, da malintenzionati”. Oggi Hinton è convinto che le “armi autonome” dovrebbero essere fuorilegge, che il loro sviluppo sia pericoloso perché potrebbero sfuggire al controllo dei loro creatori. Perché un sistema ad apprendimento autonomo sia efficace deve essere in grado di creare da sé i suoi sotto-obiettivi. “Sfortunatamente ‒ ha detto Hinton ancora nell’intervista al New Yorker ‒ c’è un sotto-obiettivo di grande validità generale: ottenere più controllo”. La domanda su cui lavorare diventa: come impedire ai sistemi ad apprendimento autonomo di volere più controllo? Nessuno ha la risposta, secondo Hinton. All’inizio della sua carriera aveva lasciato gli Stati Uniti per il Canada, preferendo non ricevere fondi militari per la ricerca. Nel momento in cui Google, Meta e Open AI stanno cambiando le policy per rendere più facili futuri accordi per l’uso militare dell’IA il suo percorso ci ricorda quanto faccia la differenza scegliere da che parte stare.

Hinton continua a non avere paura di essere una voce isolata, come quando propugna il reddito di base universale per contrastare gli sconvolgimenti del mercato del lavoro dovuti alla diffusione delle IA generative, o quando si preoccupa dell’aumento delle disuguaglianze tra ricchi e poveri, o dell’elezione di populisti di destra alle più alte cariche pubbliche. Nel significato politico del Nobel a Hinton, accanto all’interesse collettivo, alle azioni militari e alle guerre commerciali tra Stati, c’è una sfumatura che riguarda la dimensione individuale, dove non risuona la paura, ma la fiducia nel potere dell’intuizione.


Diego Viarengo lavora nell’editoria digitale, si occupa di crescita dei blog e strategia dei contenuti. Ha studiato filosofia, collaborato con Pagina 99 e vive a Torino.
Pin It

Add comment

Submit