Print Friendly, PDF & Email

doppiozero

L’IA pensa. E noi?

di Riccardo Manzotti

Non è l’intelligenza artificiale che ha imparato a pensare come noi, siamo noi che abbiamo smesso di pensare come persone e la colpa maggiore, mi dispiace dirlo, l’abbiamo noi filosofi e, in qualche misura, scienziati e psicologi. Mi spiego. Per chi non sia stato chiuso in un rifugio antiatomico durante gli ultimi 6 mesi, una serie di nuovi algoritmi generativi, addestrati su enormi quantità di dati provenienti dagli esseri umani, ha sviluppato la capacità di produrre testi, suoni e immagini. Chiunque li abbia testati (fatelo, è gratis, provate) è rimasto sorpreso e meravigliato: l’impressione è che questi algoritmi siano in grado di cogliere la struttura del pensiero degli esseri umani e di declinarla in nuove combinazioni. ChatGPT, forse il più famoso, è in grado di scrivere poesie, rispondere a domande su qualsiasi argomento, scrivere testi e relazioni. Sembra proprio che ChatGPT sia come noi.

Sono stati scritti fiumi di parole sulle loro potenzialità e rischi – dal problema del diritto di autore fino agli effetti sul sistema scolastico. Non c’è dubbio che abbiano capacità finora impensate e che il loro impatto sarà profondo e irreversibile, ma la domanda è un’altra: siamo sicuri che il pensiero sia semplicemente la manipolazione di simboli e la produzione di contenuti?

È un fatto che, tra i testi prodotti da ChatGPT e quelli scritti dagli esseri umani, non ci siano differenze evidenti e questa somiglianza contiene una minaccia. Molti studiosi di varia estrazione temono il giorno in cui queste intelligenze artificiali saranno in grado di produrre contenuti analoghi a quelli che loro, in tanti anni, hanno imparato a produrre con fatica e sforzo. Non c’è speranza dunque? Siamo diventati obsoleti? Stiamo per essere superati dall’Intelligenza Artificiale in quello che pensavamo essere la nostra capacità più essenziale? Ovvero il pensiero?

Nella domanda si nasconde la risposta. Già il fatto di porsi questa domanda implica che il pensiero sia stato declassato a calcolo, operatività, ricombinazione. Ma è proprio così? In realtà, ci sono due modi di intendere il pensiero: come manipolazione dei simboli o come manifestazioni della realtà. Il primo modo è stato declinato in tanti modi, apparentemente moderni – dalla macchina di Turing ai giochi linguistici di Wittgenstein, dalla svolta linguistica all’intelligenza artificiale odierna. Si sposa con l’idea che la casa del pensiero sia il linguaggio e che quest’ultimo, in fondo, non sia altro che una continua ricombinazione di simboli; un’idea popolare che ha trovato ulteriore supporto nella teoria dell’informazione e nella genetica. Tutto è informazione, scriveva il fisico John Archibald Wheeler. L’informazione non è altro che una serie di simboli e il pensare è il loro ricombinarsi. Tutto questo è molto convincente (è quasi una versione operazionale dell’idealismo di Kant), ma lascia fuori qualcosa di fondamentale: la realtà.

La realtà è un termine scomodo, quasi fastidioso, per alcuni. Da Kant alle neuroscienze, ci sentiamo ripetere che non possiamo conoscere il mondo, ma solo le nostre rappresentazioni (che non sono mai del tutto affidabili). Anche autori recenti con un certo seguito nel mondo della scienza e della filosofia pop – da Donald Hoffman a Slavoj Žižek – non perdono occasione di metterci in guardia dal prendere sul serio la realtà. E così il pensiero, un passo alla volta, si svuota di significato. Le parole sono sempre più simboli all’interno di un universo di simboli e sempre meno la manifestazione di qualcosa di reale.

Anche i social network prima e il metaverso poi ci portano in un mondo digitale sempre più staccato dalla realtà, dove digitare parole che producono altre parole, in un labirinto di simboli e di like autoreferenziali sembra essere l’unico obiettivo. In questo mondo di rappresentazioni digitali fini a se stesse, ChatGPT è come noi. Anzi, è meglio di noi. Non c’è partita. L’IA, come nel famoso racconto di Frederick Brown, sta per diventare il dio della realtà fatta di soli simboli privi di significato.

Al di là di questo entusiasmo per il pensiero ridotto a calcolo di nuove combinazioni, esiste un’altra grande intuizione sulla natura del pensiero secondo la quale noi non saremmo solo manipolatori di simboli, bensì momenti dell’esistenza. Ognuno di noi sarebbe un’occasione che ha la realtà per essere vera.

In questa visione, la persona non è solo una calcolatrice, ma una unità dell’esistere. È una prospettiva oggi impopolare, abituati come siamo al gergo informatico e tecnologico (dove la computer science è, per dirla con Gramsci, egemonica). Il pensiero non è né un flusso di concetti né una sequenza di operazioni, ma è il punto in cui la realtà si manifesta. Il pensiero acquista significato se è illuminato dalla realtà; qualcosa che non si può ridurre ad algoritmo, ma che non è, per questo, meno vero. Il significato delle nostre parole non dipende dalla correttezza della loro grammatica, ma dalla realtà che attraverso di esse si manifesta nel linguaggio.

Questi due atteggiamenti corrispondono a modi di essere incompatibili e attraversano arte, scienza e filosofia. Il primo è interno al discorso, il secondo buca il livello dialogico per arrivare (o cercare di arrivare) alla realtà. Tra i due campi non c’è simpatia, anzi esplicito disprezzo. Bucare il livello dialogico e andare oltre non è facile. Se il mondo dell’informazione fosse una grande città che cresce progressivamente diventando sempre più estesa, il mondo esterno diventerebbe sempre più lontano e irraggiungibile. Molte persone non uscirebbero mai dalla città, trovando al suo interno tutto ciò che desiderano e non sentendo la necessità di raggiungerne i confini. E così i filosofi diventano filosofologi, i matematici platonisti e gli scienziati si muovono solo dentro i confini rassicuranti di paradigmi autoreferenziali. L’arte diventa sempre più manieristica e il pensiero sempre più un esercizio barocco di stile. Non lo vedete tutto intorno a voi? Lo ha detto bene un non-filosofo come Manuel Agnelli alla sua laurea ad Honorem alla IULM: l’arte è morta perché è diventata figlia di una cultura autoreferenziale del numero e del consenso. Non ci rendiamo conto della fame di valore e di significato che ognuno di noi insegue?

Filosofi e scienziati si sono trovati a condividere quello che sembra essere soltanto una deformazione professionale: troppo tempo sui loro codici, troppo poco tempo a contatto con il mondo. I loro “sacri” testi prendono il posto del mondo nella loro esistenza e la loro vita rimane prigioniera di una biblioteca labirintica dove, prima o poi, nasceranno minotauri digitali che li divoreranno. In quel mito, l’unione di potere e conoscenza, rappresentata dal re Minosse e dall’inventore Dedalo (combinazione oggi sintetizzata in figure quali quelle di Steve Jobs, Elon Musk o Mark Zuckerberg), creano un labirinto in cui si rimane intrappolati e chiusi. ChatGPT è il minotauro digitale: non è in grado di uscire dal livello digitale e deve essere nutrito con la carne e il sangue della nostra esistenza, non consegnandogli ogni anno dieci giovani tebani, ma fornendogli i nostri dati attraverso Internet, social network e cellulari. Ma possiamo ancora sperare in un Teseo che, con l’aiuto di Arianna, riuscirà e uscirne seguendo un filo che incarna il collegamento con la realtà esterna.

Quel filo corrisponde all’apertura verso la realtà che è l’essenza del pensiero umano, fuori dal labirinto delle parole, dei simboli e dell’informazione. Peccato che molti filosofi (Daniel Dennett o David Chalmers) o molti neuroscienziati (Anil Seth, Vittorio Gallese) corteggino una visione dell’uomo ridotto a costruzione priva di sostanza. Ma se non siamo altro che un miraggio, il gioco è facile per l’IA: fantasmi tra fantasmi.

Come si è arrivati a questa abiura della nostra natura? Il linguaggio mette in moto concentrico tre sfere: la sfera della grammatica, la sfera dei concetti e la sfera ontologica. Nella prima quello che conta è la struttura dei simboli e come si concatenano tra di loro. Questo è il dominio dove oggi l’intelligenza artificiale (ChatGPT appunto) è signore e padrone. Poi vi è la sfera dei concetti che è un terreno ambiguo, per qualcuno reale e per altri no; una specie di purgatorio in attesa di essere eliminato. Infine c’è la realtà, dove tutto ciò che ha valore trova origine; ciò che noi cerchiamo nella nostra vita e che non sempre troviamo.

L’IA odierna (quella di domani chissà) si ferma alla grammatica del linguaggio. Ma il valore si trova nella realtà in quanto realtà. L’IA non fa altro che costruire nuvole di bit privi di sangue, colore, sapore: «non è altro che un racconto raccontato da un idiota, che non significa nulla». Se l’IA scrivesse l’Amleto, parola per parola, non sarebbe altro che una combinazione di simboli. Polvere e non statua.

La domanda che dovremmo chiederci non è se Chat GPT pensa come noi, ma piuttosto che significa pensare. Crediamo veramente di non essere altro che illusioni digitali? Abbiamo davvero smarrito il filo di Arianna che collegava le nostre parole al mondo reale? Io mi ribello. Io sono reale e la mia realtà va oltre la cascata di cifre digitali verdi di Matrix. Noi siamo reali e questa realtà non è all’interno dei nostri simboli. Non siamo semplici calcolatrici. E pazienza se oggi la maggioranza pensa che sia così, lasciandosi incantare dalla prospettiva di barattare la realtà con un metaverso digitale. Ritorniamo alla realtà e abbandoniamo i simboli. Torniamo alle cose e lasciamo le parole. Non è vero che le parole o le informazioni siano più importanti della vita e delle cose. ChatGPT riconosce, ma non vede; ascolta, ma non sente; manipola i simboli; ma non pensa. Per pensare bisogna essere reali, ma che cosa è il pensiero? Il pensiero è mondo.

Comments

Search Reset
0
Alessio (noi non abbiamo patria)
Saturday, 04 February 2023 11:35
Vedo tanti compagni che si sconcertano, alcuni si smarriscono dietro la AI. Essenzialmente le nuove tecnologie informatiche nascondono la conoscenza dei fondamenti dell’informatica, lo strumento sofisticato rende ignorante il programmatore che fa il software, così come l’utente nei confrinti dell’interfaccia che gli consente di interagire con l’elaboratore. Da qui il luogo comune che i nuovi BOT dotati di intelligenza artificiale siano in grado di sostituire l’uomo nelle comunicazioni e nei processi. Non a caso si parla di ChatBOT, VoiceBOT, ecc.

Si dice ma ChatGPT pensa, è in grado di scrivere un poema, a New York le scuole lo vietano perchè i ragazzi scrivono i temi con ChatGPT. Altri la AI ci spia.

Ma di che si tratta? Senza andare troppo sul tecnico. Esistono delle librerie di funzioni elaborative chiamate open AI disponibili a sottoscrizione sulla rete Cloud. Un programmatore o una azienda paga una licenza d’uso e attraverso questi set di API sviluppa applicazioni e servizi. Immaginate un set di API come un raggruppamento di funzioni atomiche (somma, moltiplicazione, sottrazione, divisione).
Essendo un programmatore informatico della vecchia scuola ho giocato anche io con il fantomatico open AI che ChatGPT usa. Oh che gioco carino per un programmatore. Il linguaggio (o codice) per la programmazione è davvero semplificato e non offre reali avanzamenti per una analisi “natural language” del testo o del parlato, tanto meno del “sentiment analysis” (sto affermando qualcosa con tono arrabbiato, oppure sono entusiasta). Il natural language analysis è più semplice con il testo, viceversa il sentiment analysis è più facile sulla voce (basta gridare). Fin qui nulla di straordinario, è roba affinata dagli anni 2000 o fine anni ‘90, i laboratori Loquendo di Torino erano all’avanguardia nello speech recognition (un software che capisce con una certa dose di accuratezza parole o fonemi pronunciati dall’uomo).
Ma qui si dice che i nuovi BOT e l’open AI consenta di realizzare cose stupefacenti del tipo “mettimi alla prova, chiedimi qualsiasi cosa ed io ti rispondo in maniera compiuta e esaustiva”. E si, lo fa, ma non perchè capisca o pensa, perchè riconosce l’oggetto della domanda. Assolutamente non pensa e non ha alcuna cognizione sull’argomento.

La struttura del codice con cui si scrive una app di open AI per realizzare un Chat BOT è banale, ed usa, per generare l’output - una risposta compiuta ed esaustiva - l’approccio del “minimo comune multiplo”.

Allora, vi trovate su un demo di ChatGPT o di perplexity AI (o sul mio prototipo) e il BOT vi propone “chiedimi qualsiasi cosa” e voi proponete “che cos’è la guerra di classe”?
E cavolo vi fornirà una sintesi esauriente con riferimenti a Sorel e Marx. Ma signori miei perchè le funzioni di libreria API stanno sul Cloud? Perchè chi paga per l’utilizzo, una parte va ad Open AI, ed una quota va o a Google o a Bing ossia al motore di ricerca internet. Il motore di ricerca come sapete è un grosso indice dei contenuti sulla rete internet, organizzati per “tag”, “head”, “slug” delle varie pagine. Di fatto il servizio fa una ricerca su google, poi mette a minimo comune multiplo le “sentence” (i periodi) restituiti dalla ricerca afferenti a diversi siti. Provando la domanda in inglese su cosa sia “class war”, l’output è composto da stralci di testo presi da cambridge dictionary, oxford dictionary, wikipedia ecc.

Secondo esempio, potreste chiedere “what is noi non abbiamo patria blog”? E lui rispondera che è un sito che parla di internazionalismo, guerra in Ucraina, razzismo ecc, ossia restituisce i più recenti tag e head degli ultimi post del blog. Tra i source poi sono citati anche altri siti quali libcom.org ecc.
Poi, propone le domande di approfondimento del tipo “who created noi non abbiamo patria”? L’elenco delle domande di approfondimento è una lista configurabile o preordinata dal codice, in sostanza qualcosa di predefinito dal programmatore.
E qui che viene fuori (fa ridere) la prova che non ha alcuna capacità di pensare.
Infatti a fronte della domanda su chi ha creato il blog, la funzionalitá cerca nei vari tag, slug, head dei nomi propri. Allora in un caso dice che il blog è stato creato da Tyre Nichols, in altri casi da Alfredo Cospito. Il primo è stato ammazzato dalla polizia di Atlanta, il secondo è in regime del 41bis.
Se avesse la capacità di pensare, avrebbe capito che entrambe le eventualità sono impossibili, la differenza che c’è tra soggetto ed oggetto. In sostanza ChatGPT e open AI sono semplicemente una riorganizzazione del motore di ricerca tradizionale che usiamo tutti i giorni.
Applicazioni future. Sostituirà l’intelligenza artificiale il lavoro vivo? Se si, di che tipo?
L’addove l’educazione, l’istruzione o alcune funzioni lavorative chiedono un lavoro cognitivo ed una istruzione bassa si. A cosa mi serve il commercialista per riempire F24 per l’imu se su internet esistono già i dati? A cosa mi serveno certi insegnanti in certe scuole se l’istruzione deve essere di tipo nozionistico, dunque riconducibile ad un minimo comune multiplo di una ricerca fatta su google, così ancora a cosa mi serve un idraulico sel il chatBOT mi propone un tutorial video per la sostituzione di un rubinetto, e così via. In sostanza l’intelligenza artificiale è al massimo una riorganizzazione ottimizzata di funzioni non necessarie nella catena della produzione del valore, non potrà sostituire il lavoro vivo laddove è richiesto un pensiero decisionale o una pronta reazione a fronte di un evento non previsto dal codice applicativo, perchè AI NON PENSA E NON È IN GRADO DI FARLO.
Viceversa nel lavoro vivo produttivo esiste il componente assemblato digitale di semiconduttori IoT (da non confondere con internet of thing) che è tutta altra roba.
Like Like Reply | Reply with quote | Quote

Add comment

Submit