Print Friendly, PDF & Email

doppiozero

ChatGPT

di Pino Donghi

chatgptA stupire è lo stupore. Ma davvero c’era qualcuno che poteva dubitare che diventasse disponibile prima o poi – più prima che poi – un aggeggio come ChatGPT ? Davvero non ci eravamo accorti che Google translate, da un po’ – ormai da un bel po’ – aveva smesso di farci sbellicare, leggendo le improbabili traduzioni che ci proponeva agli esordi, per diventare un arnese assai utile, per molti di quotidiano utilizzo? È David Quammen, nel suo recentissimo Senza respiro, a raccontare di come la notte di Capodanno del 2020 Marjorie Pollock, vice-direttrice di un servizio di segnalazione epidemiologica, trovato un servizio giornalistico su un affidabile sito d’informazione in lingua cinese, lo copia in un sistema di traduzione automatica sul suo pc e capisce, per la prima volta, che un nuovo agente patogeno della famiglia dei Coronavirus sta per travolgere le nostre esistenze. Just simple as that: funziona! 

La domanda è come. E la risposta, a far data più o meno dagli inizi degli anni ’90 del secolo scorso, è: senza teoria! Nel caso di Google translate senza una teoria scientifica del linguaggio, senza simboli e senza logica; senza una teoria anatomica del volto, se ti chiami Clearview e vendi servizi di face recognition alle forze di polizia, utilizzando invece 3 miliardi di immagini disponibili sui social media (e poi, via di forza bruta, via di potenza di calcolo). Se ti chiami Cambridge Analytica… beh, lo sapete già! Ma c’è anche un inquietante IBorder Ctrl che un annetto e mezzo fa verificava la possibilità di usare un software automatico per intervistare i rifugiati ai confini, così da leggere micro espressioni del volto e scoprire eventuali dichiarazioni menzognere: e se vi si è acceso il fotogramma… sì, proprio come in Blade Runner (il cui futuro remoto era il 2019).

Tutto questo è solo una minima parte di ciò che è possibile fare con l’attuale Intelligenza Artificiale, da più o meno trent’anni. Quella di prima, il progetto inaugurato grosso modo negli anni ’50, negli anni ‘80 si era bloccato. Le ragioni le potete ascoltare dalla viva voce di Nello Cristianini – un italiano che l’AI la insegna a Bristol – in occasione della XXXVI edizione di “La lettura del Mulino”, da lui svolta il 6 Novembre 2021, e vale molto più del tempo che vorrete dedicargli. Anticipando: fino a quando si è pensato di sviluppare i programmi dell’intelligenza artificiale immaginando, prima di mandare a memoria la teoria, acquisendo conoscenza e assiomi, poi di sviluppare l’algoritmo (prima la teoria linguistica, dicevamo, poi l’implementazione) ebbene, la macchina non ha mai funzionato.

Fino al giorno in cui Frederick Jelinek (nulla a che fare con Elfriede), un teorico dell’informazione di origini ceco-americane che lavorava in IBM, durante quegli anni ’80 di stagnazione delle ricerca, ha l’idea di imboccare una scorciatoia, sostituisce la grammatica con la statistica, comincia ad alimentare la macchina di testi, sempre più testi in maniera indifferenziata, senza alcun criterio di scelta, migliaia, milioni, centinaia di milioni di testi, e pronuncia una frase poi diventata iconica nell’ambiente: “Ogni volta che licenzio un linguista, le prestazioni del riconoscimento vocale aumentano.”

Basta teoria, al diavolo gli assiomi e la conoscenza: se non capisci un sistema non importa, basta emularne il comportamento, conta la previsione e non la comprensione del fenomeno che riproduciamo con la macchina. È l’alba del machine learning, quello che noi traduciamo con “apprendimento automatico”, è la storia dell’Intelligenza Artificiale degli ultimi 25-30 anni. Così nasce Amazon, così veniamo guidati negli acquisti: se faccio incetta di Gin, prima o poi sul cellulare, da qualche parte, “popperà out” il suggerimento di aggiungere dell’acqua tonica al carrello. Buona idea, in effetti! Così funziona un programma di completamento delle frasi: digito, “Tanto va la gatta al lardo…” e il mio device completa, “… che ci lascia lo zampino.”

È perché è intelligente come me? No! È perché pensa? Manco per sogno. È statistica e calcolo delle probabilità. L’intelligenza Artificiale non pensa come noi. La verità è che non pensa – anche se ci piace scriverlo – tantomeno capisce. Macina una quantità stellare di dati dove legge la previsione più probabile: oggi comincia a sfornare testi in tutto e per tutto simili a quelli che cucina la nostra naturale intelligenza, ma non lo fa come l’ultima versione di homo sapiens. Sicché funziona, in un’altra maniera ma funziona. Just simply as that!

Semplice (!), ma ovviamente con annessi problemi. Diversi problemi, problemi nuovi. Anche di questo parla Cristianini, che ho fin troppo plagiato: li ricorderò comunque in chiusura. Torniamo invece alla cronaca, alle grida dopo l’irruzione di ChatGPT. La preoccupazione generale, manco a dirlo, è che l’intelligenza artificiale sia destinata a sostituire la mente umana. Siamo sempre lì, dalle parti di Matrix e prima ancora delle tre leggi della robotica, anche se, pur in lontananza, il profilo mitologico rimane quello del Golem e del dottor Frankenstein. La hubris.

Un luogo della letteratura, e della fantascienza in genere, a mio parere fin troppo comune. Da ultimo non se la sono sentiti di evitarlo nemmeno Kazuo Ishiguro e Ian McEwan, il primo con Klara e il Sole, il secondo con Macchine come noi. Ishiguro mette in bocca al padre della bambina Josie, una domanda per Klara, l’AA, l’amica artificiale, l’inevitabile domanda, aggiungerei: “Tu credi al cuore umano? [...] non dovresti imparare il suo cuore?”; Adam, l’androide progettato da un Turing che non si è suicidato, nel contro-passato immaginato da McEwan, è geloso del rapporto tra Charlie, il “proprietario” che lo ha “acquistato” investendo i suoi non troppi guadagni, e la giovane Miranda. Cervello e passione, sense and sensibility.

Potranno le macchine provare l’amore o la rabbia? Diventeranno più intelligenti di noi e avranno infine il sopravvento? Nel caso, ben ci starà, è una vita che inseguiamo tentazioni prometeiche. Bah! Problemi vecchi, timori antichi. Meglio, molto meglio a mio parere, un film tedesco del 2021, scritto e diretto da Maria Schrader, dal titolo I’m your man (Ich bin dein Mensch, in originale) dove un superbo Dan Stevens, diventato famoso con la saga di Downton Abbey (e che recita in perfetto tedesco) interpreta il ruolo di un robot, Tom, programmato come l’uomo ideale per Alma (Alma!), una ricercatrice innamorata del suo lavoro di paleolinguista e affettuosamente ricattata dal suo capo che, in cambio di finanziamenti alla ricerca, le chiede di “testare” l’umanoide per tre settimane, così da potergli inviare una relazione utile al comitato etico di cui è a capo, e di conseguenza decidere se e come permettere a queste “macchine come noi” una vita in società.

Tom non pensa e agisce come un umano, impara e progredisce grazie alla lettura dei dati, ovvero del comportamento di Alma, rassicurandola, dopo le sue prime inevitabili gaffe, che nel tempo, e magari in poco tempo, sarà capace di comportarsi come lei si aspetta, come l’uomo che Alma vorrebbe avere al suo fianco. Senza rovinare la sorpresa di una visione assai raccomandabile, Alma, nella sensibilissima interpretazione di Maren Eggert, dopo un’iniziale reazione a dir poco perplessa e a tratti indispettita, e pur assolutamente consapevole della natura “non umana” di Tom, è costretta ad ammettere: “Vorrei non averti mai conosciuto. Ora la mia vita senza di te è solo una vita senza di te”.

Fa pensare. Siccome viviamo in relazione, siamo nodi nella rete di legami che ci interdefiniscono con altri umani, ma anche con gli amici animali, più o meno domestici, con le piante, e pure con oggetti che ci sono cari (le nostre coperte di Linus), con memorie individuali e collettive, con racconti, immagini, brani musicali… l’affermazione di Alma assume un significato prezioso quanto profondo: quando qualcuno, ma anche qualcosa, entra nella nostra vita, c’è il caso che possa diventare significativo, indipendentemente dalla sua natura ontologica. In questo senso non troverei necessaria una distinzione/contrapposizione tra il temibile imperialismo del virtuale simbolico (vario) e la realtà. Prima di tutto perché è reale quello di cui facciamo esperienza grazie ai nostri sensi e all’intelligenza e al linguaggio con i quali lo interroghiamo. Per Sars-CoV-2 la realtà è tutto ciò che gli permette di trasmettersi garantendogli sopravvivenza; per più di tre miliardi di anni, a partire da LUCA, the last universal common ancestor, l’intricato albero dell’evoluzione ha prodotto una quantità straordinaria di vita organica, a diversissimi livelli di complessità, il cui agire nel mondo non differiva – e non differisce troppo, per le specie ancora esistenti – da quello di un virus: guadagnarsi la sopravvivenza, scansando i pericoli e approvvigionandosi di risorse. I cefalopodi, i polpi che studia, tra gli altri, Peter Godfrey-Smith sono “altre menti”, rappresentando probabilmente l’esito di una linea evolutiva completamente diversa dalla nostra: in cosa consiste l’attività mentale di un polpo, cos’è la sua realtà? (tanto per non parlare sempre di pipistrelli). E per tornare a noi, a homo sapiens, non si rischia una deriva relativista ricordando, come ci ha insegnato anche il linguista Louis Hjelmslev, che ciò di cui abbiamo esperienza è solo la sostanza del contenuto, quello che emerge alla nostra sensibilità quando sulla materia esistente proiettiamo la forma linguistico-culturale con la quale siamo cresciuti.

C’è una ragione per cui la traduzione è difficile e, necessariamente, infedele: perché non si traduce da lingua a lingua, ma da mondo linguistico a mondo linguistico. Non a caso, riproponendo a suo modo i salutari esercizi di emendazione dell’intelletto di Spinoza, Paul Feyerabend raccomandava lo studio di più lingue e i conseguenti esercizi di traduzione. Che sono utilissimi quando si chiede un’indicazione stradale, ma indispensabili quando si è troppo sicuri di qualcosa. Quando capita, meglio provare a dirlo in una altra lingua – raccomandava Feyerabend – magari in più lingue: solo se suona ancora convincente, c’è il caso che possa essere condivisibile. O altrimenti si può cercare la verità e toccare la volta del mondo, certo. Che se c’è, però, è come la nota di tromba di Jacopo Belbo nel Pendolo di Foucault: brevissima (dopo, è solo commento).

L’attuale Intelligenza Artificiale, programmi come ChatGPT, non lavorano secondo logica biologico-cognitiva: sono “The end of the theory” come titolava un numero di Wired del 2008, si tratta di dati, statistica, potenza di calcolo, calcolo delle probabilità. E sono e saranno sempre più efficienti: sarebbe sorprendente – e ipocrita, aggiungerei – scoprirci sorpresi, all’annuncio di ogni nuovo aggeggio. Antropomorfizzando – ma lo facciamo anche con gli animali domestici, con i delfini, Godfrey-Smith lo fa raccontando dei calamari – si tratta di un’altra intelligenza, altri modi di manifestarsi della realtà, altre menti: il rischio non è di sostituire quella umana, lasciamo queste suggestioni al più pigro dei racconti di fantascienza.

Ma si tratta di macchine alle quali deleghiamo decisioni: è necessario stabilire regole di fiducia. E, per inciso, sulla preoccupazione che in questi giorni qualche testata ha strillato, paventando il rischio per le professioni creative, quelle responsabili della produzione di contenuti… c’è da chiedersi, semmai, per quale ragione ChatGPT dovrebbe funzionare peggio di qualcuno che viene pagato 10 o anche 5 euro lordi a pezzo. Sempre più spesso si leggono testi tradotti male e editati peggio: se si ha a cuore l’umana creatività, bisognerebbe prima di tutto riconoscerne il valore. 

Poche storie, non è possibile bandire l’uso delle nuove tecnologie, a scuola o dove sia, tantomeno staccarne la spina: scorciatoie per eludere i problemi. Problemi ci sono e vanno affrontati, lo anticipavamo. Chat-GPT sembra essere stato programmato così da cominciare ad evitare i bias di conferma più critici, quelli che digitano “sporco negro” e non “sporco caucasico” semplicemente perché la prima occorrenza è molto, ma molto più frequente nei miliardi di testi che abbiamo immesso nelle macchine. Il ché, però, conferma il problema della frequenza statistica dei più diversi pregiudizi: se immettiamo dati nella macchina senza alcun criterio, quella rigurgita ciò con la quale l’abbiamo abboffata: GIGO, Garbage In, Garbage Out!

Se contano solo i click – sottolinea Cristianini – la macchina sta registrando i nostri interessi o le nostre debolezze? Il confine non è chiaro (non lo è mai) e la domanda è cruciale. Ci sono giganteschi problemi di privacy, di fairness, di equity. Nell’immettere dati dovremmo essere d’accordo su quali siano i valori umani da difendere: lo siamo? Se – si chiede Cristianini – voglio istruire un programmatore così che le stringhe garantiscano che la macchina sia neutrale, come faccio a definire la neutralità? Cosa significa? Vogliamo che i nostri cv – per essere ammessi all’Università, per essere assunti da un’azienda – siano vagliati da un programma? Vogliamo delegare a una macchina il giudizio in Tribunale? Si tratta di deleghe, ma sono scelte, umane. Non sono domande per le macchine. Non sono risposte per la tecnica. Bisogna dettare le regole, bisogna accordarsi sulla governance, è un problema di democrazia a livello planetario di cui, per altro, si sta già discutendo nelle sedi istituzionali: più che denunciare scandalizzati a mezzo stampa – per 24ore, al massimo 48 – più che chiamare ad una generica ribellione sulla rete social, bisogna prosaicamente impegnarsi, studiare e provare a dire la nostra.

Un aneddoto, dell’alba del pc. Primi anni ’80. A un convegno dedicato alle nuove tecnologie per l’insegnamento, un docente di matematica di un liceo sperimentale romano racconta l’esperienza dell’ultimo anno, quando in più occasioni ha perorato l’acquisto di un pc ad uso didattico. All’ultima riunione del consiglio d’istituto la presidente, e decana dei professori di matematica – di un liceo sperimentale, sottolinea di nuovo – si rivolge al collega con la consueta condiscendenza: “Caro professore, va bene, abbiamo deciso che per il prossimo anno avrà il suo benedetto computer. A una condizione però: che lo si usi solo per fare calcoli!”. Più divertito che sconsolato, il professore risponde: “Cara collega, lei mi ricorda una mia vecchia zia, il giorno che le portammo il televisore a casa. Dopo qualche minuto, sorridendo soddisfatta, commentò: ma che bella invenzione, basta chiudere gli occhi e sembra la radio”.

Teniamo gli occhi aperti.

Comments

Search Reset
0
Un programmatore smart worker
Sunday, 12 February 2023 12:49
Inizialmente non volevo leggere il tuo articolo. Il mio stato mentale era quello del “prevenuto”. Sovrabbonda in soggetti organizzati e singolarità anticapitalisti una assurda concezione verso cos’è la tecnologia in questa fase storics del capitalismo. L’intelligenza artificiale ci spia per poi sostituirci e sottometterci. Le nanotecnologie provvederanno a realizzare corpi transumani. Chat GPT è “l’inizio della catastrofe”. Il tutto è paventato senza comprendere che la tecnologia si evolve sotto la spinta di rapporti economici sociali determinati, per accrescere il valore (di scambio contente il plusvalore) e per corrispondere a quei valori d’uso (nuovi bisogni determinati dal rapporto dinamico del processo capitalistico) sotto forma di merce.
Finalmente uno svolgimento sul tema caratterizzato dal buon senso e dalla intelligenza.

Allora dici bene che Chat GPT “non pensa”, è un ottimizzato algoritmo che usa come sorgente i dati già indicizzati sul web e poi li elabora attraverso una logica del “minimo comune multiplo”. A volte aggrega cose che non hanno alcuna relazione con l’argomento domandato, il “machine learning” è il faticoso processo dove l’umano attraverso l’interfaccia specifica se il risultato è pertinente.

Detto questo si tratta di soffermarci a quale necessità l’intelligenza artificiale corrisponde nella società dominata dal rapporto della produzione del valore e della merce? Facciamo un esempio visto che negli Stati orientali degli USA si intende vietare l’uso di Chat GPT nelle scuole, dando uno sguardo al futuro. Una massa di giovani calati nella divisione sociale del lavoro necessitano di una mera formazione scolastica di tipo tecnico e nozionistico, e sempre più è meno necessaria una istruzione di massa generalista e di buon livello. La fase del boom economico del dopo guerra è definitivamente alle spalle, dunque le stesse possibilità di accesso a quell’ascensore sociale del passato. Dunque i nuovi giovani, presi dall’alternanza scuola lavoro, necessitano di questo tipo di istruzione “agile” e “nozionistica”. Se questa è la determinazione della fase attuale generale, anche il docente deve possedere nient’altro che questa capacità e questo livello di cultura. Dunque a questo stadio un Chat GPT nel ruolo di docente puó servire lo scopo abbattendo quel costo fisso per il capitale dettato dal mantenimento del salario dell’insegnante. In sostanza Chat GPT per gli studenti che saranno formati nel recinto della mera forza lavoro produttiva, docente umano e titolato per gli altri più ricchi.
Ma il problema è Chat GPT? Si potrebbe contrastare tutto questo ostacolando contro corrente l’intelligenza artificiale? Certamente no, così come la scuola generalista di massa nei paesi avanzati ha già visto la fine del suo tempo passato. Quindi chi ha paura della IA (o AI) è solo l’individuo che individualisticamente si oppone alla società fondata dalla produzione del valore e dalle sue necessità, che sovrabbonda in quei settori intermedi del mercato. Non solo il docente nozionistico, ma anche un ragioniere, un commercialista, un legale per le cause civili, un agente turistico o immobiliare, ecc. L’individuo che si sente in “sovrappiù” giustamente avverte come il fiato sul collo l’internet delle cose, e individualisticamente si lascia trascinare da vagheggiamenti anti storici reazionari seppur colorati da preamboli di sinistra.
Like Like Reply | Reply with quote | Quote

Add comment

Submit