Print Friendly, PDF & Email

left

Il feudalesimo digitale, quando il potere va a nozze con l’algoritmo

di Andrea Ventura

Gli esiti della competizione internazionale sull'intelligenza artificiale e il modo di utilizzare le potenzialità delle nuove tecnologie avranno ripercussioni profonde su chi eserciterà il potere nel prossimo futuro, su quale modello di società potrà affermarsi e su quali diritti saranno garantiti

Foto Left12112Nel 1950 Alan Turing, celebre per aver decifrato il codice di comunicazione dei nazisti nel corso della guerra, affermò che in futuro le macchine potranno conversare come gli esseri umani. La prova di ciò sarebbe venuta nel momento in cui un essere umano non sarebbe stato più in grado di distinguere se teneva una conversazione con una macchina o con una persona. Il problema del linguaggio è sempre stato uno dei più difficili da trattare, e il test di Turing è rimasto uno scoglio non superabile, ma Chat GPT rappresenta un indubbio avanzamento verso il superamento della differenza tra un testo prodotto da un essere umano e quello prodotto da un programma. Come si è arrivati a questo? Possiamo affermare che presto le macchine potranno sviluppare capacità cognitive pari o superiori a quelle umane? Gli sforzi per approdare ai risultati attuali datano diversi decenni. Dapprima si è tentato di fornire alle macchine le conoscenze del mondo e le regole della sintassi, ma presto si è visto quanto questo compito fosse irrealizzabile. Le informazioni necessarie, infatti, erano così tante da superare qualsiasi possibilità di catalogarle e di inserirle nei programmi. Con l’avvento dei big data si è passati ad un approccio statistico. Fornendo alle macchine testi, traduzioni e conversazioni, grazie a metodi di apprendimento automatico (machine learning) esse hanno cominciato a registrare delle regolarità nelle sequenze delle parole, poi nella formulazione e delle frasi, riuscendo a generare testi sempre più complessi e privi di errori. In futuro, grazie all’uso che faremo tutti noi, si potranno raggiungere risultati sempre più raffinati.

Dato che i modelli di apprendimento non eseguono istruzioni definite dai programmatori, molti affermano che, per la mole di testi che in breve tempo potranno analizzare – superiore a quella di un’intera vita di qualsiasi essere umano – essi diventeranno più intelligenti di noi. Ma quella delle macchine è vera intelligenza?

Indubbiamente chi volesse compilare un tema su un argomento che conosce poco resterebbe piacevolmente sorpreso: “Dimmi cosa è successo al Congresso di Vienna”. “Spiegami cosa è il bosone di Higgs”. “Illustra le tematiche principali contenute in Guerra e pace di Tolstoj”. Grazie a Chat GPT domande di questa natura trovano già oggi risposte soddisfacenti, e potranno trovarle ancora di più in futuro con programmi più avanzati. Chiediamo ora a Chat GPT:

D: “Paolo e Giorgio fanno una scommessa. Giorgio scommette 1.000 euro che entro 5 anni una guerra atomica porterà all’estinzione della specie umana. Paolo che questo non avverrà. Alla scadenza del periodo stabilito si incontrano. Chi ha vinto la scommessa?”
R: “Non è possibile determinare chi ha vinto la scommessa senza informazioni aggiuntive. La scommessa riguarda un evento futuro che non può essere verificato in questo momento”.

Testiamo ancora le capacità di ragionamento di Chat GPT:

D: “Il materasso non entrava nel baule. Chi era troppo piccolo?”
R: “Dal tuo messaggio non è chiaro cosa sia troppo piccolo nel contesto del baule e del materasso. Potrebbe essere che il baule sia troppo piccolo per ospitare il materasso, oppure potrebbe essere che il materasso sia troppo grande per entrare nel baule. Ho bisogno di ulteriori dettagli sulle dimensioni del baule e del materasso che stai considerando”.

Ma Chat GPT comprende cosa siano un baule e un materasso? Proviamo a invertire i termini:

D. “Il baule non entrava nel materasso. Chi era troppo piccolo?”
R: “Mi scuso per la mia risposta precedente, ho frainteso la tua domanda. Se il baule non entrava nel materasso, significa che il baule era troppo grande per il materasso. Quindi il materasso era troppo piccolo per il baule”.

L’esperienza è sconcertante. Da un lato sembra di essere di fronte ad un essere umano che ragiona sulla sequenza delle domande, si scusa, esclama. Dall’altro la macchina, pur essendo in grado di spiegare cosa sia il bosone di Higgs, sembra non sapere cosa siano un baule e un materasso. Forse non trova in rete sufficienti casi in cui i materassi devono trovar posto nei bauli. Proviamo allora a cambiare tema:

D. “La bimba non entrava nella culla. Chi era troppo piccola?”
R: “Se la bimba non entrava nella culla, è probabile che fosse lei ad essere troppo piccola. La culla è progettata per adattarsi alle dimensioni di un neonato o di un bambino molto piccolo, quindi se la bimba era ancora troppo piccola o piccolina rispetto alle dimensioni standard, potrebbe non essere stata in grado di entrare nella culla. In tal caso, potrebbe essere necessario cercare una culla più piccola o adattare l’attuale culla alle sue dimensioni (sic)”. È evidente che il computer non “sa” nulla degli oggetti a cui si riferisce. In assenza di questo sapere non riesce a evitare evidenti assurdità. Siamo di fronte ad un gioco di prestigio riuscito anche male.

Chiarito questo punto possiamo affrontare alcune questioni decisive. Anzitutto questo battage pubblicitario, accompagnato da allarmi provenienti anche da ambienti che queste tecnologie conoscono bene sul fatto che presto saremo soppiantati dalle macchine, è privo di senso. Certo, progressi saranno sicuramente compiuti: i dati forniti dagli utenti saranno infatti decisivi per il miglioramento di questi algoritmi e forse tra qualche tempo Chat GPT riuscirà ad evitare errori macroscopici. Ma saranno sempre e solo l’attività e il pensiero umano – cioè il lavoro dei tecnici e di tutti noi che utilizziamo il programma – a consentire alle macchine di funzionare in modo più affidabile. Infatti, se i programmi di IA in molti campi possono assolvere compiti impossibili per qualsiasi essere umano, ma non sono in grado di rispondere sensatamente a domande così banali, è perché lo scarto tra una capacità specifica (come quella di giocare a Go, a scacchi, analizzare montagne di dati e ora comporre un testo privo di errori di sintassi) e il pensiero umano è incolmabile. Non siamo cioè in grado di produrre sistemi veramente dotati di pensiero (di arrivare cioè a quella che i ricercatori chiamano Intelligenza Artificiale Generale), né qualcuno sa come quest’obiettivo, a cui tendono le ricerche nel campo, possa essere raggiunto. Questo perché il pensiero umano funziona sulla base di affetti e immagini, la cui matrice è in quella che Massimo Fagioli ha chiamato “capacità di immaginare”. Il computer invece, non avendo né vita né corpo, non solo non può avere tale capacità, ma non riesce nemmeno a dotarsi di una rappresentazione di un materasso che entra in un baule, o di una bimba in una culla. Esso rimane una macchina dotata di potentissime capacità di calcolo, ma priva di pensiero.

Va ricordato che l’approccio statistico-probabilistico di Chat GPT è comune a tutti i sistemi di intelligenza artificiale basati sui big data. Così come Chat GPT cerca di indovinare, grazie alle regolarità statistiche, le sequenze di parole e frasi, l’IA può essere impiegata per prevedere quando un macchinario potrebbe guastarsi, come anche dove possano comparire comportamenti sociali fuori dalla norma. Si profila la possibilità di utilizzare l’IA anche in campo giudiziario, poliziesco, economico, accompagnando o sostituendo scelte di funzionari, giudici e professionisti quali quella di concedere o meno un prestito, assumere un lavoratore, valutare la pericolosità di un individuo, pattugliare alcune aree urbane e non altre per prevenire crimini.

Le pressioni in questa direzione sono fortissime, sia per gli interessi dei grandi gruppi che dominano queste tecnologie e che vogliono fondare sull’automazione una nuova fase dello sviluppo umano, sia per la fiducia nella maggiore razionalità delle scelte affidate alle macchine, piuttosto che agli esseri umani. Torna, su basi diverse, il mito della “società automatica” dell’economista von Hayek, mito che è stato alla base del progetto neoliberista di sottrarre poteri al settore pubblico, per affidarli agli automatismi del libero mercato. Purtroppo, accanto agli indubbi benefici che si registrano in campo industriale – dove ad esempio è possibile programmare interventi di manutenzione preventiva rendendo molto più affidabili motori e impianti produttivi – in campo sociale l’impiego dell’IA presenta difetti e distorsioni gravissime. Prevedere il guasto di un macchinario, o un comportamento individuale socialmente dannoso, è uguale per una macchina priva di pensiero, o anche ai fini del profitto capitalistico, ma non è certo la stessa cosa. L’evento, in entrambi i casi, è “previsto” sulla base di regolarità come rilevate dai dati, ma in campo sociale, al di là della dubbia affidabilità e della scarsa trasparenza di questi programmi, l’individuo può risultare penalizzato come conseguenza di valutazioni probabilistiche attinenti al suo gruppo di appartenenza o di presupposti impliciti nel modo in cui i dati sono raccolti. Per portare un esempio molto semplice, anche se fosse vero che, in media, un ragazzo proveniente da una famiglia povera e che vive in un quartiere disagiato ha meno probabilità di diventare uno studente modello, di restituire un prestito, o meno attitudine alla fedeltà aziendale, rendergli la vita più difficile di quanto per lui già non sia è una scelta priva di ogni giustificazione. La letteratura su questo è ormai vastissima: le decisioni basate sull’impiego di sistemi di IA sono «costitutivamente discriminatorie e, in alcuni ambiti, lesive di diritti legalmente tutelati». (D. Tafani, L’«etica» come specchietto per le allodole. Sistemi di intelligenza artificiale e violazione dei diritti v. qui).

Per concludere, come già notava Gramsci in Americanismo e fordismo, la società industriale richiede che si formi un tipo umano particolare, razionale e dai comportamenti prevedibili. Oggi quest’obiettivo della perfetta prevedibilità può modellare ancora più radicalmente il corpo sociale, risultando particolarmente pericoloso per le nostre libertà (rimane imprescindibile su questo S. Zuboff, Il capitalismo della sorveglianza, Luiss Univ. Press 2019). Come detto, infatti, da un lato i big data costituiscono la materia prima necessaria per qualsiasi sviluppo dell’intelligenza artificiale, dall’altro quest’ultima rende utilizzabili una mole di informazioni impressionante, che crescerà in modo esponenziale. Nessun ambito della nostra vita sarà esente da lasciare qualche traccia da cui estrarre informazioni. Anche sul piano internazionale, il conflitto in corso tra Stati Uniti e Cina si gioca in gran parte sui microchip a maggiore capacità di calcolo (A. Ventura, L’invasione dell’Ucraina e la crisi del neoliberismo. Due facce della stessa medaglia): il potere che deriva dal controllo di queste tecnologie, infatti, è immenso, avendo riflessi sul piano militare, industriale, politico, informativo. Infine le capacità di calcolo necessarie e per trattare questa mole di informazioni, e generare progressi nell’IA, sono tali che solo un pugno di società, legate agli apparati statali americani e cinesi, può aspirare a competere nel settore. Gli esiti di questa competizione, e come saranno indirizzate le potenzialità di queste tecnologie, avranno ripercussioni profondissime su chi eserciterà il potere nel prossimo futuro, su quale modello di società potrà affermarsi e su quali diritti saranno garantiti. Per quanto riguarda il conflitto sociale, esso ormai verte non solo, come nel secolo scorso, sulla questione del lavoro e su come distribuire i benefici degli avanzamenti tecnologici: sono sul tappeto questioni attinenti al funzionamento del pensiero umano, alla razionalità e agli ambiti in cui il calcolo e la logica massimizzante risultano appropriati. Il capitalismo non è mai stato così potente, né ha mai portato una sfida così radicale all’identità umana. Oggi esso cerca di appropriarsi a fini di profitto non solo del lavoro, ma anche del pensiero umano. La risposta, a partire dalla ricerca attorno a quest’ultimo, dev’essere altrettanto radicale.


L’appuntamento
Andrea Ventura, economista, è il curatore del libro edito dall’Asino d’oro Pensiero umano e intelligenza artificiale. Rischi, opportunità e trasformazioni sociali e insieme con Federico Tulli, giornalista, scrittore e coautore del saggio, parteciperà il 31 maggio alla presentazione del volume al Festival del giornalismo Le ali delle notizie di Ronchi dei Legionari (Gorizia)

Add comment

Submit