La solitudine dell’agente rappresentativo
Eterogeneità e interazione per una nuovamacroeconomia
di Giovanni Dosi e Andrea Roventini*
Crisi e rivoluzioni della teoria e della politica economica: un simposio
Abstract:La Grande Recessione è stata un esperimento naturale per la macroeconomica, mostrando l’inadeguatezza della teoria dominante basata sui modelli DSGE. La macroeconomia dovrebbe considerare l’economia come un sistema complesso in evoluzione, cioè come un’ecologia popolata da agenti eterogenei, che interagiscono fuori dall’equilibrio cambiando continuamente la struttura stessa del sistema.Quindi, la macroeconomia non può ridursi alle scelte micro di un agente rappresentativo, ma le complesse interazioni tra gli agenti portano all’emergenza di nuovi fenomeni e strutture gerarchiche a livello macro. Questo è alla base dei modelli ad agenti eterogenei, che offrono una nuova metodologia per modellare economie complesse “dal basso”, con microfondazioni in linea con l’evidenza empirica.
Il dibattito tra Emiliano Brancaccio e Olivier Blanchard si colloca nella più ampia discussione sulla crisi e possibile rifondazione della teoria macroeconomica scaturita dalla crisi finanziaria del 2008 e dalla Grande Recessione (Blanchard e Summers, 2019; Brancaccio, 2019; Blanchard e Brancaccio, 2019). I due autori, in modi più o meno espliciti, affrontano temi sia teorici che di politica economica. Per Emiliano è necessario un paradigma economico alternativo rispetto a quello fondato sull’equilibrio economico generale e l’agente rappresentativo che permetta di slegare la produzione dalla distribuzione del reddito. Tale paradigma dovrebbe ri-basarsi sui contributi classici di Marx, Sraffa, Pasinetti, Garegnani e molti altri. Olivier discute cinque lezioni o sfide che la macroeconomia deve affrontare e le implicazioni per la politica monetaria e fiscale. Entrambi partono da un’ispirazione teorica keynesiana: dopo la crisi, gli economisti che credono ‘talebanamente’ nelle magnifiche sorti e progressive del libero mercato sono diventati dei panda (i cui problemi riproduttivi non andrebbero peraltro curati).
Il confronto tra Blanchard e Brancaccio solleva varie questioni teoriche, alcune delle quali restano aperte. In un nostro recente articolo (Dosi e Roventini, 2019) avanziamo una proposta che consideriamo più generale e radicale, e che si basa sulla necessità di un ulteriore balzo in avanti per rifondare la metodologia della scienza economica dalle sue fondamenta. L’economia va infatti considerata come un sistema complesso in evoluzione, dove i fenomeni macroeconomici come le crisi, la crescita, etc. emergono dalle continue interazioni tra agenti (es. famiglie, imprese, banche) eterogenei. Solo così è possibile sviluppare teorie veramente microfondate che permettano di analizzare congiuntamente problemi come la disuguaglianza, l’interazione tra il sistema finanziario e l’economia reale, la natura endogena dei cicli economici e delle crisi, la distruzione creativa del progresso tecnologico. Tali teorie richiedono lo sviluppo di modelli agent-based che riescono a spiegare congiuntamente diversi fenomeni micro e macro economici e possono quindi essere impiegati per disegnare e valutare l’impatto di politiche monetarie, fiscali, strutturali, industriali, d’innovazione sulla dinamica economica di breve e lungo periodo.
Per spiegare e motivare perché riteniamo che l’economia debba essere rifondata sulla scienza della complessità, dobbiamo partire da qualche nozione epistemologica di base di cui molti economisti sembrano essere all’oscuro. Tutte le discipline scientifiche – tranne purtroppo gran parte dell’economia politica ‘moderna’ – descrivono i fenomeni oggetto del loro studio distinguendo tra un livello micro, più ‘basso’, e uno più ‘alto’ che analizza i risultati aggregati e normalmente non è isomorfico al primo. Per esempio, nella termodinamica, non ha alcun senso studiare le proprietà di una molecola ‘media’ o ‘rappresentativa’. Questo punto fondamentale è stato più volte rilevato da Kirman (2016) e al di fuori della scienza economica da Anderson (1972) e Prigogine (1980) tra molti altri. Epistemologicalmente, l’aggregato di entità interagenti porta all’emergenza di proprietà che non possono essere ridotte al comportamento (cosciente o incosciente) di alcune componenti identificabili. Per i ricercatori delle scienze naturali è ovvio: sarebbe persino offensivo cercare di spiegare che la dinamica di un alveare può essere caratterizzata dalle scelte o aggiustamenti di un’“ape rappresentativa” (Kirman, 2016). Nelle scienze sociali, la relazione tra ‘micro’ e ‘macro’ è stata al centro dell’analisi sin dalla loro origine, per esempio nello studio della relazione tra gli agenti e le strutture sociali cui appartengono. In economia, un esempio paradigmatico è l’idea (spesso mal compresa) della mano invisibile di Adam Smith: una proposizione sulla mancanza di isomorfismo tra la cupidigia del singolo macellaio o fornaio e le loro consegne regolari di carne e pane ai consumatori nei diversi mercati.
1. L’infanzia (felice) della macroeconomia
Dopo questa premessa, consideriamo brevemente la storia della macroeconomia, che è nata come disciplina a sé stante con i contributi di Keynes. Fino agli anni ’70 c’erano due ‘macro’. La prima si occupava della crescita e può essere ben rappresentata dal modello di Solow, caratterizzata implicitamente da un’idea sottostante di razionalità e equilibrio, ma senza alcun riferimento alle scelte allocative di un agente rappresentativo considerato come una versione ‘sintetica’ di un equilibrio economico generale. Allo stesso tempo, la distinzione tra modelli descrittivi à la Solow, Kaldor e Pasinetti (nonostante le loro differenze) e normativi à la Ramsey era chiarissima agli economisti prima dell’avvento di Lucas e colleghi. Infine, il cambiamento tecnologico era separato dai meccanismi allocativi delle risorse.
La seconda macro si occupava di studiare le fluttuazioni economiche con uno spirito keynesiano, ma con una metodologia neoclassica. Era la cosiddetta Sintesi Neoclassica fondata sui contributi di Hicks, Modigliani, Patinkin, Samuelson e altri keynesiani soprattutto americani e basata sul modello IS-LM, che lasciava sempre spazio nel breve periodo a politiche fiscali e monetarie di stabilizzazione dell’output. Dall’altra parte dell’Atlantico, i keynesiani europei1 (oggi ormai conosciuti come Post-keynesiani) erano invece più focalizzati a studiare le leggi del moto della dinamica capitalistica che comprendevano il moltiplicatore, l’acceleratore, la distribuzione del reddito, etc. Nei Post-keynesiani c’era e c’è uno scetticismo diffuso verso ogni tipo di microfondazione, forse perché identificata come il primo passo verso l’applicazione dell’individualismo metodologico. Ma lo studio del funzionamento dell’alveare non deve essere costruito sulla conoscenza di quello che l’ape rappresentativa pensa, ma, al contrario, le microfondazioni permettono di studiare come la macro struttura dell’alveare influenza la distribuzione dei comportamenti delle api. Riprenderemo questo punto successivamente.
All’estremo opposto c’era il monetarismo di Milton Friedman che riconduceva l’economia ad un sistema pre-industriale dove vigevano la legge di Say e la teoria quantitativa della moneta, che veleggia sempre verso un equilibrio “naturale” di pieno impiego e nella quale le politiche fiscali e monetarie sono sempre dannose.
2. I nuovi “Classici”: il fanatismo e oltre
Purtroppo, rispetto alle successive involuzioni della macroeconomia, il monetarismo si è rivelato perfino moderato (sic). Infatti, a partire dagli anni ’70, l’economia è piombata in un Medio Evo teorico (Krugman, 2011; Romer, 2016). Per cominciare, la restaurazione “New Classical” ha abolito ogni distinzione tra economia normativa e positiva tra, ad esempio, modelli alla Ramsey e alla Solow. Paradossalmente, nei lavori degli economisti New Classical, spesso fondamentalisti del mercato, si deriva la soluzione del modello partendo dall’ottimizzazione intertemporale di un pianificatore centrale benevolo e solo alla fine la si riconduce misteriosamente all’equilibrio decentralizzato di un mercato concorrenziale. Naturalmente, questi tripli salti mortali carpiati non sarebbero necessari se si potesse costruire un modello di equilibrio economico generale “genuino”, cioè con agenti eterogenei nelle loro preferenze e dotazioni. Purtroppo, ciò non è possibile sin dai teoremi di Sonnenschein-Mantel-Debreu ben conosciuti, ma ignorati dagli economisti (Kirman, 1989). Di fronte a questo limite invalicabile, si è invece scelto di non affrontare il problema del coordinamento ricorrendo alla patetica scorciatoia dell’agente rappresentativo che non ha nessuna legittimazione teorica (Kirman, 1992).
La contro-rivoluzione dei Nuovi “Classici” si è spinta fino a sterminare ogni tipo di frizione che permetteva alle politiche fiscali e monetarie di avere effetti almeno nel breve periodo. Perché un agente rappresentativo con aspettative “razionali” in grado di risolvere sofisticati problemi di ottimizzazione intertemporale da oggi alla fine dei tempi dovrebbe tenere conto di qualche distorsione se i mercati sono competitivi e sempre in equilibrio? Le politiche di stabilizzazione economica sono infatti inutili se il mercato permette sempre di raggiungere allocazioni Paretiane di first-best. Ovviamente ciò accade unicamente perché il mercato si incarna in un agente rappresentativo: eventuali problemi di coordinazione o allocazione potrebbero essere razionalizzati solo attraverso episodi di manifesta schizofrenia dell’agente stesso!
Di fronte a questa progressiva discesa nell’abisso della macroeconomia New Classical, pensiamo che gli economisti avrebbero dovuto reagire come suggeriva Bob Solow in un’intervista con A. Klamer:
Supponiamo che qualcuno si sieda affianco a me annunciandomi di essere Napoleone Bonaparte. L’ultima cosa che voglio è infilarmi in una discussione tecnica sulle tattiche della cavalleria nella battaglia di Austerlitz. Se lo faccio, mi sono tacitamente lasciato portare nel gioco in cui lui è Napoleone. Ora, Bob Lucas e Tom Sargent non amano niente di più delle discussioni tecniche, perché a quel punto hai tacitamente accettato le loro ipotesi fondamentali; la tua attenzione è distratta via dalla debolezza fondamentale della storia complessiva. Visto che trovo l’approccio complessivo ridicolo, rispondo trattandolo come ridicolo, ridendone – per non cadere nella trappola di trattarlo seriamente e passare alle questioni tecniche (Solow, in Klamer, 1984, p. 146, nostra traduzione).
Invece, questi novelli “Napoleoni” sono stati presi seriamente da colleghi e dal mondo intero (sic). A nostro avviso ciò è stato dovuto anche ad uno Zeitgeist che sosteneva la “magia dei mercati” e che è riconducibile all’egemonia politica ben rappresentata da Ronald Reagan e Margaret Thatcher. Ciò ha portato a politiche economiche incentrate su privatizzazioni, liberalizzazione finanziaria, austerità fiscale (o, dove possibile, tagli fiscali) che sono state imposte per decenni dal Fondo Monetario Internazionale e recentemente dall’Unione Europea.
Tutto questo per una fede cieca nelle virtù taumaturgiche del mercato. Il punto cruciale che vogliamo sottolineare è che i cambiamenti egemonici nella teoria macroeconomica devono anche essere interpretati attraverso l’evoluzione delle relazioni di potere tra i diversi gruppi sociali e politici, che spesso non portano a progressi della teoria stessa, tutt’altro!
Il punto più astruso (e ridicolo) del fanatismo è stato raggiunto con i modelli della Teoria del Ciclo Reale che considerano le fluttuazioni economiche come una sequenza di equilibri Paretiani guidati da shock tecnologici aggregati. Ovviamente la domanda che si pone immediatamente riguarda la natura di questi shock, dato che le recessioni non possono che essere provocate da episodi di regressione tecnologica (per esempio si rompono tutte le lavatrici o c’è un lunghissimo black-out elettrico). Prescott, uno dei padri di questa teoria, offre una candida spiegazione degli shock tecnologici negativi: “È il traffico congestionato laggiù!” (dove “laggiù” si riferisce a un ponte congestionato, come riportato in Romer, 2016, p. 5). Ovviamente le proposizioni della teoria del ciclo reale non sono supportate da alcuna evidenza empirica. Ma il prezzo pagato dalla macroeconomia per questa attività di “trolling” intellettuale è stato enorme!
3. Nuovi keynesiani, nuovi monetaristi e la nuova sintesi neoclassica
A partire dagli anni ’80, gli economisti “New Keynesian”, di cui Blanchard forse è l’esponente più autorevole, invece di seguire il consiglio di Solow, preferirono accettare le regole del gioco dei Nuovi “Classici” e lavorare al margine sulle assunzioni ausiliarie del modello standard. Hanno così introdotto una legione di rigidità nominali e reali in modelli microfondati sulla base di un agente rappresentativo con aspettative razionali. In questo modo sono riusciti a dimostrare alcuni risultati teorici come la non neutralità della moneta, ritenuti scontati prima del Medio Evo della macroeconomia. Certamente la maggiore sensatezza e flessibilità delle conclusioni ottenute dai modelli New Keynesian permette un confronto con teorie alternative, come il libro di Brancaccio (2017) dimostra (l’“anti-Prescott” potrebbe forse solo essere un testo di psichiatria). Purtroppo, parlare di tattiche di cavalleria ad Austerlitz con i vari Napoleoni ha contribuito a diffondere l’infezione: Mankiw e Romer (1981) sono arrivati a scrivere che la macroeconomia neo-keynesiana dovrebbe essere rinominata come “neo-monetarista” e DeLong (2000) ha discusso il “trionfo del monetarismo”. In effetti, la macroeconomia New Keynesian ricorda l’omeopatia: si aggiungono quantità minime di imperfezioni e frizioni al modello standard per mitigarne i risultati più scandalosi e ottenere qualcosa che abbia un senso economico.
Ma l’omeopatia non ha sconfitto l’infezione che è così divenuta sepsi con la Nuova Sintesi Neoclassica basata sui modelli Dynamic Stochastic General Equilibrium (DSGE): si veda, ad esempio, Galí and Gertler (2007). Tali modelli innestano la concorrenza monopolistica, diverse imperfezioni e una regola monetaria su un modello basato sulla teoria del ciclo reale. Per molti versi, i modelli DSGE non sono nient’altro che l’ultima fase tolemaica della teoria: si aggiungono epicicli ad libitum senza alcuna disciplina teorica o empirica per cercare di replicare meglio i dati. In quest’estasi dell’epiciclo, nessuno sembra considerare come sia ridicolo assumere che un mitologico agente rappresentativo sia allo stesso tempo estremamente sofisticato nel pianificare le allocazioni future, ma ricada in abitudini di consumo o fissi i prezzi indicizzandoli a quelli passati (Caballero, 2010, fornisce una vivida descrizione di questa situazione surreale)!
C’è anche una versione ‘buona’ del Neo-Keynesianismo, più radicale rispetto a quella di cui Blanchard è il massimo esponente, che ha sviluppato modelli con microfondazioni standard che però considerando le imperfezioni come caratteristiche strutturali dell’economia (si vedano tra gli altri Akerlof e Yellen, 1985; Akerlof, 2002, 2007; Greenwald e Stiglitz, 1993a, 1993b).2 Asimmetrie informative pervasive richiedono infatti un’eterogeneità vera e interazioni tra gli agenti che possono portare a risultati keynesiani derivanti da sistematici fallimenti di coordinamento (per una discussione dei contributi di Stiglitz, si veda Dosi e Virgillito, 2017).
4. Dalla grande moderazione alla grande recessione
All’inizio del nuovo millennio, Lucas (2003) dichiarava baldanzosamente che il problema della prevenzione delle depressioni economiche era stato risolto, mentre un crescente numero di contributi della Nuova Sintesi Neoclassica indicava che la politica economica era diventata finalmente una scienza (per es. Galí e Gertler, 2007). Questo ottimismo era reso possibile dalla diffusione massiccia dei modelli DSGE dentro e fuori l’accademia e dal culto della “divina coincidenza” (forse coniata per la prima volta da Blanchard e Galí nel 2007) per cui una politica monetaria focalizzata sul controllo dell’inflazione permetteva allo stesso tempo di stabilizzare l’economia e la disoccupazione (anche se la maggior parte dei modelli DSGE non contemplano la disoccupazione). In questo periodo Panglossiano, alcuni economisti si spinsero a ricondurre la “Grande Moderazione” a una buona politica economica guidata dai modelli DSGE (Bernanke, 2004).
Sfortunatamente, come è successo alla famosa tesi di Francis Fukuyama (1992) su una possibile “fine della storia”,3 queste posizioni sono state spazzate via dai fatti successivi. Infatti, un evento micro, la bancarotta di Lehman Brothers nel 2008, ha scatenato una crisi finanziaria mondiale che ha portato alla Grande Recessione, la più grande contrazione economica che abbia colpito le economie dei paesi sviluppati dal 1929.
Come la Grande Depressione e gli shock petroliferi, la Grande Recessione è stata un esperimento naturale per l’analisi economica che ha mostrato inequivocabilmente l’inadeguatezza del modello teorico dominante. Infatti, come ben evidenziato da Krugman (2011), i modelli DSGE non solo non sono riusciti a prevedere la crisi, ma non riescono né a spiegarla né a razionalizzarla e quindi non possono fornire alcuna indicazione di politica economica per contrastare la crisi e stabilizzare l’economia (si veda anche Stiglitz, 2011; Fagiolo e Roventini, 2017).
Gli economisti della Nuova Sintesi Neoclassica hanno reagito cercando di arrivare ad una sorta di Concilio di Trento della macroeconomia. I modelli DSGE sono stati infatti imbottiti di una nuova miriade di epicicli per includere shock finanziari, ‘nanodosi’ di eterogeneità, e depressioni esogene. Ma l’imperatore è ancora nudo e i risultati non sono affatto soddisfacenti (come si evince da Lindé e Wouters, 2016).
Al contrario, un numero crescente di economisti ha considerato la crisi economica del 2008 come la crisi della teoria economica (tra gli altri Caballero, 2010; Krugman, 2011; Stiglitz, 2011; Kirman, 2016; Romer, 2016; Dosi e Roventini, 2019). Infatti, la storia stessa offre una prova inconfutabile contro le assunzioni alla base della macroeconomia DSGE, come l’agente rappresentativo e le aspettative razionali. I pilastri su cui poggiano i modelli DSGE non permettono infatti di spiegare la coesistenza di fluttuazioni “piccole” con l’emergenza di crisi rare e profonde, e, più in generale con la stessa dinamica dell’economie, dato che i cicli derivano sempre da shock esogeni. Inoltre, sulla base di microfondazioni basate sull’agente rappresentativo, è impossibile studiare fenomeni centrali per la macroeconomia come la disuguaglianza crescente, le interrelazioni tra la finanza e l’economia reale, il rischio sistemico e le ondate di bancarotte, l’innovazione ed il cambiamento strutturale.
5. Verso una macroeconomia microfondata sulla complessità
In un paradigma teorico alternativo, la teoria macroeconomica deve considerare l’economia come un sistema complesso in evoluzione, dove le interazioni locali di agenti eterogenei (es. imprese, lavoratori, banche, etc.) che avvengono al di fuori dell’equilibrio portano ad un ordine collettivo emergente, anche se la struttura del sistema cambia continuamente (Farmer e Foley, 2009; Kirman, 2016; Dosi e Virgillito, 2017). Questo paradigma teorico si fonda su alcuni principi basilari.
-
Per cominciare, more is different (Anderson, 1972): non c’è alcun isomorfismo tra la micro e la macro. A livelli più elevati di aggregazione possono emergere fenomeni completamente nuovi (es. cicli economici, crisi e crescita di lungo periodo) e regolarità statistiche (ad es. le curve di Phillips, Okun e Beveridge).
-
Il sistema economico si caratterizza per criticalità auto-organizzantesi (self-organized criticality): i disequilibri possono cumularsi nel corso del tempo conducendo all’insorgenza di tipping points che possono essere attivati da shock apparentemente innocui (Bak et al., 1992).
-
In un mondo complesso, l’incertezza è così profonda e pervasiva (Knight, 1921) che gli agenti non possono costruire il modello ‘corretto’ dell’economia, né tantomeno condividerlo tra di loro e con chi costruisce il modello (Kirman, 2014).
-
Al contrario, gli agenti devono affidarsi a euristiche che sono strumenti robusti per l’inferenza e la scelta di quali azioni intraprendere (Gigerenzer e Brighton, 2009).
-
Naturalmente, le interazioni locali tra agenti non portano di norma a risultati efficienti o a equilibri ottimali.
-
Dal punto di vista normativo, in un mondo complesso, i policy-maker devono perseguire la resilienza del sistema, spesso attraverso la ridondanza e la degenerazione (Edelman e Gally, 2001). Una provocazione rende forse meglio l’idea: qualcuno volerebbe su un aereo progettato da un economista di Chicago?
Se la teoria macroeconomica prende seriamente in considerazione la complessità, i modelli DSGE devono essere necessariamente cestinati e rimpiazzati dai modelli ad agenti eterogenei (agent-based) che incorporano naturalmente l’eterogeneità, interazioni locali e dirette tra gli agenti, dinamiche non-lineari e di disequilibrio (LeBaron e Tesfatsion, 2008; Fagiolo e Roventini, 2017; Dawid e Delli Gatti, 2018; Dosi e Roventini, 2019). Perciò i modelli agent-based offrono una metodologia alternativa per rifondare la macroeconomia senza antropomorfizzarla nell’agente rappresentativo, ma partendo da modelli con microfondazioni genuine, che considerano seriamente il problema dell’aggregazione e sono in grado di riprodurre e spiegare la crescita endogena e l’emergenza di cicli economici punteggiati da crisi profonde. Dal punto di vista normativo, la flessibilità estrema nelle assunzioni riguardanti il comportamento degli agenti e le loro interazioni permette ai modelli agent-based di essere impiegati come laboratori per disegnare politiche economiche e testarne gli effetti sulla dinamica economica.
Come ricordato da Haldane e Turrell (2019), il primo prototipo di modello ad agenti eterogenei è stato sviluppato da Enrico Fermi negli anni ’30 per studiare il movimento dei neutroni (naturalmente Fermi non pensava di costruire un modello con un neutrone rappresentativo!). Con l’adozione di metodologie Monte Carlo, i modelli ad agenti eterogenei sono stati impiegati massicciamente in diverse discipline tra cui la fisica, la biologia, l’ecologia, l’epidemiologia, fino a diverse applicazioni militari. Negli ultimi anni, c’è stata un’esplosione di modelli agent-based anche in macroeconomia, come evidenziato dalle rassegne di Fagiolo e Roventini (2017), Dawid e Delli Gatti (2018) e dal numero speciale del Journal of Evolutionary Economics che abbiamo curato (vol. 29, n. 1, 2019, “The alternative canon: agent-based macroeconomics”). Inoltre, confermando il pragmatismo dei policy-maker rispetto al settarismo accademico, un numero crescente di modelli agent-based è stato sviluppato e impiegato nelle banche centrali e in altre istituzioni governative e internazionali (Haldane e Turrell, 2019).4
Pensiamo che i modelli agent-based siano già riusciti a fornire una risposta soddisfacente a molte delle questioni sollevate da Olivier Blanchard in questo numero speciale di Moneta e Credito, partendo da una prospettiva che non lega in alcun modo la produzione alla distribuzione del reddito, come auspicato da Emiliano Brancaccio (2019). Ciò si può evincere anche dalle implicazioni di politica economica di questo nuovo approccio. Per esempio, i modelli ad agenti eterogenei permettono di studiare in un quadro di disequilibrio generale gli effetti delle politiche di flessibilità del lavoro sui salari e sulla dinamica economica. I risultati indicano che le riforme strutturali del mercato del lavoro hanno un impatto negativo non solo sui salari, ma anche sulla disoccupazione, la disuguaglianza, la volatilità dell’economia (Dosi et al., 2017, 2018a) e, attraverso l’emergenza di fenomeni d’isteresi, sulla crescita della produttività e dell’output anche nel lungo periodo (Dosi et al., 2018b). Inoltre, in linea con l’evoluzione della politica economica invocata da Blanchard e Summers (2019), i risultati ottenuti dai modelli macroeconomici agent-based mostrano che una politica di stabilizzazione fiscale più aggressiva ha un impatto positivo sulla performance economica (Dosi et al., 2010, 2015, 2016) a prescindere dall’esistenza di una Stagnazione Secolare.
Certamente i modelli ad agenti eterogeni possono ancora essere migliorati sotto diversi aspetti. Una microfondazione fondata sulla teoria della complessità deve fuggire a tutti i costi da ogni tentazione di antropomorfizzare il comportamento degli agenti sulla base di “quello che penso io che gli agenti farebbero in queste circostanze”. Uno studio maggiore va inoltre dedicato all’evoluzione del sistema economico, in particolare riguardo all’apparizione di nuove tecnologie, nuovi comportamenti, nuove entità, nuove istituzioni. Per fare questo, i modelli agent-based dovrebbero partire dalle proprietà dinamiche del sistema economico per analizzare le sue proprietà di coordinamento (Dosi e Virgillito, 2017). Infine, ulteriori sforzi di ricerca vanno dedicati alla validazione e alla comparazione dei modelli e alla riproducibilità dei loro risultati (maggiori dettagli si trovano in Fagiolo et al., 2019).
Concludiamo con una felice intuizione di Frank Hahn, uno dei padri dell’equilibrio economico generale, che nell’ormai lontano 1991 indicò la via di ricerca dell’economia politica per i successivi cento anni:
Invece di teoremi abbiamo bisogno di simulazioni, invece di assiomi semplici e trasparenti c’è la possibilità di postulati psicologici, sociologici e storici. […] In questo senso la materia tornerà alle sue affinità Marshalliane con la biologia. Teorie evoluzioniste iniziano a fiorire, and non sono il tipo di teorie che abbiamo visto finora. […] Ma sistemi profondamente complessi devono essere simulati. (Hahn, 1991, p. 49, nostra traduzione).
Crediamo che questo momento sia arrivato.
Comments
Il fatto più patetico è che i sedicenti comunisti, socialisti e compagnia bella hanno tutti abbracciato la farsa e idiozia neoclassica che hanno applicato in modo distruttivo e da cui senza ritegno hanno pontificato. Le soluzioni proposte da G. Dosi sono almeno scientifiche e possibilmente accettabili dalle sette accademiche. Che però nella irreversibile degradazione vogliono denaro e non teorie. Perciò non se ne farà nulla e chi è serio e intelligente cesserà di perdere tempo con il criticare vere e proprie idiozie.
Invero il paradigma da adottarsi è quello dei classici, della dinamica della produzione del surplus, e i suggerimenti proposti possono al massimo esserne uno strumento.