(Di Alessandro Visalli da Tempo Fertile)
Il libro di Francesco Sylos Labini è composto di due parti, nella prima (I e II) viene discussa la capacità dell’economia di essere scienza e in quali termini, nella seconda (III e IV) introdotto il ruolo della ricerca scientifica e i suoi dilemmi.
La nostra lettura, in continuità con quella del libro di Dani Rodrik e con quello di Hilary Putnam si concentrerà sulla prima parte.
L’avvio è sulla caratterizzazione di quella strana cosa (ma indispensabile) che Putnam dichiara (p.97) “non esistere”: “il metodo scientifico”. Naturalmente, “il” metodo scientifico.
Ma in linea generale la caratterizzazione (con il suo “in genere”, che è fondamentale) di Feynman, posta nella prima pagina del libro, è ragionevole: prima formuliamo un’ipotesi, poi calcoliamo (più in generale deriviamo) le conseguenze di questa ipotesi, ottenendo le implicazioni di questa legge se fosse giusta, infine confrontiamo le osservazioni per vedere se funziona. Questa descrizione è normativa, non descrittiva. Nella pratica del lavoro di ogni disciplina le cose procedono in modo molto meno chiaro, “derivare”, “ottenere le implicazioni”, “osservare” e “confrontare” sono operazioni complesse e dense di teoria. Infatti di seguito viene mostrato come ogni teoria complessa, in un campo disciplinare maturo, possa essere “falsificata” (come voleva Popper) solo “per gradi, da una serie di sconfitte sperimentali”.
Come si lavora con questo esigente ideale? Una buona strada è costruire teorie aperte alla possibilità di essere confermate dal confronto con il mondo. Per riuscire in ciò una teoria deve essere logica (non contraddittoria) e deve poter consentire di dedurre conseguenze. Queste in linea di principio devono essere osservabili con gli idonei strumenti.
Qui interviene la matematica, che ordinariamente (lasciandosi guidare, dice Sylos Labini, dall’ideale metafisico, nella formulazione originale di Galileo, della stessa come “lingua della natura”) interviene nel formalizzare il quadro logico e consentire l’ordinata derivazione di conseguenze. Questa storica ed illustre posizione, dello statuto ontologico della matematica, oggi può essere tenuta per utile (con l’avvertenza di Putnam) se riletto come ideale regolativo. La matematica attiene, come tutto, al nostro modo di accedere al mondo, ed è dunque uno strumento. Ma è, indubbiamente, il più potente tra i nostri strumenti.
In fisica, come ricorda l’autore, gli esperimenti sono infatti riproducibili, in condizioni controllate, in ogni luogo e tempo. E in questa prestazione riposa il sostegno della teoria. Leggiamo: “la corroborazione di una teoria attraverso previsioni confermate da esperimenti riproducibili rappresenta dunque uno dei pilastri del metodo scientifico. Una teoria fisica, attraverso una formulazione matematica, determina il valore di alcuni parametri che caratterizzano un certo sistema e che possono essere misurati. Se il valore dei parametri derivato dalla teoria concorda con il valore osservato nei limiti dell’errore sperimentale, la teoria fornirà una spiegazione del fenomeno”. Gli esempi sono tratti dalla storia dell’astronomia e attengono all’identificazione delle orbite dei pianeti.
Ma questo vale per la fisica (ed anche in condizioni ideali), in genere lo scienziato è come “davanti ad un puzzle”, in cui ogni osservazione è in una rete complessa di rimandi e l’estromissione di ogni fattore non essenziale per ottenere lo status di “esperimento controllato” è “difficile, se non impossibile”. Ciò accade in particolare quando si confrontano tra di loro quelli che Thomas Kuhn chiamava “paradigmi” (in La struttura delle rivoluzioni scientifiche, 1962).
In questo caso per passare da l’uno all’altro (come nel caso di scuola del passaggio dall’universo newtoniano, che informa della sua logica anche l’economia “neoclassica” per via della riduzione neo-positivista, all’universo eisteiniano) “l’intera rete concettuale i cui fili sono lo spazio, il tempo, la materia, la forza , e così via, dovette venire spostata e stesa di nuovo, in maniera diversa sulla totalità della natura” (ivi, p.181). C’è insomma quello che chiama “uno spartiacque rivoluzionario” attraverso il quale la comunicazione è “inevitabilmente parziale”. Ad esempio chi contestava a Copernico che pensare la Terra in movimento era follia, in realtà si riferiva ad un oggetto teorico “Terra” che era del tutto diverso da quello presupposto, insieme ad una intera rete di nuovi concetti, dallo studioso. La “Terra” per lui indicava una cosa che aveva la caratteristica essenziale di essere stabile. Un poco come “l’agente” della teoria neoclassica ha la caratteristica essenziale di essere “razionale”.
In realtà ogni paradigma punta quindi a riconoscere e risolvere problemi diversi. In un certo modo fa riferimento ad un “mondo” diverso. La teoria del movimento (per restare agli esempi di Kuhn) deve spiegare la causa delle forze di attrazione tra particelle o solo constatarle? La scelta della fisica prenewtoniana era la prima, quella di Newton la seconda. In questo modo in effetti semplicemente “tagliò” millenni di discussione ed eliminò del tutto “un problema dalla scienza”. Einstein invece lo reintrodusse e risolse ad un tempo; ma cambiando ancora l’intera rete dei concetti cruciali.
Kuhn la mette in questo modo, e vale la pena leggerlo: “in una maniera che sono incapace di spiegare ulteriormente, i sostenitori di paradigmi opposti praticano i loro affari in mondi differenti. L’uno contiene corpi vincolati che cadono lentamente, l’altro pendoli che ripetono il loro movimento più e più volte. In uno, le soluzioni sono composti, nell’altro sono mescolanze. L’uno è incorporato in una matrice spaziale piatta, l’altro in una curva. Svolgendo la loro attività in mondi differenti, i due gruppi di scienziati vedono cose differenti quando guardano dallo stesso punto nella stessa direzione. Ciò però – vale la pena ripeterlo – non significa che essi possono vedere qualunque cosa piaccia a loro. Entrambi guardano il mondo, e ciò che guardano non cambia. Ma in alcune aree essi vedono cose differenti, e le vedono in differenti relazioni tra loro” (p.182).
Una legge può essere quindi evidente per un gruppo e inconcepibile, ad onta di qualsiasi dimostrazione, per l’altro. Per comunicare tra loro deve avvenire uno “spostamento di paradigma”; una sorta di “riorientamento gestaltico”. Chi resiste è sicuro che, malgrado le tensioni, alcune evidenze e qualche “anomalia” che si accumula “il vecchio paradigma finirà con il risolvere tutti i suoi problemi, che la natura può essere forzata entro le incasellature fornite dal paradigma”. Per Kuhn questa sicurezza è normalmente utile, essa rende possibile la “scienza normale” (cioè il periodo in cui la comunità, salvo qualche eretico, lavora nella stessa direzione) che è basata “sulla risoluzione di rompicapo”.
Mi sembra importante anche la sottolineatura, che Kuhn fa di seguito, che la scelta tra due paradigmi non avviene in base alla capacità di risolvere i problemi (perché ognuno ne vede di diversi), ma nell’affidamento sulla relativa capacità di affrontare i problemi in divenire, “il punto di discussione consiste nel decidere quale paradigma debba guidare la ricerca in futuro, su problemi molti dei quali nessuno dei due competitori può ancora pretendere di risolvere completamente”. Tra la prima edizione e la seconda (1970) del famoso libro del filosofo uno di questi mutamenti di paradigma si muove nelle “scienze” economiche e si produrrà nel suo “riorientamento gestaltico” di lì a pochi anni: è il passaggio dall’economia keynesiana e quella neo-classica.
Qui nessuna argomentazione, come prevedeva il filosofo, fu individualmente decisiva, ma una intera rete di nuovi concetti, diverse problematizzazioni e promesse di efficacia, produsse il mutamento. Abbiamo visto che Dani Rodrik descrive questa transizione con il contesto di nuove sfide ed ambienti “nel mondo” (come la moneta fiduciaria post 1971 e la crisi delle materie prime), di alcuni concetti rilanciati da brillanti studiosi (la “micro fondazione” e le “aspettative razionali”), e nuove tecniche e mode intellettuali (la matematica e la statistica in applicazioni più sistematiche ed energiche, soprattutto sostenute dal neopositivismo), nel contesto di una rivoluzione politica (conservatrice). Come avevamo letto: “il grande fascino della teoria risiede nel modello stesso. I micro fondamenti, il linguaggio matematico, le nuove tecniche, lo stretto legame con la teoria dei giochi, l’econometria e altri campi che godono di un’alta reputazione nell’ambito delle discipline economiche: tutto ciò faceva apparire la nuova macroeconomia classica anni luce più avanti dei modelli keynesiani” (Rodrik, p.148).
Allora sono le previsioni a stabilire se una disciplina è scientifica? Come si vede la cosa è di complessa risposta, secondo un esempio portato da Sylos Labini anche i sacerdoti Maya facevano accurate previsioni basate su osservazioni, il loro ruolo sociale dipendeva da ciò. Ma mancavano del tutto di un modello di riferimento. Le previsioni avevano una funzione sociale e di potere.
Anche oggi il compito di prevedere il futuro, e su cose molto più rilevanti delle fasi lunari, è affidato ad una sorte di casta sacerdotale: gli economisti.
In particolare alcuni, che dominano nella sfera pubblica come nei Consigli di Amministrazione delle aziende pubbliche e private, nei tanti comitati e nei board di consulenti dei vari governi, che sono presenti nelle istituzioni internazionali e nelle Agenzie, insomma in tutti i luoghi che orientano e decidono. Per Labini si tratta dei “sacerdoti del XXI secolo”, che “sembrano studiare qualsiasi aspetto della vita umana, cercando di quantificare una qualche forma di valore per trovare la relativa ottimizzazione dell’efficienza” (p.66).
Ecco una delle parole-chiave “valore”, ed un’altra “efficienza”. La vittoria del paradigma neo-classico sui rivali passa anche per questi due termini; per la precisione per una mossa molto simile a quella che compie Newton avverso le teorie cartesiana e la tradizione aristotelica, come propone Kuhn: passare dalla ricerca di una spiegazione qualitativa del termine “valore” (che era tentata nella teoria del valore-lavoro dell’economia classica) ad una meramente quantitativa. Il problema di cosa sia il valore in questo modo scompare in favore della sua semplice trasformazione matematica; e compare al centro un problema di “efficienza” invece di uno di significato. E anche la seconda, dato che l’indagine sul senso è scomparsa, si presenta ormai solo come ottimizzazione matematica.
Questa straordinaria mossa, che esemplifica in modo chiarissimo il concetto kuhniano di “arrangiamento gestaltico”, rende possibile trattare ogni cosa (dalla politica economica a quella universitaria, come si vedrà nella seconda parte)nello stesso modo. E consente di avere, grazie alla, del tutto logica in questo contesto, “ipotesi dei mercati efficienti” una sola ricetta per tutto: lasciare libero l’agente razionale.
Per svolgere la sua critica Sylos Labini si rivolge all’importante lavoro di un altro fisico (anche Kuhn lo era), Mark Buchanan, ed al suo libro “Previsioni. Cosa possono insegnarci la fisica, la meteorologia e le scienze naturali sull’economia”.
Studiando i teoremi matematici che sono alla base del rigore formale al quale l’economia si è affidata per “vincere”, come abbiamo visto, lo scontro con i paradigmi alternativi nei cruciali anni dai sessanta agli ottanta dello scorso secolo Buchanan sottolinea come “il realismo, al contrario del rigore, è stato del tutto trascurato.” Mentre le teorie fisiche cercano attivamente conferme sperimentali, l’economia neoclassica vi si sottrae. Apparentemente il suo “fiore all’occhiello” è una costante capacità di mancare le previsioni.
L’esempio principe è la crisi del 2008, alla famosa “domanda della regina” alcuni economisti neoclassici di punta, come Robert Lucas, hanno risposto che “non si poteva prevedere”. Infatti lui stesso nel 2003 dichiarò che “il problema centrale della prevenzione delle depressioni è stato risolto, per tutti gli scopi pratici, ed è stato risolto per molti decenni” (p.71). Ora, non so come non lo sa Sylos Labini, se qui “decenni” stia per “anni”, e “molti” per “meno di cinque”, ma se così non fosse una previsione netta c’è in questa frase: nessuna crisi ci sarà. Si potrebbe dire “leggetemi le labbra”. Del resto anche nel 2007, a settembre, lo stesso gigante del pensiero economico dice: “sono scettico sulla tesi che il problema dei mutui subprime contaminerà l’intero mercato dei mutui, che la costruzione di alloggi arriverà ad una battuta di arresto e che l’economia scivolerà in una recessione. Ogni passo in questa catena è discutibile e non è stato quantificato. Se abbiamo imparato qualcosa dagli ultimi venti anni, è che c’è parecchia stabilità integrata nell’economia mondale”.
Così come il capobranco fecero o pesci più piccoli, Giavazzi ancora ad agosto del 2007 escludeva una “crisi finanziaria generalizzata” e Alesina, sempre in quel mese, il 20, lo esclude sulle colonne dei giornali italiani, annunciando addirittura un imminente “rimbalzo”. Ciò malgrado a luglio Bear Stearns e BNP-Paribas dichiarano insolvenza per alcuni loro fondi, i CDO siano fuori del mercato, e l’intero mercato interbancario sia congelato, la BCE immetta 955 miliardi di Euro di urgenza e poi altri 109, la FED faccia lo stesso per cifre ancora non note e così tutte le altre banche centrali.
Subito dopo le previsioni di Lucas, Giavazzi ed Alesina (ed innumerevoli altri interessati “pompieri”) la BoE salva Northern Rock da una corsa agli sportelli che non si vedeva da ottanta anni (25 miliardi di sterline), poi dichiarano perdite in ordine, la UBS, Citigroup, Merryl Linch. Bush annuncia il piano di salvataggio più grande di tutti i tempi e la FED garantisce credito “illimitato” alle banche.
Malgrado ciò a gennaio 2008 crolla di nuovo il mercato e cominciano a crollare le assicurazioni nel domino della crisi, a febbraio Northern Rock è nazionalizzata e Beran Stearns regalata alla J.P.Morgan dallo stato (con 30 miliardi di soldi pubblici). Ma è solo l’inizio a luglio 2008, siamo a cinque anni dalla previsione di Lucas e il governo federale fornisce una garanzia di 5.000 miliardi di dollari per Fannie Mae e Freddie Mac che emettevano mutui con la garanzia implicita (che ora diventa esplicita) dello Stato. È 1/10 del PIL del pianeta. Una somma più che sufficiente per spazzare via la fame nel mondo e buona parte delle relative guerre. Poi saranno nazionalizzate e Lehman Brothers fallisce. Sono giorni affannosi ben descritti in “Too big to fail”, un libro che bisognerebbe leggere, che si concludono con il rifiuto di salvarla (pagando l’acquirente) come fatto per Bear Stearns ed il fallimento della banca d’affari. È il 15 settembre 2008, la principale produttrice di CBO (ed una delle banche più creative nel produrli in modo sempre nuovo) e molto impegnata nel finanziamento in tutto il mondo di ogni genere di investimento speculativo, immobiliare in primis, ma anche tecnologico o altro, fallisce sotto il peso della totale illiquidità dei suoi titoli. Questo crollo lascia anche i fondi monetari nei guai (i titoli erano depositati in fondi monetari).
Dopo il fallimento Lucas dirà: “una cosa che non possiamo avere, ora o mai, è un insieme di modelli capaci di prevedere improvvise cadute del valore delle attività finanziarie, come il declino che è seguito al fallimento della Lehman Brothers. Questa non è una novità. È noto da più di quarant’anni ed è una delle principali implicazioni delle ‘ipotesi dei mercati efficienti’ di Eugene Fama, in cui si afferma che il prezzo di un’attività finanziaria riflette tutta l’informazione pertinente generalmente disponibile. Se un economista avesse avuto una formula capace, per esempio, di prevedere in modo affidabile la crisi con una settimana di anticipo, allora la formula sarebbe diventata parte delle informazioni generalmente disponibili e i prezzi sarebbero precipitati una settimana prima” (p.72).
Notevole no? Ma, giustamente, ricorda l’autore: “come si raccorda questa considerazione con quanto affermato poco sopra, che il problema della prevenzione delle depressioni è stato risolto”?
E soprattutto, che ne è della promessa, decisiva per definire il cambio di paradigma, fatta da Milton Friedman nel 1953 che i modelli avrebbero “estratto solo gli elementi cruciali sufficienti a produrre previsioni relativamente precise e valide”, omettendo i dettagli irrilevanti? In questa formula è implicita tutta una densa teoria che affonda la sua radice nel neopositivismo che dominava i circoli intellettuali conservatori in quegli anni (anche e soprattutto a Chicago), ma fissa anche uno standard. Soprattutto determina un’ambizione che la teoria keynesiana non poteva avere per costruzione, senza arrivare alla interpretazione (corretta) di Minsky, la teoria si fonda comunque su una concettualizzazione del consumatore ed investitore “irrazionale” e dunque prevede politiche per spegnere la crisi sul nascere, o controllarne lo sviluppo, ma non per prevederla.
Lo standard proposto da Chicago convince invece il mondo politico e quello economico che la quantificazione e modellizzazione, al modo della fisica, è ciò che serve. La promessa è molto potente, la previsione è denaro, è fiducia, è sicurezza, quindi è potere.
Peccato che Milton Friedman non conoscesse l’ipotesi dei mercati efficienti di Fama (e si sia successivamente distratto quando egli l’ha formulata nella stanza a fianco alla sua); avrebbe capito che “le previsioni non sono possibili per definizione”. Né è previsto che questa previsione (che non ci possono essere previsioni) possa essere usata per testare la teoria. Come la mette acutamente Sylos Labini “curiosamente questa possibile falsificazione della teoria non è proprio presa in considerazione nella letteratura neoclassica” (p.73).
E malgrado, in effetti, previsioni siano state compiute (nella forma, ‘se non si farà questo o quello, allora un collasso finanziario è possibile’). Una simile previsione confermata (ad esempio quella di Raghuram Rajan) falsificherebbe l’ipotesi dei mercati efficienti, e con essa la modellazione dell’agente razionale e tutte le micro fondazioni. O no? La fatica di dire no, è espressa nel bel libro di Rajan del 2012.
Sì se l’economia fosse una scienza sperimentale, ma a tutta evidenza non lo è. Si tratta più di una tecnica di governo, come avevamo scritto in precedenza, di natura interamente politica. Malgrado gli auspici e la metafisica ingenua di Friedman un modello semplice e formalizzato infatti non “cattura un aspetto della società” (come vorrebbe anche Rodrik), ma consente di esplicitare delle catene causali di cui si propone il riconoscimento pubblico e su cui si propone di agire appropriatamente. Con esse (che sono costrutti, intrinsecamente provvisori e rischiosi) consente di organizzare quindi discussione e conflitto. L’economia, come ogni altra disciplina, in altre parole, crea un suo “mondo”, come Kuhn ci ha mostrato. Ma nel farlo, se si capisce questo, consente anche di organizzare la discussione su di esso, portando in luce (per così dire) l’articolazione delle identità e degli interessi che si propongono come cruciali. In questo senso la disciplina è interamente politica, nel suo essere anche costrutto sociale di un sottoinsieme degli attori rilevanti per l’azione.
A questo punto bisogna introdurre qualche elemento di conoscenza sia sullo sviluppo della fisica post ottocentesca, sia sullo sviluppo del “mito dell’equilibrio” in economia.
Il libro Sylos Labini in questo è prezioso, nella prima parte ricorda il determinismo di Laplace e la “scoperta del caos” da parte di Henry Poincarè, nel suo saggio del 1903 in cui proponeva di considerare la possibilità che “piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni finali”, per cui un piccolo errore può rendere impossibile la previsione e creare quelli che chiama “effetti fortuiti”. Si tratta del cosiddetto “effetto farfalla”. Oppure ricorda Edward Lorenz che sviluppa negli anni sessanta, contemporaneamente alle ottimiste promesse di Milton Friedman, il modello matematico del clima che lo porta a ipotizzare (nel 1972) che il caos è la regola, non l’eccezione. E questo avviene in tante discipline come geofisica, astronomia, ottica, biologia. Ma, a tutta evidenza, non in economia.
L’economia invece si appoggia sulla logica di calcolo (termodinamico) proposta per la prima volta da Maxwell per modellizzare un gas ideale in una stanza (sistema chiuso), evitando di inseguire ogni singola particella come avrebbe voluto Laplace per cercare di individuare il movimento medio.
Gli esempi di applicazione a sistemi aperti e complessi di questi insiemi di potenti strumenti concettuali sono nella previsione del comportamento dell’atmosfera con modelli climatici sempre più potenti (parziale successo), dei terremoti (parziale fallimento, ma conferma del modello fisico), della diffusione degli agenti biologici in base alla “legge di potenza” (per cui solo alcuni punti, per la loro connessione e carica, sono rilevanti nel determinare l’evoluzione del fenomeno), ricorrenze e “big data”.
Con tutta questa disponibilità di tecniche, metodiche e concetti, quante delle 62 crisi economiche severe sono state previste (“previsione di tipo II”, per la decisione) con almeno un anno di anticipo dalla “scienza” economica neoclassica? Nessuna.
Questo accade secondo Sylos Labini perché la modellazione economica neoclassica non si è accorta della scienza del novecento, “tutta l’economia neoclassica è basata sulla nozione di stabilità, cioè sull’idea che i mercati si bilancino spontaneamente, per cui ogni variazione dei prezzi sarebbe rapidamente assorbita così che i mercati tenderebbero naturalmente verso uno stato di equilibrio”. Ma noi sappiamo, allo stato delle nostre conoscenze fisiche, “che l’equilibrio può avere varie forme e che il raggiungimento di uno stato di equilibrio stabile non è un fatto generale in natura” (p.79). L’esempio di Francesco Sylos Labini è una pallina su una montagna: se è in fondo alla valle l’equilibrio sarà stabile, ma se è sulla cresta potrà cadere in diverse direzioni possibili, ed una piccola spinta provoca allora un grande effetto.
Gli economisti neoclassici, pensando di essere ancora nella stanza chiusa di Maxwell, assumono che i mercati tendono alla stabilità e quindi ogni spinta viene neutralizzata dalla dinamica, come una piccola aggiunta di calore si distribuisce rapidamente in tutto il gas della stanza. Questa assunzione elimina la variabile temporale. Un’idea suggerita ancora nell’ottocento (alla metà) da Ludwig Boltzmann, la cosiddetta “ipotesi ergodica”; cioè che in condizioni di equilibrio termodinamico si possa conoscere l’evoluzione futura di un sistema dalla conoscenza dei suoi stati passati. Questa assunzione è la condizione di possibilità dei modelli che si usano a Wall Street.
Queste ipotesi ed assunzioni convergono nel cosiddetto “equilibrio economico generale”, proposto da Léon Walras e da Jean Baptist Bachelier (rispettivamente ingegnere e fisico) tra fine ottocento ed inizio novecento. Questa idea si fonda su tre pilastri: la meccanica newtoniana, l’equilibrio termodinamico, il moto browniano e la rivoluzione probabilistica.
Queste tre rivoluzioni concettuali fine ottocentesche sono applicate alla descrizione delle fluttuazioni dei prezzi (che sostituiscono la teoria del valore). L’idea, per certi versi straordinaria, è che come il moto dei pianeti è tenuto in orbite stabili dall’equilibrio di forze contrapposte, basandosi sullo stesso concetto di equilibrio meccanico si potesse arrivare ad una espressione matematica quantitativa della dinamica di domanda ed offerta. Secondo l’idea che l’equilibrio è stabile, una volta raggiunto questo stato produttori e consumatori non se ne allontanerebbero più molto, in quanto eccessi di produzione o di consumo si scaricherebbero sui prezzi fornendo la giusta informazione per riequilibrarlo. Scrisse Walras “tutti questi risultati sono meraviglie della semplice applicazione del linguaggio matematico alla nozione quantitativa di necessità o utilità […] puoi sta certo che le leggi economiche che risultano da ciò sono razionali, giuste, precise e incontrovertibili come le leggi astronomiche alla fine del diciassettesimo secolo” (p.85). Walras voleva, insomma, essere Newton.
La trasformazione dell’utilità in leggi necessarie richiede quindi solo la ricerca dei “massimi” (punto dove la derivata prima si annulla) che dal punto di vista matematico, date le assunzioni, rappresenta l’equilibrio. L’economia diventa in altre parole un sistema di equazioni simultanee. Necessariamente, in questo contesto, gli “agenti” (famiglie, imprese, …) sono modellizzati come entità pienamente razionali che cercano i massimi guadagni possibili. Cioè matematicamente il massimo di una funzione di utilità.
La soluzione delle equazioni di Walras arriva solo quando Arrow e Debreau (come abbiamo visto anche da Dani Rodrik) introducono una serie di assunzioni totalmente irrealistiche con le quali “dimostrarono” che l’equilibrio matematico ottenuto è anche “efficiente” al modo di Pareto. In queste condizioni, tutte le risorse realizzano l’uso più fecondo. “Nessun arrangiamento dei prezzi o delle quantità di prodotti concepibile, persino gestito da un pianificatore centrale infinitamente intelligente, porterebbe a un miglior esito senza perdite per almeno un produttore o un’impresa” (come detto, ad esempio alla famiglia Walton). La mossa, posta al centro della teoria economica da questo momento è più profonda di quanto appaia, attraverso la porta posteriore delle assunzioni matematiche delleprescrizioni normative si inseriscono, ed uscendo da quella principale si fanno imporre al mondo, conformandolo al modello.
Altro “gioiello della corona” è l’equilibrio di Nash.
È su queste basi che negli anni sessanta, Paul Samuelson prima e Eugene Fama dopo, formulano la teoria dei mercati pienamente efficienti, perché (Lucas) gli individui utilizzano tutte le informazioni in modo efficiente e completo per fare previsioni e effettuare le scelte di natura economica nelle loro vite. Naturalmente ciò vale per la collettività, perché, come il gas nella stanza chiusa, la singola particella non è prevedibile ma la media si comporta in modo modellabile, come fosse del vapore nel motore di una locomotiva.
Dunque l’efficienza, proprio per l’assunzione derivante dalla termodinamica, “implica automaticamente effetti ottimali nel senso di Pareto: il più efficiente arrangiamento dei prezzi possibile”. Insomma nel 2007-8 non poteva succedere nulla, perché l’equilibrio generale è stabile, una volta raggiunto si mantiene necessariamente, esattamente l’opposto della ipotesi di Minsky (che, però, ha avuto ragione).
Su questa base sono costruiti i modelli dinamici stocastici di equilibrio generale (DSGE) che sono usati dalle banche centrali per dirigere l’economia e che sbagliano il 100% delle previsioni a breve termine (come si può rilevare facendo un salto sui siti di qualsiasi giornale per risalire a previsioni e andamenti anno su anno).
Ora Sylos Labini mostra che, in effetti, come ha evidenziato Donald Gillies la matematica in economia non ha lo stesso ruolo che ha invece in fisica. Se, come vorrebbe Lucas, “la teoria economica è analisi matematica. Tutto il resto sono immagini e chiacchiere” (in puro stile neopositivista), allora tutta la teoria è semplice retorica (in verità direi più un insieme di “favole” potentissime). Il filosofo della scienza (che fa anche la prefazione a questo libro) sostiene che infatti tutti i principali “gioielli della corona” della scienza economica sono del tutto privi di riscontri empirici e non possono essere confrontati. Le opere di Paul Samuelson, Arrow, Debreau, Prescott, dal 1945 ad oggi, “non derivano alcun risultato che possa essere confrontato con dati osservativi” (p.93). Il lavoro di Prescott che tenta il confronto non produce alcun accordo tra i risultati teorici e i dati empirici sull’economia USA. In altre parole la previsione del I tipo (quella che scaturisce da una teoria e consente di verificarne gli enunciati con esperimenti cruciali) è impossibile in economia.
L’economia neoclassica si è trasformata in una disciplina assiomatica, con dogmi indiscutibili, la cui messa in questione provoca reazioni da religioso sfidato. I concetti sono così forti da ottenere il risultato di “sostituire la realtà empirica” cui non fanno, in pratica, più accedere.
La più recente modellazione della natura si può trovare, ad esempio, nel lavoro di Lorenz, oppure nel modello “mucchio di sabbia” di Per Bak (si aggiunge un granello alla volta e l’ultimo provoca la valanga, malgrado sembrasse stabile) con andamento a legge di potenza e capacità di “memoria” del sistema, che assomiglia molto di più ai mercati finanziari per come essi si comportano effettivamente. Un’altra modellazione interessante è quella delcoordinamento globale auto-organizzato provocato da una dinamica locale tra i primi vicini (come uno stormo di uccelli o un branco di pesci). O anche nella matematica frattale, in cui una forma si ripete alle diverse scale invariante, o nella memoria nella fluttuazione dei prezzi (lavoro di Eugene Stanley), cioè “la presenza di correlazioni temporali invarianti di scala, dunque frattali, descritte da una legge di potenza” (p.107) in cui invece che dalla gaussiana la distribuzione è descritta da una “coda lunga”.
Sylos Labini ricorda in questo contesto il modello alternativo proposto da Hyman Minsky nel suo libro che abbiamo già citato del 1975 (e su cui lavorerà fino alla fine). Per comprendere i sistemi economici bisogna considerare che non tendono all’equilibrio, e tanto meno stabile, ma all’instabilità ricorrente per ragioni endogene (un mercato quando raggiunge un massimo si sbilancia subito per effetto delle forze che lo hanno prodotto).
Il sistema accumula, cioè, tensioni che si scaricano improvvisamente (“momento Minsky”), come è avvenuto nel 2007-8.
Nella seconda parte del libro (III e IV) viene mostrato come questa “dittatura” di un pensiero quantitativo tutto rivolto all’ottimizzazione paretiana e indifferente alle distribuzioni (oltre che agli effetti di potenza, alla memoria dei sistemi, agli effetti non lineari e via dicendo) produca in un settore pubblico cruciale come la ricerca scientifica effetti drammatici. Attraverso la valutazione tecnica quantitativa, e le sue molte distorsioni, e il feticismo della competizione (nello stile “il vincitore prende tutto”) si sta riducendo la varietà e la fitness (diversificazione e complessità dell’output) del sistema.
L’economia neoclassica, insomma, è un lusso che non dovremmo più permetterci, dovremmo dare la scalata alle alte mura della sua “cittadella”.
Alla fine sono fatte di sabbia.