Prefazione a “Previsioni. Cosa possono insegnarci la fisica, la metereologia e le scienze naturali sull’economia” di Mark Buchanan

5697575   Image

Questo libro, scritto da un fisico, discute le idee e i concetti che sono alla base di quel pezzo della teoria economica generalmente chiamata neoclassica – fondamento della dottrina neoliberista – che è a quanto pare quella culturalmente e politicamente dominante in questi tempi difficili. Potrebbe sembrare curioso che un fisico, il cui oggetto di studio è usualmente rappresentato da atomi, molecole, pianeti o galassie, abbia qualcosa di rilevante da dire riguardo alla regina delle scienze sociali: l’economia. Gli esseri umani, al contrario delle particelle elementari o delle stelle, sono dotati di libero arbitrio, ma soprattutto le leggi che regolano le modalità con cui un individuo compie le proprie scelte e con cui diversi individui entrano in relazione tra loro sviluppando comportamenti di gruppo sono a noi sconosciute; anzi è lecito dubitare che queste leggi siano ben definite. Per contro, conosciamo le leggi fondamentali che regolano, ad esempio, le interazioni tra le cariche elettriche o tra i pianeti e il Sole: tali leggi, come ad esempio la gravità, sono universali e sono le stesse in differenti punti dello spazio e in tempi diversi.

Certamente non si può dire lo stesso delle leggi che regolano l’economia: è sufficiente fare un salto indietro nel tempo di un centinaio d’anni, o piuttosto considerare la situazione odierna nei paesi sottosviluppati, per rendersi subito conto che le leggi dell’economia, che comunque non conosciamo allo stesso modo in cui possiamo scrivere l’equazione che descrive la forza di gravità che agisce tra il Sole e la Terra, cambiano nel tempo e nello spazio, secondo le condizioni storiche, sociali e legislative dei diversi paesi. Infatti, il tempo di una teoria fisica è privo di posizione storica, mentre il tempo in economia è, o dovrebbe essere, il tempo storico: come nota Mark Buchanan, il costo di una mela oggi non ha nulla a che vedere con il costo di una mela durante la seconda guerra mondiale, ecc.

Tuttavia le differenze non si esauriscono qui. Proprio in virtù dell’universalità delle leggi naturali, in fisica, possiamo ripetere un esperimento per accertarci del nesso consequenziale di una certa serie di processi. Inoltre, grazie alla conoscenza delle leggi naturali che regolano la dinamica tra certi fenomeni, possiamo compiere previsioni da testare con esperimenti effettuati in condizioni controllate così da eliminare o minimizzare gli effetti di fattori esterni (non contemplati dalla teoria). I risultati di questi esperimenti devono essere ripetibili, date le stesse condizioni, in ogni altro luogo della Terra e in ogni altro momento nel tempo. La validazione di una teoria attraverso esperimenti riproducibili sta, infatti, alla base del metodo scientifico.

Data questa situazione, si potrebbe concludere che l’economia è una disciplina troppo differente da una scienza naturale come la fisica e che dunque come un economista non ha gli strumenti tecnici e concettuali per contribuire in maniera significativa ad un problema di fisica, così un fisico che si occupa di problemi così differenti e in un certo senso più limitati, ma metodologicamente più definiti, non abbia nulla di interessante da dire sulle dinamiche economiche, poiché incommensurabilmente più complesse. Questo proprio in virtù del fatto che in fisica gli oggetti di studio sono inanimati, le leggi di natura sono universali e gli esperimenti sono riproducibili.

Nonostante le enormi differenze tra le due scienze vi sono alcuni concetti e metodi sviluppati nella fisica – e più generale nelle scienze naturali dell’ultimo secolo – che possono, anzi devono, essere patrimonio comune anche degli scienziati sociali come gli economisti. Questo libro si propone appunto di costruire una guida al fine di mostrare l’impatto di questi concetti sull’economia neoclassica.

Mark Buchanan ricorda e discute il caos deterministico che sta alla base del comportamento di sistemi con interazioni non lineari come il sistema Terra-Luna-Sole o l’atmosfera stessa, in cui piccole perturbazioni possono causare effetti enormi e sorprendenti; sistemi invarianti di scala come i frattali, per i quali bisogna abbandonare le ordinarie nozioni di statistica come media e varianza per focalizzarsi su esponenti di scala; sistemi caratterizzati da grandi fluttuazioni, in cui eventi estremi sono molto più probabili di quanto avviene “normalmente”; sistemi fuori dall’equilibrio, che sono intrinsecamente instabili e per i quali lo stato di equilibrio stabile diventa irrilevante; sistemi che si auto-organizzano in stati “critici” caratterizzati da dinamiche invarianti di scala che sono soggetti a cambiamenti repentini e drammatici; sistemi in cui l’adattabilità e la diversificazione sono gli elementi dinamici cruciali e altri ancora che sono studiati, ormai ordinariamente, in fisica, meteorologia, geologia, biologia.

L’autore paragona gli economisti neoclassici a meteorologi che si ostinano prevedere il tempo trascurando tempeste e uragani: l’analogia tra l’economia e la meteorologia fornisce uno dei fili conduttori del libro proprio in quanto le turbolenze atmosferiche sembrano avere molto in comune con gli alti e i bassi dei mercati finanziari e forniscono interessanti spunti per capire i limiti dell’ipotesi della stabilità economica. Questo parallelo chiarisce inoltre in quale senso sia possibile intendere il concetto di previsione per un sistema complesso e come i progressi avvenuti nell’ultimo secolo abbiano permesso di migliorare il potere predittivo dei meteorologi.

Un secolo fa le previsioni del tempo erano basate sull’idea della regolarità che molti fenomeni fisici mostrano: l’idea era semplicemente quella di cercare nel passato una situazione abbastanza “vicina” all’oggi e da questa trarre una previsione per il domani. I risultati delle previsioni così effettuate erano abbastanza disastrosi per un motivo che oggi ben conosciamo: l’atmosfera si comporta in maniera caotica e piccole variazioni dei parametri fisici possono indurre grandi cambiamenti nei comportamenti del tempo meteorologico. La svolta nelle previsioni avvenne grazie alle intuizioni del fisico Lewis Richardson che propose di usare le equazioni delle ben note leggi fisiche che regolano l’evoluzione dell’atmosfera. Grazie allo sviluppo dei computer che permettono di risolvere numericamente complicati sistemi di equazioni e all’osservazione delle condizioni atmosferiche attraverso una vasta rete di satelliti, le idee di Richardson sono diventate realtà e la qualità delle previsioni meteorologiche è aumentata costantemente nel tempo dai primi anni ’80 in poi. Ad esempio, è diventato possibile ottenere previsioni a sette giorni ragionevolmente affidabili solo a partire dal 2000 mentre le previsioni a cinque giorni di oggi hanno la stessa qualità delle previsioni a tre giorni dei primi anni ’90.

Un recente studio ha mostrato che i maggiori analisti economisti e le organizzazioni ufficiali nazionali e internazionali, oltre ad essere sempre in accordo, non hanno predetto, con un anno di anticipo, quasi nessuna delle 88 recessioni (diminuzione del PIL reale su base annua) avvenute nel periodo 2008-2012 nei paesi avanzati, tanto che gli autori hanno concluso che “il record di fallimento nella previsione delle recessioni è praticamente senza macchia”. Ciò significa che oggi – proprio come nei giorni prima della crisi del ’29 – è una buona regola considerare che il contrario delle previsioni ufficiali e di quelle dei maggiori commentatori è, con ottima probabilità, ciò che succederà; ed in ogni caso più probabile di una decisione basata sul lancio di una moneta. Non sorprende dunque che quegli stessi modelli economici che non contemplavano neppure la possibilità di una crisi storica come quella avvenuta nel 2008, non sono neanche abbastanza affidabili da prevedere le recessioni: insomma non superano il test basilare di ogni teoria scientifica.

L’economia neoclassica è oggigiorno fornita di una veste matematica, quasi fosse una scienza naturale, ma non è capace di descrivere la realtà come il fallimento di ogni previsione mette chiaramente in luce: per rimediare si racconta, ovviamente a posteriori, che i fallimenti sono dovuti a shock esterni (ad esempio le crisi politiche, i terremoti, ecc.) che non sono contemplati dai modelli. Eppure il confronto con la realtà è la forza del metodo scientifico che seleziona le teorie valide proprio in base al successo nella previsione. In fisica, ad esempio, si possono trovare tanti esempi di teorie matematicamente corrette ma del tutto irrilevanti poiché basate su ipotesi errate: dunque queste teorie portano a risultati contraddetti dagli esperimenti. Ma se un esperimento è in disaccordo con la teoria non si conclude che questo discredita il metodo quantitativo quanto piuttosto si ragiona sulle ipotesi su cui è basato il modello e si identificano quali sono quelle sbagliate. E ovviamente si cambia modello: più del rigore matematico è importante la rilevanza fisica, ovvero il confronto con la realtà.

Il più grande passo concettuale discusso da Buchanan e non assorbito dall’economia neoclassica, è quello che ha dato luogo al campo interdisciplinare dei sistemi complessi. Phil Anderson, premio Nobel per la fisica, ha sintetizzato questa rivoluzione concettuale nel suo articolo del 1970 intitolato “Il più è differente”. L’idea di base è qui di seguito descritta. In fisica l’approccio tradizionale considera i sistemi più semplici e li studia dettagliatamente; tale approccio, detto riduzionistico, si focalizza sui “mattoni” elementari che costituiscono la materia e si applica con successo a molti fenomeni. Da ciò è stato possibile derivare leggi generali che si estendono dalla scala del nucleo atomico a quella delle galassie. È facile però rendersi conto che, non appena aumenta il grado di complessità delle strutture e dei sistemi e quando questi sono composti da tanti elementi in interazione tra loro, ci si trova di fronte a nuove situazioni, in cui la conoscenza delle proprietà degli elementi individuali (ad esempio, le particelle, gli atomi, i pianeti, ecc.) non è sufficiente per descrivere la struttura nel suo insieme. Il punto è che, quando questi elementi interagiscono tra loro in maniera non lineare, formano strutture complesse e sviluppano moti collettivi che hanno poco a che fare con le proprietà dei singoli elementi isolati. Possiamo rappresentare questa situazione come lo studio della “architettura” della materia e della natura che dipende in qualche modo dalle proprietà dei “mattoni”, ma possiede poi caratteristiche e leggi fondamentali non ricollegabili a quelle dei singoli elementi. Secondo Anderson la realtà ha dunque una struttura gerarchica e a ogni livello della gerarchia è necessario introdurre concetti e idee diverse da quelle utilizzate nel livello precedente. In parole semplici: dalla conoscenza delle leggi fondamentali che regolano l’interazione tra particelle elementari non è semplicemente possibile capire la formazione di molte delle fasi della materia condensata, ecc. Lo studio dei sistemi complessi riguarda l’emergenza di proprietà collettive in sistemi con un gran numero d’elementi in interazione tra loro. Se questa problematica è fondamentale nello studio di molti problemi fisici, tanti esempi nel corso degli ultimi trent’anni hanno mostrato che la comprensione di alcuni problemi specifici in un certo campo può dar luogo a una nuova metodologia con possibilità d’applicazione in altre discipline tra le quali sicuramente l’economia. Il campo dei sistemi complessi fornisce dunque una varietà di metodi nuovi e raffinati che permettono di porsi nuove domande e di inquadrarle in un modo diverso e originale.

Una teoria economica che non considera il modo in cui insorgono comportamenti collettivi di agenti o la dipendenza sensibile a piccole perturbazioni – come appunto l’economia neoclassica – non può pretendere di spiegare come avvengano le crisi importanti o le fluttuazioni repentine e improvvise che si osservano giornalmente nei mercati finanziari. L’idea che un sistema interconnesso e strettamente interdipendente come la moderna economia finanziaria, possa tendere a qualche forma di stabilità, deve essere messa in discussione in maniera laica a pragmatica.

Per comprendere la portata delle idee teoriche sviluppate intorno ai fenomeni non lineari fuori (lontani) dall’equilibrio, basti considerare che gli economisti neoclassici hanno interpretato la crisi del 2008 attraverso il pregiudizio ideologico secondo cui la crisi finanziaria è stata innescata da cause del tutto imprevedibili, il fallimento della Lehman Brothers, ma, giacché, i mercati liberi tendono alla stabilità, non ci sarebbero state ripercussioni sull’economia reale. Questa interpretazione ­– che ha influenzato l’opinione pubblica e le successive scelte politiche dei governi di tanti paesi e delle principali istituzioni internazionali ­– è originata proprio dalla convinzione teorica secondo cui i mercati deregolati dovrebbero essere efficienti e gli agenti razionali dovrebbero aggiustare velocemente ogni prezzo non completamente corretto e ogni errore di valutazione. Il prezzo dovrebbe dunque fedelmente riflettere la sottostante realtà e assicurare l’allocazione ottimale delle risorse. Questi mercati “equilibrati” dovrebbero essere stabili: perciò le crisi possono essere innescate solo da grandi perturbazioni esogene come gli uragani, i terremoti o sconvolgimenti politici, ma certo non causate dal mercato stesso.

Questi pregiudizi teorici sono originati da un’eccessiva semplificazione del problema per cui l’idealizzazione non è solo dissimile dalla realtà, ma, in effetti, è completamente irrilevante alla sua comprensione. Come spiega in dettaglio Buchanan, i fisici che si occupano di complessità studiano da una ventina d’anni sistemi che mostrano comportamenti intermittenti molto simili a quelli dei mercati finanziari, in cui la natura non banale delle dinamiche si origina da effetti collettivi intrinseci – non da cause o shock esterni. Le singole parti hanno un comportamento relativamente semplice, ma le interazioni portano a nuovi fenomeni emergenti così che il comportamento dell’insieme è fondamentalmente diverso da quello dei suoi costituenti elementari. Anche se uno stato di equilibrio esiste in teoria, questo può essere totalmente irrilevante in pratica, perché il tempo per raggiungerlo è troppo lungo e perché questi sistemi possono essere intrinsecamente fragili rispetto all’azione delle piccole perturbazioni evolvendo in modo intermittente con un susseguirsi di epoche stabili intervallate da cambiamenti rapidi e imprevedibili. In questa prospettiva è naturale concludere che finché non s’interverrà sulla regolamentazione dei mercati finanziari, ovvero sulle cause endogene delle crisi e sui preconcetti teorici alla base dell’ineffabile equilibrio dei mercati liberi, altre crisi come quella iniziata nel 2008 si potranno ripetere senza alcun preavviso e, purtroppo, piuttosto spesso.

La domanda chiave che ci si dovrebbe porre è dunque questa: gli assiomi fondamentali usati nella teoria economia neoclassica sono sottoposti a test empirici? Ad esempio: i mercati liberi tendono a una situazione di equilibrio stabile o fluttuano in maniera del tutto selvaggia? La risposta a questa domanda viene dalle osservazioni o è un’assunzione indiscutibile? Questo è un punto cruciale in quanto chi pensa che i mercati liberi siano efficienti e si auto-regolino verso una situazione di equilibrio stabile sarà portato a proporre un ruolo dei mercati sempre più importante e ad “affamare la bestia”, lo Stato corrotto e clientelare, come in effetti è avvenuto sia negli Stati Uniti che in Europa negli ultimi vent’anni. Chi pensa che i mercati liberi siano invece dominati da fluttuazioni selvagge e intrinsecamente lontani da un equilibrio stabile, generando invece pericolosi squilibri e disuguaglianze, sarà indotto a proporre un maggiore intervento dello Stato, cercando di migliorare l’efficienza di quest’ultimo. Analogamente, chi crede nella stabilità dell’economia deregolarizzata è ovviamente portato a considerare ogni fluttuazione nei mercati finanziari come una perturbazione ininfluente rispetto alla situazione di equilibrio: una crisi devastante non si può prevedere perché non è contemplata nel fantastico mondo dei mercati efficienti. Quando un paradigma diventa così forte da sostituire qualsiasi osservazione empirica si tramuta in un dogma e lo studioso finisce per vivere nel modello, senza più accorgersi di ciò che accade nel mondo reale. Come ben sperimentiamo oggi, non c’è alcuna stabilità nell’economia reale: l’accelerazione verso la finanziarizzazione, con l’introduzione nel mercato dei derivati, ha reso ancora più potenzialmente esplosiva la situazione. Tutto il contrario di ciò che credono gli economisti neoclassici.

Aveva dunque tutte le ragioni la Regina Elisabetta quando – durante la visita alla London School of Economics nel novembre del 2008 – chiese perché la gran parte degli economisti, quelli che lavorano nelle istituzioni nazionali e internazionali e quelli che scrivono ogni giorno sui maggiori quotidiani del mondo, non avevano capito che la crisi economica stesse per avvenire. Due noti economisti inglesi risposero alla Queen’s question con una lettera alla Regina riassumendo le posizioni emerse nel corso di un forum promosso dalla British Academy: “Quindi, in sintesi, Vostra Maestà, l’incapacità di prevedere i tempi, la grandezza e la gravità della crisi e di prevenirla, pur avendo molte cause, è stato principalmente un fallimento dell’immaginazione collettiva di molte persone brillanti, sia in questo paese che internazionalmente, per comprendere i rischi per il sistema nel suo complesso”. Più esplicitamente un altro gruppo di economisti britannici sottolinea “che negli ultimi anni l’economia si è trasformata quasi in un ramo della matematica applicata, ed è diventata distaccata dalle istituzioni del mondo reale e dagli eventi”. Il problema non sta nel fatto che l’economia sia o meno una scienza esatta (e non lo è), o che l’uso della matematica fornisca una solida veste scientifica, quanto piuttosto di un problema metodologico. La biologia (anch’essa non è una scienza esatta) ha fatto progressi enormi negli ultimi anni grazie ad un serrato studio di esperimenti e dati, avanzando in maniera pragmatica e non facendosi guidare da indubitabili assunzioni ideologiche.

La crisi economica è scoppiata inizialmente come una crisi bancaria e finanziaria innescata da una crisi di debito privato dovuto a un’incontrollata creazione di “denaro dal nulla” nella forma dei titoli derivati da parte delle banche sia in Europa sia in America, giustificata dalla credenza che avrebbero più efficacemente stabilizzato i mercati. Quando questo castello di carte è crollato, con dei costi enormi per milioni di persone, il governo americano ha sostenuto le banche per quasi trenta trilioni di dollari, nella forma di prestiti e garanzie, in parte rientrati e in parte no, mentre alla fine del 2010 la Commissione Europea ha autorizzato aiuti alle banche per più di quattro trilioni di dollari. Con questi interventi la crisi finanziaria, che fino all’inizio del 2010 era una crisi di banche private e non si era tramutata in una catastrofe mondiale, è stata caricata sui bilanci pubblici che così hanno salvato i bilanci privati. In quel momento le parole d’ordine, diffuse dai principali media, spesso attraverso gli stessi economisti neoclassici che hanno sostenuto nel passato ogni scelta di deregolamentazione e liberalizzazione dei mercati, sono diventate però altre: eccesso di indebitamento degli Stati, eccesso di spesa pubblica, pensioni insostenibili, spese per l’istruzione “che non ci possiamo più permettere”, ecc. Come conseguenza, anche per rispettare i nuovi provvedimenti, primo tra cui l’incredibile norma del pareggio di bilancio inserita in Costituzione senza una discussione pubblica da un Parlamento quantomeno distratto, è stato fatto passare senza grandi difficoltà il messaggio che lo Stato spende troppo e dunque che è necessario tagliare le spese pubbliche: asili, scuole, sanità, istruzione, ricerca, pensioni, ecc.

Questa incredibile e inaccettabile mistificazione è stata possibile grazie ad una sorprendente e pervasiva egemonia culturale avvenuta non solo attraverso la conquista delle posizioni accademiche dominanti da parte degli economisti neoclassici, ma anche, e soprattutto, con la sovrapposizione del loro ruolo accademico, politico e di orientamento dell’opinione pubblica, essendo molti di questi editorialisti di grandi quotidiani nazionali o consiglieri del principe. Il libro di Buchanan mostra, infatti, come idee teoriche che sembrano innocue elucubrazioni di qualche strampalato accademico sono diventate potenti mezzi di condizionamento politico e culturale. Scrive il premio Nobel per l’economia Paul Samuelson: “Non mi interessa chi scrive le leggi di una nazione o chi elabora i suoi trattati, se posso scrivere i suoi libri di testo di economia”. La via d’uscita alla crisi economica passa innanzitutto attraverso un cambiamento di prospettiva culturale che i nuovi concetti delle scienze naturali insieme con la loro metodologia possono fornire all’economia.

Per concludere, Buchanan discute in più punti dell’onestà intellettuale degli economisti neoclassici in relazione alla maniera in cui argomentano e difendono le incredibili ipotesi alla base dei modelli tutt’ora utilizzati da decisori politici e istituzionali. Per completare la discussione riporto di seguito l’illuminante lezione magistrale sul senso della scienza e dell’etica scientifica del Nobel per la fisica Richard Feynman che spiega perfettamente il problema metodologico dell’economia neoclassica:

“Nei mari del Sud vive un popolo che pratica il culto dei cargo: durante la seconda guerra mondiale hanno visto atterrare aerei carichi di ogni ben di Dio, ed ora vorrebbero che la cosa continuasse. Hanno tracciato sul terreno delle specie di piste; accendono fuochi ai loro lati; hanno costruito una capannuccia in cui si siede un uomo con due pezzi di legno a mo’ di cuffie, e da cui sporgono dei bambù a mo’ d’antenne radio (l’uomo rappresenta il controllore di volo); e aspettano che gli aerei atterrino. Fanno tutto correttamente; la forma è perfetta e rispetta quella originale: ma la cosa non funziona. Non atterra nessun aereo. Così parlo di scienze da cargo cult: sono scienze che seguono i precetti e le forme apparenti dell’indagine scientifica ma alle quali, però, manca un elemento essenziale, visto che gli aerei non atterrano. A questo punto dovrei indicarvi l’elemento mancante. Sarebbe però altrettanto difficile spiegare agli isolani dei mari del Sud come procedere per far funzionare il loro sistema ed arrivare ad un certo benessere. Non si tratta di una cosa semplice, come dir loro di migliorare la forma delle cuffie. Ma c’è soprattutto una cosa che in genere manca nelle scienze da cargo cult: un’idea che tutti ci auguriamo abbiate imparato a scuola; non la esplicitiamo mai, speriamo che la scopriate da soli grazie a tutti gli esempi di indagine scientifica che avete studiato. Ora invece sarà interessante formularla apertamente.

Si tratta dell’integrità scientifica. Un principio del pensiero scientifico che corrisponde essenzialmente a una totale onestà, ad una disponibilità totale. Ad esempio, quando si effettua un esperimento bisogna riferire tutto ciò che potrebbe invalidarlo e non soltanto quello che sembra in accordo con le aspettative; le altre cause che potrebbero insomma originare gli stessi risultati… (…) Sappiamo per esperienza che la verità finisce sempre col venire a galla. Altri scienziati ripeteranno il vostro esperimento e scopriranno se era corretto o no. I fenomeni della natura saranno o no in accordo con la vostra teoria. E magari otterrete una fama momentanea ma, se non avrete lavorato con accuratezza, la vostra reputazione di scienziato non sarà buona. Sono questa integrità, questa volontà di non auto-ingannarsi, che mancano alla ricerca delle scienze da cargo cult… Vi auguro una cosa sola: la fortuna di trovarvi sempre in una situazione che vi consenta di mantenere liberamente l’integrità di cui ho parlato e di non sentirvi costretti a perderla per conservare il posto, trovare fondi, o altro. Possiate voi avere questa libertà.”

La “cargo science” di Feynman è dunque una metafora perfetta della teoria neoclassica: le palette, la pista, i fuochi e le cuffie sono davvero molto simili alla mano invisibile, alle aspettative razionali e ai mercati efficienti. Così come gli indigeni sono sempre lì ad aspettare che gli aerei atterrino, gli economisti aspettano che i mercati si stabilizzino; ma purtroppo per gli indigeni dei mari del sud e per noi consumatori e cittadini gli aerei continuano a non atterrare e le crisi continuano a imperversare. Alla teoria neoclassica manca probabilmente qualcosa di essenziale: la complessità è oggi senz’altro uno tra i tentativi più promettenti al fine di fornire strumenti scientifici e riformularne alla base l’approccio metodologico.

Advertisements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s