Isonomia – Epistemologica Volume 2 COMPLESSITÀ E RIDUZIONISMO Volume 1 Il Realismo Scientifico di Evandro Agazzi Mario Alai, ed. Volume 2 Complessità e Riduzionismo Vincenzo Fano, Enrico Giannetto, Giulia Giannini, Pierluigi Graziani, eds. ISONOMIA Epistemologica Series Editor Gino Tarozzi gino.tarozzi@uniurb.it COMPLESSITÀ E RIDUZIONISMO a cura di Vincenzo Fano Enrico Giannetto Giulia Giannini Pierluigi Graziani © ISONOMIA – Epistemologica All rights reserved. ISSN 2037-4348 Scientific Director: Gino Tarozzi Managing Director: Pierluigi Graziani Department of Foundation of Sciences P.za della Repubblica, 13 – 61029 Urbino (PU) http://isonomia.uniurb.it/ Design by massimosangoi@gmail.com All rights reserved. No part of this publication may be reproduced, stored in a retrieval system or transmitted in any form, or by any means, electronic, mechanical, photocopying, recording or otherwise without prior permission, in writing, from the publisher. Sommario VINCENZO FANO, ENRICO GIANNETTO, GIULIA GIANNINI, PIERLUIGI GRAZIANI Riflettendo su complessità e riduzionismo ................................................................ 1 GIAN-ITALO BISCHI Modelli dinamici per le scienze sociali ..................................................................... 7 LUCIANO BOI Remarks on the geometry of complex systems and self-organization ..................... 21 CLAUDIO CALOSI, VINCENZO FANO Coscienza e fisicalismo minimale ........................................................................... 37 SALVO D'AGOSTINO Newton, Ampère, Maxwell, Einstein: sulla deduzione dei fenomeni ...................... 47 PIERLUIGI GRAZIANI Elementare ma complessa: la prospettiva della complessità computazionale attraverso il caso studio della geometria di Tarski ................................................ 59 ARCANGELO ROSSI Dai modelli riduzionistici della realtà fisica nella scienza classica alla complessità nella scienza contemporanea .............................................................. 75 ROBERTO SERRA Complex Systems Biology ....................................................................................... 93 GIORGIO TURCHETTI Dai modelli fisici ai sistemi complessi .................................................................. 101 SERGIO CHIBBARO, LAMBERTO RONDONI, ANGELO VULPIANI Considerazioni sui fondamenti della meccanica statistica ...............................

© 2012Vincenzo Fano, Enrico Giannetto, Giulia Giannini, Pierluigi Graziani "Riflettendo su complessità e riduzionismo", in Complessità e riduzionismo, pp. 1-5 Published by Isonomia, Rivista online di Filosofia – Epistemologica – ISSN 2037-4348 Università degli Studi di Urbino Carlo Bo http://isonomia.uniurb.it/epistemologica 1 Riflettendo su complessità e riduzionismo Vincenzo Fano Università degli Studi di Urbino Carlo Bo vincenzo.fano@uniurb.it Enrico Giannetto Università degli Studi di Bergamo egiannet@unibg.it Giulia Giannini Centre Alexandre Koyré, Paris giulia.giannini@gmail.com Pierluigi Graziani Università degli Studi di Urbino Carlo Bo pierluigi.graziani@uniurb.it Il volume raccoglie gli atti della XIII Scuola Estiva di Filosofia della Fisica, tenutasi a Cesena dal 13 al 18 settembre 2010. A partire dal 1998, il Centro Interuniversitario di ricerca in Filosofia e Fondamenti della Fisica (Urbino, Bologna, Salento e Insubria) organizza annualmente una scuola estiva in collaborazione con la Società Italiana di Logica e Filosofia delle Scienze (SILFS) e il Comune di Cesena. La scuola, diventata ormai punto di riferimento annuale per studenti, insegnanti e studiosi di varie discipline, affronta ogni anno un tema differente invitando i maggiori esperti italiani sull'argomento. Dedicata a "Complessità e Riduzionismo", l'edizione del 2010 si è avvalsa anche della collaborazione della Scuola di Dottorato in Antropologia ed Epistemologia della Complessità dell'Università degli Complessità e riduzionismo 2 Studi di Bergamo che, dal 2002, promuove in Italia e nel mondo la formazione e il perfezionamento di ricercatori esperti nella complessità storica, filosofica e antropologica delle scienze naturali e umane. Come mostrano i contributi qui raccolti, durante i lavori della scuola, complessità e riduzionismo sono stati affrontati dai relatori a partire da prospettive diverse e sotto differenti punti di vista. Gian-Italo Bischi, dopo aver brevemente delineato la storia della progressiva matematizzazione dell'economia, si è concentrato soprattutto sull'utilizzo di modelli dinamici non lineari. Sviluppati inizialmente in ambito fisico e basati su equazioni di evoluzione, tali modelli deterministici vengono utilizzati per prevedere – ed eventualmente controllare – l'evoluzione temporale di sistemi reali. Secondo Bischi, la scoperta che modelli dinamici non lineari (tipici dei sistemi sociali che presentano continue interazioni e meccanismi di feed-back) possono esibire comportamenti di caos deterministico, caratterizzato dalla proprietà di amplificare in modo difficilmente prevedibile perturbazioni arbitrariamente piccole, ha suscitato un certo imbarazzo e nel contempo creato nuove possibilità. Imbarazzo perché la presenza di caos deterministico rende insostenibile l'ipotesi dell'agente economico razionale, ovvero capace di prevedere correttamente; ma apre anche nuove possibilità, poiché tale scoperta mostra che quei sistemi economici e sociali caratterizzati da fluttuazioni in apparenza casuali potrebbero in realtà essere governati da leggi del moto deterministiche (anche se non lineari). Se Bischi ha affrontato il tema della complessità in ambito economico, Salvo D'Agostino ha invece introdotto e approfondito il problema dei successi e dei fallimenti dell'assiomatizzazione in campo fisico. Uno degli aspetti più dibattuti della complessità sul versante scientifico e filosofico è infatti quello della supposta rinuncia a una generalizzazione dei procedimenti assiomatico-deduttivi come metodo generale della ricerca scientifica. A partire dalla considerazione che la fisica pre-relativistica è spesso stata considerata fondata prevalentemente sul trionfo di tale metodo, D'Agostino ha evidenziato la presenza di una posizione antagonista presente già in Newton e ripresa successivamente da Ampère e Maxwell. Alternativa al metodo assiomatico-deduttivo, tale prospettiva si fonda sul ricorso alla cosiddetta deduzione dai fenomeni. Una variazione sul tema, è stata individuata da D'Agostino anche nel contributo di Einstein in cui alla celebrazione del metodo assiomatico-deduttivo si contrappone una lode dell'osservazione dei fenomeni e della riflessione sugli esperimenti: è proprio ponendo il problema di una scelta o conciliazione fra le due che Fano, Giannetto, Giannini, Graziani: Riflettendo su complessità e riduzionismo 3 Einstein avrebbe, secondo D'Agostino, il merito di aver aperto la via al pensiero scientifico moderno. Sempre in ambito fisico, Arcangelo Rossi ha tracciato, da un punto di vista storico, il passaggio dai modelli riduzionistici che hanno caratterizzato lo studio delle realtà fisica nella scienza classica all'emergere della questione della complessità nella scienza contemporanea. In particolare, a partire dall'affermazione di Ernst Cassirer secondo cui la piena transizione da un'accezione sostantiva ed esplicativa dei modelli a una formale e funzionale sarebbe rintracciabile già alle origini della scienza moderna, Rossi ha mostrato come la visione della natura che emerge dalla scienza classica illuminista fosse comunque realista e riduzionista. Benché alcuni aspetti e alcune visioni non propriamente qualificabili come riduzioniste e meccaniciste siano già presenti all'interno della scienza classica, la tematica della complessità comincia a svilupparsi in fisica solo alla fine dell'Ottocento. Sergio Chibarro, Lamberto Rondoni e Angelo Vulpiani hanno affrontato il ruolo del caos e l'emergenza di proprietà collettive all'interno della meccanica statistica. In particolare, hanno mostrato l'esistenza di due posizioni nettamente diverse: da una parte il punto di vista "tradizionale", risalente a Boltzmann e parzialmente formalizzato da Khinchin, secondo cui la meccanica statistica sarebbe caratterizzata in primo luogo dall'enorme numero di gradi di libertà; dall'altro la scuola "moderna" cresciuta intorno a Prigogine e ai suoi collaboratori, che considera il caos come l'ingrediente fondamentale. Anche attraverso alcune simulazioni numeriche, gli autori hanno mostrato come anche all'interno della meccanica statistica si faccia avanti il problema della complessità e del riduzionismo. Sebbene i risultati di Khinchin non siano in grado di rispondere in modo definitivo a tutti i problemi sollevati dalla relazione fra termodinamica e meccanica statistica, il numero estremamente grande di gradi di libertà che tale approccio prende in considerazione permette l'emergere, nei sistemi macroscopici, di proprietà del tutto assenti in sistemi piccoli. Giorgio Turchetti ha introdotto il problema del passaggio dai modelli fisici ai sistemi complessi mostrando come i limiti che il disegno riduzionista incontra già per i sistemi fisici diventino decisamente più forti nel caso dei sistemi complessi. La grande differenza tra un sistema fisico e un sistema complesso risiederebbe infatti, secondo Turchetti, nel fatto che il primo, fissate le condizioni esterne, ha sempre le medesime proprietà, mentre il secondo cambia con il fluire del tempo, perché la sua organizzazione interna muta non solo al cambiare di fattori ambientali ma anche con il succedersi delle generazioni. È in tale prospettiva che egli Complessità e riduzionismo 4 giunge a definire complessi non tanto i sistemi caratterizzati da proprietà emergenti e da interazioni non lineari tra i loro componenti (definibili come sistemi dinamici), ma piuttosto i sistemi viventi o quelli di vita artificiale che ne condividono le proprietà essenziali. Il problema di complessità e riduzionismo in campo biologico è stato poi affrontato in maniera diretta da Luciano Boi e da Roberto Serra. Il primo ha mostrato come lo studio del comportamento dinamico delle strutture cellulari non possa essere descritto con sufficiente accuratezza né dalla convenzionale dinamica dell'equilibrio né da modelli statici e richieda quindi nuovi strumenti. In particolare, egli ha affrontato la necessità – per una comprensione del comportamento dei sistemi (dinamici) complessi – di un'adeguata conoscenza delle caratteristiche cinetiche e topologiche delle loro componenti. A differenza dello studio dei meccanismi molecolari, l'analisi del comportamento dinamico delle strutture cellulari non necessita tanto di una profonda e dettagliata conoscenza del comportamento di ogni singola molecola, ma piuttosto delle regole che governano il comportamento globale e collettivo dei sistemi. In consonanza con il contributo di Boi, Serra ha spiegato come la scienza dei sistemi complessi abbia mostrato l'esistenza di "leggi" in gran parte indipendenti dalle specifiche caratteristiche delle entità microscopiche che tuttavia ne descrivono il comportamento e l'interazione. Se la ricerca di proprietà generali ha ormai assunto una grande rilevanza in ambito fisico, nelle scienze biologiche si trova ancora nei suoi primi stadi di vita. Attraverso una serie di esempi, Serra ha mostrato come tale approccio, da considerarsi non in opposizione alla biologia molecolare classica ma a essa complementare, sembra però portare anche in ambito biologico a importanti e promettenti risultati. Emblematico in questo senso è per Serra il lavoro di Kauffman che rivela come un sistema dinamico di geni che interagiscono fra loro mostri delle proprietà di auto-organizzazione che spiegano alcuni aspetti della vita, fra cui l'esistenza di un numero limitato di tipi cellulari in ogni organismo multicellulare. Pierluigi Graziani ha affrontato invece il problema della complessità computazionale in riferimento alla decidibilità della geometria elementare di Tarski. A partire soprattutto dai lavori di Fisher, Rabin e Meyers e in confronto con il lavoro di Tarski, Graziani ha analizzato come il problema della decisione si trasformi nella determinazione di quanto tempo e spazio di memoria impieghi un algoritmo di decisione per una teoria a determinare se un enunciato della teoria ne sia o meno un teorema. In teoria della complessità computazionale, infatti, si assume che siano computazionalmente intrattabili quei compiti che richiedono risorse di Fano, Giannetto, Giannini, Graziani: Riflettendo su complessità e riduzionismo 5 tempo e spazio di memoria (le cosiddette risorse computazionali) che crescono esponenzialmente con la lunghezza dell'input; e che siano computazionalmente trattabili quelli che richiedono risorse che crescono al più in modo polinomiale con la lunghezza dell'input. In tale prospettiva, la complessità computazionale non concerne dunque quante risorse richiede lo svolgere un determinato compito, bensì quanto aumentano le risorse richieste al crescere delle dimensioni dei dati. Claudio Calosi e Vincenzo Fano hanno mostrato come il problema della complessità e del riduzionismo riguardi anche il rapporto fra psicologia e fisica. In particolare, hanno proposto qui un nuovo esperimento mentale che hanno chiamato Shem-Shaun – dal nome dei due gemelli protagonisti del Finnegan's Wake di Joyce – e che solleva un problema per il Fisicalismo minimale in filosofia della mente. Il fisicalismo minimale viene infatti caratterizzato come quella tesi secondo cui le proprietà mentali sopravvengono nomologicamente sulla proprietà fisiche, una forma di riduzionismo per cui, stabilite le proprietà fisiche del mondo, quelle mentali sarebbero necessariamente determinate. Gli autori sostengono che, o il Fisicalismo minimale è incapace di dare un resoconto adeguato dell'esperimento Shem-Shaun o ne deve dare un resoconto che è in forte tensione con la nostra attuale immagine scientifica del mondo. Nel loro insieme, i lavori presentati testimoniano da un lato la vivacità degli studi epistemologici sulla complessità e dall'altro l'importanza del concetto di complessità per la filosofia della scienza e, in particolare, della fisica. © 2012 Gian-Italo Bischi "Modelli dinamici per le scienze sociali", in Complessità e riduzionismo, pp. 7-19 Published by Isonomia, Rivista online di Filosofia – Epistemologica – ISSN 2037-4348 Università degli Studi di Urbino Carlo Bo http://isonomia.uniurb.it/epistemologica 7 Modelli dinamici per le scienze sociali Razionalità (limitata), interazione, aspettative Gian-Italo Bischi Università degli Studi di Urbino Carlo Bo gian.bischi@uniurb.it 1. Introduzione Nel corso del Novecento l'uso dei modelli matematici, che si era già rivelato così utile in fisica e ingegneria, è stato introdotto, talvolta con difficoltà non trascurabili, anche in discipline tradizionalmente considerate poco adatte ad un simile approccio, quali l'economia, la sociologia, la biologia. Un percorso che inizia prendendo a prestito molte delle idee e dei modelli della fisica, tanto che nel discorso inaugurale dell'anno accademico 1901-1902 all'Università di Roma il grande fisico matematico Vito Volterra (18601940) pronunciava le seguenti parole: «è intorno a quelle scienze nelle quali le matematiche solo da poco tempo hanno tentato d'introdursi, le scienze biologiche e sociali, che è più intensa la curiosità, giacché è forte il desiderio di assicurarsi se i metodi classici, i quali hanno dato così grandi risultati nelle scienze meccanico-fisiche, sono suscettibili di essere trasportati con pari successo nei nuovi ed inesplorati campi che si dischiudono loro dinanzi». In effetti l'economia arriverà, nel corso della prima metà del secolo, a un'elegante formulazione assiomatico-deduttiva della teoria dell'equilibrio economico, con l'utilizzo di metodi matematici eleganti e sofisticati. Ma le ipotesi di base, che coinvolgono concetti legati alle scelte degli individui influenzate dal loro livello di razionalità, influenzate da componenti psicologiche e interazioni sociali, condizionano fortemente i risultati ottenuti, e tuttora molti ritengono che il fatto che i metodi matematici si Complessità e riduzionismo 8 siano rivelati così utili in fisica non implica che lo siano anche per l'economia e le scienze sociali. La formalizzazione sempre più astratta di tali modelli, insieme alla loro difficoltà a spiegare e prevedere alcuni fenomeni economici e sociali osservati, ha portato a frequenti polemiche sulla reale opportunità di trasformare le discipline sociali in teorie matematiche, con strumenti che talvolta sembrano impiegati come fine a se stessi. In questo articolo, dopo aver brevemente delineato la storia della progressiva matematizzazione dell'economia, ci si concentrerà soprattutto sull'utilizzo in economia dei modelli dinamici non lineari, anche questi sviluppati inizialmente in fisica. Si tratta di modelli deterministici utilizzati per prevedere, ed eventualmente controllare, l'evoluzione temporale di sistemi reali. Basati su equazioni di evoluzione, espresse mediante equazioni differenziali o alle differenze a seconda che si consideri il tempo continuo o discreto, il loro studio qualitativo permette di ottenere informazioni sul tipo di comportamento che emergerà nel lungo periodo, e di come questo è influenzato dai principali parametri. La scoperta che modelli dinamici non lineari (che sono la regola nei sistemi sociali, caratterizzati da interazioni e meccanismi di feed-back) possono esibire comportamenti denotati col termine di caos deterministico per la proprietà di amplificare in modo difficilmente prevedibile perturbazioni arbitrariamente piccole (la cosiddetta sensitività rispetto alle condizioni iniziali, o "effetto farfalla") ha suscitato un certo imbarazzo e nel contempo creato nuove possibilità. L'imbarazzo è dovuto al fatto che, come descriveremo meglio in seguito, la presenza di caos deterministico rende insostenibile l'ipotesi di agente economico razionale, ovvero capace di prevedere correttamente. Le nuove possibilità sono legate al fatto che quei sistemi economici e sociali caratterizzati da fluttuazioni in apparenza casuali potrebbero essere governati da leggi del moto deterministiche (anche se non lineari). In ogni caso, gli studi sui sistemi dinamici non lineari hanno portato a distinguere fra la rappresentazione matematica deterministica e la prevedibilità. L'attuale crisi economica ha senz'altro contribuito a riaccendere il dibattito sul modo di studiare i sistemi economici e sociali e la capacità di spiegare e prevedere. Le scienze sociali, e in particolare l'economia, sono davvero una scienza? Come può una scienza non prevedere e non accorgersi di quello che sta succedendo? Si tratta, come vedremo nel seguito, di domande ricorrenti, e anche in questa occasione qualcuno ha detto che, inseguendo i formalismi matematici, si sta perdendo di vista la realtà, mentre altri sostengono che il problema sta negli specifici formalismi adottati, che quelli usati sono superati, legati ad una matematica "vecchia", Bischi: Modelli dinamici per le scienze sociali 9 magari mutuata in modo acritico da altre discipline. La speranza è allora che la crisi economica comporti un cambio di paradigma anche nella modellizzazione matematica. 2. La matematizzazione dell'economia Nonostante ci sia un importante precursore, costituito dal testo Récherches sur les principes matématiques de la théorie de la richesse pubblicato a Parigi da A.A. Cournot nel 1838, la nascita dell'economia matematica viene fatta risalire a tre opere che escono, quasi contemporaneamente, trent'anni dopo: si tratta di The Theory of Political Economy, pubblicata da W.S. Jevons nel 1871 a Londra; Grundsätze der Volkswirtschaftslehre (Principi di Economia) pubblicata da C. Menger a Vienna anch'essa nel 1871 e Eléments d'économie politique pure di L.Walras, Losanna 1877. In queste opere c'è un nuovo ruolo svolto dalla Matematica, non più semplice strumento per il calcolo algebrico ma elemento costitutivo e parte integrante dell'analisi economica, che segna la trasmigrazione dell'economia dal novero delle scienze morali a quello delle discipline scientifiche. Queste opere segnano l'inizio della cosiddetta "rivoluzione marginalista", ovvero la formulazione delle leggi dell'economia attraverso problemi di massimo e di minimo. In particolare, il principio che si assume come forza motrice è quello della massimizzazione dell'utilità attesa dagli individui, con funzioni di utilità di tipo ordinale definite sulla base di certi assiomi di scelta. Principi di minimizzazione o massimizzazione già permeavano tutta la fisica dell'epoca, e Walras, probabilmente il più rappresentativo dei tre autori, sostenne sempre l'esistenza di una stretta analogia tra l'economia e le scienze fisico-matematiche. Una spinta ancor più decisiva in tale direzione sarà poi data da Vilfredo Pareto, che dopo aver studiato Matematica a Torino nel 1892 succede a Walras sulla cattedra di Losanna. Il modello seguito rimane comunque la fisica, in particolare la meccanica, con i principi di massimo e di minimo che determinano i movimenti e gli equilibri. Pareto procede a partire da pochi assiomi iniziali, considerati incontrovertibili nella loro evidenza, che sviluppa poi con un rigoroso ragionamento deduttivo, per arrivare a concetti quali l'equilibrio economico generale. Pareto intende «disinquinare la scienza economica da politica e filosofia» prendendo come modello la meccanica razionale. Ovviamente questo suscitò non poche polemiche fra gli studiosi di discipline sociali, i quali si chiedevano se fosse possibile Complessità e riduzionismo 10 trasformare in quantitativa una scienza umana come l'economia, i cui procedimenti e le cui conclusioni coinvolgono pesantemente pregiudizi storici, culturali e politici. C'era inoltre il timore che l'impiego della matematica fornisse all'economia una particolare autorevolezza, che rischia di trasformarsi in presunta oggettività e che comunque rende difficile l'individuazione dei suoi condizionamenti ideologici Queste polemiche non scoraggiarono Pareto, che affermava: «L'economia non abbia timore di diventare un sistema assiomaticodeduttivo, ipotizzando agenti e processi economici idealizzati, così come la fisica utilizza con grande profitto entità come i corpi rigidi, i fili inestensibili e privi di massa, i gas perfetti, le superfici prive di attrito...». Famosi i suoi "specchietti" (in doppia colonna) che presentano gli elementi alla base dello studio dei fenomeni meccanici e i loro corrispondenti per quelli economici. C'è da notare che questa impostazione dell'economia ha costituito a sua volta un fattore decisivo per la definitiva affermazione in matematica dei sistemi formali, in quanto per la prima volta il metodo assiomaticodeduttivo veniva applicato al di fuori dei tradizionali contesti della geometria o della fisica. Questa affermazione diventa ancor più vera con le opere di Gerard Debreu (1921–2004), premio Nobel per l'economia nel 1983, che nella prefazione della sua opera The Theory of Value (1959) scrive: «la teoria del valore è trattata qui secondo gli standard di rigore dell'attuale scuola formalista di Matematica. La fedeltà all'esigenza del rigore impone all'analisi una forma assiomatica in cui la vera e propria teoria rimane completamente separata dalle sue interpretazioni». In questo volume, che ha fatto parlare di bourbakismo in economia, all'utilizzo del calcolo differenziale e dell'algebra delle matrici si aggiungono quelli dell'analisi convessa, la teoria degli insiemi, la topologia, la teoria della misura, gli spazi vettoriali, l'analisi globale. Lo standard di rigore logico della matematica è ormai la regola, non più l'eccezione. Ma lo stesso Debreu scriveva anche che «la seduzione della forma matematica può diventare quasi irresistibile. Nel perseguimento di tale forma, può darsi che il ricercatore sia tentato di dimenticare il contenuto economico e di evitare quei problemi economici che non siano direttamente assoggettabili a matematizzazione»1. C'è poi il solito problema che, a differenza degli oggetti della fisica, il comportamento di esseri umani è più difficile da descrivere mediante modelli matematici. Come amava stigmatizzare il grande economista John Maynard Keynes (1883–1946) non basta semplicemente adattare i metodi e 1 Citazione tratta da Gandolfo (1989). Bischi: Modelli dinamici per le scienze sociali 11 i ragionamenti della fisica alla modellizzazione dell'economia perché «L'economia è una scienza morale [...] essa ha a che vedere con motivazioni, aspettative, incertezze psicologiche. Si deve essere costantemente attenti a non trattare questo materiale come se fosse costante ed omogeneo. È come se la caduta della mela al suolo dipendesse dalle aspirazioni della mela, se per lei sia conveniente o meno cadere a terra, se il suolo vuole che essa cada, e se vi sono stati errori di calcolo da parte della mela sulla sua reale distanza dal centro del pianeta»2. E si potrebbe anche aggiungere: come e quanto la mela si fa condizionare dal comportamento delle altre mele, le aspettative che la mela ha sugli esiti della sua caduta, le informazioni che la mela ha sulle decisioni delle altre mele e sulle condizioni del suolo su cui andrà a cadere, ecc. Questi problemi erano stati chiaramente delineati già agli albori dell'economia matematica, in una famosa lettera di Jules Henri Poincaré (1854–1912) a Léon Walras, in cui si trova il seguente passo: «Ho pensato che all'inizio di ogni speculazione matematica ci sono delle ipotesi e che, perché questa speculazione sia fruttuosa occorre, come del resto nelle applicazioni della Fisica, che ci si renda conto di queste ipotesi. Per esempio, in Meccanica si trascura spesso l'attrito e si guarda ai corpi come infinitamente lisci. Lei guarda agli uomini come infinitamente egoisti ed infinitamente perspicaci. La prima ipotesi può essere accettata come prima approssimazione, ma la seconda necessiterebbe forse di qualche cautela»3. Il problema evidenziato da Poincaré nasce dal tentativo di Walras (e del marginalismo in generale) di introdurre l'ipotesi della perfetta razionalità, col solo fine di ottenere risultati formali. In effetti nei modelli dei marginalisti, in cui si assume che gli agenti prendano decisioni in modo da massimizzare l'utilità attesa, occorre qualche ipotesi sulla distribuzione di probabilità dei possibili stati futuri dell'economia. L'ipotesi di "homo oeconomicus", l'agente idealizzato perfettamente razionale e informato, in grado di risolvere problemi di ottimizzazione e capace di prevedere gli sviluppi futuri dell'economia in quanto ne conosce le leggi così come un fisico conosce le leggi della natura, è in contrasto con gli studi in cui si evidenzia che la componente psicologica e le limitate capacità e informazioni hanno un ruolo fondamentale nel comportamento degli agenti economici. 2 Questi passaggi sono riportati nel vol. XIV dei Collected Writings of John Maynard Keynes, Keynes (1973, 296-300). 3 Lettera ricevuta da Walras il 1° ottobre 1901, riportata in Elèments d'économie politique pure, 4 ed.. Complessità e riduzionismo 12 Anche Herbert Simon (1916–2001), Nobel per l'Economia nel 1978, aveva parlato, negli anni 50, di agenti economici limitatamente razionali affermando che «Non è empiricamente evidente che gli imprenditori e i consumatori nel prendere decisioni seguano i principi di massimizzazione dell'utilità richiesti dai modelli dei marginalisti, in parte perché non hanno informazioni sufficienti, o le necessarie capacità di calcolo. Quindi nei modelli occorre prevedere che gli agenti siano incerti sul futuro e occorre includere i costi per reperire informazioni. Questi fattori limitano le capacità degli agenti nel fare previsioni». Inoltre l'ipotesi che tutti gli agenti siano razionali comporta anche che possono essere rappresentati da un unico prototipo, chiamato agente razionale "rappresentativo", mentre nella realtà ogni comunità di operatori economici si presenta estremamente variegata, e in modelli non lineari l'azione congiunta di agenti eterogenei non può essere sostituita con il comportamento medio di un ipotetico agente rappresentativo. Nonostante queste obiezioni, l'ipotesi dell'agente rappresentativo razionale è diventata dominante dagli anni '60 in poi, e questo solleva molti dubbi, anche logici, dato che l'agente economico è parte del sistema che studia, un problema che i fisici hanno per la prima incontrato nello studio della meccanica quantistica e che si è portato dietro molte conseguenze, paradossi e interpretazioni che fanno tuttora discutere. Il principale motivo per cui il paradigma dell'agente razionale rappresentativo, associato a quello dei mercati efficienti, è diventato il modello teorico dominante (modello neoclassico) è che esso prevede che l'economia raggiungerà un equilibrio in cui tutte le relazioni economiche necessarie (come ad esempio i vincoli di bilancio) saranno rispettate. Questo approccio, fortemente radicato nei metodi di ottimizzazione che portano alla teoria dell'equilibrio generale, porta alla convinzione che i mercati sono in grado di auto-correggersi e che il ruolo dei governi è tutt'al più quello di "regolatori dalla mano leggera". Questo punto di vista è diventato via via più articolato, e hanno cominciato a farsi strada modelli intrinsecamente dinamici, con agenti limitatamente razionali, eterogenei, che prendono decisioni sulla base di un set informativo limitato, talvolta asimmetrico, attraverso procedimenti adattivi basati su meccanismi di "trial and error". Simili modelli, come vedremo nel prossimo paragrafo, possono condurre ad evoluzioni temporali che non si assestano mai su un equilibrio stazionario, e possono facilmente condurre a oscillazioni del sistema economico, con alti e bassi che si generano endogenamente, ovvero senza shock esterni, attraverso Bischi: Modelli dinamici per le scienze sociali 13 procedimenti non lineari tipici dei sistemi dissipativi che operano in condizioni di disequilibrio. 3. Modelli dinamici in economia e scienze sociali Un sistema dinamico viene identificato mediante un certo numero di grandezze misurabili, dette variabili di stato, ciascuna delle quali è una funzione della variabile t, che rappresenta il tempo. Esse possono essere raccolte in un vettore a n componenti x(t)=[(x1(t), x2(t), ..., xn(t)], punto geometrico in uno spazio a n dimensioni, detto spazio degli stati, che in ogni istante t si assume rappresenti il sistema. Assegnato il vettore di stato x0 ad un istante iniziale t0, l'evoluzione del sistema dinamico è idealmente rappresentata da un operatore x(t)=Φ (t0, x0; t) che permette di determinare lo stato del sistema ad ogni istante di tempo successivo, ovvero la traiettoria del sistema. La variabile tempo può essere pensata come un numero reale, e allora diremo che il tempo varia in modo continuo, oppure come un numero naturale, e allora diremo che il tempo varia in modo discreto, cioè assumendo valori multipli di una data unità di misura. Nel caso di tempo continuo vengono definite delle equazioni locali di evoluzione, o equazioni del moto, mediante equazioni differenziali che descrivono come la rapidità di variazione di ciascuna variabile di stato (espressa dalla derivata prima rispetto al tempo) dipende da se stessa e dalle altre variabili: ( )1 2, ,..., ; 1,...,i i n dx f x x x i n dt α= = ; xi(0) assegnati, dove fi è la funzione che determina l'evoluzione della i ma variabile di stato, α rappresenta l'insieme dei parametri da cui dipende la legge del moto. In pratica, dalla conoscenza delle variabili di stato e dei loro tassi di variazione (o velocità) in un istante di tempo, si può calcolare lo stato a un istante successivo e così via. Invece nel caso di tempo discreto la legge del moto, che "trasforma" lo stato del sistema al tempo t nello stato al tempo successivo t+1, viene rappresentata sotto forma di equazioni alle differenze: xi (t+1) = fi ( x(t), α ), i=1,...,n; xi(0) assegnati. Il fatto che il tempo possa essere considerato una variabile discreta può sembrare strano, eppure costituisce una buona rappresentazione del fatto che Complessità e riduzionismo 14 in certi contesti il tempo viene scandito da eventi, in genere decisioni che non possono essere rivedute in ogni istante: l'impresa che assume operai o l'agricoltore che semina una determinata quantità di grano non possono modificare la propria decisione in ogni momento, in quanto l'azienda dovrà attendere il successivo consiglio d'amministrazione e l'agricoltore la successiva stagione di semina. Le equazioni del moto di un sistema dinamico sono quindi perfettamente deterministiche, simili a quelle usate in meccanica celeste per descrivere e prevedere il moto di pianeti e comete. Questi modelli avevano portato Laplace a enunciare, nel 1776, quello che sarebbe poi diventato il manifesto del determinismo4: «Lo stato attuale del sistema della natura consegue evidentemente da quello che era all'istante precedente e se noi immaginassimo un'intelligenza che a un istante dato comprendesse tutte le relazioni fra le entità di questo universo, essa potrebbe conoscere le rispettive posizioni, i moti e le disposizioni generali di tutte quelle entità in qualunque istante del futuro». Parole quasi identiche erano state usate circa un secolo prima da Leibniz, che scriveva «Vediamo allora che ogni cosa procede in modo matematico – cioè infallibilmente – nel mondo intero, in modo che se qualcuno avesse una sufficiente capacità di conoscere a fondo le cose, e avesse abbastanza intelligenza e memoria per considerare tutte le circostanze e tenerne conto, questi potrebbe essere un profeta e potrebbe vedere il futuro nel presente come in uno specchio».5 Queste affermazioni così evidenti nel mondo della fisica, non lo sono in economia e nelle scienze sociali, in quanto in questi contesti lo stato attuale consegue sì da quelli del passato, ma dipende anche dalle decisioni degli individui che lo compongono, decisioni che sono influenzate dalle aspettative che essi hanno sul futuro. Si rende quindi necessario formulare dei modelli in cui le aspettative degli agenti sul futuro si riflettono sul modo in cui i sistemi evolvono. Si ottengono quindi modelli "con aspettative", che possiamo immaginare formulati in uno dei modi seguenti: xt+1=f( )( 1 e tx + ) oppure xt=f( )( 1 e tx + ), 4 Laplace (1776). 5 Cassirer (1956), traduzione mia. Bischi: Modelli dinamici per le scienze sociali 15 dove l'apice (e) significa expected. In altre parole, il paradigma classico "Lo stato attuale di un sistema deriva dagli stati precedenti" si modifica nel seguente "Lo stato attuale di un sistema deriva dalle aspettative che gli agenti hanno sul futuro del sistema stesso", affermazione che rischia di portarsi dietro non pochi paradossi e meccanismi autoreferenziali. I sistemi dinamici, sia deterministici che stocastici, hanno svolto un ruolo di primaria importanza nello sviluppo dell'economia matematica, soprattutto in connessione con l'esigenza di prevedere e controllare l'evoluzione temporale dei sistemi economici e sociali. In particolare, a partire dagli anni '30, un tema ricorrente nella letteratura è stato il confronto fra modelli deterministici e stocastici come possibili strumenti per descrivere le oscillazioni irregolari e persistenti osservate nei sistemi economici, in netto contrasto sia con la convergenza a un equilibrio stazionario prevista dai modelli lineari dell'equilibrio economico, che con la periodicità delle oscillazioni endogene previste dai primi modelli deterministici non lineari del ciclo economico. Questo aveva portato a una crescente popolarità dei modelli lineari stabili arricchiti da termini stocastici per rappresentare continui shock esogeni, la cui presenza è in grado di provocare le oscillazioni persistenti che si osservano nei dati reali. Tuttavia, un altro importante aspetto, intimamente legato allo studio dei sistemi dinamici non lineari, ha acquisito fondamentale importanza. Si tratta del fenomeno del caos deterministico6, un apparente ossimoro che indica la possibilità di generare, mediante modelli deterministici non lineari, evoluzioni temporali praticamente indistinguibili da traiettorie casuali (ed estremamente sensibili a variazioni, anche impercettibili, delle condizioni iniziali). Lo descriviamo utilizzando le parole di Poincaré (1903)7, che esprimono la prima chiara distinzione fra caso e caos deterministico: Una causa minima, che ci sfugge, determina un effetto considerevole, del quale non possiamo non accorgerci: diciamo allora che questo effetto è dovuto al caso. Se conoscessimo esattamente le leggi della natura e la situazione dell'universo all'istante iniziale, potremmo prevedere esattamente la situazione dello stesso universo in un instante successivo. Ma se pure accadesse che le leggi naturali non avessero più alcun segreto per noi, anche in tal caso potremmo conoscere la situazione iniziale solo approssimativamente. Se questo ci permettesse di prevedere la situazione successiva con la stessa approssimazione, non ci occorrerebbe di più e dovremmo dire che il fenomeno è stato previsto. Ma non è sempre così; può accadere che piccole differenze nelle condizioni iniziali ne producano di grandissime nei fenomeni 6 Si veda ad esempio Bischi, G.I., Carini, R., Gardini, L., Tenti P. (2004). 7 Il passo è tratto da Poincaré (1997, 56). Complessità e riduzionismo 16 finali. Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diviene impossibile [...]. Quindi la capacità di effettuare previsioni mediante modelli dinamici non lineari in regime caotico è piuttosto limitata a causa di quella che è stata poi chiamata sensitività rispetto alle condizioni iniziali, o anche effetto farfalla dopo la metafora coniata nel 1972 dal meteorologo Edward Lorenz. Negli anni '70 del secolo scorso la crescente diffusione dei concetti e delle tecniche matematiche legate al caos deterministico ha mostrato la possibilità di generare fluttuazioni irregolari senza bisogno di termini stocastici, suggerendo quindi che nei sistemi economici reali ci possono essere meccanismi endogeni capaci di creare il disordine osservato nell'economia reale, senza bisogno di eventi che scuotano i sistemi dall'esterno. La scoperta che anche modelli dinamici molto semplici sono in grado di generare caos deterministico, unitamente alla constatazione che modelli di questo genere possono essere facilmente ottenuti con ipotesi del tutto standard di equilibrio economico generale e di competizione perfetta, di informazione completa e aspettative razionali, ha scosso le basi di molte delle idee alle quali si erano abituati gli economisti, in quanto ha spezzato il legame fra determinismo e prevedibilità, creando nel contempo un'imbarazzante antinomia fra dinamiche caotiche e aspettative razionali.8 Infatti, se un modello economico presenta dinamiche caotiche ipotizzando che gli agenti economici siano razionali, allora per definizione di caos deterministico essi in realtà non possono in alcun modo raggiungere nelle loro previsioni la precisione infinita richiesta per evitare gli effetti dell'estrema sensitività delle dinamiche caotiche. In altre parole, se si parte da un modello con aspettative razionali e si scopre che esso genera caos deterministico, allora le previsioni non possono essere razionali (cioè perfette)9. Inoltre, una delle peculiarità dei modelli dinamici utilizzati in economia, e nelle scienze sociali in genere, consiste nel considerare il tempo discreto (event-driven time) ovvero leggi del moto espresse mediante equazioni alle differenze anziché equazioni differenziali. Questo porta ad ottenere con maggior facilità dinamiche caotiche, in quanto la dinamica a tempo discreto può condurre a oscillazioni legate a eccessiva reattività degli agenti, detti anche fenomeni di "overshooting", e quindi a dinamiche più irregolari di quelli a tempo continuo. 8 Si veda: Bischi, G.I., (2010). 9 Si vedano ad esempio tre celebri articoli: Benhabib, Day (1982), Boldrin, Montrucchio, (1986), Grandmont, (1985). Bischi: Modelli dinamici per le scienze sociali 17 4. Conclusioni In questo articolo si è brevemente delineato il percorso attraverso il quale l'economia si è trasformata da scienza morale a scienza formale, dotandosi di un formalismo matematico ipotetico-deduttivo simile a quello della meccanica razionale. Il paradigma neoclassico, fondato sulle ipotesi di mercati efficienti e agente rappresentativo dotato di aspettative razionali, sta mostrando diversi punti di debolezza di fronte ai fenomeni osservati nell'evoluzione dei sistemi economici reali, e nuove ipotesi di carattere psicologico, economico e sociale, unitamente a nuove tecniche matematiche, sono state chiamate in causa come risposta all'incapacità mostrata dagli attuali modelli di prevedere e proporre rimedi alla crisi economica e finanziaria in atto. Ai modelli dinamici con agenti limitatamente razionali ed eterogenei si aggiungono modelli evolutivi basati su reti di agenti interagenti i cui microcomportamenti, basati su interazioni strategiche individuali, portano nel lungo periodo, e su larga scala, a far emergere macrocomportamenti collettivi10. Si stanno così facendo strada modelli in cui gli agenti sono limitatamente razionali e procedono in modo adattivo, ovvero attraverso tipici processi di "trial and error". Ci si chiede innanzi tutto sotto quali condizioni, da tali modelli, possono emergere nel lungo periodo comportamenti simili a quelli di agenti dotati di razionalità perfetta. Talvolta esistono diversi tipi di possibili evoluzioni di lungo periodo, cioè diversi attrattori, alcuni di tipo razionale, ovvero in cui le aspettative vengono confermate, e altri di tipo "perverso", cioè diversi rispetto alle aspettative. In questi casi il tipo di evoluzione diventa path-dependent, cioè condizionato da shock esterni. Un ruolo sempre più importante nella modellistica economica è svolto dalla teoria dei giochi11, un settore della matematica in grande espansione il cui testo fondante Theory of Games and Economic Behavior, di John Von Neumann e Oskar Morgenstern, è stato pubblicato nel 1944. Si tratta, forse per la prima volta, di un settore della matematica nato appositamente per la modellizzazione delle scienze sociali, in quanto creato proprio per descrivere l'interazione strategica fra soggetti umani, quindi non 10 Si veda Schelling (1978). 11 Per una introduzione elementare si veda Bischi, (2010b). Complessità e riduzionismo 18 semplicemente mutuato dalla fisica. Anche in questo caso si stanno diffondendo in letteratura modelli basati sulla teoria dei giochi in cui gli agenti sono considerati limitatamente razionali e con un set informativo incompleto. Sicuramente interessanti, in simili contesti, le situazioni in cui il comportamento di ogni individuo è influenzato dalla società in cui vive, essendo poi la società, ovviamente, costituita dai singoli individui. Questo porta a un trade-offs fra comportamenti individuali e proprietà sociali emergenti. Infine, c'è attualmente una generale impressione che la crisi economica possa portare a un cambio di paradigma anche nel modo di fare modelli matematici nelle scienze sociali, spostandolo sempre più verso temi e metodi legati alla teoria della complessità, dalla meccanica statistica alla simulazione ad agenti, modelli dinamici di reti sociali (social networks) e giochi evolutivi. Da questo punto di vista, possiamo dire che sicuramente «viviamo tempi interessanti»12. Riferimenti Benhabib, J. e Day, R., 1982, «A characterization of erratic dynamics in the overlapping generations model», Journal of Economic Dynamics and Control, 4, pp. 37-55. Bischi, G.I., Carini, R., Gardini, L., Tenti P., 2004, Sulle Orme del Caos. Comportamenti complessi in modelli matematici semplici, Bruno Mondadori Editore, Milano. Bischi, G.I., 2010a, «Caos deterministico, modelli matematici e prevedibilità», APhEx, Il portale italiano di filosofia analitica, Giornale di Filosofia n. 2, http://www.aphex.it/index.php?Temi=557D030122027403210304767 773. Bischi, G.I., 2010b, «Decisioni strategiche e dilemmi sociali. Orientarsi fra le scelte con la teoria dei giochi», Thauma n. 04, Thauma Edizioni, Pesaro, pp. 151-177. Boldrin, M. e Montrucchio, L., 1986, «On the Indeterminacy of Capital Accumulation Paths», Journal of Economic Theory 40, pp. 26-39. Cassirer, E., 1956, Determinism and Indeterminism in Modern Physics, Yale University Press, New Haven. 12 Affermazione contenuta nell'articolo di Chiarella (2010). Si veda anche, nello stesso volume, Landini (2010) e Terna (2010). Bischi: Modelli dinamici per le scienze sociali 19 Chiarella, C., 2010, «What's beyond? Alcuni punti di vista sul futuro dell'economia matematica» in: Bischi, G.I., Guerraggio, A., «L'economia matematica. La sua storia nel Novecento, il suo presente», Lettera Matematica Pristem, n.74-75. Gandolfo, G., 1989, «Sull'uso della matematica in economia», Bollettino U.M.I., (7) 3-A, pp. 250-278. Grandmont, J.M., 1985, «Endogenous Competitive Business Cycles», Econometrica 53, pp. 995-1045. Keynes, J. M., 1973, Collected Writings of John Maynard Keynes, a cura di D. E. Moggridge, Macmillan e Cambridge University Press, pp. 296300. Landini, S., 2010, «Tra complessità e reti: un approccio fisico-statistico alle scienze sociali» in: Bischi, G.I., Guerraggio, A., «L'economia matematica. La sua storia nel Novecento, il suo presente», Lettera Matematica Pristem, n.74-75. Laplace, P. S., (1776), Théorie analytique des probabilitiés, V. Courcier, Paris 1820. Poincaré, H., 1997, Scienza e metodo, Einaudi, Torino. Schelling, T., 1978, Micromotives and Macrobehavior, W. W. Norton, New York. Terna, P., 2010, «Complessità, evoluzione e simulazione ad agenti in economia» in: Bischi, G.I., Guerraggio, A., «L'economia matematica. La sua storia nel Novecento, il suo presente», Lettera Matematica Pristem, n.74-75.