Isonomia – Epistemologica Volume 2 COMPLESSITÀ E RIDUZIONISMO Volume 1 Il Realismo Scientifico di Evandro Agazzi Mario Alai, ed. Volume 2 Complessità e Riduzionismo Vincenzo Fano, Enrico Giannetto, Giulia Giannini, Pierluigi Graziani, eds. ISONOMIA Epistemologica Series Editor Gino Tarozzi gino.tarozzi@uniurb.it COMPLESSITÀ E RIDUZIONISMO a cura di Vincenzo Fano Enrico Giannetto Giulia Giannini Pierluigi Graziani © ISONOMIA – Epistemologica All rights reserved. ISSN 2037-4348 Scientific Director: Gino Tarozzi Managing Director: Pierluigi Graziani Department of Foundation of Sciences P.za della Repubblica, 13 – 61029 Urbino (PU) http://isonomia.uniurb.it/ Design by massimosangoi@gmail.com All rights reserved. No part of this publication may be reproduced, stored in a retrieval system or transmitted in any form, or by any means, electronic, mechanical, photocopying, recording or otherwise without prior permission, in writing, from the publisher. Sommario VINCENZO FANO, ENRICO GIANNETTO, GIULIA GIANNINI, PIERLUIGI GRAZIANI Riflettendo su complessità e riduzionismo ................................................................ 1 GIAN-ITALO BISCHI Modelli dinamici per le scienze sociali ..................................................................... 7 LUCIANO BOI Remarks on the geometry of complex systems and self-organization ..................... 21 CLAUDIO CALOSI, VINCENZO FANO Coscienza e fisicalismo minimale ........................................................................... 37 SALVO D'AGOSTINO Newton, Ampère, Maxwell, Einstein: sulla deduzione dei fenomeni ...................... 47 PIERLUIGI GRAZIANI Elementare ma complessa: la prospettiva della complessità computazionale attraverso il caso studio della geometria di Tarski ................................................ 59 ARCANGELO ROSSI Dai modelli riduzionistici della realtà fisica nella scienza classica alla complessità nella scienza contemporanea .............................................................. 75 ROBERTO SERRA Complex Systems Biology ....................................................................................... 93 GIORGIO TURCHETTI Dai modelli fisici ai sistemi complessi .................................................................. 101 SERGIO CHIBBARO, LAMBERTO RONDONI, ANGELO VULPIANI Considerazioni sui fondamenti della meccanica statistica ...............................

© 2012Vincenzo Fano, Enrico Giannetto, Giulia Giannini, Pierluigi Graziani "Riflettendo su complessità e riduzionismo", in Complessità e riduzionismo, pp. 1-5 Published by Isonomia, Rivista online di Filosofia – Epistemologica – ISSN 2037-4348 Università degli Studi di Urbino Carlo Bo http://isonomia.uniurb.it/epistemologica 1 Riflettendo su complessità e riduzionismo Vincenzo Fano Università degli Studi di Urbino Carlo Bo vincenzo.fano@uniurb.it Enrico Giannetto Università degli Studi di Bergamo egiannet@unibg.it Giulia Giannini Centre Alexandre Koyré, Paris giulia.giannini@gmail.com Pierluigi Graziani Università degli Studi di Urbino Carlo Bo pierluigi.graziani@uniurb.it Il volume raccoglie gli atti della XIII Scuola Estiva di Filosofia della Fisica, tenutasi a Cesena dal 13 al 18 settembre 2010. A partire dal 1998, il Centro Interuniversitario di ricerca in Filosofia e Fondamenti della Fisica (Urbino, Bologna, Salento e Insubria) organizza annualmente una scuola estiva in collaborazione con la Società Italiana di Logica e Filosofia delle Scienze (SILFS) e il Comune di Cesena. La scuola, diventata ormai punto di riferimento annuale per studenti, insegnanti e studiosi di varie discipline, affronta ogni anno un tema differente invitando i maggiori esperti italiani sull'argomento. Dedicata a "Complessità e Riduzionismo", l'edizione del 2010 si è avvalsa anche della collaborazione della Scuola di Dottorato in Antropologia ed Epistemologia della Complessità dell'Università degli Complessità e riduzionismo 2 Studi di Bergamo che, dal 2002, promuove in Italia e nel mondo la formazione e il perfezionamento di ricercatori esperti nella complessità storica, filosofica e antropologica delle scienze naturali e umane. Come mostrano i contributi qui raccolti, durante i lavori della scuola, complessità e riduzionismo sono stati affrontati dai relatori a partire da prospettive diverse e sotto differenti punti di vista. Gian-Italo Bischi, dopo aver brevemente delineato la storia della progressiva matematizzazione dell'economia, si è concentrato soprattutto sull'utilizzo di modelli dinamici non lineari. Sviluppati inizialmente in ambito fisico e basati su equazioni di evoluzione, tali modelli deterministici vengono utilizzati per prevedere – ed eventualmente controllare – l'evoluzione temporale di sistemi reali. Secondo Bischi, la scoperta che modelli dinamici non lineari (tipici dei sistemi sociali che presentano continue interazioni e meccanismi di feed-back) possono esibire comportamenti di caos deterministico, caratterizzato dalla proprietà di amplificare in modo difficilmente prevedibile perturbazioni arbitrariamente piccole, ha suscitato un certo imbarazzo e nel contempo creato nuove possibilità. Imbarazzo perché la presenza di caos deterministico rende insostenibile l'ipotesi dell'agente economico razionale, ovvero capace di prevedere correttamente; ma apre anche nuove possibilità, poiché tale scoperta mostra che quei sistemi economici e sociali caratterizzati da fluttuazioni in apparenza casuali potrebbero in realtà essere governati da leggi del moto deterministiche (anche se non lineari). Se Bischi ha affrontato il tema della complessità in ambito economico, Salvo D'Agostino ha invece introdotto e approfondito il problema dei successi e dei fallimenti dell'assiomatizzazione in campo fisico. Uno degli aspetti più dibattuti della complessità sul versante scientifico e filosofico è infatti quello della supposta rinuncia a una generalizzazione dei procedimenti assiomatico-deduttivi come metodo generale della ricerca scientifica. A partire dalla considerazione che la fisica pre-relativistica è spesso stata considerata fondata prevalentemente sul trionfo di tale metodo, D'Agostino ha evidenziato la presenza di una posizione antagonista presente già in Newton e ripresa successivamente da Ampère e Maxwell. Alternativa al metodo assiomatico-deduttivo, tale prospettiva si fonda sul ricorso alla cosiddetta deduzione dai fenomeni. Una variazione sul tema, è stata individuata da D'Agostino anche nel contributo di Einstein in cui alla celebrazione del metodo assiomatico-deduttivo si contrappone una lode dell'osservazione dei fenomeni e della riflessione sugli esperimenti: è proprio ponendo il problema di una scelta o conciliazione fra le due che Fano, Giannetto, Giannini, Graziani: Riflettendo su complessità e riduzionismo 3 Einstein avrebbe, secondo D'Agostino, il merito di aver aperto la via al pensiero scientifico moderno. Sempre in ambito fisico, Arcangelo Rossi ha tracciato, da un punto di vista storico, il passaggio dai modelli riduzionistici che hanno caratterizzato lo studio delle realtà fisica nella scienza classica all'emergere della questione della complessità nella scienza contemporanea. In particolare, a partire dall'affermazione di Ernst Cassirer secondo cui la piena transizione da un'accezione sostantiva ed esplicativa dei modelli a una formale e funzionale sarebbe rintracciabile già alle origini della scienza moderna, Rossi ha mostrato come la visione della natura che emerge dalla scienza classica illuminista fosse comunque realista e riduzionista. Benché alcuni aspetti e alcune visioni non propriamente qualificabili come riduzioniste e meccaniciste siano già presenti all'interno della scienza classica, la tematica della complessità comincia a svilupparsi in fisica solo alla fine dell'Ottocento. Sergio Chibarro, Lamberto Rondoni e Angelo Vulpiani hanno affrontato il ruolo del caos e l'emergenza di proprietà collettive all'interno della meccanica statistica. In particolare, hanno mostrato l'esistenza di due posizioni nettamente diverse: da una parte il punto di vista "tradizionale", risalente a Boltzmann e parzialmente formalizzato da Khinchin, secondo cui la meccanica statistica sarebbe caratterizzata in primo luogo dall'enorme numero di gradi di libertà; dall'altro la scuola "moderna" cresciuta intorno a Prigogine e ai suoi collaboratori, che considera il caos come l'ingrediente fondamentale. Anche attraverso alcune simulazioni numeriche, gli autori hanno mostrato come anche all'interno della meccanica statistica si faccia avanti il problema della complessità e del riduzionismo. Sebbene i risultati di Khinchin non siano in grado di rispondere in modo definitivo a tutti i problemi sollevati dalla relazione fra termodinamica e meccanica statistica, il numero estremamente grande di gradi di libertà che tale approccio prende in considerazione permette l'emergere, nei sistemi macroscopici, di proprietà del tutto assenti in sistemi piccoli. Giorgio Turchetti ha introdotto il problema del passaggio dai modelli fisici ai sistemi complessi mostrando come i limiti che il disegno riduzionista incontra già per i sistemi fisici diventino decisamente più forti nel caso dei sistemi complessi. La grande differenza tra un sistema fisico e un sistema complesso risiederebbe infatti, secondo Turchetti, nel fatto che il primo, fissate le condizioni esterne, ha sempre le medesime proprietà, mentre il secondo cambia con il fluire del tempo, perché la sua organizzazione interna muta non solo al cambiare di fattori ambientali ma anche con il succedersi delle generazioni. È in tale prospettiva che egli Complessità e riduzionismo 4 giunge a definire complessi non tanto i sistemi caratterizzati da proprietà emergenti e da interazioni non lineari tra i loro componenti (definibili come sistemi dinamici), ma piuttosto i sistemi viventi o quelli di vita artificiale che ne condividono le proprietà essenziali. Il problema di complessità e riduzionismo in campo biologico è stato poi affrontato in maniera diretta da Luciano Boi e da Roberto Serra. Il primo ha mostrato come lo studio del comportamento dinamico delle strutture cellulari non possa essere descritto con sufficiente accuratezza né dalla convenzionale dinamica dell'equilibrio né da modelli statici e richieda quindi nuovi strumenti. In particolare, egli ha affrontato la necessità – per una comprensione del comportamento dei sistemi (dinamici) complessi – di un'adeguata conoscenza delle caratteristiche cinetiche e topologiche delle loro componenti. A differenza dello studio dei meccanismi molecolari, l'analisi del comportamento dinamico delle strutture cellulari non necessita tanto di una profonda e dettagliata conoscenza del comportamento di ogni singola molecola, ma piuttosto delle regole che governano il comportamento globale e collettivo dei sistemi. In consonanza con il contributo di Boi, Serra ha spiegato come la scienza dei sistemi complessi abbia mostrato l'esistenza di "leggi" in gran parte indipendenti dalle specifiche caratteristiche delle entità microscopiche che tuttavia ne descrivono il comportamento e l'interazione. Se la ricerca di proprietà generali ha ormai assunto una grande rilevanza in ambito fisico, nelle scienze biologiche si trova ancora nei suoi primi stadi di vita. Attraverso una serie di esempi, Serra ha mostrato come tale approccio, da considerarsi non in opposizione alla biologia molecolare classica ma a essa complementare, sembra però portare anche in ambito biologico a importanti e promettenti risultati. Emblematico in questo senso è per Serra il lavoro di Kauffman che rivela come un sistema dinamico di geni che interagiscono fra loro mostri delle proprietà di auto-organizzazione che spiegano alcuni aspetti della vita, fra cui l'esistenza di un numero limitato di tipi cellulari in ogni organismo multicellulare. Pierluigi Graziani ha affrontato invece il problema della complessità computazionale in riferimento alla decidibilità della geometria elementare di Tarski. A partire soprattutto dai lavori di Fisher, Rabin e Meyers e in confronto con il lavoro di Tarski, Graziani ha analizzato come il problema della decisione si trasformi nella determinazione di quanto tempo e spazio di memoria impieghi un algoritmo di decisione per una teoria a determinare se un enunciato della teoria ne sia o meno un teorema. In teoria della complessità computazionale, infatti, si assume che siano computazionalmente intrattabili quei compiti che richiedono risorse di Fano, Giannetto, Giannini, Graziani: Riflettendo su complessità e riduzionismo 5 tempo e spazio di memoria (le cosiddette risorse computazionali) che crescono esponenzialmente con la lunghezza dell'input; e che siano computazionalmente trattabili quelli che richiedono risorse che crescono al più in modo polinomiale con la lunghezza dell'input. In tale prospettiva, la complessità computazionale non concerne dunque quante risorse richiede lo svolgere un determinato compito, bensì quanto aumentano le risorse richieste al crescere delle dimensioni dei dati. Claudio Calosi e Vincenzo Fano hanno mostrato come il problema della complessità e del riduzionismo riguardi anche il rapporto fra psicologia e fisica. In particolare, hanno proposto qui un nuovo esperimento mentale che hanno chiamato Shem-Shaun – dal nome dei due gemelli protagonisti del Finnegan's Wake di Joyce – e che solleva un problema per il Fisicalismo minimale in filosofia della mente. Il fisicalismo minimale viene infatti caratterizzato come quella tesi secondo cui le proprietà mentali sopravvengono nomologicamente sulla proprietà fisiche, una forma di riduzionismo per cui, stabilite le proprietà fisiche del mondo, quelle mentali sarebbero necessariamente determinate. Gli autori sostengono che, o il Fisicalismo minimale è incapace di dare un resoconto adeguato dell'esperimento Shem-Shaun o ne deve dare un resoconto che è in forte tensione con la nostra attuale immagine scientifica del mondo. Nel loro insieme, i lavori presentati testimoniano da un lato la vivacità degli studi epistemologici sulla complessità e dall'altro l'importanza del concetto di complessità per la filosofia della scienza e, in particolare, della fisica. © 2012 Arcangelo Rossi "Dai modelli riduzionistici della realtà fisica nella scienza classica alla complessità nella scienza moderna", in Complessità e riduzionismo, pp. 73-89 Published by Isonomia, Rivista online di Filosofia – Epistemologica – ISSN 2037-4348 Università degli Studi di Urbino Carlo Bo http://isonomia.uniurb.it/epistemologica 75 Dai modelli riduzionistici della realtà fisica nella scienza classica alla complessità nella scienza contemporanea Arcangelo Rossi Università del Salento arcangelo.rossi@le.infn.it Anacronisticamente, l'illustre storico e filosofo neokantiano Ernst Cassirer attribuiva già alle origini della scienza moderna, in particolare a Galileo, la piena transizione da un'accezione sostantiva ed esplicativa dei modelli usati dagli scienziati ad una (da lui assunta come propriamente scientifica) formale e funzionale1. Questa, rispondendo a domande relative al "come" e non al "perché" dei fenomeni, riguarderebbe solo la descrizione dei comportamenti e delle relazioni quantitative tra gli stessi, senza fornire alcuna interpretazione relativa alla natura degli enti in gioco e alle loro relazioni causali, qualitative e sostanziali. Già con Galileo, per Cassirer, si attuerebbe cioè in pieno il passaggio dalla sostanza alla funzione nella scienza, come testimonierebbe, nel Dialogo dei Massimi Sistemi in particolare, la sua rinuncia a cercare la causa della gravità per limitarsi a cercarne invece i sintomi e gli effetti in termini sperimentali e quantitativi, prediligendo in sostanza la cinematica alla dinamica, i fenomeni alle spiegazioni2. Sarebbe tuttavia sbagliato ritenere che Galileo, nel cercare relazioni funzionali tra parametri empirici del moto, ad esempio, di caduta dei gravi, rinunciasse alla loro spiegazione causale, considerando egli comunque le 1 Cassirer (1973). 2 Galilei (1998, 253-254). Complessità e riduzionismo 76 leggi matematiche espressioni di qualità sostanziali, non solo empiriche e formali. Per lui infatti le relazioni funzionali erano non semplici espressioni di percezioni empiriche, ma frutto di astrazione e selezione, trattandosi di enti ideali, le cosiddette qualità primarie matematizzate che dovrebbero spiegare le stesse proprietà empiriche come risultato dell'interazione di quelle qualità primarie con i nostri organi di senso (cfr. Il saggiatore)3. Infatti le qualità primarie, espresse in linguaggio matematico, sarebbero comprensibili in termini geometrici intuitivi e meccanici, quindi causali, pur in assenza di una spiegazione completa della realtà fisica. Non vi è cioè in Galileo ancora una distinzione tra modelli formali e funzionali e modelli sostantivi, trattandosi sempre di modelli matematizzati più o meno parziali e più o meno in grado di farci conoscere la realtà. L'unica possibilità di sviluppo ulteriore della conoscenza consisteva per lui nell'estendere ulteriormente la portata dei modelli, insieme matematici e meccanici, comunque perfetti pur nella loro parzialità. Nel metodo galileiano e nella sua ispirazione realista in termini di modelli sostantivi, sia pur sempre espressi in linguaggio matematico formale, vi è comunque un aspetto che impedisce di attribuire a Galileo una concezione puramente funzionalista dei modelli e che consiste nella profonda convinzione di Galileo stesso che la conoscenza umana sia intensive, cioè in riferimento alla sua esattezza nel conoscere particolari «affezioni» o proprietà fisiche matematicamente, tanto esatta quanto la conoscenza divina, anche se non è certo confrontabile extensive con essa, nel senso che le conosca tutte, conoscendone essa sempre solo alcune4. Come è noto, Cartesio criticò Galileo per aver costruito «senza fondamenti», per essersi limitato a poche «affezioni» accessibili e non aver cercato di conoscerle tutte attraverso i modelli sostantivi pur da lui utilizzati5. Cartesio riteneva cioè, in contrasto con Galileo, di poter conoscere già subito integralmente le essenze universali delle cose, laddove Galileo ammetteva che pretendere tanto – «tentar le essenze» –6 fosse impossibile, per limitarsi alle poche regolarità matematiche accessibili attraverso un processo di idealizzazione a partire dall'esperienza sensoriale (in ogni caso non per mera induzione), fino a giungere a spiegazioni causali, geometriche e meccaniche, in termini di modelli sostantivi e non solo formali. Cartesio, assumendo come Galileo la priorità delle proprietà 3 Galilei (1968, 187-188). 4 Galilei, G., Dialogo sopra i due massimi sistemi cit., p. 112. 5 Descartes, R., Lettera a Mersenne dell'11 ottobre 1638 in Tutte le lettere 1619-1650, a cura di G. Belgioioso, Bompiani, Milano 2005, pp. 878-899. 6 Galilei, G., Opere cit., vol. V, pp. 187-1188. Rossi: Dai modelli riduzionistici della realtà fisica alla complessità 77 geometriche e meccaniche come base di spiegazione dei fenomeni in generale in termini di modelli riduzionistici, pretendeva, a differenza di Galileo, di fornire direttamente ed esaustivamente le cause dei fenomeni senza limitarsi a poche regolarità matematiche accessibili. Il suo obiettivo era infatti addirittura sostituire integralmente le cause finali e qualità essenziali aristoteliche con cause meccaniche universali, in termini di azioni di contatto meccaniche come cause nascoste delle stesse regolarità. In realtà però queste cause erano concepite mediante immaginazione analogica e idee di senso comune, spesso erronee nonostante la pretesa di validità matematica, piuttosto che da calcoli e osservazioni accurate, essendo esse matematiche e quantitative solo in linea di principio7. Il passo successivo fu compiuto da Newton con nuovi modelli, essenzialmente ma non solo di azione a distanza, che complementavano la trattazione meccanica e geometrica dei fenomeni di Cartesio con una dimensione qualitativa irriducibile, mettendo così in discussione la fisica di Cartesio che tendeva a escludere ogni elemento qualitativo dalla meccanica e quindi, riduzionisticamente, da tutta la fisica. Newton riusciva invece a ricavare da quella dimensione qualitativa effetti non solo spirituali e mentali, ma anche direttamente osservabili e calcolabili. Introduceva infatti potenze e cause dinamiche agenti anche a distanza sulla materia e indipendenti da essa8. Queste forze avevano per Newton carattere istantaneo, propagandosi impulsivamente nello spazio e nel tempo, sensorium Dei nel cui quadro Dio ricarica la macchina del mondo, destinata altrimenti ad arrestarsi, con sempre nuovi impulsi di potenza. Il riduzionismo newtoniano delle forze a distanza come impulsi di potenza, ad esempio direttamente proporzionali alle quantità di materia ed inversamente proporzionali al quadrato delle distanze, configurava dunque le forze stesse come direttamente agenti sulla materia e al tempo stesso come indipendenti da essa, a produrre i fenomeni, tali comunque da non essere più spiegabili nei termini di Cartesio di azioni di contatto materiali tra corpi, ma richiedenti un'indipendenza dinamica, in particolare in termini di gravitazione universale9. A differenza della forza di Newton, la vis viva del suo grande rivale Leibniz era intrinseca alla realtà fisica e materiale, concepita peraltro come continua, a differenza della materia di Newton concepita atomisticamente. Dunque la vis viva di Leibniz era sì elemento creativo, anch'esso di origine 7 Descartes, R, La Diottrica e Le Meteore, in Opere scientifiche, volume secondo, a cura di E. Lojacono, UTET, Torino 1983, pp. 175-508. 8 Koyré, A., Studi newtoniani, Einaudi, Torino 1972. 9 Koyré, A., Dal cosmo chiuso all'universo infinito, Feltrinelli, Milano 1970. Complessità e riduzionismo 78 divina, ma interno al mondo e conoscibile anche a priori e non solo per esperienza, a posteriori: la monade in cui l'intera realtà si riflette in continuità e conservazione delle sue proprietà dinamiche10. Per una piena comprensione del contrasto scientifico-filosofico tra Newton e Leibniz in termini di diversità di concezione riduzionistica dei due grandi padri della scienza classica, occorre considerare anche le loro diverse e perfino opposte interpretazioni delle nozioni fondamentali del calcolo infinitesimale, cioè di quel linguaggio matematico nuovo da essi sviluppato insieme e oltre quello geometrico e aritmetico della tradizione. Coerentemente con le loro diverse visioni, mentre Newton concepiva il calcolo come espressione di fenomeni fisici (ad esempio la derivata o «flussione» come velocità di variazione e la derivata seconda o «flussione di flussione» come accelerazione), Leibniz interpretava l'infinitesimo come punto metafisico, la monade in cui si concentra l'intera realtà per produrre ogni possibile grandezza. In un caso quindi la nuova matematica era basata sull'analogia fisica e un empirismo, espressione della libera volontà di Dio, irriducibile all'astratta ragione, mentre, nell'altro, era basata su essenze metafisiche precostituite, al tempo stesso meccaniche e quantitative e finali e qualitative11. Queste ultime quindi al tempo stesso spiegavano deterministicamente e orientavano finalisticamente l'intera realtà in modo ritenuto infallibile, assumendosi che una spiegazione puramente meccanica dei fenomeni nel senso di Cartesio, basata sulle sole collisioni per contatto, fosse insufficiente senza ricorrere ad un'animazione universale della realtà soggetta a continuità e conservazione assolute12. La grande Meccanica razionale del XVIII secolo tentò quindi di fare sintesi tra evidenza empirica delle discontinuità e perdite di potenza manifestate nello studio delle apparenze, da cui Newton aveva ricavato le forze come elementi discontinui separati dalla materia ma direttamente attivi su di essa, e invarianza dei processi dinamici continui suggerita da Leibniz. Tale sintesi che unificava i fenomeni fisici discontinui in termini di principi di continuità e conservazione, fu poi di fatto adattata da Kant al suo criticismo nei Primi Principi Metafisici della Scienze della Natura, tentando di dedurla dai più generali principi della Ragion Pura13. Proprio allo scopo di unificare concettualmente il molteplice dei fenomeni, la Meccanica 10 Costabel, P., Leibniz et la dynamique en 1692. Textes et commentaires, Hermann, Paris 1969. 11 Hall, A. R., Philosophers at war. The Quarrel between Newton and Leibniz, Cambridge U. P., Cambridge 1989. 12 Drago, A., La riforma della dinamica secondo G. W. Leibniz, Hevelius Edizioni, Benevento 2003. 13 Kant, I, Primi principi metafisici della scienza della natura, Cappelli, Bologna 1959. Rossi: Dai modelli riduzionistici della realtà fisica alla complessità 79 razionale del XVIII secolo la giustificava invece ancora in termini ontologici leibniziani. Esempi ne sono il concetto di forza di Euler e il principio di conservazione di d'Alembert 14. A Euler dobbiamo la prima formulazione differenziale rigorosa del II principio della dinamica in termine di variazioni continue come cause ultime delle variazioni discontinue finite osservabili, variazioni dinamiche messe in evidenza da Newton senza far ricorso al calcolo differenziale e alla continuità di Leibniz. In effetti Euler per primo combinò rigorosamente i concetti fisici di Newton e le nozioni filosofico-matematiche del calcolo infinitesimale di Leibniz. Il carattere invariantivo delle variazioni dinamiche a confronto con le perdite apparenti di potenza sottolineate da Newton e per lui compensate da acquisizioni sovrannaturali di potenza, fu inoltre chiarificato da d'Alembert, ugualmente a priori in senso riduzionistico, interpretando le discontinuità di urti bruschi di corpi duri, chiaramente implicate dalla meccanica a livello empirico, solo come limiti di variazioni infinitesimali continue al livello inosservabile subiacente (cioè «per gradi insensibili»), con l'effetto di escludere perdite assolute di potenza. Contrariamente agli sviluppi successivi, influenzati da punti di vista positivistici e fenomenistici e dal criticismo kantiano, la visione della natura che emerge dalla scienza classica illuminista era comunque realista e riduzionista. In particolare, il suo punto di vista deterministico-causale aveva sì la sua base in un'interpretazione ontologica leibniziana della realtà, ma questa, pur pienamente determinista, non era a sua volta riducibile a catene causali separate tra loro, di carattere puramente meccanico, in una parola non era propriamente meccanicista e riduzionista, data la visione continua e olistica insieme, addirittura finalistica della realtà che la caratterizzava, per cui ogni elemento conteneva tutti gli altri e ne era causalmente contenuto. In ogni caso, l'aspetto deterministico-causale della visione di Leibniz, pur non potendo qualificarsi propriamente come riduzionista e meccanicista, influenzò decisamente il punto di vista della scienza classica, in particolare la Meccanica razionale, a sua volta indiscutibilmente realista e riduzionista. In realtà la visione ontologica leibniziana come concezione deterministica "complessa" della realtà arrivò a favorire anche sviluppi non semplicemente meccanicisti e riduzionisti della Scienza classica15. Solo in seguito però essa fu interpretata da positivisti e fenomenisti come mera conoscenza empirica governata da mere regolarità matematiche. E ciò non avvenne prima dell''800, non ancora ad 14 Truesdell, C., Essays in the History of Mechanics, Springer Verlag, Berlin 1968. 15 Brunet, P., Etude historique sur le principe de moindre action, Hermann, Paris 1938. Complessità e riduzionismo 80 esempio in Lagrange, che si vantava di poter evitare rappresentazioni visive nella sua opera matematica proprio perché essa era esplicitamente basata sui principi a priori della conservazione della forza viva e della continuità ontologico-matematica, sebbene poi gli oggetti fisici cui essi venivano applicati fossero quelli della fisica newtoniana 16. Subito dopo però, già Laplace identificava tout court la realtà con il mondo di Newton in termini atomico-molecolari così come sarebbe suggerito dall'esperienza o almeno approssimato da essa, mentre i principi esprimevano per lui le regolarità matematiche delle interazioni a distanza newtoniane, non già strutture ontologiche continue cartesiane o leibniziane. Egli salvaguardava tuttavia il carattere unificante di quei principi matematici. Così essi erano, contrariamente a Leibniz, interpretati come principi deterministici in senso anti-finalistico, comunque ancora unificanti e traducibili in modelli riduzionistici elementari di tipo meccanicistico, in termini di atomi e forze di interazione17. Laplace stesso tuttavia, pur convinto della validità del suo riduzionismo meccanicistico, del suo potere unificante e della sua capacità previsionale, ammetteva che in generale i mezzi di calcolo richiesti e la conoscenza dello stato iniziale di un sistema fisico per determinarne esattamente l'evoluzione successiva, non erano a nostra disposizione tanto da permettere una previsione di assoluta precisione. Ciò naturalmente minava la fiducia nel determinismo meccanicistico che tuttavia Laplace compensava con il ricorso alla probabilità come strumento di approssimazione e «rimedio dell'ignoranza», rinunciando a una conoscenza di dettaglio assoluta e completa, attribuibile solo a un'ipotetica intelligenza matematica dotata di una potenza di calcolo e una capacità di osservazione infinite e non umane18. Diversa fu la reazione dei fenomenisti e dei positivisti in generale alla crisi del riduzionismo meccanicistico classico quale si esprimeva nell'impossibilità di realizzare lo stesso programma riduzionistico classico, non disponendosi delle risorse matematiche e sperimentali necessarie richieste, supposte infinite. Essi reagirono attribuendo un carattere interamente empirico, formale e funzionale alle leggi e uniformità matematiche che, nella sua visione riduzionista, Laplace interpretava ancora meccanicisticamente. In tal modo, per Fourier, Ampère, Fresnel le leggi matematiche «unicamente dedotte dall'esperienza», come recita il titolo del lavoro fondamentale di Ampère sull'elettrodinamica, 16 Capecchi, D., e Drago, A., Lagrange e la storia della meccanica, Progedit, Bari 2005. 17 Laplace, P. S., Exposition du système du monde, in OEuvres, Gauthier-Villars, Paris 1909. 18 Laplace, P. S., Essai philosophique sur les probabilités, Courcier, Paris 1814. Rossi: Dai modelli riduzionistici della realtà fisica alla complessità 81 erano non modelli sostantivi, ma empirici e funzionali, di carattere strumentale rispetto a esigenze specifiche di correlazione empirica19. Tuttavia, la fisica teorica successiva tentò ancora di dare fondamenti ontologici alla fisica classica in termini di modelli sostantivi riduzionistici e analogico-modellistici. Ma, al tempo stesso, essa preparò il terreno per le rivoluzioni scientifiche della fisica del XX secolo che proprio quei termini finirono per mettere in discussione . Così, in particolare J. C. Maxwell, pur partito dal programma riduzionistico forte di costruire una dinamica dell'etere come oggetto fisico fondamentale, "portatore" meccanico dei fenomeni elettromagnetici, per cui si sarebbe dovuto spiegare nei termini delle proprietà e dei comportamenti di tale oggetto l'intera fenomenologia del campo elettromagnetico, era giunto invece a elaborare in termini sempre più formali e funzionali e sempre meno sostantivi tale visione analogica, il cosiddetto «metodo delle analogie fisiche». Questo riduceva essenzialmente il contenuto dei modelli, se non alle mere correlazioni empirico-formali dei positivisti matematici, a strutture matematiche generali, unificanti sì diversi campi fenomenici, meccanici ed elettromagnetici in particolare, ma senza identificarne i supposti "portatori". Questi apparivano sempre più irriducibili a oggetti specifici, come appunto l'ipotetico etere, nonostante l'uso euristico e matematico che, in termini di correlazioni funzionali, ne veniva fatto nella Dynamical Theory maxwelliana. Questa era peraltro ispirata alla visione continuista e matematica a priori di Lagrange, ma liberata dei suoi aspetti ontologico-metafisici per assumere una connotazione sempre più solo euristico-funzionale. Occorre comunque sottolineare che, per quanto riguarda invece l'altra teoria fisica elaborata da Maxwell in termini di modelli, la teoria cinetica dei gas, Maxwell restò più vicino alla tradizione riduzionista, ad esempio laplaciana. L'oggetto "portatore" del modello, in questo caso la molecola, si trasformava però sempre più in relazione funzionale, senza poter più fornire una base interpretativa strutturale stabile dei fenomeni trattati20. Come A. Einstein e L. Infeld avevano interpretato l'evoluzione della fisica tra '800 e '900 quale sviluppo di indizi non subito compresi alla luce di teorie e principi non ancora esplicitamente elaborati, ma comunque contenenti indicazioni che andavano nella direzione di quelle teorie e principi21, anche l'emergere della complessità nella scienza contemporanea 19 D'Agostino, S., Part One: From Mechanics to Electrodynamics, in Id., A History of the Ideas of Theoretical Physics, Essays on the Nineteenth and Twentieth Century Physics, Kluwer Academic Publishers, Dordrecht 200, pp 103-106. 20 Ibid., Part Two: Electromagnetic Waves, pp. 109-216. 21 Einstein, A., Infeld, L., L'evoluzione della fisica, Einaudi, Torino 1948. Complessità e riduzionismo 82 non fu subito compreso nel suo pieno significato e tardò a svilupparsi quindi sino alla seconda metà del '900. Lo stesso Poincaré, che più di tutti affrontò direttamente alla fine dell''800 il tema dell'imprevedibilità dell'evoluzione di sistemi pur dotati di pochi gradi di libertà (tipicamente: i tre corpi interagenti della meccanica newtoniana), non maturò subito la trattazione "caotica" del fenomeno, in quanto troppo difficile da superare era anche per lui l'idea preconcetta in genere negli scienziati classici, della stabilità dell'evoluzione di un simile sistema, e quindi della possibilità di approssimare sempre una soluzione periodica stabile e confinata in una superficie chiusa dello spazio delle fasi. Fu solo a un secondo tentativo che Poincaré. si rese conto che invece la traiettoria del sistema non era contenuta in una superficie chiusa dello spazio delle fasi ma era caotica, pertanto irriducibile a soluzioni periodiche stabili22. Quindi un altro grande matematico francese, J. Hadamard, ispirandosi allo stesso Poincaré, applicò il punto di vista caotico a fenomeni meccanici ordinari, in particolare allo studio del moto di palle di biliardo che percorrono geodetiche, divergendo sempre più nelle loro traiettorie per minime incontrollabili variazioni delle condizioni iniziali del loro moto23. Ma il persistere, nonostante tutto, del punto di vista classico, con un ritardato sviluppo della nuova impostazione, è dimostrato dal fatto che ancora negli anni '40 del '900 prevaleva, ad esempio nello studio, da parte del grande L. Landau, della turbolenza, tipico fenomeno caotico, l'approccio all'irregolarità e instabilità del fenomeno stesso in termini di sovrapposizione di oscillazioni armoniche semplici, ancora secondo il punto di vista meccanicistico che interpretava i fenomeni complessi in generale, pur dipendenti da relazioni funzionali irriducibili, come mera somma di "mattoni elementari"24. Solo negli anni '60, a opera, tra gli altri, di un esperto dei fenomeni atmosferici, E. Lorenz, si mostrò che l'irregolarità di tali fenomeni di moti fluidi non dipende dal gran numero di variabili in gioco, ma dal caos deterministico che interviene, come dipendenza sensibile da piccole variazioni delle condizioni iniziali, anche in sistemi all'apparenza semplici e con pochi gradi di libertà25, esattamente come avevano teorizzato Poincaré e Hadamard molti anni prima. Pur senza negare affatto il determinismo dell'evoluzione del sistema studiato, quanto 22 Poincaré, J. H., Sur le probleme des trois corps et les equations de la dynamique, in Oeuvres, Gauthier-Villars, vol. VII, pp. 262-479. 23 Hadamard, J., Les surfaces à courbures opposées a leur lignes géodésiques, in Oeuvres, CNRS, Paris 1968, vol 2, pp. 729-75. 24 Landau, L. D., Sul problema della turbolenza (in russo), «Dokl. Akad. Nauk. SSSR», vol 44, 8, 339-42 (1994). 25 Lorenz, E., Deterministic Nonperiodic Flow, «J. Atmos. Sci.» 20, 130 (1963). Rossi: Dai modelli riduzionistici della realtà fisica alla complessità 83 piuttosto la possibilità di controllarlo, ci si limitava a riconoscerne la tendenza evolutiva asintotica in termini di diversi attrattori o bacini di attrazione in cui il sistema potrebbe riversarsi nella sua evoluzione26. Il punto è che le equazioni differenziali operanti per questi sistemi esprimono sì un andamento totalmente deterministico ma, come Poincaré in particolare evidenziò, al tempo stesso non lineare, tanto da dover contemplare una rapida evoluzione divergente degli effetti, appunto anche per piccole differenze nelle condizioni iniziali. Solo a partire dagli anni '60 del '900 comunque il comportamento caotico in meccanica riscosse sempre più l'interesse dei fisici. Per la verità, come nota D. Ruelle27, anche nell'ambito della meccanica e della fisica le idee avanzatissime, perfino rivoluzionarie di Poincaré sul caso, che anticiparono in modo sorprendentemente moderno le attuali concezioni, tardarono molto a diffondersi e a essere riconosciute, nonostante la loro consapevolezza e modernità. Vi fu infatti una polarizzazione dei fisici, in generale, sulla nuova meccanica quantistica in quanto nuova teoria del caso che avrebbe superato completamente la meccanica deterministica classica, cui invece la teoria di Poincaré era vista, nonostante tutto, ancora subordinata, come teoria deterministica in cui il caso appariva comunque in un quadro deterministico, benché non riduzionistico e controllabile. Un altro motivo per cui la teoria di Poincaré non ebbe seguito immediato come teoria fisica, anche se, dato il grande prestigio matematico del suo autore, si impose come pura matematica, è da individuare nel carattere spesso ancora intuitivo e qualitativo delle sue idee prima che si sviluppassero strumenti matematici per la fisica più adeguati, come la teoria della misura e il teorema ergodico, oltre che mezzi di calcolo più potenti nel trattamento di grandi quantità di dati esprimenti minime variazioni di condizioni iniziali dei sistemi caotici da cui ricavare effetti sensibili macroscopici. Com'è noto, tali mezzi più potenti cominciarono a essere sviluppati solo trenta/quaranta anni dopo la morte di Poincaré: i primi calcolatori elettronici in grado di elaborare in tempi ragionevoli enormi quantità di dati numerici28. Un altro aspetto problematico della nuova teoria nella sua applicazione ai casi di dipendenza sensibile dalle condizioni iniziali era poi espresso dalla critica convenzionalista mossa dal grande fisico ed epistemologo P. Duhem secondo cui la teoria stessa era poco utilizzabile, dato che non permetteva di fare previsioni a lungo termine29.Vi è tuttavia la possibilità di definire il grado di caoticità e quindi di 26 Vulpiani, A., Determinismo e caos, La Nuova Italia Scientifica, Roma 1994. 27 Ruelle, D., Caso e caos, Bollati Boringhieri, Torino 1992. 28 Ibid., p. 58. 29 Ibid., p. 56. Complessità e riduzionismo 84 imprevedibilità di un sistema attraverso i cosiddetti esponenti caratteristici di Lyapunov30. Questi permettono di descrivere gli attrattori in cui tendono a collocarsi nello spazio delle fasi i sistemi dotati di sensibilità alle condizioni iniziali, fornendo informazioni anche di carattere quantitativo e non solo qualitativo, in particolare quella espressa nei termini dell'entropia di Kolmogorov-Sinai come grado di caoticità di un sistema31, potendosi definire anche la dimensione geometrica "frattale" degli attrattori, senza tuttavia potersi prevedere se non con un'incertezza ineliminabile, se il sistema finirà in uno o in un altro32. Il contributo di Kolmogorov e in generale della scuola matematica sovietica è stato quello di fornire una definizione quantitativa e formale della complessità in generale, sottratta ad ambiguità e imprecisioni che facilmente emergono in un campo tuttora oggetto di discussioni. Basti pensare al conflitto che vi fu negli anni '90 tra I. Prigogine e R. Thom sul carattere deterministico per Thom e aleatorio e indeterministico per Prigogine della complessità33. Ebbene, l'introduzione dell'incompressibilità algoritmica come misura della complessità dovuta a Kolmogorov et al.34, pur senza dirimere la diatriba determinismo-indeterminismo, la riconduceva entro limiti ragionevoli, definendo rigorosamente un campo semantico, quello della complessità appunto, condivisibile da parte di punti di vista anche diversi e opposti, tale da comprenderne ed esprimerne gli aspetti fondamentali, invarianti e comuni, un po' come peraltro fece lo stesso Kolmogorov a proposito di un altro fondamentale concetto, la probabilità. Secondo la nuova definizione di complessità, si tratta di determinare il numero di bit o unità di informazione minime in termini di comandi al computer per generare una serie di cifre binarie (0,1), numero al disotto del quale la serie non sarebbe generabile. La complessità corrisponderebbe in sostanza all'incompressibilità algoritmica della sequenza. Sarebbe dunque complesso un sistema che non si lasci catturare subito da semplici regole per essere prodotto in modo semplice, preciso e non ambiguo. Come si diceva, al disotto di un numero di bit che ne esprimerebbe il grado di complessità, il 30 Vulpiani, A., op. cit., pp. 66-69. 31 Ibid., p. 67. 32 Ibid., pp. 69-73. 33 Pomian, K., (a cura di), Sul Determinismo, Il Saggiatore, Milano 1991. 34 Solomonoff, R. J., A formal theory of inductive inference, «Inform. and Control», vol 7 (1964), pp. 1-22, 224-54; Kolmogorov, A. N., Tre approcci alla definizione del concetto di quantità di informazione, «Probl. Peredachi Inform.», vol 1 (1965), pp. 3-11; Chaitin, G. J., On the length of programs for computing finite binary sequences, «J. ACM», vol 13 (1966), pp. 547-69. Rossi: Dai modelli riduzionistici della realtà fisica alla complessità 85 sistema è dunque irriproducibile. Non è quindi possibile comprimere oltre quel limite l'algoritmo di istruzioni per generare il sistema, mentre in alcuni casi dobbiamo addirittura rassegnarci ad identificare l'algoritmo generatore della sequenza con l' elenco completo, eventualmente infinito, dei termini della sequenza. In ogni caso, la caoticità dipende causalmente, deterministicamente, dalle condizioni iniziali ed è quindi oggettiva, ma è al tempo stesso anche epistemica, in quanto dovuta all'incapacità dell'osservatore di determinare esattamente lo stato iniziale del sistema e quindi di effettuare previsioni a lungo termine, pur essendo le condizioni iniziali stesse oggettive e deterministicamente operanti. Si tratta di una situazione di indecidibilità che richiama il teorema di incompletezza di Gödel35. Il problema è che non è possibile determinare le condizioni iniziali con precisione arbitraria, ed effettuare una previsione con l'accuratezza desiderata, così come non è possibile dimostrare simultaneamente la completezza e la non contraddittorietà dell'aritmetica elementare. Il carattere indubbiamente deterministico, dal punto di vista ontico, dello stato di un sistema, almeno apparentemente contrasta dunque con l'imprevedibilità di principio dell'evoluzione di quel sistema, La contraddizione tuttavia si può e si deve superare assumendo come del tutto sensato non identificare il carattere deterministico con la possibilità di previsione esatta, contrariamente a quanto afferma Popper nel Poscritto alla Logica della scoperta scientifica36. Secondo lui infatti il punto di vista indeterministico sarebbe letteralmente dimostrato dai casi di impossibilità di previsione, come se non fosse possibile che il determinismo ontico conviva senza contraddizione con l'imprevedibilità epistemica. La situazione è simile a quella dell'irreversibilità, che può coesistere oggettivamente in un sistema, senza contraddizione, con la reversibilità meccanica delle leggi che governano lo stesso sistema, in quanto si tratta sempre del fatto che, come nel caso dell'interpretazione meccanica della termodinamica, il numero delle condizioni iniziali che implicano l'irreversibilità è incommensurabilmente maggiore di quello delle condizioni iniziali che implicano la reversibilità, pur non essendovi alcuna contraddizione di principio tra l'uno e l'altro. Analogamente, il numero delle condizioni iniziali che implicano l'imprevedibilità è, nel caso dei processi caotici, maggiore di quello delle condizioni iniziali che non l'implicano, senza che vi sia alcuna contraddizione tra l'uno e l'altro. In particolare, R. Thom ha sottolineato, in 35 Ford, J., How random is a coin toss?, «Physics Today», 36 (1983), 40. 36 Popper, K.R., Poscritto alla Logica della scoperta scientifica, II. L'universo aperto. Un argomento per l'Indeterminismo, Il Saggiatore, Milano 1984. Complessità e riduzionismo 86 polemica con I. Prigogine, che il determinismo è inevitabile per la scienza ed esprime la necessaria causalità dei processi fisici, senza che ciò impedisca di definire alcuni di tali processi al tempo stesso del tutto deterministici e oggettivamente imprevedibili, data la complessità e irregolarità degli stessi. Nei termini appunto di un caos deterministico rigorosamente definibile in un'accezione causale necessaria e, se non prevedibile, non perciò contraddittoria rispetto a quei diversi processi che siano anch'essi deterministici, ma al tempo stesso oggettivamente prevedibili. Essa non costituirà quindi alcuna alternativa, se non in termini di maggiore complessità oggettiva, rispetto al determinismo classico, riduzionistico e, almeno in linea di principio, prevedibile37. Entra in gioco a questo punto la trattazione statistica e probabilistica sviluppata in fisica soprattutto a partire da Maxwell e Boltzmann per superare la difficoltà di previsione nell'evoluzione di un sistema con molti gradi di libertà, per cui ci si accontenta di una previsione più grossolana, o meglio si sostituisce alla determinazione esatta delle condizioni iniziali una determinazione solo statistica e probabilistica. Diverso, come sappiamo, è il caso della meccanica quantistica che, almeno nella sua interpretazione ortodossa, assume la probabilità come irriducibile anche in linea di principio, secondo il principio di indeterminazione di Heisenberg. Il caos deterministico ripropone quindi piuttosto il punto di vista di Maxwell e Boltzmann in quanto non pone un limite assoluto, ontologico alla possibilità di determinazione delle condizioni iniziali, ma piuttosto un limite dovuto, nel caso della meccanica statistica, all'alto numero di particelle coinvolte e, nel caso del caos deterministico, nei sistemi caotici, all'oggettiva dipendenza sensibile dalle piccole variazioni delle condizioni iniziali, sempre però da un punto di vista deterministico38. A tale proposito, occorre evitare, anche nello studio della complessità, di confondere conoscenza ed ignoranza. Pur riconoscendo il progresso dovuto allo studio del caos, della turbolenza, dei sistemi fuori dall'equilibrio, non siamo in grado di estrarre da questo studio con certezza la chiave dei processi creativi emergenti come autentiche novità irriducibili, dovute ad una loro produzione spontanea a partire da processi e fenomeni di più basso livello. Per definire matematicamente il difficile rapporto tra caos e determinismo come base per poter riuscire a spiegare i processi creativi, si è quindi tentato, sulla scia di Poincaré, di fare ricorso alla relazione tra 37 Thom, R., in Pomian, K., cit. 38 Sinai, Ya. G., L'aléatoire du non-aléatoire in A. Daham-Dalmedico, J.L. Chabert e K. Chemla (a cura di), Chaos et determinisme, Editions du Seuil, Paris 1992. Rossi: Dai modelli riduzionistici della realtà fisica alla complessità 87 lineare e non lineare come opposte linee di analisi matematica, essendo la non linearità più adatta a render conto matematicamente proprio dei processi più imprevedibili ed incontrollabili, dato che i sistemi non lineari hanno appunto, come si sa, conseguenze non banalmente proporzionali alle condizioni iniziali. In essi a piccole variazioni di queste si avrebbero effetti sensibili appunto non lineari. Si deve effettivamente ammettere che prima che si sviluppasse alla fine dell''800 la tematica della complessità in fisica vi era una netta tendenza alla linearizzazione nello studio delle equazioni differenziali ordinarie. Resta comunque tuttora problematica la pretesa della teoria della complessità di rendere conto dell'emergere di nuove proprietà, a partire da livelli inferiori, a livelli superiori, dalla materia bruta alla vita e alla coscienza, prima in genere supposte non trattabili in senso riduzionistico finché, a partire dal XIX secolo, si pensò appunto di poterle trattare mediante approcci matematici deterministici e probabilistici come vie per pervenire dal semplice al complesso39. In particolare, il problema di trattare le proprietà di memoria dei sistemi mediante i metodi di isteresi o retroazione, oltre l'approccio meccanico tradizionale, rappresentò un terreno importante di approfondimento della dimensione storica e autoorganizzativa di sistemi non solo fisici, ma senza con questo riuscire a spiegare nei limiti della teoria della complessità l'aspetto creativo e finalistico di tali sistemi. Va anzitutto attribuito a Boltzmann40 il primo tentativo di trattazione matematico-formale dei fenomeni fisici di elasticità con memoria, per cui l'evoluzione di un sistema non dipende da un solo stato iniziale come nell'impostazione riduzionistica classica, ma da tutta la storia pregressa del sistema, tanto da richiedere l'impiego di strumenti analitici nuovi, le equazioni integro-differenziali la cui formulazione completa dobbiamo al grande V. Volterra41, lo stesso che, come l'americano A. J. Lotka, mise a punto anche le equazioni differenziali non lineari per lo studio dell'interazione tra specie predatrici e specie predate, alla base dei processi di evoluzione biologica42. 39 Israel, G., Some critical observations on the science of complexity, in P. Freguglia et al. (a cura di), The Science of Complexity: chimera or reality?, Società Editrice Esculapio, Bologna 2005, pp. 150-70. 40 Ianniello, M. G., Il contributo di Boltzmann alla teoria dei fenomeni di elasticità «con memoria», «Giornale di Fisica», XXXVI, Aprile-Giugno 1995, pp. 121-150 41 Volterra, V., Theory of Functionals and of Integro-Differential Equations, Dover, New York 1965. 42 Volterra, V., Leçons sur la theorie mathematique de la lutte pur la vie, Gauthier-Villars, Paris 1931. Complessità e riduzionismo 88 In ogni caso, né le equazioni differenziali lineari per lo studio dei sistemi dotati di memoria, né le equazioni differenziali non lineari per lo studio delle interazioni prede-predatori, per quanto ampliassero la portata dell'analisi nel senso della complessità dei processi studiati da un punto di vista statistico o deterministico, possono rendere conto di quegli obiettivi e finalità che pure si assumono alla base dei processi studiati. Il fatto è che obiettivi e finalità non si lasciano ridurre ai meccanismi deterministici e alle relazioni statistiche obiettive che pure contribuiscono alla loro affermazione. Se poi si allarga lo sguardo ai fenomeni sociali e umani, volendo rappresentarli unicamente mediante algoritmi deterministici o probabilistici alla stregua di fenomeni fisici da cui si vogliano far emergere fenomeni nuovi e creativi, in realtà si avrà solo una loro rappresentazione del tutto inadeguata, estremamente povera in termini di movimenti del tutto casuali del tipo dei moti "browniani" di un marinaio ubriaco incerto sulla strada da prendere come l'asino di Buridano, secondo Thom43 per il quale nulla può essere più lontano dalle decisioni e scelte di un soggetto cosciente. Si potrà al massimo riuscire a enunciare leggi fisiche impersonali attraverso una loro riduzione ai soli aspetti universali legali, seguendo la raccomandazione di Galileo di «difalcare gli impedimenti»44. Lo studio dei comportamenti coscienti orientati ad uno scopo potrà invece progredire solo se evita di appiattirsi sul modello metodologico deterministico causale o statistico casuale allo scopo di conseguire conclusioni puramente obiettive su comportamenti soggettivi, e se cerca di ridimensionare la procedura fisica galileiana di «difalcare gli impedimenti». In ogni caso, la formalizzazione nelle scienze che hanno attinenza con la storia, con gli scopi e le decisioni e, prima ancora, con le dinamiche dell'evoluzione biologica (in particolare con il tentativo di tradurre, come si è visto, in linguaggio modellistico analiticoformale i contenuti dei processi genetico-evolutivi), non potrà certo assumere mai le stesse dimensioni che ha assunto nella fisica, in termini di espansione/applicazione di procedure matematico-formali. Peraltro neppure nella fisica, a rigore, nonostante gli sviluppi positivi della scienza della complessità, questa deve rischiare, attraverso la matematizzazione/ formalizzazione, di presentarsi come una versione solo un po' aggiornata del riduzionismo classico. In definitiva, pur coesistendo proficuamente anche con il riduzionismo classico, la scienza della complessità se ne deve differenziare, per cooperare anche con altre forme cognitive diverse dalla 43 Thom, R., Introduction a P. S. Laplace, Essai philosophique sur la proabilité, Bourgois, Paris 1986. 44 Galilei, G., Dialogo sopra i due massimi sistemi cit., p. 224. Rossi: Dai modelli riduzionistici della realtà fisica alla complessità 89 pura formalizzazione e matematizzazione, in termini di storicità e soggettività, dato che neanche le leggi più formali della storia possono essere banalmente ricavate dai sistemi dinamici deterministici, in particolare sul modello della fisica. Quindi si tratta di riconoscere l'apporto conoscitivo autonomo di settori di cultura e conoscenza anche diversi dalla fisicamatematica, anche storico-filosofici e perfino artistico-letterari. Settori che cercano anch'essi di stabilire forme proprie di ordine e obiettività anche quantitative e di trarre insegnamenti da esempi e generalità tipizzate dall'esperienza, in forme comunque autonome e diverse da quelle proprie della fisica-matematica, pur coesistendo con essa. Questa tende invece talvolta, problematicamente, perfino a cercare di ridurre quelle diverse forme cognitive al proprio modello metodologico di scienza della complessità, su basi comunque totalmente formali-matematiche e pertanto certamente non sufficienti45. Riferimenti Brunet, P., 1938, Etude historique sur le principe de moindre action, Hermann, Paris. Cassirer, E., 1973, Sostanza e funzione, La Nuova Italia, Firenze. Capecchi, D., Drago, A., 2005, Lagrange e la storia della meccanica, Progedit, Bari Chaitin, G.J., 1966, On the length of programs for computing finite binary sequences, «J. ACM», vol 13, pp. 547-69. Costabel, P., 1969, Leibniz et la dynamique en 1692. Textes et commentaires, Hermann, Paris. D'Agostino, S., 2000, A History of the Ideas of Theoretical Physics, Essays on the Nineteenth and Twentieth Century Physics, Kluwer Academic Publishers, Dordrecht. Descartes, R., 2005, Lettera a Mersenne dell'11 ottobre 1638 in Tutte le lettere 1619-1650, a cura di G. Belgioioso, Bompiani, Milano, pp. 878-899. Descartes, R., 1983, La Diottrica e Le Meteore, in Opere scientifiche, volume secondo, a cura di E. Lojacono, UTET, Torino, pp. 175-508. Drago, A., 2003, La riforma della dinamica secondo G. W. Leibniz, Hevelius Edizioni, Benevento. Einstein, A., Infeld, L., 1948, L'evoluzione della fisica, Einaudi, Torino. Ford, J., 1983, «How random is a coin toss?», Physics Today, 36, 40. 45 Israel, G., cit. Complessità e riduzionismo 90 Galilei, G., 1998, Dialogo sopra i due massimi sistemi, a cura di O. Besomi e M. Helbing, Antenore, Padova, vol. I, Testo. Galilei, G., 1968, Opere, Barbera, Firenze, vol. VI, 187-188. Hadamard, J., 1968, Les surfaces à courbures opposées a leur lignes géodésiques, in OEuvres, CNRS, Paris, vol 2, pp. 729-75. Hall, A.R., 1989, Philosophers at war. The Quarrel between Newton and Leibniz, Cambridge U. P., Cambridge. Ianniello, M. G., 1995, Il contributo di Boltzmann alla teoria dei fenomeni di elasticità «con memoria», «Giornale di Fisica», XXXVI, AprileGiugno, pp. 121-150 Israel, G., 2005, Some critical observations on the science of complexity, in P. Freguglia et al. (a cura di), The Science of Complexity: chimera or reality?, Società Editrice Esculapio, Bologna, pp. 150-70. Kant, I, 1959, Primi principi metafisici della scienza della natura, Cappelli, Bologna. Koyré, A., 1972, Studi newtoniani, Einaudi, Torino. Koyré, A., 1970, Dal cosmo chiuso all'universo infinito, Feltrinelli, Milano. Landau, L.D., 1994, «Sul problema della turbolenza» (in russo), Dokl. Akad. Nauk. SSSR, vol 44, 8, pp. 339-42. Laplace, P.S., 1909, Exposition du système du monde, in OEuvres, GauthierVillars, Paris. Laplace, P.S., 1814, Essai philosophique sur les probabilités, Courcier, Paris. Lorenz, E., 1963, Deterministic Nonperiodic Flow, «J. Atmos. Sci.» 20, 130. Poincaré, J. H., 1916–54, Sur le problème des trois corps et les équations de la dynamique, in OEuvres, Gauthier-Villars, vol. VII, pp. 262-479. Pomian, K., 1991, (a cura di), Sul Determinismo, Il Saggiatore, Milano. Popper, K.R., 1984, Poscritto alla Logica della scoperta scientifica, II. L'universo aperto. Un argomento per l'Indeterminismo, Il Saggiatore, Milano. Ruelle, D., 1992, Caso e caos, Bollati Boringhieri, Torino. Sinai, Ya. G., 1992, L'aléatoire du non-aléatoire in: A. Daham-Dalmedico, J.L. Chabert e K. Chemla (a cura di), Chaos et determinisme, Editions du Seuil, Paris. Solomonoff, R.J., 1964, «A formal theory of inductive inference», Inform. and Control, vol 7, pp. 1-22, 224-54; Kolmogorov, A.N., 1965, «Tre approcci alla definizione del concetto di quantità di informazione», Probl. Peredachi Inform., vol 1, pp. 3-11 Rossi: Dai modelli riduzionistici della realtà fisica alla complessità 91 Thom, R., 1986, Introduction a P. S. Laplace, Essai philosophique sur la proabilité, Bourgois, Paris. Truesdell, C., 1968, Essays in the History of Mechanics, Springer Verlag, Berlin. Volterra, V., 1931, Lecons sur la theorie mathematique de la lutte pur la vie, Gauthier-Villars, Paris. Volterra, V., 1965, Theory of Functionals and of Integro-Differential Equations, Dover, New York. Vulpiani, A., 1994, Determinismo e caos, La Nuova Italia Scientifica, Roma.