Luis Bonilla-Molina – È in atto una gigantesca controriforma educativa sponsorizzata dall’Ocse e dalla Banca mondiale

luis_bonillaLuis Bonilla-Molina

 

«I cambiamenti in corso nel modello educativo dei paesi capitalistici mostrano l’avvio di una gigantesca controriforma educativa sponsorizzata dall’Ocse e dalla Banca mondiale, che mette in pericolo il diritto umano all’educazione e indica un cambiamento di indirizzo sostanziale nella democrazia rappresentativa per come la si è conosciuta nei paesi occidentali. […] La scuola con il suo sistema di relazioni, il suo compito […] sono seriamente minacciati»

 

Luis Bonilla-Molina – presidente del Centro Internacional Miranda (Cim) a Caracas, Venezuela.

Educación en tiempos de revolución Bolivariana

Aporrea – artículos de Luis Bonilla Molina

Luis Bonilla-Molina (@Luis_Bonilla_M) | Twitter

Luis Bonilla-Molina | Facebook

Intervista a cura di Geraldina Colotti a Luis Bonilla-Molina, pubblicata su “Le Monde diplomatique”-il manifesto, settembre 2015, p. 23

 

***********************************************

Seguici sul sito web 

cicogna petite

Franco Fortini (1917-1994) – «I confini della poesia», Castelvecchi, 2015: «Misura, ossia senso del limite opportuno ma anche dell’illimitato che sta al di là»

 

Franco_Fortini

 

«Metrica come misura,
mezura ossia senso del limite opportuno
ma anche dell’illimitato che sta al di là […].
Certi campioni di misura, in meccanica fine, si chiamano giudici.
Metrica, giudizio».

 

Franco Fortini, I confini della poesia, Castelvecchi, 2015. A cura di Luca Lenzini.

 

I confini della poesia

logo_Castelvecchi

Tra il 1978 e il 1980, in due conferenze, Franco Fortini fornì una sintesi della propria concezione della poesia, prima in chiave teorica e in dialogo con le tendenze critiche correnti, poi in chiave soggettiva e dichiaratamente autobiografica. È una riflessione durata tutta l’esistenza, che giunge in questi testi a un’articolazione particolarmente ricca e nitida. Il primo saggio, Sui confini della poesia, illumina i modi d’essere della poesia nel tempo, ovvero in correlazione con i mutamenti storici (non solo novecenteschi) che ne orientano l’interpretazione, fino al «trionfo della trasformazione della società in spettacolo». Metrica e biografia, d’altra parte, ripercorre un intero itinerario biografico dal punto di vista della psicologia individuale alle prese con i condizionamenti culturali, le risorse formali della tradizione e l’esperienza degli altri poeti. In entrambi i casi, cruciale è la nozione di confine, come si conviene al pensiero dialettico di chi ha sempre sfidato il rischio delle «questioni di frontiera».

Luca Lenzini
Ha dedicato studi e commenti all’opera di Vittorio Sereni, Franco Fortini, Guido Gozzano e numerosi altri autori novecenteschi. Dirige la Biblioteca Umanistica dell’Università di Siena ed è membro del Centro studi Franco Fortini.

***********************************************

Seguici sul sito web 

cicogna petite

Marcello Cini (1923-2012) – C’È ANCORA BISOGNO DELLA FILOSOFIA PER CAPIRE IL MONDO?

Marcello Cini

  1. INTRODUZIONE

È possibile “collegare e raccordare scienza da una parte e cultura e senso comune dall’altra”? Marino Badiale risponde affermativamente, argomentando che spetta alla filosofia il compito di effettuare questa mediazione attraverso una attività razionale di sintesi e di interpretazione delle idee e dei risultati della scienza. Sintesi significa, in questo contesto, “cogliere gli aspetti concettuali più significativi di una disciplina scientifica: le categorie con le quali essa organizza il suo particolare dominio di oggetti, la metodologia nella quale sintetizza il proprio concreto operare, i valori e gli scopi conoscitivi nei quali riassume il fine della propria ricerca”. Interpretazione vuol dire “comprendere il significato culturale e umano di tutto questo, collegando i concetti fondamentali delle varie discipline con le altre dimensioni della cultura e dell’operare umano in una unità comprensibile e sensata”. Si tratta, in definitiva, di “capire cosa la scienza stessa ci dice dell’essere umano e del mondo che egli si costruisce”.
Questo è, del resto, argomenta Badiale, ciò che ha fatto la filosofia in Occidente, almeno fino a poco tempo fa: i suoi maggiori esponenti si sono posti come fine una comprensione razionale delle varie dimensioni dell’esistenza umana e della loro sintesi in una visione unitaria e armonica. Oggi, tuttavia questo obiettivo sembra diventare sempre più irraggiungibile. Due tendenze divaricanti infatti dominano da un lato la scienza e dall’altro la cultura, tanto nelle sue manifestazioni elitarie come in quelle di massa.
Da parte sua la scienza è sempre più caratterizzata da un processo esponenziale di “specializzazione parcellizzante” che esclude la possibilità di una sintesi filosofica che ne colga gli aspetti concettuali fondamentali, e vanifica dunque la ricerca di un senso complessivo per le sue azioni e i suoi fini. Al tempo stesso infatti, la filosofia, sottoposta allo stesso processo, cancella questo compito dalla sua agenda, mentre le discipline scientifiche sempre più cercano nell’autoreferenzialità della loro pratica la propria legittimazione.
La cultura di massa è a sua volta dominata dal rifiuto di “un aspetto fondamentale della tradizione filosofica occidentale” cioè della “discussione razionale sui grandi temi della vita umana: il bene e il male, il giusto e l’ingiusto, il modo migliore di organizzare la vita degli esseri umani”. Essa si presenta dunque come una forma di irrazionalismo diffuso, come un immane sforzo per non sapere ciò che stiamo facendo (a noi stessi e al nostro mondo).
Il procedere di questi due processi – la specializzazione parcellizzante della scienza e l’espulsione del pensiero critico dalla cultura di massa – porterebbe dunque a concludere che la riflessione filosofica di sintesi e di interpretazione inizialmente proposta è impossibile. Non resterebbe allora altro da fare, secondo Badiale, se non tentare di attestarsi su alcune linee di resistenza, nella scuola soprattutto ma anche in alcuni punti chiave all’interno delle facoltà scientifiche e delle istituzioni della ricerca, nell’attesa che la scienza diventi adulta, capace cioè di “rinunciare al desiderio infantile di onnipotenza” e di “riconoscere la propria funzione, il proprio ruolo, e quindi, contemporaneamente, il proprio valore e i propri limiti”.
Dico subito che non mi riconosco interamente in questo discorso, anche se condivido molte delle argomentazioni che lo sorreggono ed alcune delle conseguenze che se ne traggono. È come se mi trovassi di fronte a una figura che, pur essendo composta da molti pezzi che mi sono familiari, finisce, per il diverso ordine con il quale vengono disposti o per l’assenza di altri che secondo me sarebbero necessari, col rappresentare un quadro diverso da quello che appare ai miei occhi.
Fuori di metafora, mi sembra per esempio che l’analisi schematicamente riassunta in precedenza dei due processi che hanno trasformato la scienza e la cultura di massa, pur rappresentandone correttamente alcuni tratti evidenti, non colga appieno la natura della profonda svolta che entrambe queste componenti fondamentali della società contemporanea hanno vissuto negli ultimi decenni del secolo appena finito. In particolare mi sembra che questa analisi parli delle norme metodologiche e dei criteri epistemologici delle diverse discipline scientifiche come se avessero una radice comune in un ideale di scienza che in ultima analisi assume la fisica come modello. Non è un caso, mi sembra, che gli esempi utilizzati abbiano tutti a che fare con questa disciplina e che le discipline della vita e della mente non siano mai nominate.
Non tiene conto, per esempio, del fatto che, via via che si attinge ai livelli più elevati di organizzazione della materia, il consenso degli scienziati sul linguaggio disciplinare considerato appropriato si indebolisce, e si assiste alla moltiplicazione dei linguaggi adottati da gruppi diversi della comunità. Questi linguaggi non sono necessariamente in contraddizione: essi corrispondono a differenti modellizzazioni del dominio fenomenologico e a differenti punti di vista (culturali, epistemoligici, tecnologici) a partire dai quali si costruiscono le categorie concettuali e i metodi pratici utilizzati per analizzare il dominio considerato. In queste discipline sarà dunque sempre più difficile inventare un “esperimento cruciale” capace di decidere chi ha ragione e chi ha torto, perché tutti i modelli sono parziali e unilaterali. Ognuno di essi è al tempo stesso” oggettivo”, perché riproduce alcune proprietà del reale, e “soggettivo” perché il punto di vista è scelto dai gruppi diversi in conflitto fra loro.
Una rappresentazione della scienza che non assuma questa varietà di punti di vista in competizione, secondo me, impedisce a sua volta di individuare la novità e la ricchezza del compito che la filosofia si trova a dover affrontare, rispetto a quello di sintesi e di interpretazione assegnato ad essa nel saggio introduttivo; un compito che del resto appare all’autore stesso impossibile da raggiungere nelle condizioni attuali.
In questo lavoro mi propongo dunque di discutere anzitutto (§ 2) la natura della svolta che ha caratterizzato la scienza nel passaggio dal XX al XXI secolo. Successivamente analizzerò rispettivamente i rapporti fra scienza ed epistemologia, rispettivamente per le discipline della materia inerte (§ 3) e per quelle della materia vivente (§ 4) e pensante (§ 5). Il § 6 è dedicato invece al rapporto fra scienza ed etica. Nelle conclusioni (§ 7) cercherò di argomentare perché sono convinto che la filosofia sia un bisogno insopprimibile della mente umana: come l’Araba Fenice risorge sempre dalle sue ceneri.

  1. LA SVOLTA NELLA SClENZA DAL XX AL XXI SECOLO

Nel secolo appena finito l’uomo ha instaurato il suo pieno dominio sulla materia inerte. Dopo essere riuscito, nel ‘700 e ‘800, a formulare le grandi leggi universali che ne regolano le proprietà a livello macroscopico e aver individuato le diverse forme di energia di cui può essere dotata, nel ‘900 ha appreso, attraverso la conoscenza sempre più approfondita dei suoi costituenti elementari, a trasformarla in forme e aggregati nuovi, in modo da riuscire a progettare e costruire un mondo artificiale fatto di sostanze, macchine, apparati, finalizzato ad incrementare al di là di ogni immaginazione, mediante protesi sempre più potenti e penetranti, la portata e l’intensità delle proprie capacità naturali di percezione, di azione e di controllo del mondo esterno. Il nuovo secolo sarà il secolo del dominio dell’uomo sulla materia vivente e del controllo sui fenomeni mentali e sulla coscienza. La prima barriera, che separa la materia inanimata e quella vivente, sta crollando vistosamente, dopo che, da un lato, sono state decodificate le modalità di autorganizzazione della vita e sono stati identificati i geni come sue unità elementari, e, dall’altro, è stato ricostruito il processo evolutivo che ha dato origine alla immensa varietà e complessità delle sue diverse manifestazioni. La seconda, quella tra corpo biologico e mente (e, in particolare, tra cervello e coscienza) sta cedendo sotto i colpi dei progressi delle neuroscienze nell’individuazione della gerarchia delle diverse strutture cerebrali e delle loro funzioni, dai singoli neuroni fino alla rete delle loro reciproche connessioni.
Dopo aver cominciato ad apprendere come trasformare la vita in forme e aggregati nuovi, e come controllare i fenomeni mentali, gli uomini si apprestano dunque a progettare e costruire una biosfera artificiale fatta di organismi transgenici, chimere, cloni, e chissà quali altre forme viventi, regolata da una rete di menti artificiali di complessità crescente, con conseguenze imprevedibili.
È essenziale riconoscere che questa svolta cambia profondamente la natura stessa della scienza. Essa infatti comporta l’abbattimento di due steccati che tradizionalmente separavano la scienza dalle altre attività sociali umane: uno separava la scienza (in quanto conoscenza disinteressata della natura ottenuta attraverso la scoperta) dalla tecnologia (in quanto utilizzazione pratica dei risultati della prima realizzata attraverso l’invenzione), e l’altro separava le attività che si occupano difatti da quelle che si occupano dei valori che stanno alla base delle norme (etiche e giuridiche) intese a regolare le finalità e i comportamenti degli individui nei loro rapporti privati e nelle loro azioni sociali.
Entrambe queste separazioni nette tendono a scomparire. Per quanto riguarda la prima è evidente che il nesso tra la ricerca scientifica “pura”, cioè perseguita al solo scopo di conoscere in modo disinteressato la natura, e l’innovazione tecnologica, stimolata dall’interesse a inventare continuamente nuovi strumenti per soddisfare la domanda di un mercato sempre più esigente e sofisticato, si è fatto sempre più stretto, fino a diventare un intreccio difficilmente districabile. Per convincersene basta osservare quanto sia ambiguo e intimo il rapporto fra la biologia molecolare, disciplina fondamentale quant’altre mai, e l’ingegneria genetica, tecnologia di punta per eccellenza, per convincersi che è impossibile decidere se una delle due venga prima dell’altra. Lo stesso si può dire per le discipline coinvolte in tutti i problemi ambientali, o in quelle che intervengono nei fenomeni cerebrali e mentali.
Anche per quanto riguarda la separazione fra fatti e valori la svolta ha un effetto dirompente. È ormai esperienza comune che i dibattiti e le polemiche interne alla scienza cominciano a entrare nelle arene del discorso e dell’azione non scientifiche. Le scoperte scientifiche sono messe in discussione, criticate o utilizzate insieme ad altre fonti di conoscenza disponibili da parte di un pubblico sempre più vasto. Una cosa è infatti manipolare, controllare, forgiare un oggetto fatto di materia inerte e altra cosa è compiere le stesse operazioni su un organismo vivente o addirittura sull’uomo. Nel primo caso illecito coincide con l’utile, nel secondo illecito dovrebbe per lo meno dipendere anche da una valutazione di natura etica. Dunque anche la seconda separazione tende a svanire: diventa sempre più difficile decontaminare i fatti dai valori ed estirpare gli interessi dalla conoscenza. Le “verità” della scienza e gli “strumenti” della tecnologia acquistano proprietà che dipendono dal contesto. Nasce il problema del rapporto fra conoscenza e valori, cioè del nesso fra la ricerca della “verità” e il perseguimento di “retti” comportamenti individuali e collettivi.
È tuttavia evidente che la svolta non viene percepita, nell’immaginario collettivo, in tutta la sua radicalità. Sia gli scienziati che i decisori, nella sfera pubblica (politici e amministratori) come in quella privata (industriali e managers), si affannano infatti, attraverso i mezzi di comunicazione di massa, a mantenere intatta l’immagine tradizionale della scienza, come ricerca disinteressata e oggettiva (avalutativa) della verità capace di rappresentare la realtà così com’è, in modo sempre più fedele e dettagliato. I primi perché sono interessati a sottolineare la continuità del “metodo scientifico” che garantirebbe una volta per tutte uno statuto epistemologico privilegiato a questa forma di conoscenza, conferendo nel contempo alla categoria un elevato prestigio sociale e non disprezzabili porte di accesso alla sfera del potere. I secondi perché sono ancor più interessati a marcare la continuità delle leggi dell’economia e del mercato come regolatrici ultime dell’introduzione di innovazione scientifica e tecnologica di qualsiasi natura nel processo produttivo. “Il fatto che una cosa abbia natura biologica e si autoriproduca –afferma a questo proposito un oscuro ma aggiornato biotecnologo di Oakland – non basta a renderla diversa da un pezzo di macchina costruita con dadi, bulloni e viti”. Portare alla luce la vera portata di questa svolta diventa dunque un primo compito essenziale della riflessione filosofica. La pionieristica opera di Gregory Bateson, questo grande “filosofo naturale”, emarginato dalla comunità scientifica quando era in vita e quasi completamente dimenticato dopo la sua morte, può essere, da questo punto di vista, assolutamente fondamentale. Altri nomi che a questo punto è d’obbligo fare sono quelli di Hans Jonas e di Paul Ricoeur. Come vedremo più avanti, non si parte da zero. Occorre però compiere un riordinamento gestaltico nell’immagine della scienza che incontra ancora molte resistenze. Sarà la forza delle cose a costringerci a farlo.

  1. 3. L’EPISTEMOLOGIA DELLE SCIENZE DELLA MATERIA INERTE

Il compito di “sintesi” assegnato da Badiale alla filosofia è indubbiamente reso difficile dai due processi – la specializzazione parcellizzante della scienza e l’espulsione del pensiero critico dalla cultura di massa – che caratterizzano la nostra società capitalistica avanzata. Mi sembra però che ci sia nella stessa definizione di “sintesi” una difficoltà più profonda, che riguarda tutta la scienza, a partire dalla fisica, la disciplina della materia inerte per eccellenza.
Mi sembra infatti che il concetto di “sintesi” inteso come “estensione a un livello molto generale e astratto di un aspetto essenziale della pratica quotidiana della scienza” sia fondato su una immagine inadeguata di questa pratica.
Secondo Badiale, essa comincia “dallo studente che, svolto il calcolo suggerito dal docente, deve capire perché esso rappresenti la soluzione del problema fisico dato”, continua con lo “sperimentatore che si sforza di interpretare i segnali che i suoi strumenti gli mandano”, arriva al “teorico che sintetizza i dati sperimentali e deduzioni matematiche in una nuova immagine del mondo”, per sfociare nella “intera prassi scientifica [che vive] di un continuo sforzo di sintesi e di interpretazione dei propri stessi risultati”.
Forse questa immagine della scienza è un po’ troppo semplice. Se fosse vera, tra l’altro,la filosofia non avrebbe mai avuto un ruolo nel suo processo di sviluppo. È essenziale infatti, per capire questo ruolo, abbandonare la vecchia immagine, criticata da Kuhn già quarant’anni fa, del progresso della scienza come processo lineare, tutto interno, di accumulazione di verità che man mano sostituiscono vecchi errori e colmano precedenti lacune. Se così fosse, in effetti, non ci sarebbe bisogno della filosofia: la “verità” verrebbe fuori da sé.
Bisogna dunque per prima cosa cominciare a distinguere fra gli aspetti concettuali che sono entrati a far parte del patrimonio comune di conoscenze, sui quali il dibattito è ormai chiuso (ma alle volte può riaprirsi: c’è voluto Einstein per rimettere in discussione, dopo due secoli di accettazione unanime, la meccanica newtoniana), e i diversi aspetti concettuali che sono, nel corso del processo di acquisizione di nuove conoscenze, oggetto di discussione e di conflitto fra i sostenitori di proposte epistemologiche e metodologiche alternative. È in questo processo che può intervenire la filosofia. Non ha senso che intervenga post factum. Una volta che gli scienziati si sono messi d’accordo la filosofia può solo fare la mosca cocchiera.
È infatti proprio nel corso di questo dibattito che si forma il consenso attorno a posizioni che via via si consolidano ed entrano a far parte del patrimonio di conoscenze accettato da tutti. A volte questo consenso non si raggiunge e la comunità si divide. Il punto fondamentale è che, anche quando il consenso è stato raggiunto su un tema controverso, il dibattito non finisce, ma si sposta su un fronte più avanzato. È il confronto fra posizioni differenti che genera la nuova conoscenza. Certo, come lo stesso Kuhn ha mostrato, ci sono periodi di svolta in cui il dibattito è particolarmente acceso e contrastato, e periodi di continuità in cui la conoscenza procede per approfondimento e allargamento all’interno di un “paradigma” riconosciuto.
Ma come si raggiunge il consenso? Non è vero che è soltanto la “natura” a decidere chi ha ragione e chi ha torto. Le esperienze “cruciali”, ci avverte Lakatos, diventano tali solo retrospettivamente, dopo che l’accordo è stato raggiunto. La valutazione delle proposte alternative in competizione avviene invece sulla base di molteplici fattori che portano all’accettazione di alcune e al rifiuto di altre. Questi fattori possono comprendere una serie di criteri differenti. Essi vanno, per esempio, da quelli adottati per esprimere un “giudizio di scientificità” sulla proposta in discussione o della sua pertinenza all’ambito disciplinare (cioè della sua compatibilità con i capisaldi della disciplina che non possono, allo stato delle cose, essere messi in discussione), fino ai criteri per giudicare dell’esistenza o meno di un problema aperto da risolvere o da accantonare (in questo caso si tratta di decidere se un certo fenomeno richiede una spiegazione oppure non ne ha bisogno perché è evidente, o può essere assunto come dato a priori). Oppure possiamo trovare criteri di carattere formale. Rientrano fra questi quelli relativi alla semplicità, all’eleganza, alla coerenza interna di una teoria o di un formalismo.
Certo sono anche importanti i criteri adottati per giudicare dell’adeguatezza empirica di una teoria. Ma non sono i soli che contano per decidere. Può accadere infatti che l’accordo o il disaccordo con una determinato esperimento sia considerato più o meno importante a seconda del grado di attendibilità di cui il paradigma dominante gode presso la comunità. In certi casi si accetta una nuova teoria nonostante il suo disaccordo con dati sperimentali che successivamente verranno smentiti; altre volte invece nuovi dati vengono ignorati per mantenere in vita la vecchia teoria in mancanza di una più soddisfacente.
È chiaro a questo punto quale sia il ruolo essenziale della riflessione filosofica nel contribuire a risolvere il conflitto fra sostenitori di punti di vista diversi e a determinarne l’esito. Essa infatti deve aiutare a formulare in forma esplicita e razionale le premesse meta teoriche, implicite o addirittura nascoste nell’inconscio individuale dei singoli scienziati, che stanno alla radice del conflitto. È un ruolo che può avere come protagonisti sia gli scienziati più creativi e consapevoli del valore culturale, esterno alla comunità, delle scelte possibili, sia i filosofi capaci di cogliere, al disotto dei dettagli tecnici formali delle diverse alternative, i loro diversi aspetti epistemologici e metodologici.
Essi possono così individuare legami fra proposte di innovazione avanzate anche in campi disciplinari diversi che tuttavia condividono la stessa “metafisica influente” (Lakatos), o gli stessi “stili di pensiero”, o gli stessi “ideali del sapere” (Amsterdamski), rintracciandone le radici nel retroterra culturale che caratterizza lo Zeitgeist dell’epoca considerata. Ha dunque ragione Badiale nel sottolineare che la riflessione filosofica è efficace quando rivela il nesso che lega una svolta concettuale introdotta in una data disciplina scientifica con i temi importanti e urgenti che permeano la cultura del contesto sociale corrispondente. Ma individuare le ragioni del contendere aiuta a capire come e dove ciò che è stato possibile una volta può ancora accadere oggi.
Gli esempi che Badiale presenta dei grandi protagonisti delle svolte importanti della scienza che sono riusciti a svolgere efficacemente questo compito di “sintesi” filosofica sono da questo punto di vista significativi, ma lasciano in ombra, mi pare, il fatto fondamentale che questa “sintesi” più che essere una conseguenza necessaria del successo del nuovo modo di descrivere la realtà, è stata un fattore importante per raggiungere questo successo nel conflitto con i sostenitori della rappresentazione dei fenomeni considerati accettata fino a quel momento.
Prendiamo il caso di Galileo, la cui “opera di costruzione e difesa della nuova scienza” è giustamente presentata come la “proposta di alcuni principi metodologici … che sono diventati costitutivi dell’immagine moderna della scienza”. Ma forse non basta il riferimento a quei principi metodologici – come quello del rapporto fra “sensate esperienze” e “certe dimostrazioni”, o l’idea che il libro dell’Universo “è scritto in lingua matematica” – a spiegare la drammaticità del conflitto che oppone Galileo ai suoi oppositori aristotelici e il carattere epocale della svolta che ne è seguita.
Occorre forse riconoscere che alla base di quelle differenze c’era uno scontro su questioni filosofiche fondamentali. È infatti su questo terreno che Galileo conduce la sua battaglia, come dimostrano con evidenza i suoi dialoghi. Se si fa questo, fra l’altro, si evita di assolutizzare il famoso metodo attribuendogli quel carattere di ricetta universale ed eterna per raggiungere la verità che gli viene attribuito nei libri di scuola; una ricetta che oggi, come discuteremo fra poco, si applica male alle scienze della vita e della mente.
Il contrasto dunque non era – o non era soltanto – sul metodo, ma tra due concezioni del mondo antitetiche. Per Aristotele c’era una dicotomia netta fra il mondo sublunare, caratterizzato dall’irreversibilità, la caducità e la mutevolezza di una materia corruttibile e quello delle sfere celesti, dove regnano l’armonia, la regolarità, la perfezione del moto circolare, tutte manifestazioni di una sostanza eterna ed eterea. Per Galileo, al contrario, non c’è barriera fra cielo e terra. La sostanza dei corpi celesti è la stessa di quelli terrestri. E poiché i primi rivelano che l’unico mutamento reale è il movimento, anche sulla Terra deve essere possibile ricondurre ogni mutamento, per quanto sostanziale e irreversibile possa apparire, al moto delle sue infime parti. Al disotto delle apparenze, dunque, il mondo dei fenomeni terrestri è semplice, regolare, ripetibile, così come si mostra in cielo.
Ed è perciò intelligibile – ecco la conseguenza – a patto di imparare a “intender la lingua e conoscer i caratteri ne’ quali è scritto”, che è, appunto la “lingua matematica” . Non è dunque il metodo che gli permette di scoprire come è fatto ilmondo. È la sua convinzione che il mondo è fatto in un certo modo che gli suggerisce il modo migliore per costringere la natura a dargli ragione, anche a costo di tralasciare altre evidenze empiriche contrarie (per esempio sulla questione della natura delle comete Galileo aveva torto e padre Grassi ragione). Insomma, se si ignorano le ragioni (serie, dopotutto, visto che Aristotele aveva retto per più di duemila anni) di entrambi i contendenti, la filosofia non ha più nulla da dire, perché scompare la materia del contendere. Si rischia così di precipitare dalla sfera dei più elevati dibattiti della storia del pensiero filosofico allivello di una banale lezione di fisica di liceo.
Un discorso analogo si potrebbe fare per le due figure di Cartesio e di Newton, ma ci porterebbe via troppo spazio. Mi limito a segnalare che anche qui ci sarebbe un dibattito filosofico da portare alla luce. Sarebbe interessante infatti ricordare come le differenti posizioni filosofiche di questi due grandi personaggi, esplicitate nella polemica fra Newton e i cartesiani, fossero indissolubilmente legate alle rispettive differenti concezioni del concetto di forza (per contatto o a distanza) che a loro volta sono all’origine di due diverse formulazioni, a livello tecnico, della meccanica (leggi di conservazione vs. leggi della dinamica), formulazioni che ancora oggi hanno un significato epistemologico profondamente differente (le leggi di conservazione, che per la loro generalità valgono anche nella meccanica quantistica, sono vincoli da rispettare, mentre quelle della dinamica newtoniana sono prescrizioni da eseguire).
Se dunque è vera la mia tesi, cioè che la riflessione filosofica può avere un ruolo importante nella scienza dove e quando c’è un dibattito fra scienziati portatori di varianti alternative del linguaggio disciplinare basate su presupposti meta teorici differenti, si capisce anche perché oggi questo ruolo non possa più essere esercitato all’interno della fisica. L’ultimo conflitto all’interno di questa disciplina basato su concezioni alternative del mondo, e dunque tale da investire la cultura in generale (gettando un ponte fra le due culture”) è stato quello tra Einstein e Bohr attorno alla domanda se Dio giocasse o meno ai dadi. (La questione del “realismo” è strettamente connessa a questa, ma sul loro nesso non posso dilungarmi). Risolta la questione negli ultimi decenni del secolo con la conclusione che il Personaggio è un accanito giocatore (e in questo caso la risposta della natura è stata “cruciale”), le proprietà della materia inerte, come ho cercato di argomentare nel § 2, non hanno più nulla da dire di significativo per l’uomo, e dunque per la filosofia.
È per questo che la conclusione che Badiale trae da un colloquio immaginario tra un fisico e una generica persona colta, secondo la quale “la scienza moderna si pone ormai al di fuori della cultura umana, perché non riesce più a rendere comune al genere umano il significato del proprio operare”, mi sembra ingiustificata. In primo luogo perché il confronto fra uno scienziato e una persona colta non può mai avvenire (ed è sempre stato così anche in passato) sul terreno del linguaggio specialistico della disciplina, ma soltanto su quello del suo livello meta teorico. In secondo luogo perché la fisica non è più rappresentativa della “scienza moderna”, mentre, come adesso vedremo in maggior dettaglio, è nell’ area delle discipline della vita, dell’uomo e della mente che la mediazione fra scienza e contesto culturale è oggi necessaria e possibile.

  1. UNA EPISTEMOLOGIA DELLE SCIENZE DEL MONDO VIVENTE

Ho già sottolineato all’inizio che, quando si sale ai livelli più elevati di organizzazione della tnateria, si assiste alla moltiplicazione dei linguaggi adottati da gruppi diversi all’interno di una data comunità disciplinare, fondati su differenti modellizzazioni del dominio di fenomeni considerato e su differenti punti di vista (culturali, epistemologici, tecnologici) adottati per esplorarlo. In particolare, il passaggio dalle discipline che studiano la materia inerte a quelle che si pongono come obiettivo l’investigazione del mondo della vita e di quello della mente, deve tener conto della natura della barriera che separa la materia inerte dalla materia vivente. Sorvolo per ora su quella etica, perché ci torneremo alla fine del nostro discorso. Ma mi soffermo brevemente sui suoi aspetti epistemologici ed ontologici. La logica che sta dietro alla interpretazione delle proprietà della materia inerte è riduttiva: dalla conoscenza dei componenti elementari e delle loro interazioni si risale alle proprietà del sistema. Quella che occorre adottare per spiegare le proprietà della materia vivente è una logica evolutiva: essa si basa sul riconoscimento dei due momenti indipendenti e complementari che ne sono all’origine: quello della generazione aleatoria della diversità a livello genotipico e quello della selezione da parte dei vincoli (esterni ed interni al sistema) a livello fenotipico. Questo implica che l’adozione di un criterio riduzionista (per esempio la credenza ancora diffusissima nella validità della formula “un gene=un carattere”) per la progettazione del vivente può condurre a errori macroscopici e gravissimi.
Dal punto di vista ontologico poi, la barriera stabilisce una differenza fondamentale tra i due mondi: l’assenza o la presenza di autonomia. Una volta fabbricati gli artefatti biologici sono autonomi: prevederne il futuro diventa problematico e riacchiapparli una volta che se ne sono andati in giro per il mondo addirittura impossibile.
Due libri recentissimi, uno di un biologo, Marcello Buiatti, intitolato Lo stato vivente della materia, l’altro di una epistemologa, Elena Gagliasso, intitolato Verso un’epistemologia del mondo vivente, sembrano scritti apposta per dimostrare che in queste discipline la mediazione fra scienza e contesto culturale può avere per protagonisti – come dicevo poc’anzi – sia gli scienziati più creativi e consapevoli del valore culturale, esterno alla comunità, delle scelte possibili, sia i filosofi capaci di cogliere, al disotto dei dettagli tecnici delle diverse alternative, i loro diversi aspetti epistemologici e metodologici.
Il libro di Buiatti ci insegna infatti a guardare il mondo della vita da un punto di vista che riesce ad essere tanto più originale sul piano dello schema interpretativo generale quanto più risulta solidamente ancorato alle più recenti acquisizioni fattuali della ricerca biologica. Esso dimostra che, quando uno scienziato alza gli occhi dai suoi strumenti e dai suoi calcoli, e riflette sul senso e sulle ragioni delle domande che egli stesso e i suoi colleghi pongono alla natura, le sue riflessioni non solo sono perfettamente accessibili alle “persone colte” ma introducono anche all’interno della comunità gli stimoli per un dibattito fecondo di nuove domande. In concreto il punto di vista adottato in questo libro fa cadere molte delle barriere tradizionali che separavano approcci concettuali nettamente contrapposti – per esempio fra i sostenitori della localizzazione di proprietà specifiche in strutture determinate e i sostenitori dell’esistenza di proprietà diffuse all’interno di una rete di componenti diverse – e sgretola molte separazioni rigide fra modellizzazioni differenti dei fenomeni vitali. Le conseguenze culturali di questo approccio sono profonde.
Per quanto riguarda il genoma, ad esempio, il libro dimostra, dati alla mano, l’insensatezza della pretesa corrispondenza biunivoca tra geni e caratteri: da quelli somatici a quelli caratteriali fino a quelli comportamentali (addirittura, sfiorando il ridicolo, come il “gene” dell’adulterio o dell’omosessualità). È una tesi, non solo presente ancora negli ambienti scientifici ma soprattutto prevalente nella cultura diffusa dai mezzi di comunicazione di massa, che ha basi eminentemente ideologiche e permette di giustificare le peggiori discriminazioni ed emarginazioni. La conclusione del nostro autore è categorica: “affidare a uno o pochissimi geni comportamenti sociali (non biologici) complessi [è] del tutto erroneo dal punto di vista scientifico”.
Utilissimo è dunque il contributo “filosofico” che questo libro può dare per contrastare la concezione pesantemente deterministica della vita prevalente nell’immaginario diffuso, che la considera assolutamente prevedibile una volta conosciuto il contenuto del patrimonio genetico. “Secondo questa visione – scrive Buiatti nell’ultimo capitolo – l’uso di nuove tecnologie biologiche permetterebbe di liberare noi e gli altri esseri viventi da tutti i pericoli di eccessivo disordine derivante dal rumore indotto dall’ambiente, di guasti interni, dalla stessa variabilità genetica il cui valore biologico essenziale viene accuratamente dimenticato (rimosso). Di qui l’implicita sgradevole utopia positivistica della possibilità di modificare a volontà gli esseri viventi secondo progetti reificati nella materia vivente, paralleli a quelli costruiti per l’adattamento ai nostri bisogni veri o presunti, di quella non vivente”.
Dal canto suo, sul versante della filosofia, Elena Gagliasso così ci spiega il compito che la sua ricerca si prefigge. “Il libro – leggiamo nell’introduzione – si muove costantemente tra due piani, pur scegliendo di esaminarli insieme nelle diverse sezioni. Esiste infatti una sorta di crocevia che permette, a seconda dell’utilità, di intrecciare o di distinguere due livelli di discorso mutuamente vincolati, se si vuole oggi trattare un’epistemologia specifica delle scienze del mondo vivente”. Da un lato si tratta di una epistemologia che “si è aperta a riflettere anche su ciò che investe il pensiero scientifico prima del metodo o in modo circostante ad esso: una epistemologia dunque sensibile a inseguire le varie e controverse storie plurali della ricerca, i processi del farsi concreto delle teorie e degli stili di pensiero, più che a modellizzare la storia scientifica in modo normativo”. Dall’altro abbiamo una attenzione specifica “all’arcipelago di competenze e di ‘ritagli’ sulla molteplicità di piani che mostra la natura vivente”. L’intenzione è dunque di “fornire chiavi interpretative per mettere a fuoco i mutamenti epistemologici tra filosofia della scienza in generale e filosofia delle scienze del mondo vivente.” È proprio dunque il contrario di ciò che teme Badiale quando vede una tendenza della filosofia della scienza a dividersi essa stessa in sottodiscipline mimando il movimento di specializzazione parcellizzante della scienza stessa.”
Può essere esemplare, a questo punto, per mostrare meglio in concreto in che modo oggi la riflessione filosofica possa diventare una componente essenziale del processo di crescita della conoscenza scientifica, riferirsi al dibattito in corso sul tema dell’evoluzione biologica. La figura di Stephen J. Gould ha in esso un ruolo centrale.
Egli infatti si presenta come un darwiniano che intende valorizzare l’opera di Darwin polemizzando al tempo stesso anche con gli eredi più “ortodossi”.La sua polemica nei loro confronti riguarda tre punti essenziali. Il primo riguarda la natura dei soggetti dell’evoluzione. “Secondo me – scrive in polemica con Richard Dawkins – Richard è un iperdarwinista. Per Darwin la spiegazione viene abbassata [da un Dio provvidenziale] al livello degli organismi, che perfezionano le loro caratteristiche attraverso la lotta per la riproduzione, ossia per il loro vantaggio personale. [ … ] Richard ha voluto spostare il livello di spiegazione al gradino più basso: non sono gli organismi, ma i geni che lottano per riprodursi. Gli organismi sono solo i veicoli dei geni. Ma Richard ha torto. In natura sono gli organismi che lottano fra loro. Se essi potessero essere definiti come un’addizione cumulativa di quello che fanno i geni, allora si potrebbero ricondurli ad essi. Ma non è così, perché gli organismi hanno miriadi di caratteristiche emergenti. In altre parole [e qui ritroviamo ciò che dice Buiatti; M. C.)] i geni interagiscono in modo non lineare; questa interazione definisce l’organismo, il quale non può essere ridotto a una mera sommatoria dell’azione di un gene o di quell’ altro”.
Il secondo punto riguarda il gradualismo dell’evoluzione biologica. Esso è il più noto, e ad esso si riferisce la teoria degli equilibri punteggiati formulata da Gould con Niles Eldredge negli anni ’70. A questo proposito egli commenta: “Il concetto di tempo geologico è considerato indispensabile dai darwinisti ortodossi per applicare la cosiddetta estrapolazione biouniformista: essa consiste nell’osservare i piccoli cambiamenti che si verificano nella storia delle popolazioni locali per poi estrapolarli nella scala dei tempi geologici. Ma se sul piano delle ere geologiche entrano in gioco nuove cause che non possono essere comprese nel tempo breve, allora la strategia darwinista non funziona più. Ecco perché lo stesso Darwin faceva finta di ignorare le estinzioni di massa: la geologia mette in crisi l’aspetto uniformista o estrapolazionista, del pensiero darwiniano”.
Il terzo infine riguarda l’adattazionismo. “Nel lungo periodo – egli osserva – si scopre che la storia della vita sfugge al controllo adattativo. Entrano in gioco infatti nuovi fattori contingenti, come le estinzioni in massa e l’emergere di nuove specie per via dell’equilibrio punteggiato. Il successo a lungo termine nei vari gruppi di organismi dipende più dal tasso di specializzazione che dalle morfologie costruite dalla selezione naturale”.
“È chiaro – Gould aggiunge – che in natura l’adattamento gioca un ruolo importante. La mano e il piede, per esempio, sono strutture così ben funzionanti solo in virtù della selezione naturale. “Tuttavia, egli prosegue, “alcune strutture possono emergere come semplici effetti secondari di altre che hanno scopo adattativo. Prendiamo il cervello umano: pur assolvendo a funzioni ben determinate, esso è anche un computer straordinariamente complesso che non è necessariamente il frutto della selezione naturale. Di sicuro la selezione non gli ha insegnato a leggere e scrivere, perché queste funzioni sono state acquisite molto recentemente”. Infine Gould sostiene una tesi radicale sul ruolo del caso nell’evoluzione della vita sulla Terra. Cosa succederebbe, si domanda, se il nastro della vita fosse fatto girare un’altra volta? Egli risponde che l’evoluzione è fondamentalmente il risultato della contingenza, e pertanto che il suo esito sarebbe completamente diverso se essa ricominciasse da capo. “Se ci poniamo la domanda fondamentale di tutte le epoche – perché esistono gli esseri umani? – una parte essenziale della risposta … deve essere: perché Pikaia [il nome dato a un esemplare insignificante, che mostra una traccia di rudimentale corda spinale, trovato nel giacimento fossile della Burgess shale formatasi 570 milioni di anni fa] sopravvisse alla [successiva] grande decimazione della popolazione di Burgess. Questa risposta non cita alcuna legge della natura, non contiene alcuna affermazione sui cammini evolutivi prevedibili, né alcun calcolo di probabilità basato su regole generali dell’anatomia o dell’ecologia. La sopravvivenza di Pikaia è stato soltanto un evento contingente della storia”.
Negli ultimi anni sta tuttavia affermandosi una scuola di pensiero formata da coloro che, pur ammettendo che il caso possa giocare un ruolo importante nel processo evolutivo, ritengono ragionevole affermare che alcune caratteristiche della vita si ripresenterebbero comunque invariate, in quanto risultato di regolarità emergenti dalle proprietà di autorganizzazione dei sistemi formati da un gran numero di semplici elementi reciprocamente interagenti. Questa linea di ricerca si riallaccia dunque alla tradizione della scienza “newtoniana”, tornando a rivendicare anche per la biologia il ruolo, già svolto in passato dalla fisica, di scienza nomomologica, che aspira a fornire spiegazioni universali e astoriche dei fenomeni biologici fondate su leggi matematiche strutturali o morfogenetiche (sulla scìa della tradizione della biologia della forma e della struttura che ha avuto nel ‘900 esponenti come Ludwig von Bertalanffy, D’Arcy Thompson e Conrad Waddington e i contemporanei René Thom e Brian Goodwin). Per questa scuola di pensiero, che ha come esponente di spicco Stuart Kaufmann e come centro di riferimento il Santa Fé Institute in California, l’unico modo per tentare di rispondere a questa domanda, visto che non è possibile ricominciare da capo l’evoluzione della vita sulla terra, è costruire un modello di universo “ragionevole” da sottoporre a una molteplicità di processi evolutivi in condizioni differenti, in modo da identificare quali siano le caratteristiche che compaiono comunque indipendentemente dai fattori contingenti operanti in ognuno di questi processi.
Per mezzo di questa procedura Kaufman arriva a concludere che “gran parte dell’ordine negli organismi non sia il risultato della selezione, ma della capacità di ordine dei sistemi autoorganizzati. L’ordine degli organismi è naturale, non è il trionfo inaspettato della selezione naturale contro la marea entropica montante.”
In sostanza, mentre per Gould nell’evoluzione prevale la contingenza, e dunque le forme della vita sarebbero completamente diverse se ricominciasse tutto da capo, per Kaufmann prevale l’ordine, e tutto si ripeterebbe all’incirca nello stesso modo.

  1. IL PROBLEMA CORPO/MENTE

Il tema senza dubbio più attuale e controverso, dove maggiormente i presupposti metateorici si intrecciano con il linguaggio formale adottato dando origine a una grande varietà di teorie in competizione è quello del rapporto corpo/mente, e della natura della coscienza. È interessante a questo proposito il tentativo di esplorare questo terreno esposto in un libro recente (La nature et les règles, Odile Jacob, Parigi, 1998), nel quale il neurobiologo Jean Pierre Changeux e il filosofo Paul Ricoeur affrontano il discorso alla luce rispettivamente dei risultati più recenti delle neuroscienze e delle posizioni filosofiche della fenomenologia di derivazione husserliana. È un tentativo di costruire un “terzo discorso” che rispetti al tempo stesso i vincoli imposti alla vita dell’uomo dalla materialità della sua natura e i suoi bisogni di dare un significato al suo vissuto individuale. Non è possibile, ovviamente, ripercorrere le vie che ognuno dei due ha seguito per cercare di incontrarsi. Qui mi limito a riassumere brevemente le premesse di questo dibattito.
“In che misura – si chiede all’inizio il neurobiologo – il progresso spettacolare delle conoscenze sul cervello e la sua evoluzione, l’emergere di un dominio completamente nuovo, quello delle scienze cognitive – fisiologia, biologia molecolare, psicologia e scienze umane – ci portano a riesaminare la vecchia questione” del rapporto corpo-mente, cervello-pensiero? È possibile accedere oggi a una visione più unitaria, più sintetica tra dominio riservato alla filosofia e quello delle conoscenze sul cervello e delle sue funzioni? Può un neurobiologo legittimamente interessarsi ai fondamenti della morale, e reciprocamente può un filosofo trovare materia di riflessione e di arricchimento nel campo delle neuroscienze contemporanee? Ci si può interrogare sulla relazione tra la natura e la regola?”.
Il filosofo gli risponde: “Prima ancora di affrontare queste domande, occorre sgombrare il campo dal problema tradizionale dell’ontologia fondamentale, del problema cioè se l’uomo sia fatto di una o due sostanze. La mia tesi iniziale è che i due discorsi tenuti da una parte sul corpo e sul cervello e dall’altra su quello che chiamerò il mentale, della conoscenza, dell’azione e dei sentimenti, si riferiscono a due prospettive eterogenee, cioè irriducibili l’una all’altra, cioè non derivabili l’una dall’altra. Si tratta però di un dualismo semantico, di un dualismo di prospettive. Bisogna evitare di scivolare da un dualismo di discorso a un dualismo di sostanze. L’interdizione di questa estrapolazione dal semantico all’ ontologico implica che il termine mentale che io impiego non è uguale a non-materiale, non-corporeo. Il mentale vissuto implica il corporeo, ma in un senso irriducibile al corpo oggettivo conosciuto dalle scienze della natura. Al corpo-oggetto oppongo il corpo-vissuto. Il corpo come parte del mondo, e il corpo da dove apprendo il mondo per orientarmici e viverci”.
Le posizioni di partenza sono dunque chiare. Il neurobiologo è un riduzionista che identifica l’esperienza soggettiva dei pensieri e delle emozioni con le loro tracce nelle strutture cerebrali e il filosofo è invece convinto dell’irriducibilità delle categorie del corpo-vissuto alle categorie del corpo-oggetto. Non è questa la sede per illustrare le molte questioni trattate nel corso del dibattito. Mi limito a segnalare che, pur concordando sull’obiettivo, che è quello di cercare le origini delle condotte morali nel processo di evoluzione delle specie, le reciproche posizioni restano alla fine, ancora abbastanza lontane. A mio giudizio la responsabilità maggiore ricade principalmente sul neurobiologo, che crede ancora alla unicità della rappresentazione scientifica della realtà e dunque, in ultima analisi, alla sua oggettività assoluta. Al filosofo tuttavia, che pure insiste giustamente sulla relativa autonomia dei linguaggi delle diverse discipline e sulla necessità di riconoscere l’esistenza di una sfera dell’indicibile nella psiche umana (anche se in questo dialogo stranamente non si parla mai dell’inconscio), manca la capacità di chiarire il carattere di meta linguaggio del linguaggio filosofico rispetto ai linguaggi delle discipline scientifiche. Solo a questa condizione, infatti, si apre la possibilità di andare oltre il “dialogo fra sordi” rappresentato dal confronto sterile fra le proposizioni fattuali e relazionali della scienza e i concetti che la filosofia utilizza per descrivere la soggettività della mente umana.
Conviene a questo punto passare in rapidissima rassegna le tesi di alcune delle teorie che si confrontano. Francisco Varela, un notissimo neurofisiologo recentemente scomparso che ha dedicato a questo problema gli ultimi anni della sua vita riassume il nodo della questione dicendo che “ogni scienza della cognizione e della mente deve, prima o poi, fare i conti con la condizione ineludibile secondo la quale non abbiamo alcuna idea di come potrebbe essere il mentale o il cognitivo al di fuori della stessa esperienza che ne abbiamo”. Egli presenta in uno schema grafico quattro gruppi di posizioni diverse, collocando in alto quelli funzionalisti, da un lato quelli riduzionisti, in basso quelli “rassegnati al mistero” e dall’altro lato quelli (tra i quali si colloca egli stesso) che si richiamano alla fenomenologia.
L’esponente più tipico del riduzionismo fisico è il filosofo Paul Churchland (e vicino a lui troviamo lo scopritore della doppia elica Francis Crick), secondo il quale l’attività funzionale del cervello (attività cognitiva) è una attività di calcolo distribuito parallelo (CDP). Questa attività trasforma gli input sensoriali, passando attraverso una vasta rete di connessioni sinaptiche, in output di varia natura (motoria, razionale, emotiva ecc.) o in informazioni immagazzinate in memorie di vario tipo che vengono utilizzate a loro volta nell’attività di calcolo. Sulla base di questo modello Churchland affronta l’enigma della coscienza umana. Concretamente egli propone di procedere elencando alcune caratteristiche che egli considera salienti della coscienza umana, e facendo vedere che tutte queste caratteristiche sono ricostruibili in termini neurocomputazionali, con un modello di rete neurale ricorrente di calcolo distribuito parallelo. Esse sono riproducibili mediante una semplice rete specifica, formata da tre strati di neuroni con connessioni feedfonvard e retroazioni feedbackward. “In termini neurocomputazionali – conclude Churchland – riusciamo a capire come ciascuna di queste caratteristiche possa essere realizzata, ed è concepibile che esse vengano effettivamente realizzate in una struttura fisica reale, il nostro cervello”.
Un’altra forma di riduzionismo, questa volta di tipo informatico, è quello dei fautori del programma “forte” di Intelligenza Artificiale, che anch’essi assumono come modello il computer, ma, invece di concentrarsi sulle proprietà del cervello come hardware, equiparano la mente al suo software. Secondo il filosofo Daniel Dennett, per esempio, la coscienza umana nasce dall’operazione di un qualche programma informatico, da lui definito “macchina virtuale” che “gira” sul cervello. “[Se] tutti i fenomeni della coscienza umana trovano spiegazione ‘solo’ in quanto attività di una macchina virtuale realizzata nelle connessioni astronomicamente regolabili del cervello umano, allora, in teoria, un robot programmato ad hoc, il cervello di un computer a base di silicio, sarebbe conscio, avrebbe un sé”.
Agli antipodi di entrambi troviamo da un lato Varela, e dall’altro il filosofo John Searle. Per entrambi questi autori, i riduzionisti eliminano il problema negandolo, anche se le soluzioni che essi propongono sono diverse. Per il primo, infatti, il riduzionismo “cerca di risolvere il problema eliminando il polo dell’esperienza a favore di una qualche forma di spiegazione neurobiologica a cui sarà affidato il compito di generarla. Ovvero, per dirla con la tipica rudezza di Crick: ‘Non sei che un ammasso di neuroni”‘. Egli sostiene al contrario, che “l’esperienza in prima persona è un fatto fondamentale da inserire nel futuro della disciplina”, e propone un “particolare procedimento di esplorazione dell’esperienza” secondo un approccio fenomenologico nel senso di Husserl. “Non possiamo – egli argomenta – in alcun modo immaginarci la soggettività come parte della nostra visione del mondo, perché proprio la soggettività in questione è la capacità stessa di immaginare”.
Per John Searle invece non c’è una irriducibilità sostanziale tra descrizione oggettiva in terza persona ed esperienza soggettiva in prima persona: il cervello è una macchina, ma una macchina cosciente. Il “mistero” della coscienza “verrà progressivamente rimosso quando risolveremo il problema biologico della coscienza. Il mistero non costituisce un ostacolo metafisico ad una comprensione del funzionamento del cervello; il senso del mistero deriva piuttosto dal fatto che attualmente non soltanto non sappiamo come esso funziona, ma non abbiamo nemmeno un’idea chiara di come il cervello potrebbe funzionare per causare la coscienza. “L’errore dei riduzionisti è dunque quello di tentare di duplicare i “processi mentali interiori, qualitativi e soggettivi [ … ] duplicando gli effetti osservabili del comportamento esteriore di questi processi. Sarebbe come tentare di duplicare i meccanismi interni del vostro orologio costruendo una clessidra”.
In mezzo ai due estremi troviamo due fra i maggiori protagonisti di questo dibattito, Antonio Damasio e Gerald Edelman, entrambi scienziati all’avanguardia nella ricerca di punta. Per entrambi l’idea che la ricchezza dell’esperienza umana sia indipendente dal substrato biologico è una sciocchezza. Secondo Gerald Edelman la ricchezza dell’esperienza umana del ricordo “non può essere adeguatamente rappresentata dal linguaggio impoverito della scienza informatica: ‘memorizzazione, recupero, input, output”‘.
Questo, tuttavia, non significa che ci sia qualcosa di misterioso. Al termine del libro scritto in collaborazione con Giulio Tononi, Come la materia diventa coscienza, leggiamo: “Il pensiero cosciente è un insieme di relazioni dotate di senso che vanno oltre l’energia e la materia (anche se le implicano). Che cos’è allora la mente nella quale questo pensiero nasce? La risposta è che essa è al tempo stesso materiale e dotata di senso. [ … ] Sono le strutture materiali straordinariamente complesse del sistema nervoso e del corpo che danno origine ai processi dinamici mentali e alla produzione di senso. Non è necessario postulare niente altro – né altri mondi, né altre menti o forze ancora inimmaginabili come la gravità quantistica”. Le conclusioni di Damasio (che fra l’altro ha scritto un fortunato libro intitolato L’errore di Cartesio, esempio quanto mai pertinente di intervento della filosofia in una controversia scientifica) sono simili. Per questo autore “il potere della coscienza deriva dalla connessione efficace che stabilisce fra il meccanismo biologico di regolazione della vita individuale e il meccanismo biologico del pensiero. Questa connessione è la base per la creazione di un impegno individuale che permea tutti gli aspetti dei processi di pensiero, focalizza tutte le attività di problem solving, e ispira le conseguenti soluzioni.”
È tuttavia interessante che egli sottolinei, avvicinandosi in questo a Varela, come “non sia verosimile pensare che nuove conoscenze sulla biologia che sta dietro alle immagini mentali possano produrre, nella mente di chi possiede queste conoscenze, l’equivalente dell’ esperienza di una immagine mentale nella mente dell’organismo che la crea”. In altri termini: “Quando tu guardi l’attività del mio cervello, tu non vedi quello che io vedo. Tu vedi una parte dell’attività del mio cervello mentre io vedo quello che vedo”. Questo non vuol dire, però, che la conoscenza neurofisiologica non è in grado di spiegare l’esperienza mentale. Vuol dire semplicemente che spiegare in termini scientifici come fare qualcosa di mentale è cosa completamente diversa dal fare direttamente quel qualcosa di mentale.

  1. SCIENZA E VALORI

Il ruolo del discorso filosofico nel dibattito fra proposte alternative di rappresentazione della realtà non si limita al piano epistemologico, ma assume una nuova dimensione quando si passa dalle discipline della materia inerte a quelle della materia vivente e pensante. È la dimensione dell’etica. La tradizionale separazione fra il compito di una scienza che persegue in completa autonomia l’obiettivo di acquisire conoscenza oggettiva e disinteressata, basata su “fatti” certi, e quello di utilizzarne i risultati per soddisfare i bisogni dei membri di una comunità in base a priorità e vincoli economici, sociali e morali in accordo con le norme che ne regolano la convivenza, non regge più. Il dogma della avalutatività delle affermazioni della scienza è crollato. L’ideale della “conoscenza fine a sé stessa” si rovescia nella pratica della “ragione strumentale”. Il motivo è semplice: i “fatti” non sono neutri, perché, per definizione, i “fatti” che condizionano nel bene e nel male la vita delle persone – e sono sempre di più i “fatti” di questa natura che la scienza produce direttamente – diventano carichi di “valori”. E lo diventano ancor di più quando condizionano in modo diverso la vita di persone diverse. Questo implica che, alle scelte dei problemi da affrontare, delle nuove direzioni da esplorare e soprattutto delle azioni da intraprendere, dovrebbero concorrere in modo esplicito e trasparente oltre agli scienziati con i loro dati, ai politici con le loro ideologie, alle imprese con i loro interessi, anche i soggetti sociali che di queste scelte dovranno subire le conseguenze, con la loro concretezza materiale, che esprime bisogni, condizioni di vita e aspettative per il futuro.
Dice il filosofo Hans Jonas nel suo libro dedicato al tema Tecnica, medicina ed etica: “Con quello che facciamo qui, ora, e per lo più con lo sguardo rivolto a noi stessi, influenziamo in modo massiccio la vita di milioni di uomini di altri luoghi e ancora a venire, che nella questione non hanno avuto alcuna voce in capitolo […]. Il punto saliente è costituito dal fatto che l’irrompere di dimensioni lontane, future, globali nelle nostre decisioni quotidiane, pratico-terrene, costituisce un novum etico, di cui la tecnica ci ha fatto carico; e la categoria etica che viene chiamata principalmente in causa da questo nuovo dato di fatto si chiama: responsabilità”. E ancora: “Una volta era facile distinguere fra tecnica benefica e tecnica dannosa, considerando semplicemente l’impiego dei suoi strumenti. I vomeri, si diceva, sono buoni, le spade, cattive. Ma qui salta all’occhio il tormentoso dilemma della tecnica moderna: a lungo termine i suoi ‘vomeri’ possono essere dannosi quanto le sue ‘spade”‘. E prosegue: “In questo caso sono loro, i benefici ‘vomeri’ e i loro simili, il vero problema”. È un problema che diventa ogni giorno più urgente affrontare. Già più vent’anni fa Jeremy Rifkin – un autore molto noto e molto discusso per le sue previsioni sui rischi e sulle promesse delle nuove tecnologie, considerate per lo più come profezie allarmistiche dagli esperti, dai leaders politici e dai mass media in genere, ma che a me, al contrario, sembrarono all’epoca molto realistiche – prospettava in un libro, intitolato Who should Play God? la possibilità di realizzare, entro la fine del secolo, specie transgeniche, chimere animali, cloni, bambini in provetta, e di avviare la fabbricazione di organi umani e la chirurgia genetica. Nel libro, inoltre si affermava che lo screening per le malattie genetiche sarebbe diventato una pratica diffusa, sollevando problemi molto seri di discriminazione genetica da parte di datori di lavoro, compagnie di assicurazione e scuole. Si esprimevano inoltre preoccupazioni per la crescente commercializzazione del pool genetico della Terra da parte delle aziende farmaceutiche, chimiche e biotecnologiche, e si sollevavano domande inquietanti sull’impatto potenzialmente devastante e a lungo termine che il rilascio nell’ambiente di organismi geneticamente modificati avrebbe potuto avere.
Dopo vent’anni le previsioni di Rifkin si sono avverate tutte e le sue preoccupazioni sono sempre più largamente condivise. Anzi, nuove tecnologie sempre più potenti sono state realizzate. La letteratura in proposito è ormai sterminata. Cito soltanto un documento, scritto recentemente da Bill Joy, un informatico assai noto, autore del software Java, intitolato Il futuro non ha necessariamente bisogno di noi che ha per sottotitolo Le nostre più potenti tecnologie del 21° secolo – la robotica, l’ingegneria genetica e la nanotecnologia stanno minacciando di fare degli umani una specie a rischio.
Il punto essenziale è che queste tecnologie rappresentano una minaccia diversa da quella insita nelle tecnologie precedenti: esse infatti hanno in comune un fattore di amplificazione finora sconosciuto, perché possono autoreplicarsi. Una bomba scoppia una sola volta, ma un organismo artificiale può generarne molti, e rapidamente sfuggire a ogni controllo. Non è fantascienza. È di questi giorni la notizia che una supererba infestante, nata dall’incrocio tra un’erbaccia comune e sementi di colza geneticamente modificata per resistere a tutti gli erbicidi noti, seminata all’aperto per errore, sta diffondendosi in Inghilterra producendo miliardi di danni.
La conclusione delle riflessioni di Joy è drastica: “Stiamo proiettandoci nel nuovo secolo senza un piano, né un controllo né freni. Siamo già andati troppo avanti, giù per la china per poter fermare la corsa? Forse no, ma non ci stiamo nemmeno provando, e l’ultima occasione per istituire un controllo – il punto di non ritorno – sta avvicinandosi rapidamente”.
Non nascondiamoci l’enorme difficoltà del compito che ci sta di fronte. Se già è difficile il confronto fra epistemologie diverse, il contrasto tra etiche basate su valori differenti rischia di diventare un conflitto devastante. Detto per inciso, che altro è, se non questo, lo scenario sconvolgente che si apre dopo l’11 Settembre? Ma non è questa la sede per affrontare questo discorso. Mi limito ad accennare al tenue spiraglio di luce che il dialogo, già citato, fra Changeux e Ricoeur getta su questo buio pauroso. Nella fase finale del dibattito essi affrontano infatti la questione se esistano fondamenti naturali dell’etica. Per Ricoeur il termine fondamenti naturali è ambiguo: da un lato ha il significato di elemento di base, di preliminare, e dall’altro quello di legittimazione, di giustificazione. La storia culturale dell’umanità ha portato alla coesistenza di molti sistemi di legittimazione. Il problema è di accedere allo stadio in cui più tradizioni si riconoscano come cofondatrici al fine della sopravvivenza comune. Per Changeux il termine giustificazione è pericoloso perché implica un giudizio di “giustizia” assoluta che può aprire le porte ai fondamentalismi e impedire il dialogo. Egli insiste sul fatto che epigenesi e apprendimento contribuiscono entrambi tanto alla diversità individuale che all’unità di ogni persona umana. Il termine “fondamento naturale” fa riferimento semplicemente alla sua natura materiale, a una “realtà unica e sufficiente”. Per questo un processo di intercomprensione benevolente e illuminata, in cui tutte le opinioni si esprimono, ma restano libere di evolversi è l’obiettivo al quale occorre mirare.
I temi sui quali questa fase finale si articola sono molti: ne accenno brevemente. Sul rapporto fra religione e violenza entrambi i dialoganti sono d’accordo che le religioni quasi sempre generano violenza. Tuttavia, la differenza fondamentale che li separa riemerge ancora una volta. Per Changeux solo il linguaggio scientifico può eliminare la violenza, mentre per Ricoeur la critica al settarismo delle religioni può soltanto farsi facendo ricorso alla sfera del “fondamentale religioso” dell’esperienza umana alla quale solo attraverso il linguaggio del “religioso” si può accedere. Di qui deriva anche una diversa concezione del cammino verso la tolleranza. Per lo scienziato, a partire dalla constatazione dei conflitti generati dalle differenze cuI tura li, è necessario sforzarsi di riflettere sui fondamenti di un etica universale e di trovare dove si situa concretamente quello che il filosofo designa come “fondamentale”. Per quest’ultimo invece, non può essere la scienza che detiene da sola la chiave del problema della violenza tra gli uomini. La tolleranza non consiste solo nel sopportare ciò che non si può impedire. “È dall’interno della mia relazione con il fondamentale che posso comprendere che ci sono altre convinzioni oltre alla mia”.
Infine, il problema dello scandalo del male. Qui, nonostante la diversità dei punti di vista l’obiettivo è, nella sostanza, comune. Per lo scienziato la ricerca della conoscenza oggettiva e il dibattito argomentato e critico che l’accompagna possono farci meglio comprendere la violenza e le sue origini, e arbitrare più efficacemente i conflitti in vista di una pacificazione. L’obbiettivo è la formazione di una etica laica, che non faccia intervenire alcuna metafisica superiore, ma, partendo da fatti oggettivi e da ingiunzioni pratiche “civilizzatrici”, valutabili in termini delle loro conseguenze, faccia appello all’immaginario mobilitando la sfera del simbolico per mettere in sinergia il desiderio, e magari anche il piacere con il normativo.
Il filosofo è d’accordo, a patto di considerare, alla base di questa etica universale laica, tre correttivi: il primo è il riconoscimento che c’è del religioso anche al di fuori della mia religione. Il secondo è che non c’è solo il religioso delle altre religioni, ma anche il non religioso dei miei contemporanei; il terzo è il pensare la politica come regola procedurale per vivere insieme in una società dove ci sono religiosi e non religiosi. Termina così questo dialogo serrato e non inutile.

  1. CONCLUSIONI

Cerchiamo di trarre le fila. Che non basti la scienza per capire il mondo, ma ci sia anche bisogno della filosofia, mi sembra dunque ovvio. Direi di più. Non basta nemmeno la filosofia. Direbbe Bateson che ci vogliono anche, per esempio, l’arte, la bellezza, il gioco, l’umorismo e persino il sacro. Ma il vero drammatico problema è che nella società contemporanea tutto è ormai ridotto a merce, e dunque che non si può capire il mondo senza andare al supermercato.
Nel XX secolo il meccanismo di accumulazione del capitale si è fondato sulla formazione del profitto nel processo di produzione delle merci materiali (molecole) e sull’espansione del loro consumo da parte dei lavoratori stessi (fordismo). Di qui ha avuto origine il conflitto drammatico tra capitale e lavoro che ha segnato il secolo “breve”. Nel XXI secolo il meccanismo di accumulazione del capitale sempre più si fonderà sulla formazione del profitto nella produzione di merci immateriali (bit) (“informazione”, “conoscenza” o, semplicemente “comunicazione”). Più propriamente la formazione del profitto si sgancia dal “tempo di lavoro”, perché le merci immateriali possono essere moltiplicate all’infinito senza costo, e dunque il profitto, una volta fatto il prototipo, può crescere illimitatamente al crescere del consumo.
La necessità da parte del capitale di invocare una continuità tra la new economy e la old economy deriva dal tentativo di mantenere il vecchio meccanismo di accumulazione (valido per la produzione di merci materiali), che sta entrando in crisi per limiti fisici (saturazione di mercati, disastri ecologici, ecc.), anche per un processo produttivo di beni che per natura potrebbero essere fruiti da tutti i membri della società. Per sopravvivere ed espandersi il capitale ha bisogno di rendere artificiosamente scarsi i beni che potrebbero essere liberamente fruiti da tutti.
La proprietà fondamentale dei beni immateriali è infatti che, a differenza di quelli materiali, la fruizione da parte di un “consumatore” non ne impedisce la fruizione da parte di altri. Le merci immateriali, in realtà non si “consumano”. In un disco non è la plastica che conta, è la canzone che c’è incisa. Ma la canzone non si consuma se io l’ascolto: la possono ascoltare altre milioni di persone. Il trucco del capitale sta nel far credere che la merce venduta è indissociabile dal suo supporto materiale, e giustifica in tal modo le leggi che vietano la riproduzione libera del contenuto. Ma se anche il supporto diventa immateriale, il trucco si scopre (mi dicono che è facile scaricare canzoni da Internet senza pagare una lira, anche se le case discografiche fanno il diavolo a quattro per impedirlo).
C’è di più. Anche le relazioni fra persone diventano merce. Nessuno può più comunicare con gli altri se non paga un pedaggio al capitale che ha ridotto a merce tutti i mezzi indispensabili per mettere in relazione reciproca i membri della società. Senza queste merci l’individuo non può sopravvivere come individuo sociale. Diventa rifiuto, spazzatura, scompare.
In questo quadro che si può fare? Mi limito a poche osservazioni su alcune questioni urgenti. La prima riguarda le incertezze. Gli “scienziati”, per definizione, si occupano solo di quei fatti dei quali possono acquisire certezza. Essi tendono dunque a selezionare i temi che possono dare risultati certi, finalizzati al raggiungimento di un obiettivo ben determinato, a breve termine. Si accontentano, per esempio, di dire: “non ci sono evidenze certe che la tal cosa sia dannosa”. Oppure cercano rimedi per disastri già avvenuti (AIDS, mucca pazza).
I “decisori” a loro volta utilizzano queste certezze come base di partenza per realizzare gli obiettivi da perseguire sulla base dei loro “valori”. Anch’essi vogliono risultati, sul terreno sociale, a breve termine. Dicono: “visto che la tal cosa non è dannosa possiamo utilizzarla per ciò che riteniamo essere un obiettivo prioritario (a seconda della situazione sviluppo economico, salute, sicurezza o quant’altro possa far vincere le elezioni)”.
Ma chi si occupa delle incertezze? Chi si occupa dei costi che forse noi stessi, ma certamente qualcun altro, già oggi o in un futuro più o meno prossimo, dovrà pagare per i benefici che le certezze delle tecnologie di punta possono riversare nell’immediato su di noi? Perché di questi costi nessuno parla? Perché nessuno si domanda, per esempio, se la creazione, la produzione di massa e il rilascio su vasta scala nell’ ambiente naturale di migliaia di forme di vita manipolate geneticamente non causeranno un danno irreversibile alla biosfera, facendo dell’inquinamento genetico una minaccia per il pianeta ancora più grave dell’inquinamento nucleare e chimico? Oppure si domanda che conseguenze potrebbe avere per l’economia globale e per la società ridurre il pool genetico del mondo allo stato di proprietà intellettuale brevettata sotto il controllo esclusivo di un ristretto numero di multinazionali? O ancora si chiede quale sarà la condizione umana in un mondo dove i bambini vengono progettati geneticamente – certo, per il loro bene – e dove le persone vengono identificate, classificate e discriminate in base alloro genotipo?
Il primo obiettivo è dunque: orientare la ricerca pubblica verso la previsione di scenari futuri e sui mezzi di prevenzione dai pericoli dei “vomeri”.
La seconda questione riguarda i conflitti di interesse. Come facciamo ad essere sicuri che le scelte del capitale siano le migliori possibili dal punto di vista dei soggetti sociali inevitabilmente e pesantemente coinvolti, che non sono una generica “umanità”, ma i popoli, le classi, le categorie economiche, le comunità culturali, gli individui, che si trovano oggi e si troveranno domani a doverne subirne le conseguenze, nel bene e nel male?
Gli interessi dei diversi soggetti sociali sono in genere diversi, ma molti sono in conflitto con gli interessi delle multinazionali. Produttori di prodotti locali messi fuori mercato dalla produzione di massa. Malati che non si possono pagare le medicine delle grandi imprese farmaceutiche (Mandela vs. Big Pharma). Masse escluse dall’istruzione. Popolazioni derubate delle ricchezze contenute nel genoma delle specie vegetali e animali che vivono nelle nicchie ecologiche dei loro paesi. Comunità cacciate dalle terre di origine dalle catastrofi “naturali” prodotte dalle modificazioni climatiche e dalle catastrofi economiche e belliche. Nuovi lavoratori atipici privi di qualunque protezione sociale. E così via.
Il secondo obiettivo è dunque: favorire la diversificazione, difendere i più deboli dall’esclusione dall’accesso ai beni resi artificiosamente scarsi dal capitale. La terza questione riguarda come affrontare il tema della libertà della ricerca. Molti scienziati temono che un controllo sociale della loro attività invocato per prevenire disastri o evitare pericoli (principio di precauzione) possa imporre loro divieti inaccettabili (“non si può mettere il lucchetto al cervello” è il loro slogan) o addirittura forzarli a seguire cammini impercorribili. Invocano il dogma tradizionale della avalutatività delle affermazioni della scienza per rifiutare ogni ingerenza esterna. Tullio Regge, per esempio, polemizzando con me sulla rivista Le Scienze, dopo aver ribadito che “il mondo scientifico deve attenersi ai fatti ed esporli, ma sono i politici a decidere”, attribuisce agli ambientalisti la pretesa di avere la “certezza assoluta” che un determinato agente non nuoccia alla salute o comunque non abbia effetti dannosi, e, argomenta che “non esiste attività umana a rischio nullo” per concludere che “il principio […] diventa così strumento per bloccare innovazioni ideologicamente sgradite”. Ma, come accade per la Libertà senza aggettivi, il limite alla libertà di ognuno è la libertà altrui. Perciò la libertà di fare ricerca nell’interesse di un soggetto particolare non può impedire la formulazione di vincoli per la prevenzione dei danni possibili e il controllo sociale a vari livelli (locale, regionale, nazionale e internazionale) sui costi e benefici dalla utilizzazione dei suoi risultati. Il terzo obiettivo deve essere dunque l’istituzione di sedi competenti (magistratura tecnoscientifica) per giudicare conflitti derivanti da uso improprio della ricerca. Strettamente connessa con la precedente è dunque la domanda: Chi paga la ricerca? La ricerca privata deve essere libera, ma deve essere pagata da chi ha un interesse diretto a farla. La ricerca pubblica deve avere due obiettivi. Il primo è quello di sviluppare ricerca senza obiettivi immediati di utilizzazione o con obiettivi di utilizzazione senza scopo di lucro. Il secondo, l’abbiamo già detto, è quello di controllare quella privata nell’interesse dei cittadini e delle generazioni future. Il quarto obiettivo deve essere dunque: rendere praticabile l’adozione del principio di precauzione. Infine una domanda di scottante attualità: Si può brevettare la vita? Poiché il brevetto è stato istituito per proteggere una invenzione e la scoperta non è per principio brevettabile, occorre concludere che gli organismi viventi, anche se artificialmente modificati non possono essere brevettati. Ogni ogm è una modifica di un organismo naturale, e la natura non si brevetta. Del resto gli elementi transuranici artificiali, in quanto ottenuti da modificazione di elementi naturali non sono stati brevettati. Tagliare il cordone ombelicale che lega la ricerca alla produzione di conoscenza in forma di merce è il solo modo per assicurare la libertà di ricerca. Le imprese potranno brevettare i procedimenti specifici per ottenere un determinato prodotto vivente, ma non il prodotto stesso. Solo in questo modo la ricerca riacquisterà un ampio ventaglio di motivazioni, giustificazioni, stimoli, al di fuori dell’unico imperativo attuale, che, come dice Giorgio Bocca si riduce alla regola: “attenersi a ciò che rende e trascurare ciò che non dà guadagni”. Il quinto obiettivo dunque è: la vita non si brevetta.

Marcello Cini

Questo saggio di Marcello Cini è già stato pubblicato su Koinè, Periodico culturale, Anno X, nn. 1-2, Gennaio-Giugno 2002,  pp. 53-76; direttore responsabile Carmine Fiorillo; il volume collettaneo reca il titolo  Scienza cultura, filosofia.

Koiné

Scienza, Cultura, Filosofia

indicepresentazioneautoresintesi

 

Problemi tra scienza e cultura
Sintetizzare e interpretare/Darsi dei limiti/Sulla diffidenza per la filosofia/Una confutazione dello scientismo/I problemi della divulgazione/Specializzazione parcellizzante/Una catastrofe culturale?/Uno sguardo sulla cultura/Linee di resistenza/E se fosse colpa del capitalismo?/Conclusioni. Una modesta utopia.

Lucio Russo
Cosa sta accadendo alla scienza?
Premessa/Cos’è la scienza? La scienza esatta/Scienza esatta e tecnologia /Scienze biologiche (e altre scienze empiriche)/Il problema della verità/Divulgazione scientifica e imposture intellettuali/La crisi attuale/Il nuovo ruolo della biologia: le biotecnologie/Complessità /Quale futuro?

Marcello Cini
C’è ancora bisogno della filosofia per capire il mondo?
Introduzione/La svolta nella scienza dal XX al XXI secolo/L’epistemologia delle scienze della materia inerte/Una epistemologia delle scienze del mondo vivente/Il problema corpo/mente/Scienza e valori/Conclusioni.

Alberto Artosi
Lettera a uno scienziato sulla ragione, la razionalità e il razionalismo
Caro Scienziato/Bisogna guardarsi da un’immagine ingenuamente razionalistica della scienza/Anche gli scienziati più aperti sono dei razionalisti (e degli elitisti) ingenui/Bisogna sottrarsi al culto delle argomentazioni “razionali” /Il caso dell’archeoastronomia/ Il razionalismo ingenuo è intollerante/Sulla “cultura di massa”/Commiato.

Massimo Bontempelli
Il pregiudizio antimetafisico della scienza contemporanea
Popper: la teoria come congettura/Hegel e la filosofia della scienza/La teoria della verità come idealità matematica/Gödel: la logica matematica non può giustificare il proprio principio di coerenza/Matematica senza fondamento/Barrow: la base teorica universale della matematica/Hegel: la quantità come “qualità tolta”/Il gran libro della Natura è scritto in caratteri matematici?/Il risultato culturale della rivoluzione scientifica/La semplificazione galileiana del mondo reale/La quantità matematizzabile come dominabilità del mondo/I limiti del meccanicismo/La fisica delle particelle come pura astrazione teorica/Le teorie del tutto/Il determinismo dell’elettrodinamica quantistica/Feynman: la Natura è assurda/La povertà conoscitiva del determinismo matematico della fisica/Il crollo del determinismo fisico di fronte alle forme biologiche/La concezione biologistica della verità/La povertà della moderna coscienza antimetafisica /Il pregiudizio antimetafisico della mentalità odierna/Realtà e verità nella filosofia ontologic/La sapienza di Platone.

Fabio Bentivoglio
Scienza, Natura e destino dell’uomo. Riflettiamo con Aristotele
Che cosa è, oggi, la sapienza?/La Natura/Le onde e la scogliera/Un’etica per la civiltà tecnologica/Dogmi di ieri e dogmi di oggi/L’elogio del senso comune.

Jean Bricmont
Contro la filosofia della meccanica quantistica
Riassunto/Introduzione/Realismo e positivismo/Il problema della meccanica quantistica/La non località/Soluzioni possibili al problema della misura/Conclusioni/Appendice I: Il problema della misura/Appendice II: Il teorema di Bell/Appendice III: La teoria di Bohm/Appendice IV: Bibliografia/Ringraziamenti/Riferimenti.

Fabio Acerbi
Concetto ed uso dei modelli nella scienza greca antica
Il concetto di modello/La controversia storiografica: strumentalismo versus realismo/Cenni al dibattito epistemologico in età ellenistica/L’approccio per modelli nella scienza antica: alcuni esempi: a. Astronomia; b. Meccanica; c. Ottica; e. Teoria musicale; f. Medicina/Conclusioni.

Jules-Henri Poincaré
La matematica e la logica