
Il problema dell’oggettività in meccanica quantistica fra realismo e soggettivismo
di Eros Barone
La natura delle cose ama celarsi.
Eraclito, frammento 123
Come sa chiunque si interessi a questo argomento, il problema dell’oggettività occupa un posto centrale nella meccanica quantistica (d’ora in avanti MQ) a causa della portata storica e attuale che caratterizza tale teoria sia dal punto di vista filosofico che da quello scientifico. La relazione da cui occorre prendere le mosse nella disamina di questa tematica è quindi quella che intercede fra il soggetto e l’oggetto, e la domanda, per così dire protologica, che va formulata è la seguente: che cos’è l’oggetto?
1. L’oggetto in un mondo diviso
L’oggetto è ciò che si trova di fronte al soggetto: ha quindi un’esistenza e delle proprietà indipendenti dal soggetto. Questa definizione non gode di un consenso universale ed è ben noto il dibattito sul concetto di oggettività. Di certo, oggi il problema è più complesso di quanto non apparisse quando, nella prima età moderna (per tacere dell’antichità e del medioevo), gli oggetti microscopici erano identificati con le particelle compatte, dure e prive di struttura della fisica meccanicistica. Combattendo, sulle orme di Berkeley, 1 questa concezione materialista, Heisenberg arriverà alla conclusione che «gli atomi e le particelle elementari non sono reali» e che «essi formano un mondo di potenzialità o di possibilità piuttosto che un mondo di cose o di avvenimenti». Sennonché, non potendo trincerarsi in un mondo di pure potenzialità per spiegare i fenomeni analizzati dalla fisica classica, fu costretto ad ammettere, secondo una logica piuttosto incoerente, che almeno gli oggetti macroscopici avessero un’esistenza oggettiva.2
Considerare però il mondo macroscopico come reale e il microscopico come una semplice potenzialità, o addirittura come un’idealità matematica, significava cacciarsi in quel “nido di antinomie” da cui lo stesso Platone non era riuscito a districarsi quando aveva dovuto riconoscere, una volta separato il mondo delle idee da quello delle cose sensibili, che nessuno dei moduli introdotti per sanare quello iato (la metessi, la mimesi e la comunanza) andava esente da aporie.
Così, a partire dall’inizio del ventesimo secolo, riconoscendo che l’oggetto si è rivelato un concetto multiforme, l’analisi microfisica ha abbandonato la concezione meccanicista di oggetto fisico. Al dinamismo proprio degli oggetti è stata allora associata la relazione, anch’essa dinamica, tra oggetto e apparato di misura. La conseguenza è che, sottoposto a certi tipi di misurazione, l’oggetto si trasforma: elementi di realtà preesistenti scompaiono, mentre altri appaiono in séguito alla trasformazione di elementi caratterizzanti lo stato precedente alla misurazione.
Pertanto, l’interpretazione positivista delle relazioni tra potenziale e reale, che è subentrata a quella meccanicista, è arrivata a dominare la fisica nel corso del XX secolo, benché non sia l’unica interpretazione possibile, come dimostra il lungo dibattito scientifico, epistemologico e sperimentale scandito dai Congressi Solvay, 3 al quale hanno partecipato i più eminenti scienziati e filosofi della nostra epoca. La microfisica ha costituito infatti il punto di partenza di una nuova corrente soggettivistica, legata alla scuola di Copenhagen. 4 Sennonché, dal punto di vista del realismo materialistico, alla tesi soggettivistica enunciata da questa corrente si deve obiettare che l’indubbia specificità degli oggetti microfisici non implica la negazione dell’oggettività. Il mondo microfisico, in effetti, non è né il mondo delle relazioni matematiche (tesi del neopitagorismo) né il mondo delle forme di Heisenberg (tesi platonizzante), bensì un mondo oggettivo, ontologicamente autonomo, descritto da formalismi astratti, che riflettono le sue proprietà. 5
Che cos’è allora un oggetto fisico? Il problema non è nuovo, ma è sempre attuale. E allora, se gli oggetti esistono, come si può definire la loro identità? Possono l’oggettività e la permanenza essere compatibili con il cambiamento? Eraclito postula l’unità dell’essere e del non-essere, considerando il divenire come il modo di esistere dell’essere; i pitagorici, al contrario, e soprattutto gli Eleati, hanno postulato l’esistenza dell’essere immobile, identico a sé stesso, «ingenerato e imperituro». L’idea stessa di generazione e di distruzione è impensabile per Parmenide, che sostituisce il formale «è o non è» alla dialettica eraclitea che afferma «è e non è». 6 Del resto, nonostante i suoi meriti storici e teoretici, il lógos di Eraclito è ancora una realtà dialettica vaga, un discorso che non trae origine dal concreto né vi ritorna, mentre solo una dialettica concreta, il cui modello è senza dubbio aristotelico, consente di cogliere la natura dinamica degli oggetti fisici. Non a caso, dopo Eraclito e Aristotele, è soprattutto Hegel a considerare il divenire, in quanto autosviluppo dell’Idea, come il modo di esistenza del reale.
La scienza si definisce pertanto come lo studio del movimento nel senso più ampio del termine (= cambiamento). Per il pensiero metafisico – dalla scuola eleatica agli odierni epistemologi formalisti - l’esistenza si identifica invece con la permanenza. Essendo la permanenza considerata condizione necessaria per l’oggettività, questi epistemologi e fisici arrivano a negare l’oggettività delle particelle elementari, in quanto queste ultime in condizioni opportune si trasformano. Ciò che cambia non è reale! Tuttavia, la trasformazione è proprio il modo di esistere dell’essere, poiché il cambiamento nella fisica non è incompatibile con la conservazione, proprio come dimostrano le leggi di conservazione che si manifestano solo attraverso il cambiamento. 7
La trasformazione è la conseguenza delle interazioni tra gli oggetti fisici; questi interagiscono tra loro, si influenzano reciprocamente e mutano. Tuttavia, la trasformazione non significa la negazione di ciò che è. La negazione è concreta e possiede un contenuto determinato, che richiede uno studio specifico in linea con la specificità dell’oggetto. Questo studio deve basarsi su ciò che cambia e su ciò che si conserva, ma anche sui modi e sulle cause del cambiamento. D’altra parte, in natura non vi sono solo cambiamenti “spontanei”: l’intervento dello scienziato può modificare l’oggetto per mezzo degli apparati di ricerca. Come stabilire dunque l’oggettività dei dati e quindi della conoscenza?
2. “Contraria sunt complementaria”? 8
L’oggetto, come osserva Hegel, non è «in sé»; esso è, in generale, in relazione ad «un’altra cosa»: questo è vero in particolare per le entità microscopiche. Orbene, è legittimo parlare di esistenza e di proprietà «in sé» per gli enti spesso effimeri che sono le particelle elementari e, nella fattispecie, parlare di proprietà indipendentemente dagli apparati di misurazione? Bohr, analizzando la differenza tra oggetto classico e oggetto quantistico, avanzò l’ipotesi secondo la quale l’oggetto è inseparabile dall’apparato e dall’osservatore. 9 La non-separabilità, che contraddice il principio relativistico della trasmissione delle interazioni a velocità finita, costituì quindi la base per respingere l’oggettività delle particelle quantistiche. Secondo questa concezione è l’apparato a generare la grandezza misurata e, di conseguenza, la particella, che viene identificata dal pensiero positivista con l’insieme delle grandezze in atto. Parlare dunque di particella come «entità in sé» è, dal punto di vista di Bohr e della scuola di Copenhagen, sconfinare nella metafisica.
Dopodiché Heisenberg, seguendo Bridgman, ha introdotto in fisica il postulato operazionista, secondo cui una grandezza non osservata non esiste. 10 Dalla formulazione metodologica di questo principio discende la conseguenza per cui una proposizione che conferisce al microsistema una proprietà è vera, se e soltanto se è possibile una verifica sperimentale della proposizione. Questa affermazione sembra formalmente corretta, ma la tesi che esprime è stata in séguito eretta a principio epistemologico e persino ontologico, ragione per cui le grandezze che non sono osservate non esistono. Elevato a criterio metodologico, tale principio conduce così a talune conclusioni perlomeno paradossali: una particella quantistica non può avere una posizione e un impulso definiti (se ha una velocità definita, non è in nessun luogo!), in quanto le due grandezze non sono simultaneamente osservabili. Altri fisici si sono spinti ancora più lontano, negando l’esistenza oggettiva delle particelle elementari, che vengono così ridotte all’insieme delle loro relazioni 11 e, con un ribaltamento ontologico, all’insieme delle formule matematiche che esprimono tali relazioni: l’oggetto in tal modo è “prodotto”, come ritenevano Pitagora e Platone, a partire dal concetto.
Inoltre, applicando il criterio operazionista di Bridgman alla teoria delle “variabili nascoste”, gli oppositori argomentano che, siccome sono inosservabili, tali variabili non esistono. Questa però è un’argomentazione debole, giacché affermare che inosservabile significhi inesistente equivale a introdurre in fisica un postulato filosofico il cui unico risultato è quello di bloccare la ricerca. Gli stessi oppositori obiettano che, siccome il formalismo attuale della MQ funziona molto bene, non vi è ragione di modificarlo, se il nuovo formalismo connesso alla teoria delle “variabili nascoste” non prevede effetti nuovi. In questo caso, si tratta di un’argomentazione di natura pragmatica, che avrebbe un certo valore se la scienza potesse ridursi alle sue conseguenze pratiche o al suo aspetto formale. In realtà, vi è da osservare che una teoria fisica non è soltanto un apparato di calcolo, ma è contemporaneamente un modello concettuale, talché dietro le stesse previsioni vi possono essere modelli concettuali diametralmente opposti: ad esempio, due teorie fisiche differenti. Ma su questo tema, peraltro strettamente connesso al principio del realismo, il discorso sarà ripreso nei paragrafi finali del presente elaborato.
Un approccio alternativo al paradigma idealistico è invece il principio del realismo secondo cui l’oggetto esiste indipendentemente dal soggetto. 12 Esiste, cioè, una certa “sostanza” espressa in forma di grandezze fisiche (massa, carica, spin, ecc.), portatrice di proprietà oggettive. La “sostanza” si manifesta attraverso i fenomeni, che sono l’esteriorizzazione e il rivestimento di strutture e relazioni nascoste ed essenziali. Ogni oggetto si presenta quindi sotto una data forma, perché si tratta di un contenuto che esiste solo sotto quella forma. Hegel asseriva che il contenuto porta la sua forma in sé stesso e che solo grazie ad essa è un contenuto vivo e animato. 13 Sennonché da questo tutto unitario viene isolato uno solo dei due aspetti indissolubili per proclamare la forma unica “realtà” ontologicamente legittima. Oggi non si parla più di “sostanza”, almeno nel campo delle scienze. Si parla però di elementi di realtà (Einstein), di grandezze e di relazioni come parti costituenti di una realtà indipendente dal soggetto. Questa realtà è costituita da parti infinitesime, quasi nulle. Le particelle che sono il “quasi-nulla”, costituiscono il mondo microscopico e il mondo su scala cosmica, ma, qualunque sia la differenza di scala o qualitativa tra il “micro” e il “macro”, nulla può giustificare la dicotomia tra i due domini del reale, nulla può giustificare il soggettivismo che presume di essere fondato sulle particolarità del mondo microfisico.
3. La legge generale dello sviluppo ineguale
Ogni oggetto possiede una certa autonomia e appare spesso omogeneo, senza strutture e contraddizioni. Tuttavia l’identità è un’illusione, in quanto ogni oggetto è eterogeneo e contraddittorio. Strutture e contraddizioni si manifestano in condizioni opportune e caratterizzano anche le particelle cosiddette elementari, considerate un tempo come i costituenti “ultimi” della materia. Le particelle appaiono oggi delle entità complesse e manifestano alle alte energie un dinamismo multiforme, espressione della loro eterogeneità. Così, a questo livello di organizzazione del reale si pone nuovamente il grande problema filosofico delle relazioni tra la parte e il tutto. Da ciò consegue che ogni oggetto possiede un dinamismo interno che si oppone dialetticamente alle condizioni esterne. L’oggetto si configura come una totalità all’interno della quale autodeterminazione e determinazione si oppongono e si completano, talché l’una non può esistere senza il suo opposto.
Ma l’autonomia è relativa e la contraddizione tra le determinazioni interne e le determinazioni esterne scompare nell’azione reciproca; questa però non dà luogo né alla simmetria né all’equivalenza né all’equilibrio. Esiste sempre una asimmetria, uno squilibrio, una tendenza dominante. La differenziazione e il cambiamento si affermano attraverso i processi irreversibili che si realizzano in natura. In tal senso, cambiamento e permanenza sono categorie dialetticamente opposte: benché gli oggetti sembrino avere un’identità sfuggente (sono e nel contempo non sono), si può andare oltre la nozione di un generico cambiamento di tipo eracliteo, salvaguardandone il nucleo dialettico. L’oggetto cambia in certe condizioni concrete e in un senso ben determinato proprio per il gioco interno/esterno, e se si potesse immaginare una funzione che rappresentasse l’oggetto con un numero enorme di variabili, ci sarebbe in ogni istante un certo numero di derivate parziali diverse da zero.
D’altro canto, durante il cambiamento un certo numero di grandezze si conserva, così come si conserva la stessa forma dell’oggetto. Le leggi di conservazione esprimono sia la permanenza quantitativa durante il cambiamento qualitativo sia la permanenza di qualità o la loro scomparsa nella fusione dei contrari sia la loro ricomparsa in condizioni favorevoli. L’oggetto che cambia si autonomizza rispetto all’ambiente, così come alcune sue parti si autonomizzano rispetto ad altre. Ciò che si pone si oppone, di conseguenza, ad un’altra cosa: diviene una nuova totalità che possiede un’autonomia relativa e un nuovo nucleo di organizzazione e di differenziazione. Le sue strutture subiscono determinazioni esterne e la sua presenza modifica, in senso inverso, l’ambiente circostante.
È quindi evidente che le leggi di conservazione e quelle di cambiamento non sono in genere opposte, ma si condizionano a vicenda. Come nota Hegel, «la negazione, in quanto è negazione determinata, ha un contenuto». 14 Il cambiamento e la conservazione sono tra loro connessi; in senso inverso, anche la riproduzione di un oggetto è una riproduzione differenziata: la natura non fa mai due volte la stessa cosa. Nonostante l’affermazione contraria, non vi sono serie di fenomeni posti su una circonferenza, ma processi evolutivi che descrivono una spirale, ossia un movimento con un senso determinato dal tempo. In natura non esiste l’“eterno ritorno”, tanto esaltato dalle filosofie mistiche: in altri termini, non vi è ritorno al punto di partenza, poiché ogni ritorno è allo stesso tempo un passo in avanti (o indietro). Lo sviluppo ineguale non è solo una legge economica; è una legge generale che si verifica in natura con un’evidenza spesso spettacolare (nelle specie animali o vegetali, ad esempio). Ogni ripetizione è allo stesso tempo un progresso, sia pure lento o momentaneamente impercettibile, cioè una ripetizione differenziata. Da questo punto di vista, per valutare le differenze epistemologiche intervenute nel corso della storia del pensiero scientifico occorre considerare che nel passato le scienze erano descrittive, nel periodo della loro maturità hanno cercato di spiegare ciò che è, oggi si sforzano di descrivere ciò che si fa nel tempo. Pertanto, le leggi integrali che descrivono degli stati vengono sempre più sostituite da leggi differenziali che descrivono dei processi.
4. Interazione e determinazione
L’oggetto si trasforma dunque attraverso l’azione reciproca, anche se spesso la teoria di tale trasformazione è stata ridotta ad una concezione quantitativa del cambiamento ed il progresso è stato concepito come un’accumulazione continua. Secondo il punto di vista opposto, il cambiamento è invece segnato da interruzioni e rotture, e il nuovo risulta essere una pura negazione dell’antico. 15 La trasformazione è invece un ‘mixtum compositum’ di continuità e discontinuità: continuità in quanto ci sono forme e grandezze che si conservano ed il cambiamento avviene nel tempo; discontinuità perché ci sono forme e grandezze che scompaiono ed altre che si realizzano come negazioni di elementi reali precedenti. In tal modo, alla fine del processo il nuovo appare come un oggetto reale, prodotto di una trasformazione che non è istantanea ma che possiede uno spessore temporale.
Lo sviluppo delle scienze ha reso possibile la scoperta delle forme concrete delle interazioni fisiche, sicché la fisica attuale conosce finora quattro tipi di interazioni fondamentali. 16 Esse rappresentano dei fattori materiali e sono determinate dalle strutture dei corpi e dalle loro reciproche interazioni; gli oggetti interagiscono per mezzo dei campi fisici e si determinano a vicenda. Si conoscono quindi alcune cause dei fenomeni e si comprende meglio il contenuto fisico del principio di causalità. Il principio “esistono cause per i fenomeni” è infatti un principio genetico che stabilisce che certe cause determinano i fenomeni; si definisce determinismo la determinazione dell’effetto da parte delle cause e la forma di questa determinazione (meccanicistica, dinamica, statistica). Nell’ottica del realismo scientifico, le interazioni sono oggettive, così come la causalità e il determinismo: tali categorie sono, di conseguenza, ontologiche e non soltanto gnoseologiche, poiché riguardano l’oggetto e non solo i nostri schemi teorici relativi all’oggetto.
La causalità possiede dunque uno statuto di categoria ontologica. Dire che A produce B significa dire che esistono processi fisici attraverso i quali si realizza questa relazione genetica. In tal senso, si può giustificare l’esistenza non solo del determinismo meccanicistico e dinamico (elettromagnetico e gravitazionale), ma anche del determinismo statistico-quantistico: ciò significa che, a partire dalle ‘stesse’ condizioni, si generano numerosi effetti diversi, statisticamente distribuiti. Si può inoltre isolare – almeno in via teorica – un nesso causale e studiare quindi questo tipo di causalità “semplice”: la causalità lineare. Ma la realtà è complessa: i nessi causali s’intrecciano, si producono cambiamenti qualitativi, eventi necessari ed eventi aleatori, processi in cui tutte queste categorie operano attraverso un movimento globale: il divenire. E la causalità lineare è solo uno dei momenti del divenire.
La corrente positivistica ha definito la legge una relazione comoda, un’utile convenzione, una formula che stabilisce un certo ordine nei dati sensoriali, una relazione formale tra i dati ecc. Ma, come dice Popper, «ciò che cerchiamo nella scienza, sono delle teorie vere, delle affermazioni vere, delle descrizioni vere di certe proprietà strutturali del mondo in cui viviamo». 17 La legge si può allora definire come una relazione interna e necessaria tra due fenomeni; così concepita, essa possiede uno statuto non soltanto gnoseologico, ma anche ontologico. Non ci rivela soltanto «qualcosa» sull’esperienza (sensoriale o relativa agli apparati scientifici), ma esprime e formalizza delle proprietà, delle relazioni e delle trasformazioni. Nelle prime leggi della fisica la causa era legata in modo “semplice” all’effetto: quale la causa, tale l’effetto. Le leggi dell’elettromagnetismo e della relatività si accordano con questo tipo semplice di determinismo. D’altra parte, la fisica statistica classica in quanto tale non ha contestato la causalità e il determinismo: tener conto di parametri nascosti classici potrebbe – in linea di principio – consentire una descrizione “determinista” del movimento, in cui il caso classico non viene considerato né acausale né indeterminato, ma semmai riducibile al tipo di determinazione meccanicistica.
Vi è poi da rilevare la centralità del fattore dialettico rappresentato dall’interazione, cioè dalla connessione universale, che conduce a diversi tipi di determinazione: le leggi dinamiche esprimono situazioni relativamente semplici, casi in fondo idealizzati, mentre le leggi statistiche esprimono situazioni più complesse, cioè più vicine alla realtà. Di conseguenza, conviene considerare un tipo di legge più generale, che inglobi al limite, come caso particolare (probabilità = 1), la legge dinamica o meccanicistica. La scuola di Copenhagen, al contrario, afferma che le leggi probabilistiche della MQ non sono riducibili a leggi dinamiche, spesso ritenendole non solo indeterministiche ma acausali.
La scuola realista, i cui principali rappresentanti sono Einstein e de Broglie, ha cercato di superare tali irriducibili contrapposizioni. Dal canto suo, il pensiero dialettico si pone uno scopo più ampio: dialettizzare le opposizioni della logica formale, tra cui la contraddizione caso/necessità. Se si considera il caso come la negazione dialettica della necessità, allora esso diventa necessario da un altro punto di vista: quello di una descrizione più fine della realtà. 18 Il caso viene a volte identificato con la contingenza. Un’analisi concreta mostra tuttavia che non si tratta di concetti equivalenti. Il caso è un concetto scientifico, che si esprime sotto forma di legge fisica e attraverso un formalismo matematico rigoroso. Il caso è, inoltre, il prodotto del dinamismo interno dei sistemi fisici ed è quindi, da questo punto di vista, necessario. L’evento contingente può accadere o non accadere: la sua apparizione non è legata ad alcuna regolarità e non vi è legge che lo descriva. Il contingente e la contingenza non sono concetti scientifici operativi. Proseguendo nell’analisi ontologica, occorre aggiungere che il contingente è, in certi casi, esterno al fenomeno, in quanto non si realizza attraverso il dinamismo interno del sistema così come si manifesta in condizioni “normali”. Questa esteriorità è relativa, perché anche se il contingente è la negazione del necessario, esso si realizza attraverso il dinamismo del sistema. Il contingente è allora il risultato di un incontro accidentale nello spazio-tempo di più sistemi e, in questo senso, può essere una catastrofe, ma anche la creazione di una forma nuova.
5. Importanza e limiti del principio di identità
Il problema della connessione e della determinazione reciproca degli oggetti fisici è uno dei più antichi e dei più importanti della storia della filosofia e, nella forma problematica della causalità e del determinismo, è legato allo sviluppo delle scienze moderne. Tuttavia, non è difficile constatare che il problema non è stato sempre affrontato né a livello epistemologico né a livello scientifico con una neutra oggettività. I pregiudizi ideologici e la “filosofia spontanea” di cui ogni scienziato è portatore hanno spesso condotto ad interpretazioni unilaterali, anche ingenue. 19 Hegel asserisce giustamente che «la verità è l’accordo del pensiero con l’oggetto; e al fine di produrre questo accordo (poiché esso non sussiste in sé e per sé) bisogna che il pensiero si adatti e si conformi all’oggetto». 20 Se esiste una logica della scienza, non deve essere un letto di Procuste, ma si deve adattare alla “logica” dell’oggetto; deve adattare le sue categorie agli imperativi dei dati oggettivi, invece di forzare i fatti affinché rientrino nelle forme inflessibili che corrispondono all’identità, ma che non possono cogliere la differenza, l’opposizione, la contraddizione e il cambiamento.
Il principio di identità, come sottolineava Engels, è un principio fondamentale; tuttavia, «l’identità astratta… è sufficiente solo nell’uso spicciolo quotidiano, là dove vengono presi in considerazione rapporti limitati o brevi intervalli di tempo». 21 Il principio si rivela invece insufficiente non appena ci si proponga di studiare strutture fini e variabili, come quelle scoperte dalle scienze moderne. In questo caso le categorie della logica formale, per dirla con Hegel, non si conformano all’oggetto e il pensiero deve forgiarne altre, conformi alla natura delle cose. 22 Le contraddizioni irriducibili possono allora presentarsi, come si è visto sia in Aristotele che in Marx, come poli o momenti opposti, coppie dialettiche che si determinano reciprocamente e i cui estremi passano l’uno nell’altro in condizioni determinate. La logica formale è la logica dell’identità: un numero elevato di leggi naturali è conforme a questa logica, che si rivela efficace non soltanto nel mondo quotidiano, ma anche nei settori scientifici in cui si studiano situazioni stazionarie. Ciò nondimeno, la logica dell’identità è uno dei momenti della logica della differenza e della contraddizione, cioè della logica dialettica, che diventa indispensabile nel trattamento dei processi. Il senso comune ha sempre contrapposto la logica formale alla logica dialettica. In realtà, si deve riconoscere che stabilire una opposizione di questo tipo fra queste due espressioni del pensiero è una forzatura se non un artificio, in quanto tali espressioni costituiscono due momenti diversi di una medesima indagine, dove ciascuno ha il suo ruolo in una totalità che comprende entrambi con le rispettive specificità e con il comune obiettivo, ad un tempo rigoroso, determinato e verificabile, della conoscenza della realtà. 23
6. Un’alternativa alla “interpretazione di Copenhagen”: la teoria delle “variabili nascoste” di John Bell e David Bohm
Se l’intento dei ricercatori è quello di chiarire la struttura ontologica della MQ esiste un approccio differente, che ha al suo centro la nozione di esseribile locale, avanzata alcuni anni fa da John Bell. Si tratta di una proposta che permette di comprendere diverse interpretazioni della MQ come altrettante realizzazioni di una stessa struttura, prospettando possibilità alternative a livello cognitivo e ontologico. Agli inizi degli anni Quaranta, in un saggio in onore di Bertrand Russell, Albert Einstein scrisse quanto segue: «Con la sua critica molto chiara, Hume non solo permise alla filosofia di avanzare in una maniera decisiva, ma anche – sebbene non per sua colpa – creò un pericolo per la filosofia, nel senso che, seguendo la sua critica, emerse una fatidica “paura della metafisica” che è diventata la malattia della filosofia empirista contemporanea.» Parimenti, in una lettera a Schrödinger, datata 1935, Einstein scriveva: «la vera difficoltà sta nel fatto che la fisica è un tipo di metafisica; la fisica descrive “la realtà”. Ma noi non sappiamo cosa sia “la realtà”, se non attraverso la descrizione fisica che ne diamo di essa».
La dinamica quantistica, che governa l’evoluzione della funzione d’onda, almeno quando non sono eseguite misure, è data, ad esempio, dall’equazione di Schrödinger ed è di carattere completamente deterministico. Tuttavia, in base alla teoria quantistica ortodossa – e anche a molte interpretazioni non ortodosse – la descrizione completa di un sistema è fornita solamente dalla sua funzione d’onda, e non vi è proprietà del sistema, oltre alla sua funzione d’onda, che possa rendere conto della casualità quantistica osservata. Si è sovente sostenuto, sulla base dell’autorità di von Neumann, che tali proprietà, le cosiddette “variabili nascoste”, sono impossibili e che, come costrutto di matematica, la media sull'ignoranza non può riprodurre previsioni compatibili con quelle del formalismo quantistico. Insomma, la convinzione diffusa è che la funzione d’onda fornisca una descrizione completa di un sistema quantistico. Tuttavia, ci sono state proposte più o meno recenti che hanno suggerito esplicitamente che l’evoluzione quantistica non sia da ritenersi di validità universale e che in condizioni opportune, comprendenti quelle che prevalgono durante i processi di misura, non valga l’equazione di Schrödinger. Un tratto comune di queste proposte è che la dinamica quantistica dovrebbe essere sostituita da una sorta di modifica non lineare (eventualmente non deterministica), di cui, a livello microscopico, l’evoluzione tratteggiata da Schrödinger è un’approssimazione molto buona. Una delle proposte più concrete in questo senso è quella di Gian Carlo Ghirardi, Alberto Rimini e Tullio Weber, detta GRW. Tale teoria modifica l’equazione di Schrödinger con l’inserimento di un “salto quantico” casuale e spontaneo della funzione d’onda ad un'altra che è localizzata macroscopicamente.
Se è fuori discussione che il dualismo ontologico ‘onda-particella’ abbia svolto un ruolo essenziale nel ‘contesto della scoperta’ della teoria, che cosa si può dire del suo ruolo nel ‘contesto della giustificazione’ della MQ ortodossa? Le idee di Heisenberg furono perfezionate da Niels Bohr e portarono alla cosiddetta interpretazione di Copenaghen della MQ, cioè all’interpretazione ortodossa della teoria, che è ancora oggi alla base della maggior parte dei libri di testo di MQ. Nell’interpretazione ortodossa permane una sorta di dualismo ontologico: anche qui il ruolo della funzione d’onda è di governare il comportamento di qualcos’altro, che ha già significato fisico. E questo qualcos’altro sono certi oggetti macroscopici, detti apparati o strumenti di misura, di cui la funzione d’onda governa il comportamento durante il processo di misurazione. Si ha così un dualismo simbolicamente espresso dalla coppia (f, X), dove f è la funzione d’onda e X sta per le variabili classiche che descrivono gli apparati di misura: le posizioni dei loro indici e dei loro puntatori, o dei simboli sulla schermata di un computer che rappresentano il risultato di un esperimento. Le difficoltà concettuali di questa struttura sono state messe in evidenza in maniera molto efficace da Bell, il quale ha osservato che nella teoria quantistica contemporanea, sembra che il mondo debba essere diviso in un sistema quantistico ‘fluttuante’ e in un resto che è, in qualche senso, ‘classico’. E invero la MQ quantistica introduce una fondamentale ambiguità nella teoria fisica fondamentale. Il tollerare una tale ambiguità al livello più fondamentale, non solo provvisoriamente ma in modo permanente, è la vera rottura con l’ideale classico. 24
7. La “semplificazione” di Bohm e l’ontologia primitiva
Il procedimento escogitato da Bohm per ottenere una formulazione della teoria quantistica che non sia né vaga né ambigua è di una semplicità così sconcertante che risulta difficile spiegare – se non in termini di sociologia della scienza – che non sia contemplato dai libri di testo di MQMQ. Per comprendere questo procedimento occorre, in primo luogo, aver chiaro che vaghezza e ambiguità dello schema ortodosso (f, X) sono dovute a X, vale a dire alla nozione di variabile classica, una nozione che porta con sé la vaghezza della nozione di “macroscopico” (ragione per cui vale il noto sorite, ovvero “paradosso del mucchio”, se si fanno le ovvie assunzioni che un oggetto che contenga, ad esempio, un numero di Avogadro di molecole sia macroscopico e che quando una molecola è tolta da un oggetto siffatto si ha ancora un oggetto macroscopico). Per ottenere uno schema soddisfacente basterà dunque eliminare l'ambiguità e la vaghezza delle variabili X.
Ovviamente, nella misura in cui le teorie fisiche sono nostre libere creazioni – sotto-determinate dall’evidenza empirica –, il cui scopo è di rendere intelligibili le nostre esperienze, non abbiamo alcuna ragione di aspettarci che ci sia una regola univoca che permetta di trasformare lo schema (f, x) in una ben definita teoria fisica. 25 Del resto, l’evidenza empirica difficilmente potrà indicarci quali sono le variabili x più adeguate ad afferrare la realtà fisica. Tuttavia, empiricamente indecidibile non significa completamente indecidibile. Ci possono essere differenze rilevanti per potere esplicativo, semplicità e naturalezza. Come possiamo procedere allora per decidere quale sia la scelta più appropriata per le x? Una proposta modesta: prima si provi con l’ovvio, poi si proceda al meno evidente e infine, come è probabile sia necessario, si consideri ciò che non è per niente ovvio. Sorprendentemente, se si mette in atto questa proposta, e ci si limita alla MQ non-relativistica, ci si accorge che basta fermarsi al primo stadio della proposta. La scelta più ovvia per le variabili x (peraltro suggerita dal linguaggio che usualmente utilizziamo in fisica quantistica) è data dalle posizioni delle particelle quantistiche: elettroni, protoni e quant’altro. E la teoria che ne risulta è proprio la teoria quantistica di Bohm o meccanica bohmiana. Dunque, l’ontologia primitiva della meccanica bohmiana – vale a dire, le entità di base che sono gli elementi costitutivi di tutto il resto, secondo tale teoria – consiste in ‘particelle’, descritte dalle loro posizioni nello spazio che cambiano con il passare del
tempo, alcune delle quali, a causa delle leggi che regolano la dinamica della loro evoluzione, possono combinarsi per formare i familiari oggetti macroscopici dell’esperienza quotidiana.
La meccanica bohmiana risulta così una nuova meccanica, una teoria deterministica, ma non-newtoniana, di particelle in movimento, con la funzione d’onda che guida questo movimento. Nelle discussioni sulla teoria quantistica, postulare nell’ontologia altre entità, oltre alla funzione d’onda, è comunemente considerato postulare variabili nascoste, come le particelle in meccanica bohmiana. Nel paragrafo 6si è accennato alla teoria GRW. La domanda che a questo punto si pone è se – senza introdurre variabili addizionali – codeste modifiche siano sufficienti per ricavare da queste teorie un’immagine del mondo visibile e i risultati degli esperimenti. La risposta è no. Per chiarire il senso di questa risposta è utile spiegare un termine introdotto nella discussione da Bell, il termine “esseribile” (vale a dire, ciò che “può essere”, un neologismo che traduce in italiano il neologismo inglese “beable” utilizzato da Bell). È importante sottolineare, con Bell, quanto segue: «Il termine “esser-ibile” contrapposto a “osserv-abile” non è inteso a spaventare con della meta-fisica coloro che sono dediti alla vera-fisica. È scelto piuttosto per aiutare a rendere esplicite alcune nozioni che sono già implicite e fondamentali per la meccanica quantistica ordinaria». Bell così continua: «La parola esseribile sarà utilizzata per trasferire [al contesto quantistico] la distinzione familiare già in teoria classica tra quantità ‘fisiche’ e ‘non-fisiche’».
Si osservi allora che l’esempio più importante di esseribile ‘non-locale’ è proprio la
funzione d’onda f, che è reale, ma non localizzata. Sono pochi i filosofi che hanno colto la rilevanza, non solo fisica, ma anche teoretica, della nozione di “esseribile” locale. Fra questi merita di essere citato Hilary Putnam, il quale ha sostenuto che tale nozione può svolgere un ruolo corretto nella nostra epistemologia e, a giudizio di altri studiosi, anche nella nostra ontologia. Se inoltre si ritiene che scopo di una teoria fisica è di rendere intelligibili le nostre esperienze, nel senso specifico di rendere comprensibili le loro controparti macroscopiche “esterne” e non semplicemente nel senso di “salvare le apparenze”, sembra inevitabile concludere che le variabili x debbano rappresentare esseribili locali, vale a dire “entità” che sono localizzate nello spazio (o nello spazio-tempo), perché tali sono le controparti macroscopiche delle nostre esperienze. Il primo approccio ha un distinto sapore kantiano, che Einstein seppe esprimere con acutezza ed estrema semplicità quando osservò che «[u]na delle grandi scoperte di Immanuel Kant fu il riconoscimento che la costruzione di un mondo esterno reale sarebbe priva di senso senza la sua comprensibilità». 26








































Comments