sabato 16 marzo 2013

È tempo di pensare ad una ‘nuova’ fisica?


Qualche secolo fa, gli scienziati andavano affermando che non ci fosse più nulla da scoprire, un pensiero che venne ben presto superato quando agli inizi del XX secolo vennero prima formulati i concetti base della teoria dei quanti, ad opera di Max Planck, e qualche decennio più tardi la teoria della relatività generale, grazie al genio di Albert Einstein. Oggi, dobbiamo dire che tra i fisici non c’è più quell’arroganza anche perché la relatività ci ha fornito un modello estremamente accurato dell’Universo che siamo in grado di osservare. Nonostante ciò dobbiamo tener conto di tutta una serie di altri modelli che tentano invece di spiegare quei fenomeni fisici “invisibili” che rimangono ancora un mistero. Di fatto, il sogno degli scienziati del XXI secolo è quello di riconciliare i due pilastri fondamentali della fisica e cioè da un lato la relatività generale e dall’altro la meccanica quantistica (vedasi Idee sull’Universo). Ma allora, è forse giunto il momento di introdurre un cambiamento radicale a partire dalle questioni più fondamentali? Vedremo nei seguenti paragrafi quali sono i temi fondamentali che i fisici stanno oggi discutendo e quali potrebbero essere i passi successivi verso una comprensione più profonda dei fenomeni naturali. 



Il ‘linguaggio’ della natura

Cos’è che ci rende sicuri sul fatto che il linguaggio della fisica, cioè la matematica, possa permetterci di rivelare come funziona il mondo che ci circonda? Verso la fine del XIX secolo, quando James Clerk Maxwell aveva capito che la luce era in definitiva un’onda elettromagnetica, le sue equazioni mostravano che la velocità della luce doveva essere dell’ordine di 300 mila chilometri al secondo. Questo valore era vicino a quello che era stato misurato in seguito agli esperimenti ma le equazioni di Maxwell lasciavano una domanda aperta: ossia una velocità della luce relativa a che cosa? Inizialmente, gli scienziati spostarono il problema assumendo che esistesse una sostanza invisibile che permeasse l’intero spazio, l’etere, e che costituisse una sorta di sistema di riferimento ideale. Ma fu Einstein che agli inizi del XX secolo affermò che gli scienziati dovevano prendere in maniera più seria le equazioni di Maxwell. Se le equazioni di Maxwell non si riferivano ad un sistema di riferimento in quiete, allora non c’era più bisogno di assumere un sistema di riferimento ideale. La velocità della luce, così come forzatamente dichiarò lo stesso Einstein, è sempre pari a 300 mila chilometri al secondo rispetto a qualsiasi cosa. Naturalmente, non ci soffermeremo sui dettagli che sono comunque di interesse storico ma riportiamo questo episodio per spiegare meglio un punto. In altre parole, tutti avevano accesso alle equazioni matematiche di Maxwell ma ci volle il genio di Einstein per comprenderne la loro essenza. La sua assunzione sul fatto che la luce abbia una velocità assoluta gli permise di arrivare per primo alla teoria della relatività speciale superando così secoli di pensiero in merito ai concetti di spazio, tempo, materia ed energia. Successivamente, Einstein arrivò a formulare la teoria della relatività generale, cioè la teoria della gravità che sta alla base del nostro modello di Universo. La storia è il primo esempio di ciò che il Premio Nobel Steven Weinberg voleva dire quando egli scrisse: “Il nostro errore non è quello di prendere molto sul serio le nostre teorie ma quello di non prenderle abbastanza seriamente”. Weinberg si stava riferendo ad un'altra grande scoperta della cosmologia e cioè alla previsione di Ralph Alpher, Robert Herman e George Gamow sull’esistenza della radiazione cosmica di fondo, cioè l’eco della grande esplosione iniziale dovuta al Big Bang, una diretta conseguenza della relatività generale e della termodinamica. In realtà, si parlò tanto di questa radiazione fossile solamente dopo che fu scoperta teoricamente una seconda volta quando venne rivelata, circa dodici anni dopo, in maniera del tutto casuale. Ma per essere sicuri, l’affermazione di Weinberg deve essere utilizzata con cautela. Nonostante la sua scrivania abbia ospitato, per così dire, una grande quantità di articoli e libri di matematica che sono stati fondamentali per la comprensione della realtà, in assenza di chiari risultati sperimentali il fatto di decidere quale matematica dovrebbe essere presa seriamente in considerazione costituisce una forma d’arte tanto quanto è la scienza. Einstein fu proprio il maestro di quell’arte. Infatti, nel decennio successivo al 1905, il cosiddetto annus mirabilis quando pubblicò la teoria della relatività speciale, egli divenne molto familiare con diverse discipline della matematica che a quell’epoca la maggior parte dei fisici ignorava o conosceva poco. Man mano che andava verso la formulazione finale della relatività generale, Einstein dimostrava una rara capacità di manipolare, in un certo senso, complesse equazioni mantenendo sempre solido il suo intuito. Quando egli ricevette la notizia relativa alle osservazioni dell’eclisse solare del 1919 che confermavano le previsioni della sua teoria, e cioè che i raggi luminosi di una stella seguono traiettorie curve in prossimità di un campo gravitazionale, egli fece notare che sarebbe stato meglio se i risultati fossero stati diversi: in altre parole Einstein “sarebbe stato dispiaciuto con Dio dato che la sua teoria si dimostrava corretta”. Immaginatevi come avrebbe reagito veramente Einstein se i risultati fossero stati effettivamente, invece, diversi. Insomma, secoli di scoperte hanno reso alquanto evidente il fatto che la matematica abbia permesso di rivelare i segreti più nascosti del mondo che ci circonda. Tuttavia, ci fu un limite al percorso che stava intraprendendo Einstein nel seguire la “sua” matematica. Egli non prese “abbastanza seriamente” la teoria della relatività generale per studiare, ad esempio, il comportamento dei buchi neri o l’espansione dell’Universo. Furono altri scienziati che, invece, analizzarono le equazioni di Einstein molto più scrupolosamente di quanto non fece lo scienziato tedesco e le loro conquiste teoriche hanno permesso in seguito di costruire il corso della cosmologia per quasi un secolo. Negli ultimi vent’anni della sua vita, Einstein si concentrò sulla ricerca di una teoria unificata della fisica. Guardando indietro col senno di poi, si può concludere che durante questi anni egli fu fortemente preso dal desiderio che stava costantemente cercando. Anche Einstein a volte prese la decisione sbagliata in merito alla scelta di equazioni matematiche che fossero più appropriate rispetto ad altre. La meccanica quantistica è un altro esempio di questo dilemma. Per molti anni l’equazione di Erwin Schrödinger, che elaborò nel 1926 per descrivere l’evoluzione quantistica delle onde, venne vista solo nel dominio delle piccole cose: cioè molecole, atomi e particelle. Ma nel 1957, Hugh Everett fece da eco ad Einstein: ossia, prendere sul serio la matematica. Everett affermava che l’equazione di Schrödinger poteva essere applicata a qualsiasi cosa dato che tutte le cose materiali, a parte la dimensione, sono fatte di molecole, atomi e particelle subatomiche che evolvono secondo regole probabilistiche. Seguendo questa logica emerse che non sono proprio gli esperimenti che evolvono in questo modo ma anche coloro che realizzano gli esperimenti. Ciò portò Everett alla sua idea di "multiverso quantistico" in cui tutte le possibili storie accadono in un insieme numeroso di universi paralleli. Più di 50 anni dopo, non sappiamo ancora se un tale approccio sia giusto oppure no. Ma se prendiamo la matematica della teoria dei quanti sul serio, diciamo molto sul serio, Everett potrebbe aver fatto una delle scoperete più importanti di tutta l’esplorazione scientifica. In altre parole, l’idea del multiverso nelle sue forme più varie è diventata una caratteristica essenziale di quella parte della matematica che presuppone di darci una comprensione molto più profonda della realtà. Ciò implica che nella sua vera essenza, cioè il “multiverso ultimo”, ogni possibile universo permesso dalla matematica corrisponde ad un universo reale. In maniera estrema possiamo anche affermare che la matematica “è” realtà. Se qualche parte della matematica o tutta la matematica che ci porta a pensare all’esistenza di universi paralleli si dimostra rilevante ai fini della realtà, allora la famosa domanda di Einstein, e cioè se le proprietà fisiche dell’Universo sono implicate dal fatto che semplicemente non può esistere un altro universo, potrebbe avere una risposta definitiva: ossia no. Insomma, il nostro Universo non è l’unico possibile. Le sue proprietà potrebbero essere differenti così come le proprietà di altri “universi membri” potranno essere altrettanto diverse. Se questo è il caso, cercare una spiegazione fondamentale sul perchè certe cose sono così come sono potrebbe essere triviale. Bisognerebbe inserire delle probabilità statistiche nella nostra comprensione del cosmo che potrebbe essere estremamente immenso. Non sappiamo con certezza se ciò è il modo corretto attraverso il quale funzionano le cose e certamente nessuno lo sa. È solo grazie alla ricerca di teorie razionali, incluse anche quelle che ci possono portare verso strani domini, che abbiamo una possibilità di rivelare i segreti più nascosti della realtà, ma solo se prenderemo sul serio la matematica.

Il ‘triumvirato ombra’

Quando alziamo lo sguardo al cielo di notte e ammiriamo le stelle a prima vista ci sembra di guardare l’intero Universo. Ma per i cosmologi si tratta solo di un puntino insignificante di quello che è in realtà lo spazio cosmico. Rispetto alla materia ordinaria, di cui sono fatte le stelle o le galassie che rappresentano la materia visibile, esistono altre due entità elusive: la materia scura e l’energia scura. Esse rappresentano i due enigmi più bizzarri della moderna cosmologia, non sappiamo che cosa sono tranne per il fatto che permeano l’intero Universo. Queste due “gemelle scure” stanno sfidando gli scienziati che non hanno più certezze sulla validità del modello cosmologico standard costruito nel corso del secolo scorso per descrivere l’evoluzione dell’Universo. Ma non solo da sole. Il modello del Big Bang afferma che lo spazio prese forma una piccolissima frazione di secondo immediatamente dopo la nascita dell’Universo a causa di una terza entità sconosciuta che viene chiamata inflatone. Ciò potrebbe implicare l’esistenza di un multiverso, formato da infiniti universi che non possiamo vedere, in modo tale da costruire dei modelli appropriati per descrivere il funzionamento del nostro Universo. Ma è davvero così? La cosmologia standard si basa sulla teoria della relatività generale. Einstein iniziò con una semplice osservazione: che qualsiasi massa gravitazionale è esattamente uguale alla sua resistenza all’accelerazione, detta anche massa inerziale. Da qui egli dedusse una serie di equazioni che mostravano come lo spazio sia distorto dalla massa e dal moto e ciò che percepiamo come curvatura non è altro che la gravità. Le mele cadono dagli alberi perché la massa della Terra curva lo spaziotempo. In una regione dello spazio dove gli effetti della forza gravitazionale sono piccoli, come la Terra, la relatività generale si può approssimare secondo le leggi formulate da Isaac Newton che descrisse la gravità come una forza che agisce istantaneamente a distanza tra due corpi dotati di grande massa. Nel caso di campi gravitazionali più intensi, le due descrizioni divergono sensibilmente. Una ulteriore conseguenza della relatività generale è che nel caso in cui abbiamo enormi corpi celesti che si muovono di moto accelerato si ha la formazione di piccole distorsioni del tessuto spaziotemporale che sono chiamate onde gravitazionali. Nonostante queste deformazioni della struttura dello spaziotempo non siano mai state rivelate direttamente, nel 1974 venne scoperta una coppia di pulsar che stanno muovendosi a spirale l’una attorno all’altra proprio in modo tale da perdere energia attraverso l’emissione di onde gravitazionali. La gravità è la forza che domina l’Universo su scale cosmologiche, dunque la relatività generale è il quadro teorico migliore per descrivere come funziona ed evolve il nostro Universo. Tuttavia, le sue equazioni sono alquanto complesse e strutturate. Se si introduce un termine che descrive, ad esempio, la distribuzione casuale della materia e dell’energia, le equazioni diventano impossibili da risolvere. Dunque, per costruire un modello cosmologico che funzioni dobbiamo fare una serie di assunzioni che semplificano il problema. L’assunzione principale, detta principio copernicano, afferma che noi non siamo situati in un posto speciale nello spazio. L’Universo dovrebbe perciò apparire abbastanza uguale in tutte le direzioni, come del resto sembra essere, e con la materia distribuita in maniera alquanto ordinata su larga scala. Questo vuol dire che possiamo inserire un solo termine nelle equazioni della relatività: la densità universale della materia. Il primo universo di Einstein, che egli immaginava fosse riempito di una polvere inerte di densità uniforme, si contraeva sotto l’effetto della sua gravità. Ciò fu un problema che superò aggiungendo un nuovo termine nelle equazioni per mezzo del quale lo spazio vuoto acquisisce una densità di energia costante. Il suo effetto gravitazionale è di natura repulsiva e perciò aggiungendo la giusta quantità di questo termine, definito in seguito costante cosmologica, si assicurava una adeguata stabilità all’Universo. Ma quando negli anni ’20 fu dimostrato che in realtà lo spazio si sta espandendo, Einstein parlò della sua decisione di inserire il termine costante come del suo “più grande abbaglio”. Dunque, fu lasciato ad altri la possibilità di applicare le equazioni della relatività all’Universo in espansione. Gli scienziati arrivarono ad un modello del cosmo che evolve da un punto infinitesimale di inimmaginabile densità e la cui espansione viene gradualmente rallentata dalla gravità dovuta alla materia: era la nascita della cosmologia del Big Bang. Tuttavia, il problema principale era quello di capire se l’espansione sarebbe arrivata ad una fine. La risposta sembrava essere negativa dato che si riteneva ci fosse poca materia presente nelle galassie per determinare un contributo notevole alla gravità e arrestare l’espansione dello spazio. Perciò, l’Universo si sarebbe espanso per sempre. Ma gli “spettri cosmici” si sarebbero presto materializzati. Il primo “emissario dell’oscurità” mise piede negli anni ’30 ma fu “visto”, per così dire, nella sua interezza solamente verso la fine degli anni ’70 quando gli astronomi trovarono che le galassie ruotavano molto velocemente. Secondo la relatività generale, la gravità dovuta alla materia visibile sarebbe stata troppo debole per mantenere insieme le galassie. Gli astronomi conclusero che ci doveva essere una ulteriore quantità di materia non visibile, oltre alle stelle, per determinare una maggiore attrazione gravitazionale. L’esistenza della materia scura è stata confermata da altre evidenze che riguardano il moto degli ammassi di galassie e la curvatura dei raggi luminosi che essi causano, un fenomeno noto come lente gravitazionale. Oggi, le osservazioni indicano che esiste almeno una quantità di materia scura pari mediamente a cinque volte la massa visibile presente sottoforma di stelle o gas in una galassia. L’identità della materia scura è tuttora sconosciuta. Sembra che sia qualcosa che vada al di là del modello standard delle particelle elementari e nonostante gli sforzi degli ultimi decenni gli scienziati non hanno ancora osservato o creato una eventuale particella di materia scura. Questa misteriosa componente, che rappresenta circa il 23% del contenuto materia-energia dell’Universo, ha modificato leggermente il modello cosmologico standard: il suo effetto gravitazionale è identico a quello della materia ordinaria, secondo la relatività generale, e persino la sua distribuzione spaziale non è tale da arrestare l’espansione dell’Universo. Il secondo “emissario dell’oscurità” richiede, invece, un cambiamento più radicale. Negli anni ’90, gli astronomi dedussero il tasso dell’espansione dello spazio in maniera molto più accurata rispetto al passato utilizzando come “candele standard” le supernovae di tipo Ia. Essi mostrarono che l’espansione cosmica sta accelerando. La causa di ciò pare dovuta ad una sorta di forza repulsiva che permea tutto l’Universo e che domina l’effetto gravitazionale attrattivo dovuto a tutta la materia. Questa componente misteriosa potrebbe essere la costante cosmologica, diremo “resuscitata”, cioè l’energia del vuoto che genera una forza di natura repulsiva. Ma c’è un problema: oggi i fisici delle particelle stanno tentando di spiegare perché lo spazio dovrebbe avere una piccolissima densità di energia. Da qui, i teorici si sono scatenati a trovare idee alternative, come per esempio campi di energia prodotti da particelle che non sono state mai viste o forze che provengono da altri universi o dimensioni. Qualunque cosa sia, l’energia scura sembra essere davvero reale. La radiazione cosmica di fondo, che emerse quando i primi atomi si formarono appena 370 mila anni dopo il Big Bang, è caratterizzata dalle deboli tracce formate da regioni più calde e più fredde in cui lo spazio era più o meno denso. Le dimensioni tipiche di queste regioni possono essere poi utilizzate per determinare fin dove l’intero spazio è stato deformato dai moti della materia in esso distribuita. I dati indicano che la geometria dello spazio appare quasi esattamente piatta il che vuol dire che tutte queste deformazioni si sono cancellate le une con le altre. Ciò, di nuovo, implica una quantità extra di energia repulsiva che bilanci la curvatura dello spazio dovuta da un lato all’espansione e dall’altro alla gravità prodotta dalla materia. Tutto ciò ci fornisce una “ricetta ben precisa” che caratterizza l’Universo. La densità media di energia della materia ordinaria è pari a circa 250 protoni per centimetro cubo, il che vuol dire 4,5% della densità totale di energia presente nell’Universo. La materia scura rappresenta circa il 22,5% mentre l’energia scura il 73% circa. Il nostro modello cosmologico standard, o del Big Bang, che si basa sulla relatività generale descrive molto bene i dati osservativi. Nonostante ciò, dobbiamo andare oltre nel senso che per spiegare come mai l’Universo appare così straordinariamente uniforme in tutte le direzioni dobbiamo introdurre un altro elemento esotico. In altre parole, 10-36 secondi dopo il Big Bang emerse una forza immane. Definita dai cosmologi con il termine inflatone, si tratta di una forza di natura repulsiva, come l’energia scura ma molto più potente, che causò una improvvisa espansione esponenziale dello spazio determinando un aumento di volume di un fattore dell’ordine di 1025 e un appiattimento dello spazio rendendo molto più uniformi le irregolarità in esso contenute. Quando questo periodo dell’inflazione terminò, il campo di forze inflatone si trasformò in materia e radiazione. Le fluttuazioni quantistiche presenti nel campo inflatone divennero piccole variazioni di densità che alla fine si trasformarono in quei “siti cosmici” osservabili nella radiazione cosmica di fondo e da cui emersero le galassie che vediamo oggi. Di nuovo, questa storia fantastica sembra essere in accordo con i dati. Tuttavia, dobbiamo dire che l’inflazione non determina alcun problema per la relatività generale dato che dal punto di vista matematico essa richiede l’aggiunta di un termine identico a quello che rappresenta la costante cosmologica. In una sola volta, il campo inflatone deve aver costituito il 100% del contenuto dell’Universo e la sua origine rimane ancora un mistero così come quelli relativi alla materia scura e all’energia scura. In più, pare che l’inflazione abbia prodotto un tipo di universo che sembra essere diverso dal nostro. Il modello non spiega alcuni dati osservativi: ad esempio il Big Bang produce molto più litio-7 in teoria rispetto a quanto viene misurato; il modello non spiega alcuni effetti geometrici di allineamento di alcune componenti presenti nella radiazione cosmica di fondo o perché certe galassie lungo la linea di vista sembrano possedere un moto di rotazione sinistrorso. Infine, la recente scoperta di una gigantesca struttura supergalattica che si estende per circa 4 miliardi di anni-luce implica che l’Universo sia molto più regolare su larga scala. È alquanto probabile che queste discrepanze scompariranno man mano che saranno analizzati sempre più dati. Ma il problema più grande rimane: cioè, non sappiamo che cos’è l’energia scura né tantomeno la materia scura, un fatto imbarazzante. La matematica che caratterizza le equazioni della relatività non è cambiata essenzialmente dai tempi in cui Einstein elaborò il suo primo modello cosmologico, anche se queste ‘componenti aggiuntive’ rendono il modello più dinamico e ricco di maggiori dettagli. La sua età e le sue costituenti sono note con precisione. La materia scura sembra aver creato le galassie e le altre strutture; l’energia scura implica che il cosmo continuerà ad accelerare la sua espansione causando un destino molto freddo e desolato per l’Universo; l’inflazione suggerisce una nascita molto violenta. Ogni membro del cosiddetto “triumvirato ombra” sembra puntare ad una nuova fisica e dà un senso non di disperazione quanto di ispirazione. Tuttavia, fino a quando non avremo da un lato alcuna evidenza sulla natura della materia scura e dall’altro una prova scientifica che ci dimostri la vera essenza dell’energia scura, la possibilità rimane quella per cui viviamo in una sorta di profonda ignoranza che rimane celata anche nel linguaggio della matematica e che non siamo in grado di immaginare. Forse, una eventuale teoria quantistica della gravità potrebbe mostrarci la strada verso la soluzione dei misteri cosmologici o magari qualche osservazione, in un futuro prossimo, potrebbe portarci ad una nuova formulazione del nostro modello cosmologico.  


Un ‘vicolo cieco’

È proprio di questi giorni la notizia che è emersa dal 48° meeting Rencontres de Moriond tenutosi a La Thuile, in Italia, sul tema delle interazioni elettrodeboli e le teorie unificate, secondo la quale i fisici che lavorano agli esperimenti presso LHC sono sempre più convinti che la nuova particella osservata sia effettivamente il bosone di Higgs. Se ciò si dimostrerà vero, la scoperta andrebbe a completare il modello standard delle particelle elementari, ritenuto il quadro scientifico più accurato della storia della fisica, anche se non si tratterà di un punto di arrivo bensì dell’inizio di nuovi problemi. Ma facciamo un passo indietro. Correva l’anno 1964 quando qualcosa preoccupava un fisico teorico di nome Murray Gell-Mann. Cosa sarebbe stato se protoni e neutroni che costituiscono la materia fossero, a loro volta, composti da entità più piccole? A quell’epoca, la fisica aveva bisogno di nuove idee. Dozzine di nuove particelle esotiche venivano rivelate nei raggi cosmici senza una apparente ragione. L’invenzione, per così dire, di Gell-Mann permise di spiegare come i protoni e i neutroni fossero la combinazione di due o tre entità più fondamentali che vennero successivamente chiamate quark. Ma questa idea sembrò alquanto bizzarra per la maggior dei fisici. Le nuove particelle dovevano possedere cariche elettriche frazionarie e non potevano essere osservate singolarmente. Come mai la natura doveva presentarsi sotto questo aspetto? E perchè no? Così fu provato e i quark divennero le componenti fondamentali di uno dei quadri teorici meglio verificati sperimentalmente. Nel corso di quarant’anni, il modello standard si è dimostrato molto valido nel confermare la struttura della materia e la scoperta, a quanto pare, del bosone di Higgs rappresenta l’ultimo spettacolare esempio. Nonostante ciò, ci sono “voci di corridoio” che sembrano andare nel verso opposto a questa apparente celebrazione del modello standard. Con il bosone di Higgs il modello che si dimostrava palesemente incompleto risulta ora completo. Anche in questo campo, la fisica delle particelle urge il bisogno di qualcosa di più radicale. Il termine ‘modello standard’ fu coniato da Steven Weinberg e aveva lo scopo di non essere considerato un dogma ma piuttosto una base da cui partire per stimolare tutta una serie di discussioni ed esperimenti che avrebbero potuto portare alla scoperta che fosse, invece, sbagliato. I suoi concetti base possono essere scritti su una cartolina: sei quark sono assemblati in coppie per dar luogo a tre famiglie o generazioni di particelle che sono tutte uguali tranne per i valori della massa; sei leptoni, come gli elettroni o i neutrini, sono accoppiati allo stesso modo; e poi esiste una manciata di bosoni che rappresentano i mediatori delle interazioni fondamentali. La cosa essenziale di tutte queste entità è che sono particelle quantistiche. La teoria dei quanti venne sviluppata in seguito ad una serie di scoperte agli inizi del XX secolo. Grazie ad essa venne dimostrato che le lunghezze d’onda della radiazione emessa o assorbita dagli atomi potevano essere solamente spiegate assumendo che l’energia fosse costituita da pacchetti discreti chiamati ‘quanti’. Ciò lasciò una assurda dualità al livello delle scale più piccole dove una particella è anche un’onda e viceversa. Queste “nebulose”, per così dire, onde-particelle non si muovono seguendo le regole della meccanica classica ma secondo regole probabilistiche e bizzare in uno spazio matematico astratto. La meccanica quantistica prese il sopravvento verso la metà degli anni ’20 e si è sempre dimostrata corretta dal punto di vista sperimentale. Ma verso la fine degli anni ’20, quando Paul Dirac e altri iniziarono a “mescolare” la meccanica quantistica con la relatività speciale, le cose cominciarono a prendere forma. L’equazione di Dirac per l’elettrone aveva più di una soluzione e sembrava prevedere l’esistenza di una particella proprio come l’elettrone ma con una carica elettrica opposta. Cinque anni più tardi venne rivelato il positrone nei raggi cosmici e ciò aveva fatto nascere il concetto di antimateria come una sorta di invenzione nata dalla penna di un teorico. La teoria quantistica dei campi, che sta alla base del modello standard, rappresenta l’apice di questa logica. Sebbene l’idea di un campo di forze risale a Michael Faraday nel XIX secolo, la struttura matematica dei campi quantistici possiede una strana proprietà: i campi possono dar luogo alla formazione di particelle dallo spazio vuoto ma possono anche distruggerle. Così, secondo la teoria dell’elettrodinamica quantistica, due elettroni si respingono grazie al fotone, la particella quantistica della radiazione elettromagnetica, che appare dal nulla e passa da un elettrone all’altro. Una infinita serie di fluttuazioni dovute a “particelle virtuali” modificano le proprietà degli elettroni di quantità piccolissime, un fatto che è stato già confermato in maniera molto accurata da tanti esperimenti a partire dagli anni ’40. Ci è voluto un pò di più per rivelare le altre forze. L’interazione nucleare debole, che trasforma una particella in un’altra mediante decadimento radioattivo, saltò fuori da una serie di calcoli matematici impossibili e la strada da perseguire, intrapresa da Weinberg e altri durante gli anni ’60, fu quella di tentare di unificare l’elettromagnetismo con la forza nucleare debole in una unica forza, detta poi elettrodebole, che si manifesta a più valori più alti di energia tipici delle epoche primordiali della storia cosmica. Così come l’equazione di Dirac aveva previsto l’esistenza dell’antimateria, questa teoria presagiva l’esistenza di particelle che non erano state mai state osservate: i bosoni W e Z che sono i mediatori della forza debole e il bosone di Higgs. Quest’ultima particella era necessaria per assicurare il fatto che, durante la rottura dell’unificazione della forza elettrodebole, i bosoni W e Z acquisissero massa confinando la forza debole su distanze atomiche, mentre i fotoni dell’elettromagnetismo non lo fanno e ciò gli permette di vagare nell’Universo. Allo stesso tempo, la teoria quantistica della forza nucleare forte, che tiene uniti i nuclei atomici, stava evolvendo verso il trionfo. La cromodinamica quantistica, un altro termine coniato da Gell-Mann, diede valore al concetto dei quark, descrivendo le loro interazioni per mezzo dello scambio di otto gluoni, che portano una carica detta “colore”, e mostrò come questa forza diventa sempre più intensa se aumenta la distanza tra due quark. Dal 1973 il modello standard poteva considerarsi definito. C’era da un lato la teoria elettrodebole, a cui tutte le particelle sembravano soccombere, e dall’altro la cromodinamica quantistica che riguardava solamente il comportamento dei quark e dei gluoni. Il modello non era proprio perfetto anche se era alquanto elegante. Le sue equazioni mostravano una simmetria bellissima al punto che sembrava dettassero il “carattere”, per così dire, della natura delle forze e indicassero, allo stesso tempo, dove andare a cercare le nuove particelle. Il susseguirsi degli esperimenti utilizzando gli acceleratori di particelle produsse i primi dati che furono accompagnati dalle forti emozioni che provavano gli scienziati coinvolti nella ricerca. L’evidenza dei tre quark era stata già acquisita grazie agli esperimenti condotti verso la fine degli anni ’60 anche se alcuni anni più tardi i fisici furono convinti che doveva esistere un quarto, un quinto e finalmente, nel 1995, un sesto quark. Ricordiamo che dal 2000, il neutrino del tau, l’ultimo dei leptoni, è stato rivelato. Sull’altro fronte, nel 1979 il gluone venne “intrappolato” al laboratorio DESY mentre nel 1983 toccò ai bosoni W e Z al CERN. E, finalmente, nel 2012 la notizia della scoperta di un bosone scalare, molto probabilmente un bosone di Higgs, che se venisse confermato potrebbe completare l’ultimo tassello mancante del modello standard. Nonostante la sua marcia trionfale esistono alcune “ragioni estetiche” che non sono spiegate dal modello standard. Perché, ad esempio, esistono tre famiglie di particelle e come mai la massa del quark più pesante è circa 75 mila volte maggiore della particella più leggera? Certo, le equazioni del modello standard possono apparire eleganti ma per dar loro un potere predittivo esse devono essere caratterizzate da 20 parametri “liberi”, come la massa delle particelle. Una teoria veramente fondamentale dovrebbe far uso della teoria quantistica o, forse, di qualche idea più profonda di cui nessuno ha mai pensato finora. Inoltre, il modello standard non permette di unificare la forza forte. La teoria elettrodebole e la cromodinamica quantistica sono “incastrate” insieme piuttosto che essere “mescolate” al livello dei campi quantistici così come lo sono la forza debole e quella elettromagnetica, e questo rappresenta il primo vero ostacolo verso la ricerca di una teoria del tutto ancora prima di parlare della gravità che invece è descritta da una teoria non quantistica. Un altro problema è come mai la forza di gravità risulti estremamente più debole in confronto alle altre. Il cosiddetto “problema gerarchico” è uno dei misteri del modello standard. Ci sono poi delle evidenze che derivano dagli esperimenti per cui non tutto è come sembra. Il neutrino, che si suppone non abbia massa, ha di fatto una massa molto piccola. Tutto questo indebolisce la consistenza matematica del modello standard e, forse, indica la strada verso la ricerca di una nuova fisica. Ancora più misteriose sono la materia scura e l’energia scura quelle componenti enigmatiche che prese insieme rappresentano quasi il 96% del contenuto materia-energia dell’Universo. Il modello standard rimane “in silenzio” e non dice nulla sulla loro identità. Dato che esistono queste problematiche, i teorici stanno tentando di aggirare il problema proponendo delle soluzioni che si basano, ad esempio, sull’esistenza di nuove particelle e di nuove simmetrie della natura. Ma nessun acceleratore ha finora mostrato delle evidenze relative all’esistenza di particelle esotiche inaspettate e nemmeno LHC. Anche se fra qualche anno il grande collisore adronico utilizzerà fasci di particelle con valori di energia ancora superiori sarà molto probabile che il modello standard venga confermato ma certamente ad oggi non lo sappiamo. Insomma, pare che i fisici si trovino nella stessa posizione del filoso greco Democrito il quale era convinto che la materia non potesse essere suddivisa ulteriormente e indefinitivamente, una idea che venne solo ribaltata duemila anni più tardi. Bisogna ricordare che il concetto dei “primi atomi” non concluse definitivamente la storia nel senso di Democrito e, forse, possiamo dire di non essere certamente sicuri che siamo arrivati analogamente alla stessa conclusione con il concetto dei quark di Gell-Mann. È probabile che gli esperimenti futuri o qualche mente geniale possano riservarci delle sorprese.


Il desiderio di saper ‘tutto’

È colpa degli antichi filosofi greci. Sì, perché tutto è cominciato da loro o meglio dai quattro elementi (aria, acqua, terra, fuoco) che venivano considerati gli elementi fondamentali della natura. Di che cosa è fatta allora la materia? Quali sono le regole che governano il suo comportamento? Dobbiamo andare in profondità e vedere se possiamo arrivare a formulare una teoria che spieghi tutti i fenomeni naturali. In un certo senso, gli scienziati hanno lavorato molto bene. Le stranezze della meccanica quantistica ci possono lasciare molto perplessi ma il modello standard riduce le cose a poche particelle elementari e a tre interazioni fondamentali. La relatività generale tratta la gravità come la deformazione dello spaziotempo e ci fornisce una descrizione alquanto dettagliata dell’Universo su larga scala. È vero, ci sono ancora delle lacune nelle due teorie ma certamente saranno eliminate man mano che la scienza fa progressi. Siamo, però, sicuri che si arriverà ad una unificazione delle leggi fisiche che possano essere formulate nell’ambito di una unica teoria? Se pensiamo, ad esempio, alla tavola periodica degli elementi, inventata da Dmitri Mendeleev, la cosa che notiamo è l’eleganza di una classificazione ben strutturata ma non abbiamo idea di quale sia la vera essenza fisica di questa struttura. Ora sappiamo che la relatività generale e la meccanica quantistica non sono compatibili. Ma questo non rappresenta un problema quando utilizziamo singolarmente la relatività per descrivere il macrocosmo, cioè le stelle, le galassie o le strutture cosmiche, o la teoria quantistica per descrivere il microcosmo, cioè il mondo degli atomi e delle particelle subatomiche. Nonostante ciò, per avere una comprensione globale di come funzioni l’Universo dobbiamo sapere come si è originato. In altre parole, se andiamo indietro nel tempo fino a raggiungere il momento del Big Bang abbiamo bisogno di entrambe le teorie. Allo stesso modo, quando vogliamo capire come funzionano i buchi neri dobbiamo ricorrere sia alla relatività generale che alla meccanica quantistica. Negli anni ’70, Stephen Hawking e Jacob Bekenstein mostrarono che questi “mostri del cielo” possono distruggere l’informazione, un fatto che però è vietato dalla teoria quantistica. Persino la descrizione basilare dello spaziotempo mette in evidenza l’incompatibilità delle due teorie. Lo spaziotempo della relatività è una entità unica ed è descritto come un “tessuto” quadridimensionale liscio, piano e regolare. Invece, per la meccanica quantistica lo spazio diventa alquanto irregolare, estremamente distorto e ingarbugliato, essendo costituito da unità elementari che hanno dimensioni dell’ordine di 10-35 metri, e non tratta il tempo come una entità reale e osservabile. Se dovessero scommettere per l’una o l’altra teoria, molti fisici sceglierebbero quasi sicuramente la meccanica quantistica perchè viene considerata “giusta”, “corretta” dato che la sua struttura matematica alquanto complessa ci permette di descrivere al meglio come funziona il mondo che ci circonda. Altri, invece, da Einstein in poi, hanno preso di mira la meccanica quantistica poiché sembra “irreale”, “bizzarra” e perché ammette delle correlazioni tra oggetti che sembrano apparentemente scorrelati. Se non si trovano delle motivazioni scientifiche convincenti per giustificare questi fenomeni allora la meccanica quantistica potrebbe essere una “approssimazione” di una teoria ancora più profonda. Alcuni tentativi che sono stati fatti per superare queste difficoltà concettuali hanno portato i teorici a formulare idee alternative e tra queste la cosiddetta simmetria. La supersimmetria è una teoria ampiamente condivisa che viene vista come una sorta di tappa nel percorso che porta alla teoria delle stringhe, cioè la miglior candidata per essere considerata la teoria ultima. La teoria delle stringhe implica che lo spazio sia caratterizzato da dimensioni spaziali extra nascoste dove esistono delle simmetrie che “piegano”, per così dire, l’energia in forme geometriche che assomigliano a certe particelle fondamentali o simulano il modo con cui lo spazio viene distorto in presenza della massa. La teoria prevede l’esistenza di alcune particelle, come il gravitone, un bosone a lungo cercato che dovrebbe essere responsabile della trasmissione dell’interazione gravitazionale. Pare, dunque, che la teoria delle stringhe possa prendere piede verso un quadro unificato di tutte e quattro le forze della natura sulla base dei concetti descritti nella teoria quantistica. Ma come tutte le altre teorie che sono state proposte come “teoria del tutto”, la teoria delle stringhe prevede l’esistenza di entità fondamentali, le stringhe appunto, che non potranno mai essere osservate o rivelate sperimentalmente. Naturalmente, c’è chi dice che da un lato la teoria è salva ma dall’altro potrà essere superata non essendoci alcuna ragione per affermare che essa esista o possa essere trovata in futuro. Uno dei problemi è che la matematica fornisce infiniti modi con cui i numeri e le equazioni possono essere assemblati ma ciò non dà alcuna indicazione di quello che potrebbe esistere al di là di essa. Insomma, la matematica vale nel dominio delle cose astratte mentre la fisica non si pone il problema di capire cosa sono quelle cose astratte né tenta di trovarle per verificare se corrispondo, o meno, alla realtà. C’è da dire anche che la frazione di matematica pura che gli scienziati hanno sviluppato nel corso del tempo per costruire teorie fisiche è relativamente piccola. Ad esempio, tutte le relazioni tra le particelle e le forze e lo spazio e il tempo possono essere rappresentate da un sottoinsieme di operazioni matematiche calcolabili da una macchina di Turing che sta alla base di tutti i nostri computer. Ma non sappiamo le ragioni perché debba essere così e ciò sembra un fatto decisamente “brutale”. Oggi, i progressi scientifici verso la ricerca di una teoria del tutto possono richiedere alcune aree della matematica che non sono facilmente trattabili con i computer. C’è, però, chi vuole cambiare il punto di vista e abbandonare l’idea in base alla quale iniziare dalla matematica non necessariamente implica arrivare alla realtà fisica. Forse, dovremmo prima guardare ai problemi più attuali come quelli che riguardano la materia scura o l’energia scura o, ancora, come mai la forza di gravità sia estremamente più debole rispetto alle altre tre forze e cercare così di trovare delle soluzioni che possano risolvere questi enigmi astrofisici (vedasi Enigmi Astrofisici). Solo allora potremo formulare delle equazioni matematiche e verificarle sperimentalmente. Potrebbe essere la direzione giusta per affrontare questi problemi anche se ci sono molti teorici che procedono al contrario e spesso non ottengono risultati positivi. Ma ne vale la pena? Sì se assumiamo, nel modo con cui viene definita dai fisici, il fatto che quando si parla di teoria del tutto si intenda un modello matematico che non dia tutte le risposte: ad esempio, questa teoria non potrebbe mai spiegare l’origine della vita o, ancora peggio, fornirci una risposta sul perché siamo qui. Può darsi anche che il motivo per cui i teorici vogliono continuare a cercare non sia l’obiettivo ultimo ma siano le strade o i modi per arrivare ad essa. Le nostre conquiste più grandi del pensiero scientifico sono arrivate sempre da una serie di tentativi che hanno permesso di semplificare e di mettere insieme le più disparate aree della conoscenza. Per un fisico teorico puro che tenti di arrivare ad una teoria ultima, forse per la sua gloria, potrebbe essere rischioso e deludente così come gli scienziati che credevano, verso la fine del XIX secolo, che fossero state scoperte tutte le leggi della fisica. Si potrebbe arrivare certamente alla formulazione di uno schema meraviglioso, che potrebbe stare all’interno di una sfera di cristallo, ed essere ammirato e celebrato da tutti come la più grande conquista dell’intelletto umano. Ma ricordiamoci, però, che esiste sempre la possibilità che qualcuno altro possa arrivare a formulare una teoria migliore e più profonda.  

Nessun commento:

Posta un commento