sabato 27 dicembre 2014

Breve storia del modello standard

Quella che segue è una panoramica relativa agli ultimi sviluppi della migliore teoria che ci permette di descrivere le particelle elementari e le interazioni fondamentali: stiamo parlando del modello standard. Esso si basa su teorie di gauge, dette anche teorie di scala, cioè una classe di teorie di campo basate sull'ipotesi dell'invarianza di alcune simmetriedi cui la prima è stata l’elettrodinamica quantistica, che descrive le interazioni elettroni-luce. Questa venne più tardi incorporata nella teoria elettrodebole, relativa alle interazioni elettromagnetica e nucleare debole. Nel corso del tempo, il modello standard incluse anche la cromodinamica quantistica che descrive l’interazione nucleare forte. L’ultimo tassello mancante del modello standard è stato il bosone di Higgs, scoperto nel 2012 al CERN. Nonostante ciò, la teoria delle particelle e delle interazioni è ancora lontana dall’avere l’ultima parola dato che esistono molti punti oscuri che dovranno essere risolti.

Atomi e loro costituenti
La struttura dell'atomo secondo il modello a quark.
Quark ed elettroni sono le particelle più fondamentali.
Credit: LBNL
Sin dai tempi più antichi, l’uomo si è sempre chiesto di che cosa siamo fatti. Quali sono gli elementi fondamentali del mondo che ci circonda? E come interagiscono? La prima teoria atomica, il fatto cioè che la materia è composta da atomi "indivisibili", risale al V secolo a.C. quando venne introdotta inizialmente dal filosofo greco Leucippo e successivamente dall'altro filosofo greco Democrito. Nel XIX secolo, i chimici, a partire da JohnDalton, cominciarono a comprendere passo dopo passo la realtà degli atomi, considerati ancora entità indivisibili. Oggi, però, sappiamo che gli atomi sono tutt’altro che indivisibili. La maggior parte della massa di un atomo è concentrata nel nucleo che è circondato da una ‘nube’ di elettroni. A sua volta, il nucleo è composto da protoni e neutroni, che non sono particelle elementari. In realtà, esse sono composte da particelle ancora più piccole, chiamate quark. Finora, almeno per quanto ne sappiamo, gli elettroni e i quark sono effettivamente particelle fondamentali. Nel corso dell’ultimo secolo, i fisici hanno costruito un quadro teorico che va sotto il nome di modello standard che descrive le proprietà delle particelle elementari e le loro interazioni. La teoria è stata dimostrata in maniera accurata a seguito di vari esperimenti e sempre con grande successo, anche se esistono ancora alcune piccole discrepanze.

Stranezze
Descrivere il modello standard non è così semplice poiché è abbastanza complesso e non esiste un linguaggio appropriato. Una cosa che gli scienziati hanno imparato nel corso del tempo è che le particelle non devono essere considerate delle versioni in miniatura di oggetti più grandi. Il loro comportamento appare veramente bizzarro alla luce della nostra esperienza quotidiana. Il primo esempio di stranezza riguarda il dualismo onda-particella, che nel nostro mondo riguarda due cose ben distinte. Ma nel mondo degli atomi, esiste un dibattito che dura ormai da oltre due secoli: la luce è un’onda o è costituita da particelle? La risposta è: entrambe le cose. 

L'esperimento di Young
della doppia fenditura.
Nel 1801, Thomas Young dimostrò che la luce è in realtà un’onda: se un fascio luminoso attraversa un ostacolo con due fenditure, su uno schermo posto al di là dell’ostacolo si formeranno delle zone di luce e ombra, alternate e a forma di strisce, in cui le onde si sommano o si cancellano rispettivamente (come mostrato in figura: due onde cilindriche partono dai quadrati rossi; a causa dell'interferenza, i punti neri sullo schermo non ricevono mai luce, mentre quelli rossi avranno intensità massima). Ma il lavoro di Albert Einstein sull’effetto fotoelettrico, che gli valse il Premio Nobel per la Fisica nel 1921, permise di dimostrare che quando la luce viene assorbita, l’energia può essere solamente estratta sotto forma di quantità discrete, dette quanti o più comunemente fotoni, la cui energia E è correlata alla frequenza f della luce secondo la relazione E = hf dove h è la costante di Planck. Dunque, il fatto che la luce si comporti come un’onda o una particella dipenderà da ciò che decidiamo di osservare. Lo stesso è vero per gli elettroni e altre particelle: essi esibiscono una natura ondulatoria. In generale, le particelle producono frange d’interferenza quando attraversano due fenditure parallele. Questo è alquanto strano: se sono particelle allora, uno si immagina, esse devono passare attraverso una delle due fenditure. Non solo, ma se adoperiamo un dispositivo che ci permette di osservare da quale fenditura sono passate le particelle, l’immagine dell’interferenza scompare. Le lunghezze d’onda coinvolte sono molto piccole perciò se vogliamo una risoluzione molto elevata di quella che può fornire un microscopio ottico, dobbiamo ricorrere ad una versione elettronica dello strumento. Ma vedere maggiori dettagli su scale subatomiche richiede degli strumenti ancora più potenti ed è per questo che vengono utilizzati i grandi acceleratori di particelle

Esistono due famiglie di particelle:
i bosoni, che mediano l'interazione fondamentale,
e i fermioni che si suddividono in quark e leptoni.
La maggior parte delle particelle note possiedono una rotazione intrinseca, detta spin, che corrisponde al momento angolare il cui valore è sempre un multiplo intero o semi-intero della quantità h/2π, indicata con il simbolo . Esistono due famiglie di particelle: i bosoni, il cui spin è 0, ℏ, 2ℏ, … e i fermioni, che hanno spin (1/2)ℏ, (3/2)ℏ, … Per semplicità, si parla di “spin 0”, “spin ½”, “spin 1” e così via. I bosoni sono più "sociali" e tendono ad occupare lo stesso stato quantico, mentre ai fermioni (tra cui i protoni, neutroni ed elettroni) è vietato dal cosiddetto principio di esclusione di Pauli che sta alla base della struttura atomica.










Elettrodinamica quantistica
Il modello standard descrive come interagiscono queste curiose entità. Il primo pezzo della teoria che raggiunse una formulazione avanzata fu l’elettrodinamica quantistica (Quantum Electro-Dynamics, QED) che tratta le interazioni della luce, o dei fotoni, con gli elettroni. La QED è una teoria di campo, cioè ogni particella viene descritta da un campo che si estende nello spazio. I fotoni sono associati ai campi elettrici e magnetici e c’è anche un campo elettronico. Le particelle possono essere pensate come piccoli "pacchetti d’onda", ossia treni d’onda brevi che si propagano in questi campi, anche se l’analogia non è del tutto esatta. La teoria dell’elettrodinamica quantistica fu inventata negli anni ’30 e diede ottimi risultati, anche se dovette far fronte ad una serie di problemi. Il metodo di calcolo utilizzato, chiamato teoria delle perturbazioni, si basa su una serie di approssimazioni successive. La prima approssimazione dava risultati che erano, di solito, entro qualche percento dal risultato corretto. Il problema stava nel fatto che le approssimazioni di ordine superiore, intese a dare valori più accurati, portavano invece a valori infiniti. La soluzione al problema emerse subito dopo la seconda guerra mondiale e fu trovata, indipendentemente, da tre fisici: nel 1947 da Richard Feynmann e Julian Schwinger e qualche anno prima, nel 1943, da Sin-Itiro Tomonaga, che lavorava da solo al tempo della guerra in Giappone. La soluzione venne chiamata rinormalizzazione, un insieme di tecniche per trattare gli infiniti che emergono nel calcolo delle quantità fisiche, in particolare utilizzata per le correzioni della massa e della carica elettrica dell’elettrone. Questa sorta di "gioco di prestigio" con i valori infiniti pare sia una procedura sospetta, ma funziona: dopo aver effettuato la rinormalizzazione i risultati ottenuti divennero finiti e concordavano con una accuratezza impressionante con i dati sperimentali. Insomma, verso la fine degli anni ’50, la QED era diventata rapidamente la teoria più accurata nella storia della fisica.

Le altre forze della natura
Ma c’erano altre forze da tener conto perciò i fisici iniziarono ad elaborare una serie di modelli che avessero un successo analogo alla QED. Sappiamo che esistono quattro forze fondamentali. Due di queste, elettromagnetica e gravitazionale, sono a noi familiari perché si tratta di forze a lungo raggio in cui l'intensità diminuisce con l’inverso del quadrato della distanza. Nella QED, la forza elettromagnetica che agisce tra due elettroni può essere pensata come dovuta allo scambio di fotoni. È una forza a lungo raggio poiché il fotone non ha massa, il che vuol dire che non ha massa a riposo. Una particella che possiede una certa massa a riposo m ha una quantità minima di energia data dalla famosa equazione di Einstein E = mc2. Ma un fotone non si trova mai a riposo e la sua energia può essere piccola a piacere. Anche l’interazione gravitazionale è una forza a lungo raggio e si ipotizza che viene trasmessa da un’altra particella senza massa, chiamata gravitone. Su scale subatomiche, la forza gravitazionale si può considerare quasi trascurabile: l’attrazione gravitazionale tra due protoni è molto più debole della repulsione elettrostatica di un fattore dell’ordine di un trilione di trilione di trilione di volte. I gravitoni sono al momento, e forse per sempre, estremamente irraggiungibili nonostante gli scienziati sperano di essere in grado di rivelare le onde gravitazionali entro i prossimi anni.

La ricerca delle simmetrie  
Dopo il successo della QED, uno degli obiettivi principali dei teorici delle particelle fu quello di studiare le altre due forze della natura che sono, invece, meno familiari essendo a corto raggio e trascurabili su scale più grandi di quelle di un nucleo atomico. Queste due interazioni sono chiamate forza nucleare forte e forza nucleare debole. La prima lega protoni e neutroni nei nuclei atomici, la seconda appare in una forma di radioattività, ossia il decadimento nucleare beta in cui un neutrone si trasforma in un protone, un elettrone e nell’elusivo neutrino, e gioca un ruolo importante nel meccanismo che genera energia nel Sole. Prima della seconda guerra mondiale, erano note una manciata di particelle presumibilmente elementari ma dopo la guerra, quando gli scienziati tornarono a studiare i raggi cosmici e le collisioni particellari negli acceleratori, essi scoprirono una sorta di enorme zoo di particelle, forse un centinaio o più, per cui ci si chiese subito se si trattava in definitiva di particelle fondamentali. Per dare un senso a questo grande zoo di particelle, i fisici iniziarono a cercare delle possibili relazioni, un pò come avevano fatto i chimici qualche secolo prima con la tavola periodica degli elementi. Ciò permise di rivelare numerose similitudini e simmetrie approssimate. Prima della guerra, Werner Heisenberg aveva suggerito l’esistenza di una simmetria tra protoni e neutroni. Egli aveva sottolineato la loro similitudine, dovuta alla stessa interazione forte, allo stesso spin e quasi alla stessa massa, e suggerì che protoni e neutroni si dovevano considerare come due stati differenti della singola entità, chiamata nucleone. Inoltre, Heisenberg propose una simmetria, detta isospin: in altre parole, il termine non ha a che fare con lo spin reale della particella ma deriva da una analogia matematica che riguarda la simmetria tra gli stati quantici di un elettrone. Naturalmente, non si tratta di una simmetria esatta. 


L'ottetto del mesone. Le particelle disposte sulla stessa linea
orizzontale hanno la stessa stranezza (s), mentre quelle
disposte sulla stessa diagonale hanno la stessa carica q.
Infatti, protoni e neutroni differiscono poiché il protone ha una carica elettrica e il neutrone non ce l’ha: la simmetria viene a mancare a causa dell’elettromagnetismo. Ma si può considerare ancora una buona approssimazione, per esempio nel classificare i livelli di energia dei nuclei atomici leggeri, dato che a distanze brevi l’interazione forte è molto più intensa di quella elettromagnetica. Nel 1961, si trovò che le numerose particelle elementari, che venivano identificate di volta in volta, potevano essere disposte secondo uno schema bidimensionale che indicava una simmetria più ampia ma anche più approssimata. Questo tipo di simmetria venne proposta indipendentemente da Murray Gell-Mann e da Yuval Ne’eman, all’epoca studente di Abdus Salam. Gell-Mann chiamò questa simmetria “la via dell’ottetto” poiché ricordava la caratteristica struttura geometrica degli ottetti.

Le teorie di gauge
Intanto, la domanda che si ponevano i teorici era: dove cercare le teorie per descrivere l'interazioni forte e debole? Qualche scienziato andava affermando di abbandonare la teoria di campo a favore di una teoria alternativa, chiamata Matrice-S. Ma Salam e altri colleghi erano convinti che la risposta si celasse in una particolare teoria di campo, detta teoria di gauge. La QED è la più semplice delle teorie di gauge, il che implica che possiede un particolare tipo di simmetria la cui manifestazione più semplice consiste nel fatto che ciò che conta è la differenza di potenziale piuttosto che i valori assoluti del potenziale. La prima teoria di gauge fu proposta nel 1954 da Chen-Ning Yang e Robert Mills e venne incorporata nella simmetria di isospin di Heisenberg. La stessa teoria venne in realtà elaborata indipendentemente da Ronald Shaw, un altro studente di Salam, sebbene non venne mai pubblicata se non come tesi di dottorato presso l’Università di Cambridge: il lavoro di Shaw era inteso in termini di proposta di una teoria dell’interazione forte ma alla fine si trovò che non era la teoria corretta nonostante rappresentò la base di lavori successivi. Ci furono anche altre proposte per una teoria di gauge dell'interazione debole, la prima introdotta da Schwinger nel 1956. Intanto, era stato scoperto che così come l’interazione elettromagnetica viene mediata dai fotoni, anche l’interazione debole poteva essere mediata da particelle, chiamate W+ e W-  dove i segni "più" e "meno" indicano la carica elettrica positiva e negativa rispettivamente. In qualche modo, queste particelle dovevano essere simili al fotone, in particolare esse hanno tutte spin 1, ma con una differenza importante. Per spiegare il raggio d’azione estremamente corto dell’interazione debole, venne assunto che le particelle W fossero molto massicce, circa 100 volte più pesanti del protone. Schwinger suggerì che queste particelle potevano essere considerate proprio i "bosonidi gauge" della teoria e che in definitiva ci doveva essere un’unificazione dell’interazione debole ed elettromagnetica in cui le particelle W+ , W- e il fotone apparivano in maniera simmetrica. Ma anche in questo caso, questa simmetria non poteva essere esatta e perciò doveva venir meno a causa della differenza delle masse. Gli scienziati avanzarono così altre proposte. Nel 1961, Sheldon Glashow propose una teoria modificata. Per risolvere un altro problema con lo schema di Schwinger, in merito alla "simmetria a specchio", Glashow aggiunse un quarto bosone di gauge, denominato Z0, elettricamente neutro come il fotone. Salam e il suo collaboratore, John Ward, proposero essenzialmente la stessa teoria nel 1964, apparentemente inconsapevoli del lavoro di Glashow.

Il problema della massa
Ci fu, però, un grosso problema con tutte queste proposte. Si doveva trovare qualche meccanismo che causava la rottura della simmetria, lasciando il fotone senza massa e trasferendo agli altri bosoni di gauge una massa enorme. Il processo di rinormalizzazione non permetteva di ottenere valori finiti. Da qui, gli scienziati si posero la domanda se e come la rottura della simmetria poteva avvenire in maniera spontanea. 


Illustrazione del concetto di rottura della simmetria.
Ad un livello elevato di energia (a sinistra) una palla posta al centro (nel punto più basso di energia) si trova in una situazione di simmetria. A livelli di energia più bassi, il centro diventa instabile e la palla rotola verso un punto più basso e così facendo raggiunge una posizione arbitraria, spezzando così la situazione di simmetria.
La rottura spontanea della simmetria è un fenomeno ben noto e onnipresente. Ciò vuol dire che la teoria che sta alla base di un fenomeno fisico rimane simmetrica ma la sua particolare realizzazione non lo è. Essa avviene in una transizione di fase, come nel caso del passaggio dallo stato liquido a quello solido, in cui ci si sposta da una fase dove la simmetria è evidente ad una in cui non lo è. Ad esempio, prendendo un secchiello circolare che contiene dell’acqua, esso appare esattamente uguale in ogni direzione da cui viene osservato: si dice che ha simmetria circolare. Ma quando l’acqua diventa ghiaccio, i cristalli si allineano lungo una particolare direzione, spezzando la simmetria. La rottura della simmetria è spontanea nel senso che non possiamo prevedere in anticipo quale direzione sarà scelta, a meno che non esistano delle imperfezioni nel secchiello che determinano la mancanza della simmetria. Ad ogni modo, ciò non risolve il problema perché si riteneva che in ogni teoria compatibile con la relatività speciale la rottura spontanea della simmetria dovesse sempre portare all’emergere di un particolare tipo di bosoni "indesiderati" e senza massa, detti “bosoni Nambu-Goldstone”, indesiderati perché nessuno ha mai visto queste particelle nonostante dovrebbero essere state rivelate facilmente. Queste particelle corrispondono alle onde che si propagano nella direzione lungo la quale si rompe la simmetria. Nel 1961, Steven Weinberg visitò l’Imperial College di Londra dove trascorse molto tempo discutendo con Salam del problema. La loro conclusione infelice, cioè il fatto che queste particelle sono inevitabili, fu il contenuto del cosiddetto teorema Goldstone, che venne poi pubblicato insieme al contributo di Jeffrey Goldstone. La fuga da questo ostacolo venne trovata indipendentemente da tre gruppi: il primo gruppo guidato da François Englert e Robert Brout a Brussels, il secondo guidato da Peter Higgs a Edinburgo e qualche mese dopo un terzo gruppo guidato da due fisici americani Gerald Guralnik e Carl Richard Hagen e da Tom Kibble a Londra. I tre gruppi pubblicarono i loro lavori su Physical Review Letters tra l’estate e l’autunno del 1964. Gli scienziati affrontarono il problema da prospettive diverse ma arrivarono alla stessa conclusione. Non c’è nulla di errato nella prova del teorema di Goldstone se non per il fatto che esso si basa sulla naturale assunzione che è falso per le teorie di gauge. Secondo il meccanismo proposto, i bosoni di gauge “mangiano”, per così dire, i bosoni di Nambu-Goldstone acquisendo di conseguenza massa. La rottura spontanea della simmetria viene raggiunta attraverso l’azione di un nuovo campo scalare le cui particelle corrispondenti sono i bosoni di Higgs. Per scalare si intende il fatto che i bosoni di Higgs, in maniera unica tra le particelle elementari note, hanno spin 0. All’epoca, i tre articoli non ebbero tanto successo. Sebbene da allora è stato derivato il modello unificato di Glashow e il meccanismo di generazione della massa delle particelle, ci vollero più di tre anni per mettere insieme le due cose. Intanto, nel 1967 Kibble scrisse un articolo che aveva lo scopo di esplorare il modo con cui il meccanismo di generazione della massa poteva essere applicato a modelli più realistici, lavoro che fece emergere in Salam un nuovo interesse. Finalmente, verso la fine del 1967 Weinberg propose una teoria unificata dell’interazione debole ed elettromagnetica che combinava il modello di Glashow con il meccanismo di generazione della massa. Salam aveva sviluppato essenzialmente la stessa teoria indipendentemente e la presentò durante una serie di lezioni che diede nell’autunno dello stesso anno all’Imperial College di Londra, prima di pubblicarla l’anno successivo: egli la chiamò teoria elettrodebole. Sia Salam che Weinberg pensavamo che la teoria fosse davvero rinormalizzabile e perciò autoconsistente e questo fu provato solo nel 1971 a seguito di un duro lavoro che fu condotto da un giovane studente di nome Gerard ’t Hooft. La correttezza del modello venne confermata durante i successivi vent’anni dagli esperimenti realizzati al CERN e in altri laboratori, inclusa la scoperta delle particelle W+, W, e Zavvenuta nel 1983 ad opera di Carlo Rubbia e Simonvan der Meer.

Quark e gluoni
Mentre era in corso tutto ciò, si ebbero degli sviluppi importanti, nonostante fossero molto diversi, nell’ambito degli studi sull’interazione nucleare forte. La storia ebbe inizio con il tentativo di comprendere la simmetria dell’ottetto che abbiamo menzionato prima. Nel 1963, Gell-Mann, e indipendentemente George Zweig, proposero un’idea in base alla quale la spiegazione di questa simmetria poteva essere descritta assumendo che le particelle soggette all’interazione nucleare forte fossero composte da tre entità fondamentali. Parafrasando le parole dal romanzo Finnegan's Wake, l'ultimo testo di James Joyce, Gell-Mann definì queste entità con il nome di “quark” distinguendo le loro proprietà con i termini “up” (u), “down” (d) e “strange” (s). Ad esempio, il protone e il neutrone sono composti da tre quark: il protone emerge da una combinazione di quark (uud) mentre il neutrone dalla combinazione (udd). I quark-strange, che hanno una massa significativamente maggiore, fanno parte di particelle più esotiche. Vista in questo modo, la simmetria isospin si ha tra quark-up e quark-down mentre la simmetria dell’ottetto si ha approssimativamente tra i quark-up, i quark-down e i quark-strange. A differenza delle altre particelle note, una delle proprietà più strane dei quark è data dal fatto che essi possiedono una carica elettrica multipla della frazione della carica elettrica del protone e: cioè (2/3)e per il quark-up e (-1/3)e per i quark-down e quark-strange. Ad ogni modo, c’era una falla in questo schema che può essere illustrata dall’esistenza di un barione delta, indicato dal simbolo Δ++ e composto da tre quark-up. Dato che essa ha spin pari a 3/2, lo spin dei tre quark-up (ciascuno pari a 1/2) deve puntare nella stessa direzione. Ciò vuol dire che essi occupano lo stesso stato, in contraddizione con il principio di esclusione di Pauli. Una soluzione a questo problema fu introdotta nel 1964 da Moo-Young Han e Yoichiro Nambu e indipendentemente da Oscar WallaceGreenberg: gli scienziati proposero che ciascuno dei tre quark possiede tre “colori” diversi, per convenzione rosso, verde e blu, anche se non hanno niente a che fare con i veri colori. In generale, tutte le particelle note sono di colore neutro, cioè contengono un quark di ogni colore, oppure un quark e la sua antiparticella. In questo modo, i tre quark (uuu) hanno tre colori differenti e perciò non violano il principio di Pauli. In altre parole, esiste una simmetria perfetta tra i diversi colori. 


Modello standard delle particelle elementari.
Oggi sappiamo che esistono sei tipi di quark e non tre: gli altri tre sono chiamati “charm” (c), “bottom” o “beauty” (b) e “top” o “truth” (t). I sei quark possono essere combinati in tre coppie (u,d) (c,s) (t,b) ciascuna con la stessa coppia di cariche, cioè (2/3e) e (-1/3e). Ogni coppia appare sostanzialmente uguale tranne per il fatto che esse tendono a diventare più massicce: il quark-top è di fatto più pesante dei bosoni di gauge W e Z. Anche l’elettrone ha due compagni simili ma più pesanti, il muone (µ) e il tauone (τ), ciascuno dei quali è accoppiato con un neutrino che ha carica nulla. Quindi, sia per i quark che per quelli che chiamiamo leptoni c’è una struttura peculiare di tre generazioni di particelle. I fisici hanno impiegato del tempo per convincersi che questa soluzione, apparentemente artificiale, è di fatto corretta. Quella del colore si dimostrò la chiave essenziale per comprendere l’interazione nucleare forte. Han e Nambu suggerirono che l’interazione forte sarebbe stata mediata da un insieme di otto bosoni di gauge, chiamati “gluoni”, accoppiati in maniera specifica con i colori. Questa idea sta alla base dell’attuale teoria di gauge dell’interazione forte chiamata cromodinamica quantistica (Quantum Chromo-Dynamics, QCD). Mentre le forze a noi familiari, come l’elettromagnetismo, diventano sempre più deboli all’aumentare della distanza, per contrasto la forza di colore diventa molto debole man mano che si riduce la distanza, un risultato che fu provato nel 1973 da David Gross, Frank Wilczek e David Politzer in ciò che essi definirono “libertà asintotica”, ossia la proprietà per cui l'interazione tra le particelle diviene arbitrariamente sempre più debole per distanze più piccole. Il perché nessuno abbia mai osservato quark o gluoni liberi viene spiegato dal fenomeno detto “confinamento”: cioè la forza di colore che si esercita tra le particelle che non hanno una carica di colore neutra aumenta verso distanze maggiori. È un pò come se i quark all’interno dei protoni o dei neutroni fossero legati in qualche modo da una sorta di elastico e perciò non possono sfuggire o essere osservati individualmente.

Il bosone di Higgs e oltre
La QCD potrebbe sembrare una teoria alquanto strana ma oggi è ben consolidata. Assieme alla teoria elettrodebole, esse rappresentano i pilastri fondamentali su cui si basa il modello standard, dove i quark e leptoni hanno spin ½ mentre i bosoni di gauge hanno spin 1. Nel corso degli ultimi quarant’anni, il modello standard è stato verificato da numerosi esperimenti sempre con successo. Ma fino a qualche tempo fa, c’era un problema: per completare il quadro mancava il bosone di Higgs. Tornando al 1964, l’esistenza di una particella extra venne considerata un fatto secondario poiché la cosa più importante era capire quel meccanismo che conferisce la massa ai bosoni di gauge. Tuttavia, circa venti anni dopo, la cosa assunse un significato speciale in quanto si trattava dell’ultimo tassello mancante del modello standard. La caccia al bosone di Higgs, altresì noto come “la particella di Dio”, fu uno degli obiettivi principali del Large Hadron Collider (LHC) che vide la sua apoteosi nel 2012 quando i fisici del CERN annunciarono la scoperta dopo aver analizzato i dati dei rivelatori ATLAS e CMS. Dunque, siamo arrivati alla fine della storia? La risposta è no. Il modello standard può avere difficilmente l’ultima parola. Nonostante abbia avuto un grande successo, è lontano dall’essere considerato alquanto semplice. Ha qualcosa come 20 parametri arbitrari, cose come rapporti di massa e intensità di accoppiamento che non possiamo prevedere e che non pare abbiamo delle relazioni ovvie e definite. In più, ci sono tutta una serie di altre caratteristiche che non hanno alcuna spiegazione. Come mai esistono tre generazioni o famiglie di particelle che hanno proprietà simili ma masse estremamente diverse? Perché i quark hanno tre colori? Una ipotesi afferma che tutte queste scelte sarebbero casuali. Ci possono essere stati tanti big-bang in cui ognuno genera un universo a parte caratterizzato da un proprio insieme di parametri. La maggior parte di questi universi potrebbero essere privi di vita anche se per molti fisici questa è una risposta non soddisfacente. Dal punto di vista osservativo, esistono ancora tante cose che non possono essere spiegate. Ad esempio, qual è la natura della materia scura? Perché l’Universo contiene più materia che antimateria? Poi ci sono alcuni punti sui quali il modello standard non concorda con le osservazioni. In particolare, nel modello standard i neutrini non hanno massa anche se sappiamo che essi hanno una massa molto piccola, comunque diversa da zero. Non abbiamo idea del perché debba essere così. 


Schema generale delle particelle, interazioni e materia.
Infine, c’è un altro, grande problema: la gravità non appare nel modello standard. Risulta difficile conciliare la miglior teoria della gravità, la relatività generale, con la teoria dei quanti, un problema dibattuto per quasi un secolo. Oggi, le speranze sembrano risiedere nella teoria delle stringhe, o nella sua concezione più moderna denominata teoria-M, che potrebbe unificare le due teorie del mondo microscopico e di quello macroscopico una volta per tutte, anche se per ora non sono state raggiunte conclusioni definitive. Insomma, pare proprio che i teorici avranno tanto lavoro da affrontare negli anni a venire.

Nessun commento:

Posta un commento