“Per potere immortal sono legate da vicino o lontan, nascostamente, tutte le cose, sì che far tremare non puoi un fior senza turbare un astro”

Francis Thompson (1859-1907)

PREMESSA

Oggi molti scienziati credono che possa esistere una chiave capace di far comprendere il segreto matematico che sta al cuore dell’universo, la cosiddetta “teoria del tutto”; il sogno di descrivere tutto l’universo in un’equazione. Sogno non nuovo: Einstein spese la seconda parte della propria vita nella ricerca infruttuosa e solitaria di tale teoria del tutto.

In Grecia, nel VI secolo a. C., apparvero dei pensatori che cercavano di scoprire il “principio” unico alla base dell’infinita diversità delle cose. Per Talete fu l’acqua; per Anassimene, l’aria; per Eraclito, il fuoco; per Anassimandro, l’illimitato. Per Platone la teoria del tutto si può riassumere nella frase “tutto è triangolo”. Anche nel medioevo si tentò di codificare e ordinare tutto quanto si sapeva sul cielo e la terra. I grandi sistemi come la “Summa” di Tommaso d’Aquino o la “Divina Commedia” di Dante cercavano di sintetizzare tutta la conoscenza dell’epoca.

Ma è la storia delle teorie fisiche che fa pensare a un graduale sviluppo verso l’unificazione. La prima grande sintesi si deve a Newton, che dimostrò che il moto dei proiettili sulla terra e le orbite dei pianeti si potevano spiegare con la stessa semplice legge. Analogamente, Maxwell propose una teoria unificata dell’elettricità e del magnetismo. Nel ventesimo secolo la teoria di Newton è stata scalzata dalla teoria della relatività generale di Einstein, mentre la teoria di Maxwell è stata ampliata per creare una teoria quantistica dei campi, chiamata elettrodinamica quantistica. Recentemente la forza debole è stata associata all’elettromagnetismo. Anche la forza forte viene descritta da una teoria quantistica dei campi e può darsi che alla fine si possano considerare tutte e tre le forze (forte, debole ed elettromagnetica) come manifestazioni di un solo principio.

Negli ultimi decenni sono stati compiuti notevoli progressi nell’identificazione delle particelle fondamentali e nella conoscenza delle loro reciproche interazioni. Restano da risolvere molti problemi: due dei più importanti riguardano la gravitazione. Il primo è che non si sa come la gravitazione sia collegata alle altre forze fondamentali. Il secondo è che non esiste alcuna teoria accettabile della gravitazione in accordo con i principi della meccanica quantistica.

Tra le forze fondamentali della natura la gravitazione è stata la prima a essere scoperta e la prima per cui sia stata trovata una precisa teoria matematica, la teoria pubblicata da Newton nei suoi Principia nel 1687. Newton formulò la semplice legge secondo cui la forza gravitazionale agisce universalmente tra qualsiasi coppia di particelle con un’intensità direttamente proporzionale al prodotto delle loro masse e inversamente proporzionale al quadrato della loro distanza. In tal modo egli fu in grado di calcolare sia il moto dei proiettili terrestri, che risultò in accordo con le osservazioni di Galileo, sia le orbite dei pianeti, in accordo con le leggi empiriche formulate da Keplero. La scoperta  di una legge della forza capace di descrivere correttamente tanto i moti terrestri quanto quelli dei corpi celesti offriva una sintesi mirabile. Un’unificazione dello stesso genere si ottenne nella trattazione dell’elettromagnetismo. Nel secolo XIX Maxwell dimostrò che l’elettricità statica che si produce quando ci pettiniamo i capelli, la forza magnetica agente sull’ago di una bussola e la luce emessa da una candela o dal sole erano fenomeni correlati da un gruppo di equazioni differenziali, che sono note oggi con il nome di equazioni di Maxwell del campo elettromagnetico. Verso la fine del secolo XIX era opinione corrente che tutte le manifestazioni complesse della gravitazione e dell’elettromagnetismo si potessero descrivere attraverso le leggi di Newton e di Maxwell. Questo modo di vedere le cose fu però messo in crisi da una serie di risultati sperimentali ottenuti nei decenni a cavallo fra i due secoli: ad esempio che la velocità della luce, diversamente dalla velocità di tutte le altre onde, non dipende dal moto dell’osservatore; o la difficile interpretazione delle righe spettrali discrete degli atomi. Queste discrepanze vennero risolte con lo sviluppo di due teorie destinate a diventare pietre miliari della fisica moderna: la teoria della relatività ristretta e la meccanica quantistica. Per poter arrivare a questo risultato si dovettero abbandonare i concetti di tempo assoluto e di determinismo nel moto delle particelle. Nella relatività ristretta il tempo e lo spazio erano correlati, mentre nella meccanica quantistica si era dimostrato che particelle e onde sono equivalenti. In tal modo fu possibile capire perché la velocità della luce è la stessa per tutti gli osservatori e perché le righe spettrali degli atomi hanno frequenze discrete fisse. Nella teoria newtoniana della gravitazione il tempo e lo spazio non sono strettamente correlati come nella relatività ristretta e quindi la relatività ristretta rese necessaria una revisione della teoria della gravitazione. Una siffatta teoria fu proposta da Einstein nel 1916 e fu chiamata teoria della relatività generale.

All’inizio del ventesimo secolo erano state scoperte due nuove forze fondamentali della natura: l’interazione debole, responsabile del decadimento beta degli elementi radioattivi, e la forza forte, che tiene legati assieme protoni e neutroni nei nuclei atomici. Queste forze non erano state scoperte in precedenza perché esse agiscono soltanto nel breve intervallo delle distanze subatomiche, mentre la gravitazione e l’elettromagnetismo sono forze a lungo raggio d’azione, che si possono osservare a livello macroscopico. Le quattro forze presentano una sorprendente varietà di proprietà che avremo modo di vedere in seguito.

LA SINTESI GRAVITAZIONALE

(Mostrando che dei fenomeni in apparenza molto diversi come la caduta libera di un corpo e il movimento della Luna non sono che degli aspetti diversi di un principio unico-la gravità- Newton fa nascere la speranza d’una spiegazione completa dell’Universo).

Per i greci del IV secolo a.C. il cielo appare un mondo perfettamente regolato e immutabile. Al contrario, il mondo degli uomini è teatro di discordie, di corruzione, di perturbazioni. In questa cosmologia, l’universo è sferico, finito e formato da un sistema di sfere, con l’uomo al centro, che servono da supporto ai movimenti planetari attorno ad una terra immobile. Il cosmo è diviso in due parti: la regione sublunare e quella sovralunare. Nei cieli il movimento è circolare, nel sublunare il movimento è rettilineo; nel mondo in basso, ci sono quattro elementi: l’acqua, il fuoco, la terra e l’aria. La Terra è immobile al centro del cosmo. Questa cosmologia ha dominato fino al 1543 quando Copernico rifiutò il sistema geocentrico e geostatico di Tolomeo e con l’affermazione che è la Terra che ruota attorno al Sole pose le basi per un concetto di movimento applicabile a tutto l’universo. All’inizio del XVII secolo Keplero realizza un processo d’unificazione inverso; per lui i movimenti degli astri sono quelli di corpi fisici sottomessi ad un’accelerazione che descrivono ellissi, cioè dei cerchi deformati. Per Keplero i movimenti imperfetti dei pianeti si ricongiungono con un mondo terrestre corrotto. Poiché per Aristotele i corpi celesti erano costituiti da una materia inalterabile (l’etere), l’estensione del movimento celeste alla terra e della fisica terrestre al cielo suppone una materia identica, con delle medesime leggi fisiche. Questo significa l’abolizione d’una separazione radicale fra l’etere e i quattro elementi. Galilei dimostrò, con osservazioni e ragionamenti geometrici, che la Luna non è una sfera perfetta e il Sole possiede delle macchie, squalificando quindi la dualità aristotelica a favore di un cosmo omogeneo. Ma è con la legge sulla caduta dei corpi (1632) che Galilei afferma che la natura è scritta in linguaggio matematico e che questo linguaggio è sia della fisica terrestre che della dinamica celeste; la geometria diventa l’inevitabile strumento di conoscenza di tutti i fenomeni. Ma è Newton che con la sua teoria della gravitazione, pubblicata nel 1687, realizza la sintesi della dinamica celeste e terrestre spiegando e predicendo i percorsi dei pianeti. Tutti i corpi dell’universo sono sottomessi alla stessa legge fisica: la gravità; questa forza dipende dalla quantità di materia messa in gioco.

Oltre al nuovo concetto di massa, lo spazio è concepito come assolutamente vuoto, omogeneo e isotropo. Newton ha potuto calcolare con grande precisione i moti dei pianeti e dei satelliti grazie ai metodi analitici sviluppati dai matematici Lagrange e Laplace.

All’inizio del XX secolo, Einstein osserva, come Galilei, che l’accelerazione subita da un corpo sottoposto all’attrazione gravitazionale non dipende dalla sua massa. Questo fatto lo conduce a formulare il principio d’equivalenza secondo il quale “in una regione limitata dello spazio, alla forza d’inerzia legata a un movimento accelerato qualsiasi, si può far corrispondere un certo campo gravitazionale, equivalente a questa forza e che crea la stessa accelerazione”. Einstein aveva compreso che le leggi del movimento dei corpi sono le stesse per due osservatori, l’uno accelerato rispetto all’altro, da cui il suo principio della relatività generale formulato nel 1905, secondo il quale tutta la legge fisica si esprime indipendentemente dal sistema di riferimento.

La cosmologia moderna si appoggia sul principio d’omogeneità dell’universo ( o principio cosmologico), formulato da Milne. In effetti il principio d’omogeneità gioca un ruolo simile a quello della sfera nella cosmologia greca; dire che l’universo è omogeneo, vuol dire che nessuna delle sue parti è eccezionale. Le grandi conquiste scientifiche e le rivoluzioni ad esse legate sono state compiute grazie all’instaurazione di una tale omogeneità entro diversi aspetti della realtà. Su questo punto l’unificazione dei movimenti celesti e terrestri, innescata da Copernico, Keplero e Galilei, formulata da Newton e perfezionata da Einstein, è stata decisiva perché ha reso possibile l’ascesa d’una fisica e d’una cosmologia scientifica.

LA SINTESI  ELETTROMAGNETICA

(L’unificazione dei fenomeni elettrici, magnetici e luminosi, alla fine del XIX secolo, ha portato a compimento il trionfo della meccanica classica. Al punto che si può considerare la fisica come un insieme praticamente compiuto).

Dopo più di un secolo, la teoria elaborata da J.C. Maxwell permette di descrivere sia i fenomeni elettrici e magnetici, sia la propagazione delle onde elettromagnetiche, compresa la luce visibile, le trasmissioni radio o i raggi X. L’unificazione che questa teoria realizza fra dei domini della fisica così differenti e la sua apparente semplicità rappresenta il coronamento della fisica classica. Dal XVII secolo gli scienziati sottolineano le rassomiglianze fra i fenomeni magnetici e i fenomeni elettrici. Coulomb, nel 1780, dimostra che la forza che si esercita fra due poli di una calamita o fra due piccole palline elettrizzate segue la stessa legge matematica. L’analogia fra la formula di Coulomb () e quella della gravitazione di Newton () è perfetta.

Nel 1820 Oersted mostra che il passaggio della corrente elettrica in un conduttore fa deviare l’ago di una bussola posta nelle vicinanze. Esperienza facile da ripetere ma che richiese un lungo e difficile lavoro per interpretarla correttamente. Faraday, ad esempio, studiò la relazione fra differenti tipi di fenomeni: reazioni chimiche ed elettricità, elettricità e calore, il calore e la luce,ecc. Scoprì che il magnetismo di una potente calamita poteva agire su un raggio di luce che attraversa un pezzo di vetro e cercò invano, alla fine della sua vita, una relazione fra la gravità e la luce. Scoprì anche un fenomeno reciproco dell’esperienza di Oersted: la creazione di correnti “indotte” in una bobina per il movimento di una calamita. Faraday afferma che la propagazione degli effetti elettrici e magnetici, a differenza di come pensavano Coulomb e Ampere, avviene attraverso la propagazione di vibrazioni lungo delle linee che congiungono i corpi in interazione: “Si può comparare la diffusione delle forze magnetiche a partire da un polo magnetico alle vibrazioni sulla superficie dell’acqua, o a quelle dell’aria nella propagazione del suono; io penso che una  teoria ondulatoria si applicherà un giorno a questi fenomeni come essa si applica al suono e, con grande probabilità, alla luce”. E’ a partire da questa idea che Maxwell stabilisce le leggi della propagazione nello spazio degli effetti elettrici e magnetici. Partendo da una descrizione matematica delle linee di forza di Faraday, Maxwell riscrive le leggi di Coulomb e la legge di Ampere sugli effetti magnetici di una corrente e la legge di Faraday sull’induzione. Egli approdò a un sistema di equazioni differenziali che esprime una propagazione nello spazio. Introdusse anche degli elementi nuovi. Riprendendo l’ipotesi di un mezzo universale, l’”etere”, Maxwell aggiunse in una delle sue equazioni un termine che rende le stesse simmetriche per l’elettricità e il magnetismo. Queste equazioni hanno una conseguenza inattesa. Esse presentano delle soluzioni corrispondenti a delle onde “trasversali”: il campo magnetico e il campo elettrico oscillano perpendicolarmente alla direzione di propagazione delle onde. Calcolando la velocità di propagazione di queste onde, Maxwell trova una velocità uguale a quella della luce, concludendo che la luce (e ancora non si conosceva che essa consiste di onde trasversali) si propaga nel medesimo etere che trasmette i fenomeni elettrici e magnetici e può dunque essere assimilata a un fenomeno elettromagnetico.

Hertz, nel 1888, dimostra l’esistenza delle onde elettromagnetiche, create nello spazio di un circuito elettrico e Guglielmo Marconi, depositando nel 1897 un brevetto per un sistema di comunicazione senza fili (TSF) scopre un nuovo continente: nel 1901 la TSF attraversa l’oceano Atlantico.

In quell’epoca Einstein si domanda perché le equazioni di Maxwell conducono a delle interpretazioni fisiche differenti allorché l’osservatore, cioè il sistema di riferimento, è in movimento in rapporto alle cariche, alle correnti o alle calamite. E’ questa questione che lo porta a formulare nel 1905 la teoria della relatività ristretta, nel suo celebre articolo intitolato “Sull’elettrodinamica dei corpi in movimento”. Il principio della relatività di Einstein conclude che le leggi della fisica devono esprimersi nella stessa maniera in tutti i riferimenti. Perché le equazioni delle onde elettromagnetiche verifichino questo principio, un nuovo tipo di cambiamento delle coordinate è necessario: è la “trasformazione di Lorenz”, che rende conto dell’invarianza della velocità della luce. Si trova che, contrariamente alle equazioni della dinamica newtonniana, le equazioni stabilite da Maxwell non sono modificate dalla teoria della relatività; ciò ha confortato Einstein sulla validità di questa teoria che elimina l’etere come supporto materiale delle onde elettromagnetiche. E’ così all’inizio del secolo che nasce una visione completamente differente dell’irradiamento elettromagnetico. Nel 1910 Max Planck dimostra che gli scambi d’energia per irradiamento termico non avvengono in maniera continua ma per “pacchetti” o “quanti” d’energia. Nel suo studio sull’effetto fotoelettrico, nel 1905, Einstein dimostra che conviene considerare le onde elettromagnetiche come delle collezioni di corpuscoli chiamati fotoni. Sono questi fotoni che costituiscono i pacchetti d’energia di Planck.

Lo sviluppo della fisica moderna inizia a basarsi sul concetto nuovo di “quantificazione” delle interazioni per dar luogo, negli anni ’20, alla teoria dell’elettrodinamica quantica, il cui successo apre la prospettiva di nuove unificazioni nella fisica delle particelle.

LA SINTESI  ELETTRODEBOLE

(L’unificazione dell’interazione elettromagnetica e dell’interazione nucleare debole negli anni ’60 apre la strada al programma di una “Teoria del tutto”. Questa forza unificata detta elettrodebole ha ricevuto delle eclatanti conferme sperimentali).

La scoperta della radioattività ß ha condotto Enrico Fermi a ipotizzare, agli inizi degli anni ’30, l’esistenza di una nuova forza, l’interazione debole. Più tardi il successo dell’elettrodinamica quantica (QED), elaborata nel 1949 da Feynmann, Schwinger e Tomonaga per descrivere le interazioni fra elettroni e fotoni, incita i fisici a fare di questa QED un modello per rappresentare le altre interazioni fondamentali. Proprio grazie a ciò si ipotizzò che le forze debole ed elettromagnetica sono due aspetti differenti di una sola interazione “elettrodebole”. Nella descrizione classica dei fenomeni elettromagnetici, le interazioni fra elettroni sono descritte con l’accoppiamento di correnti di elettroni con il campo magnetico. Nella QED, queste interazioni sono interpretate come degli scambi di fotoni, particelle messaggere dell’interazione elettromagnetica. La QED è un prototipo di una teoria di gauge. In una tale teoria esiste un gruppo di trasformazioni matematiche (delle simmetrie “di gauge”) per cui la dinamica delle particelle è invariante. Questa simmetria di gauge è detta locale allorché queste trasformazioni dipendono dall’istante e dalla posizione nello spazio.La QED possiede una simmetria di gauge locale U(1), cioè è invariante per le trasformazioni che modificano il parametro “fase” della funzione d’onda. Ma questa invarianza richiede l’introduzione di nuove particelle, i bosoni di gauge, che non sono altro che i fotoni: , , , di massa nulla.

Come costruire una teoria, con una simmetria di gauge locale valida alle alte energie e che attribuisce una massa ai bosoni di gauge e ai leptoni, ma senza corrente neutra di stranezza non nulla? La soluzione a questo problema fu ispirata da un meccanismo che si manifesta talvolta nei sistemi di materia condensata, chiamato “rottura spontanea” della simmetria. Weinberg nel 1967 suppose l’esistenza di una nuova particella, il bosone di Higgs, che conduce a dei leptoni e dei bosoni con massa. Parallelamente Gellmann e Zweig avevano sviluppato una teoria nella quale tutti gli adroni (neutroni, protoni, iperioni, kaoni,ecc) sono costituiti da quarks di tre sapori possibili: up (u), down (d) e strange (s). I quarks portano una carica elettrica che è una frazione di quella del protone: se si conviene che quest’ultimo porta una carica +1, il quark u porta una carica +2/3, e i quarks d e s hanno ciascuno una carica –1/3. Un protone contiene due quarks u e uno d e un neutrone un quark u e due d; il mesone caricato , di carica +1, contiene u e dove  designa l’antiparticella del quark d.

Nel 1970 Glashow, Iliopoulos e Maiani hanno proposto l’esistenza di un quark con lo “charme”, avente carica +2/3. Questa ipotesi, chiamata “meccanismo GIM”, permette di eliminare le correnti deboli neutre di stranezza non nulla ma porta con sé l’esistenza di nuovi adroni, allora sconosciuti, costituiti da quarks c e/o dalla sua antiparticella .

Nel 1973 al CERN scoprirono delle correnti deboli neutre di stranezza nulla e, nel 1974 allo SLAC, l’adrone J/ formato da quarks c e . La costruzione di un collisore  protone-antiprotone al Cern, su un progetto di Carlo RUBBIA, fu ricompensata nel 1983 dalla scoperta che le masse dei bosoni erano conformi alle previsioni. La scoperta di nuovi leptoni allo Slac e al Fermilab di Chicago suggerì l’esistenza di due altri quarks, il quark bottom o beauty (b), di carica elettrica –1/3 e il quark top (t) di carica +2/3, scoperto nel 1995 al Fermilab.

Oggi si è d’accordo nel dire che la teoria elettrodebole è stata testata con successo. Tuttavia, la scoperta sperimentale del bosone di Higgs, dove la massa è stimata a circa 150 GeV/, rimane essenziale per valicare la teoria. La comunità scientifica è convinta che prima o poi, si arriverà a osservare dei bosoni di Higgs, forse grazie al supercollisore LHC ( Large Hadron Collider) del Cern che sarà operativo nel 2005.

Non si può pertanto considerare questa teoria come una vera unificazione delle interazioni deboli ed elettromagnetiche. Anche se inestricabilmente unite, queste due interazioni hanno due costanti di accoppiamento (che caratterizzano le loro intensità specifiche) indipendenti: la carica elettrica “e” per l’interazione elettromagnetica, e l’angolo w per l’interazione debole.

Una teoria unificata dovrà comportare una sola grandezza specifica. Come se non bastasse, la teoria presuppone attualmente più di venti altre grandezze, per la maggior parte riguardanti le masse, indipendenti da “e” e “w”. La prossima sfida sarà dunque di arrivare a comprendere ciò che definisce i valori di queste masse.

LA SINTESI  ELETTRONUCLEARE

(L’unificazione dell’interazione nucleare forte e dell’interazione elettrodebole in una forza elettronucleare ha conosciuto un successo mitigato. Nessun esperimento ha validato questa teoria di grande unificazione ma essa propone una descrizione coerente di tutte le interazioni quantiche).

Dalla scoperta, negli anni ’30, dell’interazione forte che lega i protoni e i neutroni dentro l’atomo, i fisici hanno cercato di armonizzare la sua descrizione con quella dell’interazione elettromagnetica. Perciò bisognava arrivare a una comprensione soddisfacente di questo legame nucleare. La creazione, alla fine degli anni ’60, di potenti acceleratori permise di sondare anche l’interno dei nucleoni ( i protoni e i neutroni). Per la fisica classica, i fenomeni elettromagnetici sono dovuti all’azione di un campo creato da delle particelle cariche elettricamente e che influenzano il movimento di altre cariche. Nella descrizione moderna di questi fenomeni (l’elettrodinamica quantica), questa azione corrisponde all’emissione, la propagazione e l’assorbimento di fotoni.Il fisico Yukawa propose nel 1937 che l’interazione forte, senza la quale i protoni, portatori di cariche elettriche positive, si respingerebbero e non potrebbero dunque coabitare nel nucleo atomico, sia anche descritta dall’emissione, la propagazione e l’assorbimento di particelle: i mesoni . Dieci anni più tardi si riesce ad osservare delle fugaci particelle che corrispondono alla predizione di Yukawa. Questi mesoni  hanno una massa compresa fra quella dell’elettrone e quella del protone. Possono essere positivi, negativi o neutri e sono prodotti in grande quantità nelle reazioni nucleari molto energetiche. Per esempio, la collisione di un raggio cosmico con un protone forma frequentemente diversi mesoni. La messa in esercizio, nel 1967, di un grande acceleratore lineare a elettroni a Stanford, in California, ha permesso di sondare con più precisione il cuore della materia. I fisici hanno capito che ogni quark portava un nuovo tipo di carica chiamata “colore” che poteva prendere tre valori fondamentali: rosso, verde o blu (un antiquark porta un colore complementare: rispettivamente ciano, magenta o giallo).E’ per questo che la teoria dell’interazione forte prese il nome di cromodinamica quantica. Niente sembra distinguere un quark rosso da un quark verde. I teorici furono portati a credere che esisteva una simmetria nascosta, in virtù della quale la natura è indifferente a che un quark sia rosso, verde o blu, stabilito che l’interazione fra i quarks è trasmessa da dei gluoni, portatori essi stessi di un colore e di un anticolore. Questa simmetria conferisce alla cromodinamica quantica lo statuto di teoria di gauge, come per la teoria elettrodebole. L’esistenza dei gluoni fu confermata qualche anno più tardi grazie al centro di ricerca Desy di Amburgo.

L’esperienza di Stanford non ha solamente rivelato l’esistenza dei quarks;ma è anche apparso che più la collisione è energetica (cioè più la distanza fra le particelle è debole) meno l’interazione forte sembra intensa. La situazione è inversa nel caso delle interazioni elettromagnetiche. Visti da molto vicino, i quarks di un nucleone sembrano liberi. In compenso, se si allontanano, la forza che li lega aumenta e non possono uscire dal nucleone. Quarks e gluoni sono confinati all’interno dei nucleoni e dei mesoni. Ciò che lega fra loro i nucleoni nel nucleo sono delle fughe di gluoni, di quarks e di antiquarks, fughe che assomigliano a dei mesoni . Così, l’interazione forte può essere compresa come uno scambio di gluoni fra particelle colorate. E poiché l’interazione unificata elettrodebole si esprime anche come scambi di bosoni (W,  e fotoni), si può pensare che una nuova tappa verso una comprensione unificata di tutte le forze sia stata superata. Un fisico teorico scopre talvolta un indice importante là dove l’uomo comune non vede che un evento banale. Così, il fatto che la carica elettrica del protone sia opposta a quella dell’elettrone con la precisione di uno su mille miliardi di miliardi ha del fenomenale. Un altro indice di unità viene dalla relazione fra i valori delle cariche e le loro reciproche distanze: allorché aumenta l’energia (o quando diminuisce la distanza), l’intensità della carica elettrica cresce e quella del colore decresce. Si stima che esse potrebbero riunirsi a un’energia dell’ordine dei GeV.

L’utilizzo della teoria matematica delle simmetrie porta a formare dei gruppi di particelle soggette a una medesima interazione, o multipli. Questo costituisce ciò che i matematici chiamano delle rappresentazioni di gruppi dai nomi poco attraenti: SU(3), SO(10), SU(8), E(7)…Così i quarks rossi, verdi e blu sono i membri d’una stessa tripletta e i gluoni sono come gli strumenti che permettono di passare da uno all’altro. Aggiungere un elettrone a una terna di quarks fa immaginare un universo dove regnerebbe una grande armonia fra i protoni e gli elettroni, essendo la somma delle loro cariche esattamente nulla. E’ un mondo così che descrivono le diverse teorie dette della grande unificazione o dell’unificazione elettronucleare, dopo quella proposta nel 1973 dai fisici Glashow e Georgi. Un mondo d’una estrema densità d’energia (come doveva essere l’universo qualche frazione di secondo dopo il big bang) dove non esiste, a parte la gravitazione, che una sola forza fondamentale che possiede tutte le caratteristiche dell’elettromagnetismo e delle interazioni debole e forte, e che agisce su tutte le particelle conosciute. I messaggeri delle forze (gluoni, fotoni e bosoni W e ) sarebbero allora essi stessi raggruppati in multipli ai quali si andrebbero ad aggiungersi dei nuovi oggetti, i leptoquarks. Fin dai primi sviluppi della teoria della grande unificazione (GUT), ci si accorse che essa prediceva un evento impressionante: il protone ha una durata di vita limitata. Ma la sua probabilità di disintegrarsi durante un anno d’osservazione è stimata a , cioè non ha alcuna conseguenza spiacevole per l’avvenire prossimo del nostro universo. Finora, nonostante le numerose ricerche in atto in tutto il mondo, non abbiamo rilevato la morte di qualche protone. I modelli più semplici d’unificazione elettronucleare non hanno superato gli esami. Hanno tuttavia il merito d’offrire una rappresentazione elegante e coerente delle interazioni quantiche, fondata su delle simmetrie matematiche. I teorici hanno da un’altra parte iniziato a studiare gli effetti possibili di una nuova simmetria (la supersimmetria) fra delle particelle tanto differenti come un gluone e un quark, lavori che si inserivano nella ricerca di una teoria ancora più generale votata a incorporare l’interazione gravitazionale.

LA SINTESI  ULTIMA

(Ultima tappa del programma della teoria del tutto: l’unificazione della gravitazione e della forza elettronucleare. Se le teorie delle corde rappresentano una pista promettente, niente permette ancora di affermare che esse raggiungeranno il risultato di questa ricerca dell’unità).

Il sogno di una teoria del tutto è nato con Einstein; ha dedicato all’unificazione dell’interazione gravitazionale ed elettromagnetica gli ultimi 35 anni della sua vita. Einstein mise in evidenza la relatività delle nozioni di tempo e di spazio, e il fatto che le trasformazioni che li legano sono le stesse che legano l’elettricità e il magnetismo. Dimostrò, inoltre, che lo spazio-tempo è curvato dalle masse  che contiene e che le onde di deformazione di questo spazio, le onde gravitazionali, devono potersi propagare, come fanno le onde elettromagnetiche. Nello stesso periodo avvenne la rivoluzione della meccanica quantistica. Questa nuova teoria permise di realizzare una sintesi dei comportamenti ondulatori e corpuscolari osservati nelle diverse esperienze: una particella di materia, come per esempio l’elettrone, può comportarsi come un’onda mentre all’opposto la luce può manifestarsi sotto un aspetto corpuscolare (sotto forma di fotoni). In seguito la teoria quantistica dei campi diventerà uno strumento potente per comprendere la natura delle interazioni debole, elettromagnetica e forte. Queste tre interazioni fondamentali sono ora molto ben descritte dal modello standard secondo il quale esse risultano di scambio di particelle mediatrici (i fotoni, i bosoni , e i gluoni). Questo modello ha permesso di riunire le interazioni elettromagnetica e debole in una interazione elettrodebole, e di abbozzare la grande unificazione delle interazioni elettromagnetica, debole e forte. Questi successi hanno spinto i fisici a ricercare, sulla base di un modello standard, una teoria unificata di tutte le interazioni fondamentali, sovente chiamata, più o meno ironicamente, “teoria del tutto”.

Questa teoria dovrebbe descrivere le proprietà di una superforza dove le interazioni gravitazionale, debole, elettromagnetica e forte costituirebbero quattro sfaccettature. Alle energie accessibili sperimentalmente, l’intensità della gravitazione è estremamente debole paragonata a quelle delle altre interazioni. In compenso, a delle energie molto più elevate, come quelle in gioco nei primi istanti dell’universo, questa intensità doveva essere molto elevata. Si stima che le intensità caratteristiche delle quattro interazioni fondamentali di devono riunire ad una energia vicino a    GeV, che corrisponde a distanze dell’ordine di cm.

La considerazione di tali energie richiede una teoria quantica della gravitazione, cioè una descrizione dell’interazione gravitazionale in termini di scambio di una particella di massa nulla, il gravitone. Purtroppo non sappiamo valutare gli effetti degli scambi di parecchi gravitoni, perché ci portano, nei calcoli, a quantità infinite. Le direzioni più promettenti fanno appello alla supersimmetria, struttura matematica che permette di spiegare e di unire i due grandi quadri teorici che sono la relatività generale e la meccanica quantistica.

Le trasformazioni della supersimmetria agiscono in un “superspazio” più grande dello spazio-tempo ordinario, le loro combinazioni producono delle trasformazioni in quest’ultimo. Poiché il principio della relatività generale dice che le leggi della fisica devono esprimersi in maniera invariante in rapporto ai cambiamenti di coordinate nello spazio-tempo, l’invarianza da supersimmetria è suscettibile di apparire come più fondamentale di quella richiesta dal principio di relatività. Per un altro motivo, una tale simmetria trasforma la funzione d’onda d’una particella in quella di un’altra particella modificando di ½ il valore del momento cinetico di rotazione (grandezza chiamata spin e misurata da un numero intero o mezzo intero).

La supersimmetria potrà essere utilizzata per associare i bosoni di spin 1 (,fotoni e gluoni), vettori di interazioni, ai fermioni di spin ½ (leptoni e quarks), costituenti la materia?

Si avrebbe allora una sorta di unificazione fra forze e materia!!! Purtroppo, sembra impossibile realizzare tali associazioni. Ciò non impedisce tuttavia d’immaginare che può esistere, per ciascuna particella conosciuta, un compagno supersimmetrico. Per esempio il fotone sarà associato a un fotino, un quark a un squark, un gluone a un glutino,ecc.,tutti questi oggetti interagiscono nel quadro d’un modello standard supersimmetrico. La ricerca di queste ipotetiche “particelle s”, iniziata alla fine degli anni ’70, costituisce oggi una delle preoccupazioni maggiori della fisica delle particelle.

I fisici contano molto sul LHC (Large Hadron Collider), un anello di accumulazione protone/protone del Cern che succederà fra qualche anno al LEP (Large Electron-Positron Collider) e che potrà esplorare la scala d’energia dei Teraelettronvolt (1.000 GeV).

Per superare il problema di come incorporare l’interazione gravitazionale nel quadro della fisica quantistica, forse occorrerà abbandonare il concetto di particelle puntiformi a favore di oggetti intesi come delle corde o delle membrane che si evolvono in uno spazio-tempo composto da più di quattro dimensioni. Le diverse particelle corrisponderebbero a differenti stati di vibrazione delle corde. Oggi esistono cinque famiglie di teorie delle corde. Quale scegliere, e secondo quali criteri? Ancora non lo sappiamo!!! Le dimensioni delle corde (probabilmente prossime alla lunghezza di Planck: cm, ovvero  volte la misura di un protone), essendo fuori dalla portata dei collisori attuali (volte la loro risoluzione), ci impediscono di testare le predizioni delle teorie delle corde. Probabilmente si arriverà a modificare la legge della forza gravitazionale descritta dalla teoria della relatività generale; potrebbe essere leggermente violato il principio di equivalenza di Einstein, secondo il quale l’accelerazione gravitazionale di un corpo non dipende dalla sua natura. E’ proprio questo principio che il progetto STEP (Satellite Test of the Equivalence Principle) ha l’ambizione di testare, rifacendo in maniera più precisa l’esperienza della caduta dei corpi effettuata da Galilei nel 1632.

E’ molto difficile sapere se le teorie delle corde o l’ipotetica teoria M, che descrive le interazioni delle piccole corde e membrane, permetteranno di descrivere tutte le particelle con le masse e le interazioni come le conosciamo oggi. Anche se certi esperimenti ci legano a questi modelli, la ricerca di una teoria unificata di tutte le interazioni fondamentali e, in questo senso, ultima, sembra lontana dall’essere finita.
Le appendici e gli approfondimenti non sono disponibili on line ( anche perché molto “pesanti” in termini di byte e, perciò, estremamente lenti da scaricare), ma si possono consultare all’interno del Museo.

  • APPENDICE 1 : LA SUPERFORZA
  • APPENDICE 2 : LA SOSTANZA DEL MONDO
  • APPENDICE 3 : L’UNIVERSO DI UN QUARK
  • APPENDICE 4 : IL PENDOLO DI CAVENDISH
  • APPENDICE 5 : LA GEOMETRIZZAZIONE DELLA GRAVITA’
  • APPENDICE 6 : LE ONDE DI HERTZ
  • APPENDICE 7 : LE EQUAZIONI DI MAXWELL
  • APPENDICE 8 : L’ELETTRODINAMICA QUANTISTICA
  • APPENDICE 9 : LA SCOPERTA DEI BOSONI W E
  • APPENDICE 10: L’INTERAZIONE DEBOLE
  • APPENDICE 11: VIOLAZIONE DELLA PARITA’
  • APPENDICE 12: IL MECCANISMO DI HIGGS
  • APPENDICE 13: LA DISINTEGRAZIONE DEL PROTONE
  • APPENDICE 14: L’INTERAZIONE FORTE
  • APPENDICE 15: L’INTENSITA’ DELLA FORZA DI COLORE
  • APPENDICE 16: L’UNIFICAZIONE DEI QUARKS E DEGLI ELETTRONI
  • APPENDICE 17: IL PROGETTO STEP
  • APPENDICE 18: LA CONVERGENZA DELLE INTERAZIONI
  • APPENDICE 19: LA SUPERSIMMETRIA
  • APPENDICE 20: LE SUPERCORDE

 BIBLIOGRAFIA (In italiano)

  • “Verso l’unificazione” di Fang Li Zhi-Chu Yao Quan, Editore Garzanti –1991
  • “Teorie del tutto” di J.D.Barrow , Adelphi Edizioni-1992
  • “Superforza” di P.Davies, Mondatori Editore- 1986
  • “La mente di Dio” di P.Davies, Mondatori Editore –1993
  • “La particella di Dio” di L.Lederman ,Mondatori Editore-1996
  • « La théorie de tout » da Sciences et Avenir n° 118/99 (hors-serie)
  • “Universo simmetrico” di Pagels, Bollati Boringhieri,1988
  • “Dio e la nuova fisica” di P.Davies, Mondatori,1984
  • “Il codice cosmico” di Pagels, Boringhieri, 1985
  • “I primi tre minuti” di Weinberg, Mondatori, 1977
  • “La freccia del tempo” di Coveney, Rizzoli, 1991
  • “Dal big bang ai buchi neri” di Hawking, Rizzoli, 1990
  • “Caos” di Gleick, Rizzoli, 1989
  • Teorie unificate dell’interazione tra particelle elementari in Le Scienze n° 75/1974
  • La supergravità e l’unificazione delle leggi della fisica in Le Scienze n°116/1978
  • Una teoria unificata delle particelle e delle forze in Le Scienze n° 154/1981
  • L’universo inflazionario in Le Scienze n°191/1984
  • Supercorde in Le Scienze n° 219/1986
  • La scoperta del quark top in Le Scienze n° 349/1997
  • La teoria un tempo chiamata delle corde in Le Scienze n° 358/1998
  • Una fisica unificata entro il 2050? In Le Scienze n° 376/1999

A cura del Prof. Renzo Baldoni, direttore del Museo

   
Mateureka