Sul ruolo della materia oscura nella fisica contemporanea

syloslabini

 

Alla fine del Settecento l’astronomo britannico William Herschel scoprì casualmente quello che si sarebbe rivelato essere il pianeta Urano. Osservando il suo moto di rivoluzione intorno al Sole si notarono delle anomalie rispetto alle previsioni della legge di gravitazione di Newton. Queste anomalie all’epoca rappresentavano un problema scientifico di primo piano, poiché nell’Ottocento l’astronomia era una scienza modello, che si proponeva di misurare con grande accuratezza le posizioni dei corpi celesti e di interpretare le osservazioni attraverso la teoria di Newton della forza di gravità.  Queste misure, come i relativi calcoli teorici, erano al tempo più precise e accurate di quelle di ogni altra disciplina scientifica.  Per interpretare le anomalie nella traiettoria di Urano, piuttosto che mettere in discussione la correttezza della legge di gravitazione di Newton, si ipotizzò che esse fossero dovute agli effetti gravitazionali di un ottavo pianeta che ancora non era stato osservato. Con questa ipotesi fu introdotta, per la prima volta, la «materia oscura» in astronomia ipotizzata per spiegare alcune differenze tra osservazioni e teoria attraverso i suoi effetti gravitazionali sulla posizione di un pianeta già osservato.

Il problema era trovare altre evidenze, che fornissero delle prove indipendenti, dell’esistenza di questo oggetto. Nel 1846 la ricerca di una spiegazione del moto anomalo di Urano avrebbe condotto alla scoperta dell’ottavo pianeta, Nettuno. In quel caso, dunque, l’ipotesi dell’esistenza della materia oscura e dei suoi effetti gravitazionali fu verificata con l’osservazione diretta, che fu guidata dai calcoli eseguiti nell’ambito della teoria della gravità newtoniana.

I calcoli della massa, della distanza e delle altre caratteristiche orbitali del nuovo pianeta furono eseguiti dall’astronomo francese Urbain-Jean-Joseph Le Verrier e dall’astronomo britannico John C. Adams. Tecnicamente, questi dovettero risolvere, per la prima volta, il problema inverso delle perturbazioni: invece di calcolare i parametri orbitali di un certo oggetto determinati dalla presenza di un altro pianeta con caratteristiche note, furono calcolate le proprietà dell’oggetto che causava le perturbazioni dalla conoscenza delle anomalie orbitali di Urano. Il pianeta così ipotizzato, battezzato Nettuno, è stato poi osservato per la prima volta a meno di un grado dalla posizione prevista da Le Verrier: per l’astronomia teorica si trattava davvero di un trionfo straordinario, e per la gravitazione di Newton di una conferma spettacolare.

Una situazione speculare a quella di Urano si riscontrò, sempre nell’Ottocento, per il caso di Mercurio. Si osservarono, infatti, delle piccole irregolarità nella sua traiettoria e per interpretarle fu ipotizzata, come per Urano, l’esistenza di un altro pianeta all’interno della sua orbita. Questo ipotetico pianeta fu chiamato Vulcano e fu ritenuto responsabile, attraverso i suoi effetti gravitazionali, delle anomalie osservate nell’orbita di Mercurio. In questo caso, però, la «materia oscura» non si rivelò essere la corretta spiegazione.

Secondo la prima legge di Keplero, derivata dalla legge di gravità di Newton, i pianeti ruotano intorno al Sole percorrendo orbite ellittiche con il Sole stesso in uno dei fuochi. Questa legge è derivata trascurando l’azione gravitazionale degli altri pianeti che, invece, sono responsabili di piccole perturbazioni, poiché relativamente piccola è la loro massa. Tali perturbazioni generano la precessione del punto in cui il pianeta è più vicino al Sole (il perielio): ciò significa che la traiettoria del pianeta non rimane la stessa chiudendosi su una singola ellisse. In realtà l’orbita non si chiude, con l’effetto risultante che l’ellisse non rimane la stessa ma «si muove», avendo come fuoco sempre il Sole, e perciò compiendo un moto a rosetta. In questa maniera il perielio cambia posizione con il passare degli anni. Nel corso dell’Ottocento si misurò che la precessione del perielio di Mercurio è pari a 5600 secondi d’arco per secolo. Il moto del perielio di Mercurio è stato calcolato utilizzando la teoria di Newton e considerando la somma degli effetti gravitazionali del Sole e degli altri pianeti. Il valore derivato dalla teoria era però diverso, sebbene di poco, dal valore osservato. Nel 1898 l’astronomo americano Simon Newcomb stabilì il valore di questa differenza in 41,24 secondi d’arco per secolo, con un errore di misura di soli 2 secondi d’arco per secolo. Newcomb considerò diverse cause per spiegare quest’anomalia tra cui l’esistenza di un pianeta, Vulcano, interno all’orbita di Mercurio.  L’ipotetico pianeta Vulcano non fu mai osservato; le anomalie dell’orbita di Mercurio furono invece spiegate da Albert Einstein il quale, nel famoso lavoro del 1915 in cui ha introdotto la teoria della relatività generale, presentò dei calcoli che fornivano un valore per l’avanzamento anomalo del perielio di Mercurio di 42,89 secondi d’arco per secolo, ben entro l’errore di misura riportato da Newcomb. La precessione del perielio di Mercurio divenne molto rapidamente una delle tre principali conferme osservative della relatività generale.

Una situazione concettualmente simile si ritrova anche oggi nel modello cosmologico noto come modello standard: per spiegare alcune osservazioni, che altrimenti non sarebbero in accordo con le previsioni del modello, è necessario introdurre la materia – e oggi anche l’energia – oscura. L’anno scorso (2019) il comitato Nobel ha premiato proprio quelle idee teoriche che hanno imposto la cosiddetta teoria della materia oscura fredda come teoria di riferimento in ambito cosmologico. Questa teoria assume che il 95% della materia dell’universo sia oscura, il che significa che l’universo è fatto di materia che è, nella migliore delle ipotesi, vista solo indirettamente e principalmente attraverso i suoi effetti gravitazionali, come ad esempio il lensing gravitazionale (effetti della materia sulla propagazione della luce).

Non c’è dubbio che una parte della materia nell’universo non emetta luce, e quindi sia oscura, mentre contribuisce al campo gravitazionale dei sistemi astrofisici. Tuttavia, parte di questa materia oscura potrebbe benissimo essere la materia ordinaria (cioè barionica) che sperimentiamo ogni giorno intorno a noi. Nel modello cosmologico standard le componenti oscure cosmologiche rappresentano molto di più: il 25% sarebbe una materia oscura non barionica e il 70% sarebbe una forma di energia, repulsiva alla gravità, chiamata energia oscura. La prima componente va oltre il modello standard della fisica delle particelle elementari e non è stata rilevata in nessun esperimento sulla Terra, nonostante gli enormi sforzi degli ultimi vent’anni.  Mentre al CERN gli scienziati accelerano le particelle e le fanno scontrare per esplorare nuovi intervalli di energia, gli esperimenti su larga scala con l’obiettivo di scoprire nuove particelle, che dovrebbero corrispondere alla materia oscura, provenienti da eventi astrofisici ad alta energia (ad esempio quelli nel Gran Sasso in Italia) non hanno ancora avuto successo nonostante molti miliardi di dollari investiti.

L’energia oscura ha invece un’origine diversa: è stata inizialmente introdotta dallo stesso Einstein per ottenere una soluzione stazionaria dell’universo. Il valore astrofisico deriva da osservazioni indirette, una volta che la geometria dell’universo su larga scala è assunta essere di un certo tipo. Si stima che vi siano 120 ordini di grandezza di differenza tra le stime astrofisiche e il valore atteso dalle stime fondamentali basate sulla teoria dei campi quantistici. Altre possibili spiegazioni sono state recentemente proposte, ma al momento possiamo solo dire che non abbiamo idea di cosa sia l’energia oscura, nemmeno che sia effettivamente qualcosa, e non possiamo escludere che sia un artefatto. Quindi l’energia oscura è una ipotesi molto audace derivata dalla soluzione di Friedmann della teoria di Einstein che descrive l’accoppiamento tra spazio-tempo e materia, cioè la teoria della relatività generale.

La soluzione di Friedman non è solo l’unica soluzione esatta di queste equazioni nel contesto cosmologico, ma è anche la più semplice. Il problema è, quindi, il continuo adattamento di qualsiasi dato osservativo a questa soluzione. Ciò ha generato un modello con il 95% di tipi molto specifici di componenti oscure con proprietà ad-hoc ma anche molto altro, incluso il periodo di espansione esponenziale dell’universo con una velocità superiore a quella della luce noto come “inflazione”.

Tuttavia, anche se nessuna teoria è attualmente in grado di spiegare cosa sia l’energia oscura, ci sono osservazioni che possono essere associate all’idea speculativa di un’energia oscura, in particolare la perdita di flusso nelle supernove ad alto spostamento verso il rosso. Il confronto delle previsioni ottenute con e senza espansione accelerata produce una lievissima differenza di luminosità delle supernovae osservate che può essere spiegata in molti altri modi alternativi che non implicano l’introduzione di una componente di energia oscura esotica. In particolare, recentemente sono state avanzati dei dubbi sull’interpretazione dei risultati delle supernovae in quanto sono stati evidenziati degli effetti di selezione che producono anche un abbassamento della luminosità di questi oggetti con la distanza. In realtà il problema è che l’interpretazione dei dati delle supernovae su basa su dei modelli fenomenologici poiché non si è ancora compresa in maniera completa la fisica di questi eventi. In ogni caso, anche se fossero confermati, i risultati delle supernovae potrebbero essere spiegati in maniera diversa: vi sono infatti diversi tentativi di trovare soluzioni delle equazioni di campo di Einstein che includono disomogeneità: cioè soluzioni meno banali di quelle di Freidmann che ammettano la possibilità che vi siano delle disomogeneità nella distribuzione di massa, proprio come viene osservato nella configurazione delle galassie a grande scala nell’universo.

Mentre la materia oscura cosmologica ha sicuramente una natura molto speculativa, quella sulla scala di una galassia è considerata piuttosto avere delle evidenze piuttosto solide. Ma anche in questo caso, a ben guardare, si scopre che le assunzioni teoriche sono molto forti giocando un ruolo fondamentale nella determinazione della quantità di materia oscura: in particolare si usa a livello galattico la stessa legge di Keplero che descrive il sistema solare. Che basi ha questa estrapolazione?  Il sistema solare si è formato circa cinque miliardi di anni fa: i diversi pianeti hanno dunque avuto il tempo di compiere più di un miliardo di rivoluzioni intorno al sole. In particolare, Mercurio, che un periodo orbitale di 88 giorni, ne ha fatte circa 25 miliardi, la Terra 5 miliardi, mentre Nettuno, con un periodo orbitale di 160 anni, 250 milioni. Per questo motivo il sistema solare può essere considerato aver raggiunto una situazione di stabilità in cui i tutti pianeti, anche i più esterni, ruotano in orbite chiuse dove la forza gravitazionale di attrazione del sole è controbilanciata dalla forza centrifuga che ha ugual modulo di questa ma verso opposto. Per effetto della forza gravitazionale esercitata sui pianeti dal Sole le velocità orbitali dei pianeti variano secondo la loro distanza dal sole: Mercurio si muove a 48 km/sec, la Terra a 30 km/sec e Nettuno a 5 km/sec. Questo equilibrio dinamico, una volta stabilito, rimane invariato e dura finché cause esterne non ne causano la rottura.

Le stelle più vecchie della nostra galassia hanno circa dieci miliardi di anni. Se supponiamo che questa sia anche l’età della galassia, ci possiamo domandare quante rivoluzioni hanno compiuto le stelle che si trovano a diverse distanze dal centro. La nostra galassia ha la forma di un disco con un’estensione di circa 30 kpc e la velocità di rotazione osservata delle stelle è di circa v=200 km/sec. In queste condizioni una stella a distanza R dal centro (espresso in kpc) ha fatto circa 100/R rivoluzioni in dieci miliardi di anni: cioè una stella a 1 kpc dal centro ha effettuato 100 rivoluzioni, una a 10 kpc solo 10 ed una a 30 kpc solo 3. È dunque necessario rispondere alla domanda: il disco, e in particolare la sua parte esterna (R>10 kpc), può essere considerato in equilibrio dinamico? Più semplicemente: è corretto trattare da un punto di vista teorico le stelle (e gli altri oggetti che emettono radiazioni) che ruotano intorno al centro della galassia come i pianeti intorno al Sole? In particolare, possiamo assumere l’equilibrio tra forza centripeta (gravità) e forza centrifuga (che può essere misurata dalla velocità)? Se così fosse sarebbe possibile stimare semplicemente la massa di una galassia eguagliando le due forze e dunque ottenendo una massa contenuta in sfera di raggio R pari a M(R)=Rv2/G (dove G è la costante di gravitazione di Newton): questa è la maniera usualmente adottata per la stima della massa galattica da cui consegue la presenza di materia oscura.

Da un punto di vista teorico la domanda fondamentale che sta dietro le stime di materia oscura in ambito galattico riguarda quindi il problema dell’equilibrio di un sistema auto-gravitante.  Lo studio dell’evoluzione dei sistemi auto-gravitanti è d’interesse non solo in ambito astrofisico, ma più in generale nella fisica statistica e dei sistemi complessi.  L’evoluzione dinamica di tante particelle che interagiscono unicamente attraverso la forza di gravità newtoniana rappresenta, infatti, un problema di fisica fondamentale che è, tra l’altro, essenziale per la modellizzazione e l’interpretazione di sistemi astrofisici come gli ammassi di stelle, le galassie, gli ammassi di galassie, ecc. Lo studio di questo problema può dunque essere inserito nel quadro più ampio dei sistemi che interagiscono con le cosiddette interazioni a lungo raggio, che, dal punto di vista della meccanica statistica pongono problemi teorici nuovi rispetto ai sistemi con interazioni a corto raggio. La comprensione di questi sistemi è al momento una delle frontiere dell’esplorazione teorica: in questo caso il problema della materia oscura sembra una scorciatoia intrapresa di fronte alla difficoltà di comprendere la dinamica fuori dall’equilibrio dei sistemi gravitazionali.

 

  • L’immagine rappresenta la galassia M33 che fa parte del gruppo locale ed è vicina alla nostra. La curva tratteggiata rappresenta la velocità di rotazione che ci si aspetta dalla legge di Keplero assumendo che la massa sia solo quella visibile (vedo testo). La curva continua rappresenta la velocità osservata: sono riportate le osservazioni di materia luminosa (giallo) e di emissione di idrogeno molecolare (celeste). La differenza è usualmente attribuita alla materia oscura, cioè a materia che non emette luce ma manifesta il suo effetto attraverso l’attrazione gravitazionale. Tuttavia la stessa differenza può essere facilmente spiegata come un effetto di non-equilibrio: la materia nelle parti esterne della galassia ha una velocità maggiore di quella di rotazione all’equilibrio perché è ancora in una fase di rilassamento (M33 public image in Wikipedia).
Advertisement

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s