Traduction non disponible. Affichage de la version française.

univers jumeaux contre matiere sombre , matiere noire , energie noire et constante cosmologique

En résumé (grâce à un LLM libre auto-hébergé)

  • L'article explore l'idée que les constantes physiques peuvent varier pendant l'ère radiative, ce qui pourrait expliquer l'homogénéité de l'univers primitif.
  • Il propose une analyse des variations conjointes des constantes physiques, comme la vitesse de la lumière, et leur impact sur les phénomènes cosmiques.
  • L'article suggère que l'évolution de l'univers pendant l'ère radiative peut être décrite comme un processus de jauge, ce qui remet en question certaines notions fondamentales de la physique.

univers jumeaux contre matière sombre, matière noire, énergie noire et constante cosmologique

  1. L'ère radiative..

preambule_ere_radiative

L'idée est que les soi-disant constantes de la physique se comportent comme des constantes absolues durant l'ère de la matière, mais changent radicalement durant l'ère radiative. Cela peut sembler très artificiel, mais cette idée pourrait résoudre le problème de l'homogénéité de l'univers primitif, comme récemment souligné par plusieurs auteurs, comme Magueijo (1999), bien que l'auteur l'ait découverte 13 ans auparavant, à la fin des années 80 ([44],[45], [46]) et développée par la suite ( [4] et [47] ). Tout d'abord, notons que le choix de l'horloge temporelle t reste arbitraire. Il ne s'agit rien d'autre que « la manière dont nous pensons que les choses se sont produites ». Le temps absolu n'a pas de sens en cosmologie. Aucun phénomène n'existe « réellement » s'il n'y a pas d'observateur dans l'Univers pour le regarder, pour comparer une succession d'événements à son propre flux temporel. À l'heure actuelle, tout est comparé au temps de l'observateur, à la manière dont il vit. Mais le passé et l'avenir dépendent de la manière dont il l'imagine, car il ne peut pas voyager dans le passé ou l'avenir. Le passé et l'avenir ne sont rien d'autre que des images que nous façonnons. Nous dirons que ces images sont correctes si elles correspondent à des phénomènes locaux particuliers, que nous appelons « observations », « mesures ». Considérons les « constantes de la physique ». Elles ont été découvertes assez récemment. Ce sont la vitesse de la lumière c, la constante gravitationnelle G, la constante de Planck h, les masses des particules, la charge électrique élémentaire e, la permittivité du vide ε₀, et quelques autres. Les mesures effectuées en laboratoire ne montrent aucune variation significative. Les gens ont essayé d'étudier l'impact sur de longues périodes d'un changement de ces constantes sur divers phénomènes cosmiques. Mais ils ont fait varier ces constantes une par une, indépendamment. Dans de telles conditions, on peut montrer qu'une variation légère d'une constante isolée produit des contradictions avec les données observationnelles. Mais que devient-il des variations conjointes ? Étonnamment, nous pouvons concevoir une variation conjointe de toutes les constantes, qui ne peut pas être mise en évidence en laboratoire, car les instruments du laboratoire sont construits selon les équations fondamentales de la physique. Si ce processus de jauge maintient ces équations invariantes, il sera impossible de détecter la variation de toute constante, car les instruments et les constantes qu'ils sont censés mesurer subissent des dérives parallèles. Imaginez que vous vouliez mesurer la longueur d'une table en fer, avec une règle en fer. Les deux sont à température ambiante. Si la longueur de la table est trouvée constante dans le temps, vous ne pouvez pas jurer que cette longueur ne varie pas, car cette table et votre règle graduée pourraient subir une variation de température ambiante et se dilater de la même manière. Recherchons donc un tel processus fondamental de jauge. Considérons par exemple l'équation du champ, où apparaît la constante d'Einstein. Nous supposons que la divergence de cette équation est nulle, ce qui, dans l'approximation newtonienne, correspond à la conservation de la matière et de l'énergie. Si ce n'est pas le cas, nous devons introduire un terme source. Selon cette hypothèse, la constante d'Einstein c doit être une constante absolue. Cela implique-t-il que G et c doivent être des constantes absolues ? Définitivement non. Cela implique seulement que :

Comme introduit pour la première fois en 1988, nous supposons que toutes les formes d'énergie sont conservées, mais pas les masses, la charge électrique, etc. Cela donne, par exemple :

En physique, tous les étudiants connaissent la technique appelée analyse dimensionnelle. Étant donné un problème physique régi par une équation, ou un ensemble d'équations, on produit des longueurs caractéristiques, des temps et des nombres composés à partir des constantes et des données expérimentales. Maintenant, nous considérons que tout ce qui est présent dans l'équation peut varier, y compris les « constantes ». Nous mettons tout sous une forme sans dimension. Considérons par exemple l'équation de Boltzmann :

Nous introduisons une échelle de longueur caractéristique R et une échelle de temps caractéristique T :

L'équation devient :

Nous voyons que la longueur de Schwarzschild varie comme le facteur d'échelle R. Pour résumer, on obtient :

Nous voyons que la longueur de Jeans Lj varie comme R, tandis que le temps de Jeans tj varie comme T. R et T sont liés par une relation qui évoque un modèle de Friedmann. Mais si l'on regarde plus attentivement et qu'on la considère comme une relation de jauge, cela signifie que les lois de Kepler sont également invariantes :

loi_kepler

En passant, en introduisant les pressions (comme des densités d'énergie), nous obtenons les variations de jauge de ces paramètres et voyons que les énergies ultérieures sont conservées (dans ce modèle, toutes les formes d'énergie sont conservées durant l'ère radiative). Nous avons ainsi déterminé la manière dont la vitesse de la lumière c varie en fonction de la densité d'énergie lorsque le rayonnement domine.

Maintenant, considérons l'équation de Schrödinger :

Introduisons une expression sans dimension du potentiel et transformons cette équation :

En conséquence, l'énergie reste inchangée par ce processus de jauge. La constante de Planck h croît avec T, comme conjecturé pour la première fois par Milne [48]. Les longueurs caractéristiques :

longueurs_caracteristiques

varient comme le facteur d'échelle spatial R, tandis que le temps de Planck tp varie comme le facteur d'échelle temporel T. Du point de vue de cette description, l'évolution durant l'ère radiative est conçue comme un processus de jauge. Cela rend la « barrière de Planck » problématique. L'ère « pré-quantique » a-t-elle un sens réel ? Maintenant, pour terminer, nous devons traiter les équations de Maxwell.

Continuons à effectuer ce type d'« analyse dimensionnelle généralisée ». Nous obtenons :

Afin de maintenir la structure des atomes pendant le processus d'évolution, nous supposons que la constante de structure fine est une constante absolue, ce qui donne la solution complète :

Nous obtenons facilement :

Comme nous pouvons le voir, durant l'ère radiative, si l'évolution cosmique est identifiée à un processus de jauge, toutes les longueurs caractéristiques varient comme R (ci-dessus, le rayon de Bohr), tous les temps caractéristiques varient comme T, et toutes les énergies sont constantes.

variation_section_efficace_Q

variation_debye

Toutes les constantes, les échelles spatiales et temporelles sont impliquées dans ce processus de jauge, qui peut être décrit en choisissant l'une quelconque d'entre elles. Nous pouvons prendre T comme notre marqueur temporel t.

Ensuite, la variation des constantes durant l'ère radiative en fonction de la pression radiative pr :

Si nous supposons que les valeurs des constantes dépendent de la pression radiative, en introduisant une valeur critique pcr, à définir, nous pouvons écrire :

Go, mo, ho, co, ε₀ correspondent aux valeurs actuelles. Nous supposons que ces conditions critiques sont atteintes pour une valeur t = tcr du marqueur temporel choisi.

variable_temps_adimensionnelle

ce qui correspond à la figure 16.

Fig. 16 : Variation des constantes durant l'ère radiative.
t >> tcr correspond à l'ère de la matière

  1. L'homogénéité de l'Univers.

Tout modèle nécessite une confirmation observationnelle. Figure 17, à gauche, le paradoxe classique de l'homogénéité de l'univers primitif. « Explication classique » : la « théorie de l'inflation », nécessitant des hypothèses lourdes. Aujourd'hui, certaines personnes commencent à envisager un modèle à constantes variables, incluant une variation séculaire de c. Ils l'appellent « VLS » : « vitesse de la lumière variable ». En réalité, j'ai développé cette idée en 1988 [44]. Avec la variation temporelle suggérée de c, qui, avec la section précédente, fait que l'horizon varie comme R(t), assurant ainsi l'homogénéité à tout instant.

Fig. 17 : **L'horizon, selon le modèle standard et selon le modèle actuel. **

  1. **Quand l'adverbe « avant » échoue. **

Comme dit plus haut, un marqueur temporel correspond à un choix arbitraire. Il n'a pas de signification intrinsèque. Dans le modèle standard, si nous considérons le passé lointain de l'Univers, la température augmente et les vitesses des éléments tendent vers c. Toutes les particules deviennent relativistes, ce qui soulève une question : « comment construire une horloge, avec quel matériau ? ». Quand nous regardons une horloge, qu'est-ce que nous regardons ? La rotation d'une aiguille. Un tour correspond à une minute, ou une heure. Un tour de la Terre autour du Soleil correspond à une année. Quel que soit le nom que nous lui donnions, cette rotation de 360° a un sens physique réel. C'est un événement indéniable. De même, nous pouvons considérer un système de référence composé de deux masses m en orbite autour de leur centre de gravité commun. Nous pouvons l'appeler notre « horloge élémentaire ». Dans un gaz à l'équilibre thermodynamique, l'énergie disponible est répartie entre l'énergie de translation, l'énergie de rotation, l'énergie vibratoire. Un couple de particules en orbite autour de leur centre de gravité commun est concevable si l'énergie du système est comparable à l'énergie des particules libres qui sillonneraient autour. Dans un système à constantes variables, cela est possible. Alors, nous pouvons compter le nombre de tours, en utilisant le marqueur temporel t, qui n'a pas de signification réelle : ce n'est qu'un marqueur chronologique.

Fig.18 : L'horloge élémentaire.

Qu'est-ce que cela signifie ? Selon cette description de l'Univers, un nombre infini d'« événements élémentaires » s'est produit dans le passé. Si cette horloge correspond à une mesure du temps, le passé est infini et le marqueur temporel t n'est rien d'autre qu'une fiction. Donnons une image. Supposons que vous visitiez un éditeur et que vous disiez : « Je veux publier un livre de deux pouces d'épaisseur ». Cela dépend de la largeur des pages. Vous pourriez tromper l'éditeur si vous utilisiez des pages dont la largeur tend vers zéro en essayant de lire « les premières pages ». Bien que la largeur globale du livre semblât finie, il raconte une histoire infinie. La bonne question que l'éditeur devrait vous poser est : « Combien de types dans votre livre, combien de phrases, de mots, de lettres ? ». Une lettre de votre livre peut être comparée à un « événement élémentaire ». Comme votre livre, appelé « Histoire de l'Univers », s'étend vers le passé, montre un nombre infini d'« événements élémentaires », il n'a pas de commencement et vous ne réussirez jamais à lire la préface de l'auteur. Par ailleurs, comme montré dans la référence [4], le nombre de tours de notre horloge élémentaire correspond à l'entropie par baryon. Log t est également appelé « temps conforme ». En effet, si choisi comme nouveau marqueur temporel, la métrique devient conformément plate :

Dans la section précédente, nous avons trouvé que le temps de Planck varie comme le marqueur temporel t. Cela signifie que lorsqu'on remonte vers la soi-disant « singularité initiale (t = 0) », le temps de Planck se réduit. Qu'est-ce que cela signifie ? Je n'ai pas la réponse. En tout cas, ce modèle ne résout pas tous les problèmes. Nous n'avons pas traité les interactions fortes et faibles. C'est seulement un regard différent sur ce que nous appelons « le temps ».

  1. Instabilités gravitationnelles conjointes.

Dans la section 3, nous avons présenté un modèle de galaxie confinée par son environnement de matière jumelle répulsive. Ce travail était semi-empirique. Dans la présente section, nous présentons une solution exacte à symétrie sphérique. Si nous partons des équations couplées du champ, nous supposons qu'elles sont sans divergence

divergence_conditions

À partir de telles équations, on peut dériver l'équation d'Euler. La méthode est complètement similaire à celle appliquée à l'équation d'Einstein.

Couplée à l'équation de Poisson :

La méthode classique des perturbations donne deux équations couplées du type Jeans, Lj et Lj étant des longueurs de Jeans caractéristiques.

Une solution stationnaire à symétrie sphérique, avec des conditions initiales :

jeans_conditions_initiales

Sur la figure 19, la solution numérique typique.

Fig. 19 **: Instabilités gravitationnelles conjointes. **Formation d'un amas de matière entouré d'un environnement de matière jumelle répulsive.

**Remarque ( 2007, 23 mai ) : **

La forme générale des courbes dépend des conditions initiales. Les conditions choisies sont arbitraires et correspondent à des densités de masse égales et à des vitesses thermiques égales dans les deux plis. Néanmoins, nous trouvons une caractéristique intéressante. Sur la figure 19 bis, nous pouvons tracer la direction du champ gravitationnel :

** **** **** **** **** **** **halo_dark_matter1

** Fig 19 bis : Effet « halo de matière noire » **

Le champ gravitationnel induit un effet de lentille gravitationnelle. Ce dernier est une mesure du champ gravitationnel, quelle que soit la source de ce champ. Dans notre théorie, la matière ordinaire, celle de notre « pli », apporte sa propre contribution. La « matière jumelle » apporte aussi sa contribution (elle se comporte comme un matériau de masse négative).

Si nous choisissons de considérer que les effets de lentille forts observés sont dus à une mystérieuse « matière noire », connaissant le champ gravitationnel et la distribution de la matière visible, on peut calculer la distribution de cette matière noire, si elle existe. Sur la figure 19 bis, nous observons une inversion de la direction du champ gravitationnel, qui va de pair avec une variation correspondante de la lentille gravitationnelle locale. Suivant le modèle matière plus matière noire, nous pourrions calculer la distribution de

Version originale (anglais)

univers jumeaux contre matiere sombre , matiere noire , energie noire et constante cosmologique

  1. The radiative era..

preambule_ere_radiative

The idea is that the so-called constants of physics behave like absolute constants during the matter era, but change drastically during the radiative era. It may look very artificial, but this idea may solve the problem of the homogeneity of the early universe, as recently pointed out by several authors, like Magueijo (1999), but was discovered by the author 13 years before, at the end of the eighties ([44],[45], [46] ) and developed later ( [4] and[47] ). First, notice that the choice of the time marker t remains arbitrary. It is nothing but “the way we think the things happened”. Absolute time has no meaning in cosmology. Any phenomenon does not “exist” if there is no observer in the Universe to look at it, to compare a succession of events to his proper time flow. At present time all is compared to the time of the observer, the way he lives. But past and future depends on the way he imagines it, for he cannot travel in past or future. Past and future are nothing but images we shape. We will say that these images are correct if they fit peculiar local phenomena, that we call “observations”, “measurements”. Consider the “constants of physics”. They were discovered quite recently. They are the light speed c , the gravitational constant G, the Planck constant h , the masses of particles, the unit electric charge e, the permittivity of vacuum eo , and some others. Measurements performed in labs show no significant change. People have tried to study the impact over large period of time of a change of these constants on various cosmic phenomena. But they moved these constants one after the other, independently. In such conditions one can show that any light variation of an isolated constant produces contradictions with observational data. But what about joint variations ? Surprinsingly we may conceive a joint variation of all the constant, which cannot be evidenced in lab, for the lab’s instruments are built with the basic equations of physics. If this gauge process keeps these equations invariant, it will be impossible to evidence the variation of any constant, for the instruments and the constants they are supposed to measure experience parallel drifts. Imagine you want to measure the length of an iron table, with an iron scaled rule. Both are at room temperature. If the table’s length is found constant in time, you cannot sware this length does not vary, for this table and your scaled rule may experience a room temperature variation and expand in the same way. Let us search such basic gauge process. Consider for example the field equation, where we find the Einstein constant. We assume the divergence of this equation is zero which, in Newtonian approximation, corresponds to the conservation of matter and energy. If it is not, we must deal with source term. According to this hypothesis the Einstein constant c must be an absolute constant. Does it imply that G and c must be absolute constants ? Definitively not. It only implies that :

As introduced first in 1988 we assume that the energies, all kind of energies, are conserved, but not the masses, electric charge and so on. This gives, for example :

In physics all students know the technique called dimensional analysis. Given a physical problem, ruled by an equation, or a set of equations, we produce characteristic lengths, times and numbers, composed with constants and laboratory condition data. Now we consider that all what is present in the equation may vary, including the “constants”. We put everything into a non-dimensional form. Consider for example the Boltzmann equation :

We introduce a characteristic length scale R and a characteristic time scale T :

The equation becomes :

We see that the Schwarzschild length varies like the scale factor R. To sum up get :

We see that the Jeans length Lj varies like R, while Jeans time tj varies like T. R and T are linked through a relation which evokes a Friedman model. But if one looks that closer and see it as a gauge relation, it means that the Kepler laws are also invariant :

loi_kepler

By the way, introducing pressures (as energy densities) we get the gauge variations of these parameters and see that the subsequent energies are conserved (in this model all kinds of energy are conserved during the radiative era). We have figured the way the speed of light c varies with the energy density when radiation dominates.

Now consider the Schrödinger equation :

Introduce non-dimensional potential expression and transform this equation :

As a result, the energy is unchanged by this gauge process. The Planck constant h grows with T, as conjectured first by Milne [48]. The characteristic lengths :

longueurs_caracteristiques

vary like the space scale factor R, while the Planck time tp varies like the time scale factor T. From this point of view, the evolution, during the radiative era is conceived as a gauge process. This makes the “Planck barrier” questionable. Does the “pre-quantic” epoch has a real meaning ? Now, to finish the job we have to deal with Maxwell equations.

Continue to perform that sort of “generalized dimensional analysis”. We get :

In order to maintain the structure of the atoms during the evolution process we assume the fine structure constant is an absolute constant, which gives the whole solution :

We get easily :

As we can see, during the radiative era, is the cosmic evolution is identified to a gauge process, all characteristic lengths vary like R (above, the Bohr radius), all the characteristic times vary like T, all the energies are constant.

variation_section_efficace_Q

variation_debye

All the constants, space and time scales are involved in this gauge process, which can be described chosing any of them. We can take T as our time-marker t .

Next, the variation of the constants, during the radiative era, versus the radiative pressure pr :

If we assume that the values of the constants depend on the radiative pressure, introducing a critical value pcr, to be defined, we can write :

Go , mo , ho , co , eo correspond to the today’s values. We assume that this critical conditions are achieved for a value t = tcr of the chosen time-marker.

variable_temps_adimensionnelle

which corresponds to figure 16.

Fig. 16 : Variation of the constants during the radiative era.
t >> tcr corresponds to matter era

  1. The homogeneity of the Universe.

Any model requires an observational confirmation. Figure 17, left, the classical paradox of the homogeneity of the early Universe. “Classical explanation” : the “Inflation Theory”, requiring heavy hypothesis. Today, some people begins to think about a variable constants model, including a secular variation of c. The called it “VLS” : “variable light speed”. In fact I developed this idea in 1988 [44]. With the suggested time-variation of c , which with the precedent section the horizon varies like R(t) which ensures homogeneity at any time.

Fig. 17 : **The horizon, according to the standard model and to the present model. **

  1. **When the adverb “before” fails. **

As said above, a time marker corresponds to an arbitrary choice. It has no intrinsic meaning. In the standard model if we deal with the distant past of the Universe, the temperature rises and elements’ velocities tend to c. All particles become relativistic, so that a question arises : “how to build a clock, with which material ?”. When we look at a clock, what do we look at ? To the rotation of a needle. A turn corresponds to a minute, or hour. A turn of the Earth around the Sun corresponds to a year. Whatever we call it, this 360° rotation has a physically real meaning. It is an undeniable event. Similarly we can consider a reference system composed by two masses m orbiting around their common centre of gravity. We may call it our “elementary clock”. In a gas at thermodynamic equilibrium the available energy is distributed in translational energy, the rotational energy, vibrational energy. A couple of particles orbiting around their common centre of gravity is conceivable if the energy of the system is comparable to the energy of free particles, which cruise around. In a variable constant system this is possible. Then we can count the number of turns, using the time-marker t, which has no real significance : it’s only a chronological marker.

Fig.18 : The elementary clock.

What does it mean ? According to this description of the Universe, an infinite number of “elementary events” occurred in the past. If this clock corresponds to a measure of time, past is infinite and the time-marker t is nothing but a fiction. Let’s give an image. Suppose you visit an editor and say “I want to publish a two inches thick book”. Depends on the width of the pages. You may deceive the editor if you use pages whose width tends to zero when trying to read “the first pages”. Although the global width of the book seemed finite it tells a infinite story. The good question the editor must ak you is “how many types in your book, how many sentences, words, letters ?”. A letter of your book can be compared to an “elementary event”. As your book, called “Universe story”, going towards the past, shows an infinite number of “elementary events”, it has no beginning and you will never succeed in reading the foreword of the author. By the way, as shown in reference [4] the number of turns of our elementary clock identifies to the entropy per baryon. Log t is also called “conformal time”. In effect if chosen as a new time-marker the metric becomes conformally flat :

In the precedent section we found that the Planck time vary like the time-marker t. It means that when one goes back to the so-called “initial singularity (t = 0)” the Planck time shrinks. What does it mean ? I haven’t the answer. Anyway this model doesn’t clear up all problems. We don’t deal with strong and weak interaction. It’s only a different glimpse on what we call “time”.

  1. Joint gravitational instabilities.

In section 3 we have presented a model of a galaxy confined by its repulsive twin matter environment. This work was semi-empirical. In the present section we present a spherically symmetric exact solution. If we start from the coupled field equation, we assume that it is divergenceless

divergence_conditions

From such equations one can derive Euler equation. The method is completely similar to the one applying to the Einstein equation.

Coupled to Poisson equation :

The classical perturbation method gives two Jeans like coupled equations, Lj and Lj being characteristic Jeans lengths.

A steady-state spherically symmetric solution, with initial conditions :

jeans_conditions_initiales

On figure 19 the typical numerical solution.

Fig. 19 **: Joint gravitational instabilities. **Formation of a clump of matter
surrounded by repulsive twin matter environment.

**Remark ( 2007, may 23 ) : **

The general feature of the curves depends on the initial conditions. The chosen conditions are arbitrary and correspond to the equal mass densities and equal thermal velocities in the two folds. Anyway, we find an interesting feature. On figure 19 bis we can plot the gravitational field direction :

** **** **** **** **** **** **halo_dark_matter1

** Fig 19 bis : "Dark matter halo" effect **

The gravitational field induces a gravitational lensing effect. This last is a measure of the gravitational field, whatever is the source of this field. In our theory, the ordinary matter, the one of ou "fold", brings its own contribution. The "twin matter" bring its contribution too ( it behaves like negative mass material ).

If we choose to consider that the observed strong lensing effects are due to some mysterious "dark matter", given the gravitational fiel and the distribution of visible matter one can compute the distribution of this dark matter, if it does exist. On figure 19bis we observe an inversion of the direction of the gravitational field, which goes with a corresponding variation of the local gravitational lensing. Following the model of the matter plus dark matter we could compute the distribution of dark matter which would give the corresponding lensing effects. Considering the figure at the top of Fig 19 bis we would deduce that this cluster is surrounded by "an hollow shell of dark matter". The picture at the bottom evokes such conclusion.

As we know, the space Hubble telescope has recently discovered a "halo f dark matter". See the next figure.

** **** **halo_dark_matter

** Fig 19 ter : The "halo of dark matter" discovered by the Hubble space telescope in 2007, may. As "deduced from computation". **

Surprinzingly this halo is centered on the visible galactic cluster. We think that it does not correspond to a plane structure but to a spherically symmetric structure. *We predict that similar structures should be discovered soon. In all cases the "halo" will be centered of the cluster, so that the astrophysicist will admit this is not a halo but "some sort of hollow structure. *

The halo structure could be considered as the result of an old encounter ( looking "like a smoke ring" ).

Suppose my prediction would be confirmed. If astrophysicists have to admit that these observations correspond to spherically symmetric structure, how will they modelize this hollow dark matter shell ?

If it is confirmed, this could bring the elements to make a choice between the matter plus dark matter model and the twin universe model.

  1. The confinement of spheroidal galaxies.

In section 7, figure 11, we said that the field due to a hole in a uniform negative energy matter was equivalent to the field created by an equivalent sphere, filled by positive energy matter and surrounded by void. It has now to be justified. Let us recall how the link to Poisson equation is built in classical theory ( see for example[52] ).

lorentz_perturbee

This gives (a) :

The one writes (b). With (d) and (c) the equation (b) is identified to Poisson equation. But notice immediately that the given perturbed metric corresponds to steady-state conditions. This is conceivable only if the zero order solution (the Lorentz metric) corresponds to an empty universe, where no gravitational force and no pressure are acting.

lorentz_perturbee2

Then there is a link between the field and the Poisson equations. But is the Universe is supposed to be non-empty and uniform this method does not hold any longer, for we cannot refer to steady state metric. What is the impact ? We cannot define a gravitational potential in an uniform universe, filled by constant density material. If we look at the Poisson equation (e), written in spherical coordinates and if we suppose r is a constant, we find the spherically solution (f) and the corresponding gravity field is (g). Isn’t surprinzing to find a non-zero gravitational force, pointing towards an arbitrary centre of coordinates and tending to infinite with radial distance ? Explanation : this pseudo-solution is not correct, for Poisson equation does not exist in an steady state uniform universe. The field is zero everywhere, which looks more physical.

Fig. 20 : Spherical hole in a constant density twin matter distribution
and associated gravitational potential.

The figure (b) shows the gravitational field around and inside a sphere filled by constant positive density material (like the Earth). In (c) the associated gravitational potential. If we reverse the arrows of (b) we get the field associated to a sphere filled by negative mass. If this is added to (a) we get an uniform and unbounded region, filled by negative mass, with a zero field, so that (a) figure the field inside a spherical cavity, which is non-zero. We get a confining effect and the intensity of the field is maximum at the internal border. This explains why the spiral galaxies keeps their arms and why the decrease of the gas density of the disk is so abrupt at periphery.


****Paper's Summary