Au commencement du temps 

2) En voiture vers l'origine (le graal de la physique) partie 2

 

(La partie 1 comprenant les chapites 1 à 4 a été diffusée)


Le bord de notre espace-temps pourrait recueillir des informations dont la source serait située à l"origine.

    

jeanzin.frhologram.jpg

photo: jean zin.-la-theorie-holographique-de-la-gravitation 


 


Cet article, assez technique, me permet de consulter rapidement  internet sur le sujet big bang et le commencement du temps, de retrouver les scientifiques et philosophes concernés. Il est une base de réflexion pour les commentaires, les analyses, et peut être considéré comme un embryon de forum. C'est "ma lecture" du livre des frères Bogdanov. 

 


Mes articles dèjà parus dans cette rubrique: Au commencement du temps 1) introduction. Le visage de Dieu.

Voir aussi à la fin de cet article les blogs trouvés en faisant des recherches sur internet ainsi que le texte de Xavier Sallantin sur la singularité finale.

 

m%25C3%25A9taphore+du+big+bang+explosion



 

 

 

Pourquoi ces articles "au commencement du temps.

Dans ces articles, je voudrais approfondir ma réflexion sur "le visage de Dieu" écrit par les frère Bogdanov et celle de mon article dans monblogdereflexions.blogspot.com/p/le-visage-de-dieu.html à travers le livre de Igor et Grichka Bogdanov: "Au commencement du temps".



Le visage de Dieu: le titre de ce livre est tiré d'une expression prononcée par l'astrophysicien américain George Fitzgerald Smoot en 1992 lors de l'annonce des résultats de l'instrument DMR du satellite COBE. Cet instrument avait pour objectif de déceler les infimes variations de température du fond diffus cosmologique. Le fond diffus cosmologique peut être vu comme l'écho lumineux du Big Bang, qui a depuis était dilué et refroidi par l'expansion de l'univers. C'est ainsi un rayonnement très froid qui témoigne aujourd'hui de l'époque incroyablement dense et chaude  qu'a connue l'Univers par le passé.


Ce fond diffus est le rayonnement le plus lointain nous parvenant aujourd'hui, et il est aussi l'image la plus ancienne de l'univers. La carte dressée par l'instrument DMR nous offre ainsi une photo d'un « bébé univers », tel qu'il était 380 000 ans après le Big Bang. En supposant que le Big Bang représente, sinon la création, au moins l'époque d'où est issu l'Univers tel que nous le connaissons, si l'on rapporte par une simple règle de trois cette époque comparée à l'âge actuel de l'Univers, environ 13,7 milliards d'années, c'est un peu comme si l'on comparait la photo d'un embryon d'un jour à celle d'un vieillard de 100 ans : c'est effectivement la genèse de notre Univers que l'on voit par l'intermédiaire du fond diffus 


II Article en lui-même: Au commencement du temps 2) En voiture vers l'origine (le graal de la physique)

la+graal+de+la+physique+stephen+hawking.

 

Le Pari de Stephen Hawking

 

"Le célèbre physicien britannique Stephen Hawking est prêt à relever le défi.
Il parie 100 dollars que le tout dernier accélérateur de particules, appelé aussi "Grand collisionneur de Hadrons" (LHC) ne trouvera pas ce qui est pour les scientifiques le Graal de la physique quantique : le boson de Higgs.



(La partie 1 comprenant les chapites 1 à 4 a été diffusée)

5) Vers l'information

quantiquetl_introbis.jpg

Ordinateur quantique: le microprocesseur.


     a) Depuis 1999, des scientifiques d'un nouveau genre sont apparus, révolutionnaires dans leurs méthodes et dans leurs buts: Seth Lloy, l'un des pères des ordinateurs quantiquesDavid Deutsch, l'inventeur du courant "it from qubit", Sephen Wolfram, le concepteur de Mathematica et promoteur du "programme Univers"...


*Seth Lloyd, professeur de génie mécanique au Massachusetts Institute of Technology et spécialiste de mécanique quantique, est connu pour avoir établi la limite de Lloyd, qui majore le nombre debits d'information traités par l'univers depuis le Big Bang. Cette limite est estimée par ses calculs à 10120 bits.

*Un calculateur quantique ou ordinateur1 quantique, repose sur des propriétés quantiques de la matière : superposition et intrication d'états quantiques

*David Deutsch souscrit à l'interprétation des multivers en matière de mécanique quantique à la suite du physicien Hugh Everett. Selon lui ces multivers seraient l'une des 4 composantes de l'étoffe de la réalité. Il est l'auteur du livre L'étoffe de la réalité (The fabric of reality), caractérisé par un certain sens de la formule.

Outre la théorie quantique, les trois autres fils ou brins qui tissent la réalité sont, selon David Deutsch : l'épistémologie (ou théorie de la connaissance, selon Karl Popper), la théorie du calcul (ou version forte de la théorie de Turing), et la théorie de l'évolution (Charles DarwinRichard Dawkins).*Stephen Wolfram (né en 1959 à Londres) est un scientifique britannique principalement connu pour son logiciel de calcul formel Mathematica, mais qui a également travaillé en physique des particules et sur les automates cellulaires.

*programme UniversCan we simplify the universe into a single computer program? That is the question physicist, programmer, businessman, and all-around Renaissance man Stephen Wolfram has dedicated his career tosolving. "We look at the universe. We look at physics. We look at nature. The question is, is there ultimately some simple rule that determines everything that happens in our universe? Is there some ultimate theory of physics that will allow to sort of hold in our hand some specification of everything about our universe and everything about the history of our universe?"


     b) Si cette nouvelle science paraît chimérique, ses fondations sont très solides, autant que ses promoteurs. Sa source profonde remonte au au 19ème siècle avec  l'Êcossais James Clerk Maxwell; du King's CollegeLudwig Boltzmann, de l'université de VienneJosiah Wilbard Gibbs, de l'université Yale (le découvreur de l'état Gibbs).  Ils ont découvert la "mécanique statistique' ou (physique statistique). Celle-ci n'est utilisable et compréhensible qu'en temps imaginaire, (le-temps-une-4eme-dimension-imaginaire?) . Entre 1960 et 1900, ils ont été les premiers  à montrer que le concept d'information pourrait bien constituer le "fonds ultime de l'Univers en opérant entre un rapprochement entre le concept plutôt vague d'information, et celui, rigoureux, d'entropie.  En thermodynamique, l'entropie est une fonction d'état introduite en 18651 par Rudolf Clausius dans le cadre du deuxième principe de la thermodynamique, d'après les travaux de Sadi Carnot2. Clausius a montré que le rapport Q / T (où Q est la quantité de chaleur échangée par un système à la température T) correspond, en thermodynamique classique, à la variation d'une fonction d’état qu'il a appelée entropie, S et dont l'unité est le joule par kelvin (J/K). La thermodynamique statistique a ensuite fourni un nouvel éclairage à cette grandeur physique abstraite : elle peut être interprétée comme la mesure du degré de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergieinutilisable pour l'obtention d'un travail ; c'est-à-dire libérée de façon incohérente. Ludwig Boltzmann a exprimé l'entropie statistique en fonction du nombre Ω d’états microscopiques, ou nombre de configurations (ou nombre de complexions), définissant l’état d'équilibre d'un système donné au niveau macroscopique : c'est la formule de Boltzmann { S=k_B\cdot\ln(\Omega)}


On sait aujourd'hui que l'entropie d'un système correspond au nombre de bits d'information encodés dans les composants élémentaires, les particules de ce système. Mais qu'est ce qu'un "bit d'information"? Pour un ordinateur, quand on cherche un modèle performant, on s'interroge sur sur la capacité de sa mémoire, c'est à dire combien de bits elle peut stocker. On peut dire qu'un système comporte un bit d'information s'il possède deux états possibles, 0 et 1 Chaque molécule d'air comporte ainsi environ 40 bits d'information.


     c) Alors, qu'est que le "It from bit"? (ce qui découle de l'information)


Un siècle plus tard, après ces pionniers du 19ème siècle, un des premiers qui ira plus loin dans ce domaine inconnu est Jonh Wheeler.   On lui doit de nombreux travaux en physique théorique, notamment en fission nucléaire, dont il fut le premier à mettre au point le modèle, en collaboration avec Niels Bohr en 1939, qui leur valurent la Médaille Franklin en 1969.

Faisant partie des derniers collaborateurs d'Einstein, Wheeler essaya de terminer le projet de théorie unifiée de ce dernier. La géométrodynamique fut fondée dans ce but, explorant la piste selon laquelle tous les phénomènes physiques, telle la gravitation ou l'électromagnétisme, pourraient se réduire aux propriétés géométriques d'espaces-temps courbés. Sa théorie ne parvenant pas, entre autres, à expliquer l'existence des fermions ou des singularités de la gravitation, Wheeler l'abandonna dans les années 1970.On lui doit de nombreux travaux en physique théorique, notamment en fission nucléaire, dont il fut le premier à mettre au point le modèle, en collaboration avec Niels Bohr en 1939, qui leur valurent la Médaille Franklin en 1969.


Avec le physicien allemand Carl Friedrich Won Weizsäcker, puis Rolf Landauer, théoricien d'IBM, Jonh Wheeler annoncé la naissance d'une nouvelle discipline la "physique numérique" dont le contenu est résumé par sa célèbre formule: "it from bit". "It from bit "symbolise l'idée que chaque élément du monde physique, au niveau le plus profond, a une source et une explication immatérielle"..."Chaque chose existante - chaque particule, chaque champ de force, jusqu'au continuum d'espace-temps lui-même - tire entièrement sa fonction, sa signification, son existence même de choix binaires, de bits. Ce que nous appelons le réalité provient, en dernière analyse , du fait de poser des questions de type oui/non". 


Aujourd'hui, de grands noms de la physique, comme le prix Nobel Gérard't Hooft, un de ceux qui ont compté pour la préparation de la thèse des Bogdanov, développent des idées nouvelles autour de ce thème de "physique numérique". Gérard't Hooft est co-lauréat avec Martinus Veltman du prix Nobel de physique de 1999 « pour l'élucidation de la structure quantique des interactions électrofaibles en physique1 ». Il a notamment développé un modèle mathématique qui a permis aux scientifiques de prédire les propriétés des particules subatomiques qui constituent l'univers et des forces fondamentales à travers lesquelles elles interagissent. Il a introduit la notion d'instanton dans les années 1970.

Dans le même esprit, le mathématicien Sir Roger Penrose, de l'université d'Oxford, compagnon de pensée de Stephen Hawking, poursuit l'idée qu'une "information platonicienne" existe quelque part, enfouie dans les profondeurs de l'espace-temps, à l'échelle de Planck.


Même si toutes hypothèses semblent inspirées par l'imagination sans limite de quelque auteur de science-fiction, elles ont le mérite de susciter des questions fondamentales qui renouvellent de fond en comble notre manière de penser les phénomènes, le temps et son commencement, et plus globalement le destin de l'Univers tout entier. 


6) Le calcul de l'Univers?

Trente ans plus tard, ce qui n'était qu'une idée vague est devenue réalité avec la mise au point des ordinateurs quantiques. Pour Seth Loyd, qui se veut optimiste, ("les ordinateurs quantiques que nous avons construit, mes collègues et moi-même atteignent déjà ce stade: chaque atome enregistre un bit d'information").  Mais, pour lui, c'est l'Univers entier qui doit être vu comme un gigantesque ordinateur. Il semble "calculer" à chaque instant la réalité dans laquelle nous vivons: La chaise sur laquelle je suis assis serait calculée - et recalculée - d'une seconde à l'autre. "Et heureusement!" ajoute-t-il, car si ce calcul  perpétuel s'interrompait, ne serait-ce qu'un instant, la chaise s'éparpillerait en une poussière d'atomes ("Computational Capacity of the Universe").


7) Lloyd et le théorème du singe.

En 1860, juste après la parution de l'ouvrage de Darwin, De L'origine des espèces,une violente querelle a opposé le biologiste et philosophe Thomas Huxley à l'évêque et mathématicien Samuel Wilberforce. Ce dernier avait apostrophé publiquement Huxley en lui demandant s'il descendait du singe par son père ou par sa mère! Furieux, Huxley lui avait répondu: "Je préfère être le descendant d'un misérable singe que celui d'un grand homme qui met ses dons intellectuels considérables au service du mensonge". Thomas Huxley était un ami proche de Darwin et il défendait l'idée (reprise plus tard vers1907) par le mathématicien français Emile Borel selon laquelle l'évolution de la vie et, plus généralement celle de l'univers, était entièrement gouvernée par le hasard. Expert en calcul des probabilités, il avait proposé, afin d'illustrer le rôle plein du hasard, l'amusant paradoxe des singes savants: Un groupe de singes,  en tapant au hasard sur une machine à écrire, finirait par écrire tous les livres de la Bibliothèque Nationale de France (pourvu qu'ils aient assez de temps devant eux).

Dans techno-sciences.net, on trouve: Le paradoxe du singe savant est un théorème qui affirme qu’un singe qui tape au hasard sur le clavier d’une machine à écrire pourra presque sûrement écrire tous les livres de la Bibliothèque nationale de France. Dans l’adaptation du théorème en langue anglaise, le singe pourra presque sûrement dactylographier tous les travaux réunis de William Shakespeare.

Le résultat fut présenté par Émile Borel en 1909 dans son livre de probabilités. Ces " singes " ne sont pas des singes réels, et ne se comportent pas comme de vrais singes ; ils sont plutôt une métaphore vivante pour une machine abstraite à produire des lettres dans un ordre aléatoire, par exemple un ordinateur et/ou un générateur aléatoire connecté(s) à une imprimante.

 

Il a été démontré depuis, que cette proposition était fausse. A moins de disposer d'un temps infini, les singes ne produisent que des suites de lettres sans signification. Mais, la situation se présente différemment si les singes, au lieu de taper sur une simple machine à écrire, utilisent un ordinateur: Dans ce cas, comme l'énonce Seth Lloyd,"des singes tapant au hasard sur un ordinateur, ont une probabilité raisonnable de produire n'importe quelle forme calculable d'ordre qui puisse exister". Il est alors possible d'appliquer cette explication à l'origine de la complexité dans l'Univers. Il suffit pour cela de considérer que l'ordinateur n'est autre que l'Univers lui-même! Quand aux singes, remplaçons les par les lois de la mécanique quantique. Et Lloyd conclut: "Chaque particule élémentaire, chaque photon, chaque électron enregistre un certain nombre de bits d'information. Et à chaque fois que deux particules élémentaires entrent en collision, elle échangent des bits. L'Univers calcule." Ainsi, selon Lloyd, bien avant d'être enrichi par l'information crée par l'homme, l'Univers était déjà, (dès l'origine) un fantastique système d'informations entrelacées tressées les unes aux autres au sein de notre réalité". 


8) L'Univers binaire.

Dans cette perspective "numérique" de la réalité, tous les objets qui nous entourent, notre chien, notre voiture, tous nos amis, leur culture, la vie qu'ils mènent... se réduisent en fin de compte à des "bits" d'information, des suites plus ou moins longues de 0 et de 1. Stephen Wolfran, théoricien surdoué, va plus loin avec son fameux programme de calcul algébrique Mathématica (Il obtint sa thèse de doctorat en physique des particules à l'âge de 20 ans). Il a lancé "Wolfran Alpha", un moteur de recherche révolutionnaire fondé sur le langage naturel et doté d'une véritable intelligence artificielle, innovation qui pourrait devenir aussi importante que Google. Selon Wolfan, l'Univers est par essence numérique et se réduit à ensemble de lois fondamentales. Ces lois reposent sur ce qu'il appelle une "science d'un nouveau type": elles pourraient être entièrement décrites par des programmes simples apparentés aux "automates cellulaires" (sur lesquels il a travaillé avec Richard Feymann). Cette idée avait déjà été abordée dans le passé par Jonh Von Neumann, mais Wolfran va beaucoup plus loin en affirmant que de tels systèmes représentent un exemple de ce qui se passe au fondement même de la réalité.


9) Une information au fond des trous noirs.


 

(vidéo vu chez le Dr Goulu)

 

Une étape, plus importante encore, vient renforcer cette convergence entre physique et théorie de l'information. Depuis quelques années est apparue en physique une idée troublante (si forte qu'elle a provoqué un revirement de Sephen Hawking) entre les trous noirs et la notion d'information. Jusqu'à une date très récente, on pensait qu'un objet tombe dans un trou noir il serait englouti, entièrement détruit jusqu'à la dernière particule et... tout bonnement effacé de l'Univers. On pense maintenant que "quelque chose " survit à l'engloutissement. Ce "quelque chose serait l'information caractérisant l'objet disparu (sa forme; sa couleur, ses composantes innombrables...), qui survit à la catastrophe. Selon les physiciens, elle pourrait même être entièrement restituée par le trou noir après son évaporation. En 2004, Hawking a publié un article dans Physical Rewiew dans lequel il reconnaît avoir perdu son pari engagé des dizaines d'années auparavant  (jusqu'en 2004, il avait défendu l'idée selon laquelle l'information d'un objet était irrémédiablement perdue dans le trou noir).

Dès lors, si nous acceptons l'idée que l'Univers a commencé sous la forme d'un point, une singularité initiale dont l'échelle  était nulle, n'est-il pas tentant d'établir une relation entre la singularité initiale de l'Univers et la singularité finale (big crunch) des trous noirs? ne peut-on pas comparer ces deux phénomènes dont les propriétés semblent identiques? Si on admet avec Hawking que la singularité du trou noir conserve une information n'est-il pas plausible de considérer l'existence d'une information primordiale, une information conservée au voisinage de la singularité initiale de l'univers (C'est le questionnement des frères Bogdanov. Sans être expert il me semble que ce questionnement ne doit pas être rejeté à priori comme illégitime ou absurde. J'aimerais s'il est contredit, en voir l'argumentation).


10) Le principe holographique.

jeanzin.frhologram.jpg

jean zin.-la-theorie-holographique-de-la-gravitation 

Continuons donc cette approche avec les deux frères. En 1991, étudiants à l'université de Bordeaux, ils ont publié les fondements de leur modèle: d'une part, l'émergence dune cinquième dimension de temps imaginaire à l'échelle de Planck, d'autre part, l'existence d'une sphère à 3 dimensions comme bord de notre espace-temps. Cette sphère, également bord de l'espace dit "euclidien", dont la quatrième dimension est imaginaire, concentre toutes les données, c'est à dire les informations, caractérisant les deux espaces (en premier lieu l'espace-temps, dont elle est le bord). Cette proposition était alors très spéculative.

Mais en 1998, sous l'impulsion du futur Prix Nobel Gérard's Hooft, une nouvelle théorie intéressa de plus en plus de chercheurs: "le principe holographique" (ou voir forums.futura-science (principe-holographique)  ou jean zin.-la-theorie-holographique-de-la-gravitation . Cette approche permet d'envisager l'idée apparemment inaccessible à la physique d'un "code à l'origine" et l'existence possible d'une cinquième dimension. Ce nouveau principe énonce que Toutes les informations de l'espace-temps, toutes, pourraient être lisible sur le bord à trois dimensions de notre univers. C'est en effet fascinant d'imaginer que l'information initiale pourrait être recueillie à chaque instant au bord de notre espace-temps, dans l'espace à trois dimensions dans lequel nous vivons. On peut en avoir une idée à travers un exemple simple: de même que l'image visible à la surface d'un écran de télévision n'est que la projection d'une réalité dont la source est ailleurs, le bord de notre espace-temps pourrait recueillir des informations dont la source serait située à l'origine

Le principe holographique en physique est une conjecture spéculative dans le cadre de la théorie de la gravité quantique, proposée par Gerard 't Hooft puis améliorée et promue par Leonard Susskind. Cette conjecture propose que toute l'information contenue dans un volume d'espace peut être décrite par une théorie qui se situe sur les bords de cette région. Par exemple, une pièce donnée d'une maison et tous les événements qu'elle contient pourraient être modélisés complètement par une théorie qui prendrait en compte uniquement ce qui se passe au niveau des murs de cette maison. Le principe holographique dit aussi qu'il y a au plus un degré de liberté (ou une constante de Boltzmann k, unité d'entropie maximale) pour chaque ensemble de quatre aires de Planck, ce qui peut être écrit comme une limite de Bekenstein : 553cd58f1ff191e8538da83501cbc31f.png, où S est l'entropie et A l'aire considérée.

 

 jean zin (qui est Jean Zin?: (wikipedia) dans son article la théorie holographique de la gravitation en donne une explication très intéressante. "L'hypothèse d'un monde quantique réduit à 2 dimensions spatiales (comme la surface d'une feuille) n'est pas vraiment nouvelle, proposée par le prix Nobel Gerard 't Hooft depuis 1974 sous le nom de "principe holographique" :

"De même qu'un hologramme peut reproduire une image tridimensionnelle à partir d'un film bidimensionnel spécial, tous les événements physiques que nous rencontrons pourraient n'être correctement encodés que par des équations définies dans un monde de plus basse dimension" (L'univers élégant, Brian Greene, Laffont, 2000, p446). "Le principe holographique ne signifie pas que chaque partie contient le tout comme dans un véritable hologramme, et comme d'autres spéculations théoriques peu rigoureuses le prétendent, mais qu'il y a une dimension en moins". 

Mais un paradoxe se dessine: Si le second principe de la thermodynamique s'applique à l'Univers entier, cela veut dire que l'entropie (le désordre), augmente à mesure que le temps passe. Et puisque l'information est l'inverse de l'entropie,la flèche du temps implique que l'information globale de l'univers diminue avec le temps. Mais alors, comment lier cette "diminution de l'information" avec l'augmentation locale de l'ordre (la formation des planètes, l'apparition et l'évolution de la vie...). Comment résoudre ce paradoxe gênant? 

En introduisant une distinction entre les deux types d'information situés..."aux deux bouts de l'Univers": l'une est à l'origine, l'autre, à la fin. Virtuellement infinie à l'instant zéro, cette information initiale "vit" dans le temps imaginaire. C'est elle qui dans le modèle de type pré-Big Bang des Bogdanov, "code" l'Univers avant le Big bang. On peut prendre l'image l'information génétique qui "code" un organisme vivant avant sa naissance. Or, à "l'autre bout" de cette information initiale plongée dans le temps imaginaire, il y a une deuxième forme d'information qui, au contraire "vit" dans le temps réel. Elle correspond à l'information finale, à ce qu'on appelle habituellement "la complexité". Cette dernière est naturellement faible au moment du Big Bang(un bit seulement selon Seth Lloyd), et ne cesse d'augmenter pour atteindre aujourd'hui (selon seth Lloyd et d'autres), 10120 bits environ. On peut donc dès lors comprendre toute l'histoire de l'Univers comme une transformation de l'information initiale en information finale. On peut reprendre l'exemple d'un DVD dans lequel est inscrite "toute l'histoire" du film. Il suffit de mettre le disque en lecture pour que l'information qu'il contient soit progressivement délivrée dans le temps réel. A la fin du film, le spectateur "connaît" le scénario. Il aura acquis l'information initiale (devenue pour lui information finale).  Ainsi, tout se passe un peu comme si l'Univers était en train d'acquérir, au fil des milliards d'années, de plus en plus d'information. Le cosmos semble donc contraint à recomposer, au cours d'une histoire immensément longue, l'information initiale d'avant le Big Bang. 

Le temps imaginaire dont il est question n'est ni une convention abstraite, ni une commodité de langage, il s'agit d'une réalité sur la quelle repose des phénomènes physiques déconcertants.


11) Les moteurs mathématiques.
Ces questions apparaissent à l'horizon de certaines théories physiques et dans la pensée contemporaine. le chercheur autrichien, Herwin Schrödinger,  Prix Nobel de physique, père de la célèbre "équation de Schrödinger" en mécanique quantique, était déjà conscient de cet horizon dès les années 1940. Dans son ouvrage prophétique, Qu'est-ce que la vie? publié bien avant la découverte de l'ADN, il est le premier à parler de ce qu'il appelle le "code de l'hérédité".  Il suggère que les lois de la mécanique quantique pourraient déterminer jusqu'à la stabilité de l'information génétique. Selon ses hypothèses, les mutations génétiques pourraient être causées par les fluctuations quantiques. Et il "sous-titre": "de la physique à la biologie" ce qui établit en fait la toute première fondation de de cette science nouvelle qu'on appelle maintenant la "biophysique". Une autre chose étonnante concerne le russe Georges Gamow. Ses travaux ont été fortement influencés par son premier Maître, Alexander Friedmann. Cet héritage a fait de Gamow l'un de ceux qui ont le plus contribué à la théorie du Big Bang: dès les années quarante, il a prédit l'existence du rayonnement fossile, véritable "relique cosmologique" dont les satellites Cobe et WMAP  nous ont transmis des images inoubliables, le rayonnement fossile qui nous vient d'un univers qui n'était âgé de 380 000  ans.  Ce que l'on sait moins, c'est que Gamow a apporté à la biologie l'une des clés qui ont permis de déchiffrer le code génétique. Il a été le premier à proposer que les quatre bases de l'ADN soient regroupées 3 par 3 pour former les 20 acides aminés intervenant dans la synthèse de toutes les protéines d'un organisme. Pourquoi cette suggestion de triplet? Pour des raisons purement mathématiques: parce que 3 est le plus petit nombre entier n tel que 43 soit supérieur à 20, le nombre des acides aminés.

Au sujet de "moteur mathématique" sous-jacent à l'évolution, Fred Hoyle, en lutte avec Gamow quant à l'existence du Big Bang, était d'accord avec lui sur un point essentiel: la vie n'avait pas surgi par hasard de l'océan primitif. Il répétait ce chiffre à qui voulait l'entendre: la possibilité que l'ADN se soit assemblée par hasard est de un sur 10 40 000 (1 suivi de 40 000 zéros), chiffre fantastiquement plus grand que le nombre de particules élémentaires de l'Univers (10 80).


12) Conclusion (?)

Ce qui est frappant dans ce qui précède, c'est la découverte d'un "moteur mathématique", un ordre à l'oeuvre dans les processus que l'on croit habituellement dominés par le hasard (rappel: le mot "cosmos" veut dire ordre". Avec les frères Bogdanov, est-il absurde de chercher une équivalence nouvelle, prolongeant celle qu'Einstein a mis en évidence entre la matière et l'énergie dans son illustre formule E=mc2 . il existe peut-être une autre équivalence fondamentale. S'il est possible d'échanger de la matière contre de l'énergie, ne peut-on pas envisager qu'on puisse échanger de l'énergie contre de l'information?

Dans les articles suivants, je poursuivrai cette lecture du livre des Bogdanov, afin de "mieux comprendre cet ordre sous-jacent à partir duquel se déploie la réalité. Jusqu'à entrevoir, peut-être, cet "esprit" qui se manifeste dans les lois de l'Univers, comme l'a écrit Einstein à un enfant le 24 janvier 1936". La trace de cet ordre fondamental se trouve sans doute au voisinage de la singularité initiale de l'espace-temps. En fait, personne ne sait comment l'Univers a commencé. Aucune théorie n'est plus exacte qu'une autre. La raison en est que le "commencement du monde" est un phénomène extrêmement difficile à comprendre et à décrire (s'il ne fait pas partie des mystères qui sont au-delà notre compréhension?).  Isabelle Stenger, philosophe des sciences et professeur à l'université libre de Bruxelles, observe qu'il s'agit peut-être là du "Graal de la physique". Au bout de la recherche, avant que le premier atome de réalité n'émerge du néant(?), cette trace fulgurante, énigmatique, d'une harmonie à l'instant zéro portait peut-être en elle l'image d'un ordre profond, d'un degré infiniment élevé qui allait orienter le cosmos, le réaliser, et finalement lui donner un sens, comme le pensent les frères Bogdanov.

@@@ fin de l'article @@@

 

Compléments à cet article: blogs trouvés en faisant des recherches sur internet pour ce article ainsi que le texte de Xavier Sallantin sur la singularité finale.

 

 

deviant art: the fractal universe http://fav.me/d45vtee

 

 

Théorie:

*Thèse de frères Bogdanov: les fluctuations quantiques de la métrique du vide.

 

 

 *blogs sur le big bang:

 

*blogs  Groupes quantiques.

introduction aux groupes quantiques.

INTRODUCTION AUX GROUPES QUANTIQUES par Julien Bichon

groupe quantique localement compact type III

groupes quantiques techniques galoisiennes et d'intégration

le groupe quantique compact libre 1

groupes quantiques séminaire bourbaki

Alain connes: une autre vision de l'espace

groupes quantiques forum mathématiques.net

groiupes quantiques localement compacts exemples et coactions.

Théorie_quantique_des_champs

interactions fondamentales et théorie quantique des champs

 

*blogs sur le principe holographique

wikipedia Principe_holographique     forums.futura-sciences -principe-holographique.html

jean zin -la-theorie-holographique-de-la-gravitation

jean zin écologie politique, ère de l'information et développement humain.

 

*blogs sur l'entropie

sciences.univ-nantes.Le second principe de la Thermodynamique. Entropie

wikipedia. Deuxime_principe_de_la_thermodynamique

cpge.eu: documents/coursPCSI/thermo-chap4

thermodynamique.com Second principe de la thermodynamique

ipst.u-strasbg.fr cours/thermodynamique/principe2  webphysique.fr/Second-principe-de-la-thermodynamique

encyclopédie de l'agora: l'Entropie     jean zin. l'entropie, l'énergie et l'informationentropie

 

*Blogs sur la complexité.

serge car paradigme de la complexité        texte de edgar morin: complexité:vers-un-nouveau-paradigme

science.gouv.fr/ qu-est-ce-que-la-complexite

 

 

*Autres blogs.

Gravitation_quantique    le mystère des trous noirs      l'espace-temps autour d'un trou noir

Edgard Gunzig: créer l'Univers à partir de rien      Edgard Gunzig: L'Univers sinon rien

Créer l'Univers à partir de rien Edgard Gunzig dans "la recherche"

les fluctuations du vide en physique quantique             fluctuations quantiques et signature de la métrique

cosmologie quantique- les fluctuations du vide 2

astrofiles.net/astronomie-le-mystere-des-trous-noirs-partie-1

télécharger mathematica             wolframalpha.com/                      blog.wolframalpha.com/

Intelligence_artificielle

Introduction aux automates cellulaires        futura-sciences/les-automates-cellulaires

Des automates binaires cellulaires monodimensionnels aux automates cellulaires "quasi-continus".

A propos de feynann: Diagramme_de_Feynman

ordinateurs: Architecture_de_von_Neumann

le satellite planck: un regard vers l'origine de l'Univers

Le graal de la physique? Pourquoi les physiciens traquent tant le boson de Higgs ?

alchimie quantique

.Groupebena fondé par Xavier Sallantin (livre: le monde n'est pas malade il enfante)

 

 

 

 

La singularité finale

par Xavier SALLANTIN  lundi 6 septembre 2010  Répondre à cet article

Comme devoir de rentrée, j’invite les membres du groupe Béna à ne pas manquer l’article d’Yves Eudes dans Le Monde du 5/6 Septembre.

Il parle des travaux du Singularity Institute dans la Silicon Valley sur la singularité finale. Elle est envisagée comme prochaine au vu de la montée exponentielle des performances des ordinateurs en matière d’intelligence artificielle.

Je pense que j’ai quelque avance sur eux car depuis 40 ans j’ai inscrit la problématique Béna dans une symétrie et une interaction entre la singularité initiale et la singularité finale. Je n’ai pas cessé d’instruire cette problématique. Elle me semble découler du principe fondamental de symétrie qui fonde les indéterminations quantiques.

Dans une communication lors d’un colloque à Genève en 1992 j’ai proposé d’appeler Mur de Boltzmann le mur qui cache une implosion final

e d’information, comme le mur de Planck cache une explosion initiale d’énergie. La constante de Boltzmann est en effet le tiers terme d’accord qui fonde l’équivalence démontrée par Brillouin entre la quantité d’information et la quantité de néguentropie.

C’est la logique trialectique qui est l’outil conceptuel nécessaire pour éclairer cette équivalence et ce bouclage interactif de l’histoire de l’Univers. Les brillants "singularitariens" de Californie ne semblent pas avoir compris que leur vision d’un Oméga exige l’élucidation de la logique d’un processus d’informatisation amorcé en Alpha dès le Big Bang. Il reste que leur audace téléonomique rejoint la mienne et que je me sens moins seul.

Remarqué aussi dans le même numéro du Monde le "manifeste" de Salim Abdelmadjid . Deux signes d’un réveil. Il est grand temps. Amitiés à tous.

http://groupebena.org/spip.php?article212

 

Ma réponse à cet article de Xavier Sallantin: J'ai trouvé cet article très intéressant. Il m'a aidé à rédiger un article pour mon blog sur le livre des frères Bogdanov "au commencement du temps".

J'avais lu le livre de Xavier Sallatin "Le monde n'est pas malade, il enfante" dans les années 1990. Il avait fortement influencé mes réflexions.

 

Retour à l'accueil