Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

nobel

  • Il y a 40 ans, le grand physicien Paul Dirac est mort le 20 octobre 1984 à 82 ans

    Tout juste quarante ans après sa mort, il reste le plus grand physicien britannique de tous les temps avec Isaac Newton. L’un des pionniers de la physique quantique, annonciateur du positron, peu sociable mais véritable génie des mathématiques, aurait été atteint du syndrome d’Asperger, selon une récente biographie.


    Imaginez que vous ayez 31 ans, que vous ayez soutenu votre thèse de doctorat sept ans plus tôt, publié déjà plus d’une dizaines d’articles majeurs dans des revues scientifiques d’importance internationale, et qu’on vous propose le Prix Nobel de Physique. À l’époque, on pouvait même l’avoir avant la soutenance. C’était en 1933, période particulièrement noire dans le contexte international, mais aussi période passionnante de la mise en forme de la physique quantique qui a occupé toute la première moitié du XXe siècle.

    Paul Dirac a disparu
    il y a exactement quarante ans le 20 octobre 1984 à l’âge de 82 ans, à Tallahassee, en Floride. Ce grand physicien a fait partie des pères fondateurs de la physique quantique, aux côtés de Max Planck, Niels Bohr, Albert Einstein, Werner Heisenberg, Erwin Schrödinger, etc. Il fut l’un des trois plus grands physiciens du XXe siècle et cet anniversaire est l’occasion pour moi de le faire mieux connaître, car je trouve qu’il manque injustement de notoriété.


    Un des plus grands génies de tous les temps

    Prix Nobel en 1933, Paul Dirac fut un véritable génie, uniquement tourné vers ses recherches sur la théorie quantique. Toute sa vie n’a été qu’attention portée aux équations.

    Selon l’épistémologue Norwood Russell Janson (1924-1967), ardent défenseur de l’interprétation de Copenhague, cité dans un article publié en 1980, la parution de la théorie relativiste des électrons de Paul Dirac en 1928 a été l’un des événements les plus marquants de l’histoire des sciences : « Theoretical physics has rarely witnessed such a powerful unification of concepts, data, theories and intuitions : Newton and Universal Gravitation ; Maxwell and Electrodynamics ; Einstein and Special Relativity ; Bohr and the hydrogen atom ; these are the high spots before Dirac. From a chaos of apparently unrelated facts and ideas, Newton in his way, and now Dirac in his, built a logically powerful and conceptuelly beautiful physical theory. » [La physique a rarement vu une unification aussi puissante de concepts, de données, de théories et d’intuitions : Newton et la Gravitation universelle ; Maxwell et l’Électrodynamique ; Einstein et la Relativité restreinte ; Bohr et l’atome d’hydrogène ; ce sont les grands éclairs avant Dirac. D’un chaos apparemment sans relation de faits et d’idées, Newton à sa manière, et maintenant Dirac à la sienne, ont construit une théorie physique logiquement solide et conceptuellement pleine de beauté] ("The Concept of the Positron", Cambridge, 1963 ; p. 146).



    La beauté, c’est ce qui a obsédé Paul Dirac toute sa vie. Mais pas la beauté féminine : « This result is too beautiful to be false ; it is more important to have beauty in one’s equation than to have them fit experiment. » [Ce résultat est trop beau pour être faux ; il est plus important d’avoir la beauté dans les équations que de les voir confirmer par l’expérience] ("The evolution of the Physicist’s Picture of Nature", Scientific American, 208, 5, 1963).


    La bosse des maths

    Du côté de son père, qui enseignait le français, et comme son nom francophone l’indique, il était d’origine suisse (Valais) et française (Charente). Né le 8 août 1902 à Bristol, Paul Adrien Maurice Dirac était un fou de mathématiques dès son plus jeune âge. Il a suivi des études d’ingénieur en électricité à Bristol. À cause du climat économique très maussade, diplômé en 1921, il n’a pas trouvé de travail et finalement, a continué des études scientifiques à Cambridge parce qu’il était passionné par la théorie de la Relativité générale et qu’il avait réussi à obtenir une bourse.

    En 1923, il travailla avec l’astrophysicien Ralph H. Fowler (1889-1944) sur la mécanique statistique des étoiles naines blanches. Six mois plus tard, il publia déjà ses deux premiers articles sur le sujet. En mai 1924, il publia son premier article sur la physique quantique. C’est en 1925 qu’il fit la rencontre essentielle de Niels Bohr (1885-1962) qui venait d’avoir le Prix Nobel en 1922, et de Werner Heisenberg (1901-1976), futur Prix Nobel en 1932. En novembre 1925, il avait publié quatre autres articles sur la théorie quantique. En tout, il a publié onze articles importants avant sa soutenance.



    Paul Dirac a soutenu sa thèse en juin 1926 sur la physique quantique, en faisant, par une intuition géniale, une analogie entre la formulation matricielle que venait de proposait Werner Heisenberg pour décrire la physique quantique et les crochets de Poisson de la mécanique hamiltonienne, reformulation de la mécanique classique en 1833 par William Rowan Hamilton (1805-1865).


    Un acteur majeur dans l’élaboration de la théorie quantique

    Après son doctorat, il est parti rejoindre Niels Bohr à Copenhague puis en février 1927, Werner Heisenberg à Göttingen où il a travaillé avec Robert Oppenheimer (1904-1967), Max Born (1882-1970), Prix Nobel en 1954, James Franck (1882-1964), Prix Nobel en 1925, et Igor Tamm (1895-1971), Prix Nobel en 1958, puis il a collaboré quelques semaines avec Paul Ehrenfest (1880-1933) à Leyde (Pays-Bas) avant de revenir à Cambridge où il fut recruté comme Fellow du St John’s College. Invité au 5e congrès Solvay en septembre 1927, il fit la rencontre d’Albert Einstein (1879-1955).



    Paul Dirac fit de nombreux voyages dans le monde, est allé pour la première fois en Union Soviétique en 1928, et aux États-Unis en 1929. Il s’amusait à profiter des colloques pour faire le tour du monde : après une visite aux États-Unis, il est allé directement au Japon et est rentré à Cambridge en prenant le Transsibérien.

    À partir de ses premiers travaux où il "jouait" avec l’algèbre des opérateurs linéaires en introduisant la notation bra-ket (à partir du 29 avril 1939), il publia un recueil très pédagogique sur la nouvelle physique de l’atome (qui fait encore référence aujourd’hui) sous un titre assez banal : "Le Principe de la mécanique quantique" (éd. Oxford University Press) publié initialement le 29 mai 1930 (il n’avait alors que 27 ans !). L’ouvrage fut régulièrement réédité et complété, devenant l’un des manuels "classiques" pour la physique quantique (le dernier chapitre rédigé en 1947 dans la 3e édition présente l’électrodynamique quantique). On peut lire la quatrième édition révisée (publiée le 26 mai 1967) dans son intégralité ici.



    Paul Dirac était avant tout un théoricien des mathématiques. Il se moquait des expériences sinon de la pensée (il préférait la beauté des équations, voir la citation ci-dessus), et a été celui qui a construit la plus solide architecture mathématique pour la physique quantique, reprenant les travaux d’Erwin Schrödinger et de Werner Heisenberg dont le formalisme mathématique manquait de cohérence et d’harmonie.

    Cela lui valut le Prix Nobel de Physique en 1933 « pour la découverte de formes nouvelles et utiles de la théorie atomique », partagé avec Erwin Schrödinger (1887-1961), célèbre pour son équation d’onde et son expérience de la pensée résumée sous l’expression "le chat de Schrödinger" (en physique quantique, un chat pourrait être à la fois vivant et mort, d’où le paradoxe philosophique que posait cette théorie probabiliste). Un peu avant son Prix Nobel (il avait refusé d’inviter son père à la remise à Stockholm), Paul Dirac avait publié un article essentiel sur la mécanique quantique lagrangienne que développa plus tard Richard Feynman (1918-1988), Prix Nobel en 1965, qui fut beaucoup influencé par lui.




    Le positron et l’antimatière, issus des équations de Dirac

    Par ses avancées mathématiques, Paul Dirac a ainsi prédit en 1931 l’existence de l’antimatière, c’est-à-dire, des antiparticules, en particulier, du positron (aussi appelé positon pour les francophones), l’antiparticule associée à l’électron.

    La raison, c’est que dans son équation qui décrit la mécanique quantique relativiste de l’électron (formulée en 1928), la description des particules se fait en fonction du carré de la charge électrique, laissant supposer que la charge d’une particule de même type (même masse et même spin) pourrait être positive ou négative. Jusqu’en 1932, cette idée était plutôt le point faible de sa théorie, car personne ne comprenait comment l’antimatière pouvait exister. Paul Dirac se moquait de l’imaginer, ses équations étaient trop belles pour être fausses !



    Par ailleurs, la collision d’une particule et de son antiparticule créerait une désintégration avec une forte dissipation d’énergie (émission de photon) qu’on peut retrouver dans la fameuse formule d’Einstein, E=mc2. C’est la base de toute la recherche sur les nouvelles particules élémentaires dans des accélérateurs à particules (fournir le plus d’énergie possible pour faire surgir de nouvelles particules).

    Le positron fut découvert expérimentalement dès 1932 par Carl David Anderson (1905-1991) qui a vu la trace de « quelque chose de chargé positivement et de masse similaire à celle de l’électron » et cette découverte fut confirmée par Patrick Blackett (1897-1974) par l’observation de rayons cosmiques photographiés dans une chambre à brouillard qui est le premier détecteur de particules (certaines traces ne provenaient pas d’électrons mais d’électrons à charge positive).

    Cette découverte valut Carl David Anderson le Prix Nobel en 1936 qui découvrit la même année le muon par le même type de détection. Quant à Patrick Blackett, il reçut le Prix Nobel en 1948 pour le développement de la chambre à brouillard conçue en 1911 par Charles T. R. Wilson (1869-1959) qui, lui aussi, avait obtenu le Prix Nobel en 1927. Sa chambre permettait de rendre visible, par condensation de la vapeur, la trajectoire des particules électriquement chargées.

    Entre parenthèses, la découverte du positron est l’exemple même (il y en a plein d’autres) qui montre que la recherche scientifique n’a aucun sens réalisée de manière solitaire ou de manière nationaliste (et cela dans une période aux nationalismes exacerbés). Même si Paul Dirac travaillait plutôt seul (il détestait communiquer), il se nourrissait des travaux des autres, en particulier, pour son équation, des travaux d’Albert Einstein et de Wolfgang Pauli (1900-1958), Prix Nobel en 1945, pour donner les fondations théoriques des futures observations expérimentales. Et pour les expériences, il a fallu développer toute une instrumentation (Charles T. R. Wilson), puis utiliser l’appareil pour des applications données, être capable d’identifier une incompréhension de mesure par des théories récentes (Carl David Anderson) et de confirmer l’explication par des expériences focalisées sur cette découverte (Patrick Blackett). À noter également que d’autres physiciens reçurent le Prix Nobel pour le développement d’autres appareils de détection, comme Georges Charpak (1924-2010) qui fut récompensé en 1992 « pour son invention et le développement de détecteurs de particules, en particulier la chambre proportionnelle multifils ».



    Lorsque Albert Einstein s’est retrouvé en 1933 parmi les membres de la direction de l’Institute for Advanced Study à Princeton, et qu’on lui a demandé qui il voulait recruter, le premier nom qu’il a proposé était Paul Dirac qui venait juste d’avoir le Prix Nobel. Paul Dirac passa donc une année académique (1934-1935) à Princeton où il sympathisa beaucoup avec son collègue Eugene Wigner (1902-1995), Prix Nobel en 1963. Venant de Budapest où elle habitait, la sœur de ce dernier est venue le visiter alors que Paul Dirac était présent à cette rencontre…


    De Newton à Hawking

    Entre 1932 et 1969, Paul Dirac fut titulaire de la prestigieuse chaire de mathématiques de l’Université de Cambridge. Parmi ses prédécesseurs l’illustre Isaac Newton (1643-1727) entre 1669 et 1702, et l’hydrodynamicien Georges Stokes (1819-1903), célèbre pour son équation de mécanique des fluides, de 1849 à 1903. Certains de successeurs sont également très connus : Stephen Hawking (72 ans) de 1979 à 2009 et, depuis le 1er novembre 2009, Michael Boris Green (68 ans), l’un des pionniers de la théorie des cordes en 1984.

    Michael Boris Green fut d'ailleurs lauréat en 1989 du Prix et Médaille Paul Dirac, qui a récompensé entre autres en 1987 Stephen Hawking, en 1988 John Stewart Bell (1928-1990), auteur du fameux théorème de Bell, en 1989 Roger Penrose (83 ans) et en 1997, Peter W. Higgs (85 ans), Prix Nobel en 2013. Cette gratification est attribuée par l’Institute of Physics (l’équivalent britannique de la Société française de Physique).

    Une autre récompense a été instituée en l’honneur de Paul Dirac, la Médaille Dirac créée par le Centre international de physique théorique (ICTP basé à Trieste) juste après la disparition de Paul Dirac, en 1985, pour honorer des chercheurs en physique théorique et en mathématiques qui n’ont pas été récompensés par le Prix Nobel ni la Médaille Field ni le Prix Wolf (très prestigieux aussi). Alan H. Guth (67 ans), l’inventeur de la théorie de l’inflation cosmique après le Big Bang, et Édouard Brézin (76 ans), ancien président du CNRS, en furent lauréats respectivement en 2002 et 2011.


    Quelques intuitions très mathématiques

    Très curieux et fin observateur, perspicace et rigoureux, Paul Dirac avait voulu comparer en 1937 deux rapports de grandeurs physiques. Le premier était la longueur de l’univers observable (rayon de Hubble) sur le rayon d’un électron. Le second l’intensité de la force gravitationnelle sur celle de la force électromagnétique appliquée entre deux électrons. Or, il avait remarqué que ces deux rapports étaient sensiblement équivalents, le premier de l’ordre de 2x1040 (nombre d’Eddington-Dirac) et le second de l’ordre de 3x1041.

    C’était la première fois qu’un scientifique "mélangeait" l’infini grand et l’infiniment petit, et Paul Dirac considérait que l’équivalence n’était pas une coïncidence. En considérant que ces deux rapports restaient dans le même ordre de grandeur, et sachant que seule, la constante de Hubble variait avec le temps, Paul Dirac en avait conclu qu’une autre constante devait forcément varier en fonction du temps (si ces rapports restaient équivalents), et suggérait que cela devait être la constante de la gravitation qui serait inversement proportionnelle au temps, ce qui contredisait la théorie de la Relativité générale qui la prédisait constante (conservation de l’énergie), ou alors que la masse de l’univers serait proportionnelle au carré du temps. Ces deux hypothèses sont rejetées par les cosmologistes d’aujourd’hui.



    Parmi les "objets" (de mathématiques ou de physique) attribués à Paul Dirac, on peut citer la constante de Dirac qui n’est que la constante de Planck réduite (h/2pi), la distribution de Dirac (aussi appelée fonction delta de Dirac) qui exprime une impulsion ponctuelle et qui permet de l’intégrer dans le calcul mathématique, le peigne de Dirac qui est un joli nom pour désigner une distribution de Dirac périodique, ces deux objets ont été repris et améliorés par le mathématicien français Laurent Schwartz (1915-2002), Médaille Field en 1950. Lui-même plutôt modeste, Paul Dirac a toute sa vie préféré parler de la "statistique de Fermi" pour évoquer la "statistique de Fermi-Dirac" qui décrit depuis 1926 les particules à spin demi-entier (fermions qui suivent le principe d’exclusion de Pauli), à opposer à la statistique de Bose-Einstein qui décrit les particules à spin entier (bosons pour lesquels le principe de Pauli ne s’applique pas). À cela, il faut aussi ajouter, dans ses contributions majeures, le positron prédit par Paul Dirac ainsi que les monopoles magnétiques.



    Une tendance à tout théoriser

    Dans une récente biographie, Graham Farmelo (61 ans), docteur en physique théorique des particules, évoque même le syndrome d’Asperger (une forme légère d’autisme) pour caractériser Paul Dirac, qui a détesté son père qui l’obligeait à lui parler uniquement en français (comme il n’en était pas capable, Paul Dirac gardait ainsi le silence) et il fut profondément troublé par le suicide de son frère Félix pendant la préparation de sa thèse (en mars 1925).



    Il existe de nombreuses anecdotes qui racontent à quel point Paul Dirac pouvait déconcerter ses interlocuteurs au cours de sa vie professionnelle ou personnelle. Par exemple, le jour où il a rencontré pour la première fois le jeune Richard Feynman, il lui a dit : « I have an equation. Do you have one too ? » [J’ai une équation. En avez-vous une aussi ?]. Ou encore lors d’une conférence à Toronto, au moment des questions, quelqu’un dans la salle lui déclara : « Professor Dirac, I do not understand how you derived the formula on the left side of the blackboard. » [Professeur Dirac, je ne comprends pas comment vous dérivez la formule au côté gauche du tableau]. Ce à quoi Paul Dirac répondit : « This is not a question. It is a statement. Next question, please. » [Ce n’est pas une question. C’est un commentaire. Question suivante, s’il vous plaît]. Paul Dirac était connu pour dormir en écoutant une conférence, mais il était capable de se réveiller soudainement et de poser une question très pointue et pertinente (un erreur de signe au tableau etc.).

    Le besoin de tout théoriser pouvait étonner les personnes à côté de lui. Un jour qu’il discutait avec Piotr Kapitsa (1894-1984), Prix Nobel en 1978, il regardait en même temps l’épouse de celui-ci, Anya, tricoter à leur côté. Après la discussion, Paul Dirac s’est approché d’elle, assez excité : « You know, Anya, watching the way you were making this sweater, I got interested in the topological aspect of the problem. I found that there is another way of doing it and that there are only two possible ways. One is the one you were using ; another is like that… » [Vous savez, Anya, en regardant la manière dont vous réalisez ce pull, je me suis intéressé à l’aspect topologique du problème. J’ai conclu qu’il y a une autre manière de le faire et qu’il n’y avait que deux méthodes possibles. L’une est ce que vous faites ; l’autre est comme ça…] tout en montrant cette seconde manière avec ses longs doigts : il venait de réinventer le "purling" (le fait de tricoter à l’envers).


    La femme, une équation à une inconnue

    La personnalité de Paul Dirac était à la fois rigoureuse et peu conviviale. Il avait très peu d’amis, aimait bien la solitude qui lui permettait de réfléchir à ses travaux. Il était connu pour sa faible empathie. La seule fois où il a pleuré de sa vie d’adulte, c’était lorsqu’il avait appris la mort d’Albert Einstein en 1955.

    Une anecdote donne une idée de sa très faible sociabilité. Le physicien n’était pas marié en août 1929, tout comme son collègue Werner Heisenberg. À l’occasion d’un colloque au Japon (déjà évoqué ci-dessus), comme ils étaient du même âge et encore célibataires, ils pouvaient discuter ouvertement des "femmes". Werner Heisenberg était un homme à femmes avec qui il aimait flirter et danser, tandis que lui restait renfermé. Paul Dirac lui demandait : « Pourquoi danses-tu ? » et Werner Heisenberg de répondre : « Quand il y a des filles charmantes, c’est un plaisir ! » mais Paul Dirac ne comprenait toujours pas : « Mais, Heisenberg, comme peux-tu savoir avant que ce sont des filles charmantes ? ».



    Un jour, au cosmologiste George Gamow (1904-1968), Paul Dirac expliqua qu’il y avait une distance optimale pour regarder le visage d’une femme. Théoricien, il évaluait tous les cas : à l’infini, on ne voit rien ; à zéro, l’image est trop déformée et on voit beaucoup trop les imperfections de la peau, les rides. Georges Gamow lui a alors demandé : « Tell me, Paul, how close have you seen a woman’s face ? » [Dis-moi, Paul, à quelle distance as-tu déjà regardé le visage d’une femme ?] et Paul Dirac de répondre : « Oh, about that close ! » [Oh, à peu près cette distance], en montrant ses mains à deux pieds de distance.



    Paul Dirac se maria tardivement pour l’époque, en janvier 1937 à Londres avec Margit Wigner (Manci), la sœur d’Eugene Wigner, et, bien qu’indispensable pour lui supprimer toutes les préoccupations matérielles de la vie quotidienne, il la considérait plus comme la sœur de son ami que comme son épouse, et la présentait à ses amis ainsi : « Oh ! I am sorry. I forgot to introduce you. This is… this is Wigner’s sister ! » [Oh ! Je suis désolé. J’ai oublié de te présenter. C’est… c’est la sœur de Wigner !]. Elle-même s’était présentée auprès de George Gamow ainsi : « That what Dirac actually says is : "This is Wigner’s sister, who is now my wife" ! » [Ce que dit habituellement Dirac est "C’est la sœur de Wigner, qui est maintenant ma femme" !]. Margit Wigner, née deux ans après lui, le 17 octobre 1904, disparut le 9 juillet 2002, près de dix-huit ans après lui.




    La retraite en Floride

    À la fin de sa vie, de 1971 à 1984, Paul Dirac a continué à travailler en choisissant le Florida State University (Université de l’État de Floride). Pour lui, c’était un lieu agréable car il n’avait pas un traitement différent des autres, ses collègues le considéraient comme n’importe qui d’autre, malgré son Nobel et ses travaux prestigieux. Il ne voulait surtout pas se faire remarquer.



    En dépit de son caractère peu sociable, Paul Dirac a laissé un souvenir très attachant dans cette université où ses collègues ont pu apprécier sa curiosité intellectuelle, sa passion et sa capacité à la transmettre aux autres. Certes, il pouvait déjeuner (dans la cuisine du bâtiment) avec des collègues (comme Steve Edwards) sans sortir un mot pendant le repas. John Albright se souvenait ainsi : « Dirac était très avare avec les mots. Il n’emploierait pas cinq mots quand un seul pouvait suffire. ». Bien avant, ses collègues de Cambridge avait même inventé une nouvelle unité pour plaisanter, le "dirac" qui correspondait à un mot par heure !

    Il adorait marcher, considérait que c’était essentiel pour réfléchir, il marchait ainsi de sa résidence à son bureau, par tous les temps (conduire l’aurait empêché de réfléchir à la physique quantique), il aimait aussi se baigner dans un lac même en hiver, et il était un passionné d’alpinisme, il escaladait beaucoup de montagnes (dans le Caucase par exemple) et lorsqu’il enseignait à Cambridge, on pouvait parfois le voir, pour s’entraîner, grimper aux arbres dans les collines environnantes tout en portant son habituel costume noir.


    Ne pas s’occuper de l’extérieur

    Homme introverti par excellence, Paul Dirac a donc été avant tout un génie cérébral. Il fallait bien cela pour avoir les quelques intuitions qui l’ont placé, malgré lui, sur le piédestal de la théorie quantique.



    Son père l’avait peut-être coupé de toute ambition affective, mais il l’avait encouragé à approfondir les mathématiques qui l’avaient passionné dès son enfance. Sa modestie l’a emporté : à l’égal d’un Newton, d’un Maxwell, d’un Einstein ou d’un Bohr, qui connaît donc Dirac en dehors de la communauté scientifique internationale, trente ans après sa mort ?



    Aussi sur le blog.

    Sylvain Rakotoarison (20 octobre 2014)
    http://www.rakotoarison.eu


    Pour aller plus loin :

    Paul Dirac.
    Livre à télécharger : "Les Principes de la mécaniques quantique" par Paul Dirac.
    La théorie des électrons et des positrons (communication du 12 décembre 1933 à télécharger).
    La genèse de la théorie relativiste des électrons de Paul Dirac (à télécharger).
    Niels Bohr.
    Albert Einstein.
    L’attribution des Prix Nobel, une dérive depuis plusieurs décennies ? (octobre 2007).
    Dirac, Einstein and physics (2 mars 2000).
    Paul Dirac : the purest soul in physics (1er février 1998).

    Une biographie de référence a été publiée le 22 janvier 2009 :
    "The Strangest Man, The Hidden Life of Paul Dirac, Quantum Genius"
    par Graham Farmelo (éd. Faber and Faber).






    https://rakotoarison.over-blog.com/article-sr-20241020-dirac.html

    http://rakotoarison.hautetfort.com/archive/2024/10/20/article-sr-20241020-dirac.html











  • L'intelligence artificielle récompensée par les Nobel 2024 de Physique et de Chimie

    « Philosophiquement, intellectuellement, à tout point de vue, la société humaine n'est pas préparée à l'essor de l'intelligence artificielle. (…) Sommes-nous en train de basculer dans une nouvelle phase de l'histoire humaine ? » (Henry Kissinger, en juin 2018).



     

     
     


    Je sais que les sciences, c'est-à-dire, les sciences dures n'ont pas beaucoup de couverture médiatique en France, d'autant plus qu'on vit des moments très troublés d'ordre politique et international. Néanmoins, l'actualité scientifique est un élément important qui préfigure, voire configure notre avenir. Cette semaine est la semaine des attributions des Prix Nobel de 2024. Plutôt que d'insister sur les noms des lauréats, insistons sur les découvertes récompensées.

    Lundi 7 octobre 2024 ont été récompensés du Prix Nobel de Médecine les généticiens américains Victor Ambros et Gary Ruvkun pour leurs travaux sur les micro-ARN et leur rôle dans la régulation génétique. Mercredi 9 octobre 2024 ont été récompensés du Prix Nobel de Chimie les biochimistes américains David Baker, Demis Hassabis et John M. Jumper (anglo-américain) pour leurs travaux sur les protéines, le premier (la moitié du Prix) pour leur conception numérique et les deux autres (chacun un quart du Prix) pour les prédictions de leur structure qui font appel à l'intelligence artificielle.

    J'ai gardé pour la fin le Prix Nobel de Physique attribué le mardi 8 octobre 2024 au physicien américain John Hopfield et au chercheur anglo-canadien Geoffrey Hinton, spécialiste de l'intelligence artificielle, pour leurs travaux sur l'apprentissage automatique à l'aide de réseaux de neurones artificiels. Autant dire que la principale lauréate des Nobel en 2024, du reste non seulement de Physique mais aussi de Chimie, c'est
    l'intelligence artificielle.

    Il faut déjà s'entendre sur les termes. L'expression intelligence artificielle est une pâle traduction de son équivalent anglais, pris dans le sens aussi d'intelligence économique. En fait d'intelligence, la traduction française plus précise serait plutôt veille, on parle de veille économique. C'est sûr que dire veille artificielle serait mal traduire, mais il y a de cela. Je trouve que le mot intelligence de cette expression est pourtant mal défini et induit en erreur. Intellego en latin signifie je comprends.


    En français, la définition de l'intelligence, donnée par Le Robert, est : « faculté de connaître, de comprendre ; qualité de l'esprit qui comprend et s'adapte facilement ». Il y a une autre définition, dans le même sens : « l'ensemble des fonctions mentales ayant pour objet la connaissance rationnelle (opposé à sensation et intuition) ». On y trouve aussi la définition de l'intelligence artificielle : « ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l'intelligence humaine (raisonnement, apprentissage…) ». Il y a aussi un autre sens, qui n'est pas ici pertinent : « d'intelligence : de connivence, par complicité » (par exemple : intelligence avec l'ennemi).

    Pour reprendre la définition, il faut plus prendre le verbe connaître que le verbe comprendre pour parler d'intelligence artificielle (ce qui ne reprend pas l'étymologie latine du verbe comprendre). L'intelligence artificielle ne comprend rien, elle ne fait qu'accumuler, stocker, structurer et ressortir des connaissances d'un volume et d'une vitesse incomparables avec ce dont est capable l'être humain. En revanche, ce dernier comprend.
     

     
     


    Les travaux sur les réseaux de neurones artificiels, qui viennent d'être récompensés, sont fondamentaux, comme l'a expliqué, le 8 octobre 2024 à Stockholm, la professeure Ellen Moons, présidente du Comité Nobel de Physique : « L'apprentissage est une capacité fascinante du cerveau humain. Nous pouvons reconnaître des images et des paroles et les associer à des souvenirs et à des expériences du passé. Des milliards de neurones nous confèrent des capacités cognitives uniques. Les réseaux de neurones artificiels sont inspirés par ce réseau de neurones dans notre cerveau. Les lauréats du Prix Nobel de Physique de cette année, John Hopfield et Geoffrey Hinton, ont utilisé les concepts des principes fondamentaux de la physique statistique pour concevoir des réseaux de neurones artificiels qui fonctionnent comme des mémoires associatives et trouvent des modèles dans de grands ensemble de données. Ces réseaux de neurones artificiels ont été utilisés pour faire progresser la recherche sur des sujets de physique aussi divers que la physique des particules, les sciences des matériaux et l'astrophysique. Ils sont également devenus une partie de notre vie quotidienne, par exemple, dans la reconnaissance faciale et la traduction linguistique. Les découvertes et inventions des lauréats constituent des éléments constitutifs de l'apprentissage automatique qui peuvent aider les humains à prendre des décisions plus rapides et plus fiables, par exemple lors du diagnostic de problèmes médicaux. Cependant, même si l'apprentissage automatique présente d'immenses avantages, son développement rapide a aussi soulevé des inquiétudes sur notre avenir. Les humains portent collectivement la responsabilité d'utiliser cette nouvelle technologie d'une manière sûre et éthique pour le plus grand bénéfice de l'humanité. ».





    L'intelligence artificielle n'est pas nouvelle, et existe depuis les années 1950, et son principe est d'imiter le cerveau humain par un système de connexions de neurones. Ce qui est nouveau depuis une dizaine voire une vingtaine d'années, c'est qu'on est capable d'avoir un volume des mémoires et une vitesse, une puissance de calcul des microprocesseurs, extraordinaires, ce qui permet aux systèmes de neurones une évolution très rapide.

    Son principe est l'auto-apprentissage, et je me souviens que dans les années 1980, on parlait de système expert pour cela dans les processus de recherche d'erreurs et de solutions. La machine progresse au fur et à mesure de son évolution, de ses erreurs, de ses interactions. C'est cet aspect qui peut faire peur, qui doit faire peur, car cet apprentissage est hors contrôle d'une conscience humaine.
     

     
     


    Comme pour toute innovation scientifique, la question philosophique du bien, du mal, faut-il développer, freiner, n'a pas beaucoup de sens. Qu'on le veuille ou pas, l'intelligence artificielle existe depuis longtemps et surtout, est utilisée depuis longtemps et on ne reviendra pas en arrière. Il faut faire avec. Avec enthousiasme ou avec angoisse (ou plus probablement avec les deux).

    On pourra toujours imaginer une solution politique ou institutionnelle, comme pour l'énergie nucléaire. Certes, l'énergie nucléaire nous chauffe, nous apporte toute sorte d'énergie, mais en même temps, elle permet la bombe nucléaire. Il y a des traités internationaux qui réduisent les risques politiques, en limitant la prolifération de l'arme nucléaire, mais rien n'empêche des États de refuser de s'y soumettre.

    Pour l'intelligence artificielle, la situation est différente car si, pour maîtriser le nucléaire, la puissance d'un État est nécessaire, le développement de l'intelligence artificielle est accessible aux entreprises, notamment les plus grandes d'entre elles, les GAFAM dont la puissance financière permet d'investir massivement dans l'intelligence artificielle. Il faudrait donc imaginer une sorte d'accord international qui contraindrait tant les États que les entreprises à... à je ne sais pas quoi car comment limiter les risques d'abus de l'intelligence artificielle ? Sur quels paramètres jouer ?

    Mais revenons au sujet de fond. On ne connaît pas le fonctionnement exact du cerveau humain, et on ne connaîtra pas plus le fonctionnement réel de l'intelligence artificielle. C'est cela qui peut inquiéter à juste titre.
    Henry Kissinger (autre Prix Nobel, mais de la Paix), qui est mort centenaire l'an dernier, a réfléchi jusqu'au bout de sa vie aux grands enjeux du monde, et a beaucoup étudié l'intelligence artificielle dont il voyait l'essor comme aussi crucial que l'invention de l'imprimerie. En juin 2018, il se posait effectivement quelques questions : « La Toile nous a habitués à extraire et à manipuler des stocks d’informations non contextualisées, en fonction de nos besoins immédiats et pratiques. En outre, les algorithmes personnalisent les réponses en fonction de ce qu’ils savent de nous du fait de nos recherches précédentes. Du coup, la vérité est devenue relative. (…) Le monde digital valorise la vitesse au détriment de la réflexion, les positions radicales plutôt que la réflexion. L’information y supplante la sagesse. ».

    Il pose ainsi un véritable problème, celui des sources : le nombre devient alors un critère de vérité (au contraire de tout ce que j'ai appris dans ma culture classique), justement parce que c'est l'information qui l'emporte sur la compréhension. C'est la dure réalité de l'influence des fake news (fausses informations) qui peut avoir des conséquences électorales graves dans les pays démocratiques (pour lesquels les élections sont à l'origine de toute légitimité de pouvoir). De même que le problème des sources, celui d'une unique source : la pluralité des intelligences artificielles est indispensable pour éviter tout risque de big-brothérisation, si je puis m'exprimer ainsi !

     

     
     


    Sans doute l'ouverture de l'utilisation de l'intelligence artificielle au grand public est une nouvelle étape. Un peu dans le même genre d'importance que si l'on autorisait à chaque particulier de faire sa propre petite centrale nucléaire. Tout le monde pourra faire sa petite expérimentation. Plus ou moins réussie.

    Il faut reconnaître que c'est bluffant. Bien sûr, la traduction est l'une des applications fréquentes, et elle est de plus en plus fine et sophistiquée (même si elle n'est pas encore parfaite). Le dialogue humain/machine est donc renouvelé par une sorte de forme humaine à l'expression qui est assez intrigante. L'intelligence artificielle risque donc d'engendrer de la paresse intellectuelle dans les exposés, les résumés, les comptes rendus sur des connaissances déjà acquises (certainement pas sur des connaissances à construire). Faut-il s'en inquiéter ? À la fois oui et non.

    Oui, parce qu'il a été prouvé que lorsqu'on sait que la mémoire réside à l'extérieur du cerveau (dans un ordinateur, par exemple), alors, elle s'échappe du cerveau, elle ne reste plus mentalement parce qu'elle n'y est plus obligée. Bref, le cerveau ne va pas forcément évoluer en bien si on se fait de plus en plus assister par un ordinateur. La meilleure preuve est la course d'orientation, Qui, parmi les jeunes, sait même se servir d'une boussole ? Pourtant, savoir lire une carte IGN est indispensable au développement intellectuel, même si, aujourd'hui, il existe les GPS. D'une part, les GPS ne sont pas immortels (c'est un système de satellites qui ont chacun une durée de vie) ; d'autre part, cela nécessite de se reposer totalement sur la machine sans plan B. En plein désert, ou en pleine jungle, avec la batterie déchargée, que vaut un smartphone ?! C'est aussi le problème de la numérisation, des sauvegardes dans les clouds et de l'absence d'archives papiers.

    Se reposer totalement sur la machine risque de faire perdre des milliards de compétences humaines au fil des générations. Rien que la calculatrice est un instrument intéressant et utile car elle permet de calculer rapidement, mais encore faut-il que son utilisateur sache calculer lui-même pour qu'il comprenne bien la nature du résultat qu'une calculatrice lui fournit. On pourrait le dire de toute assistance par ordinateur. Si on n'apprend plus à calculer, on sera contraint de n'utiliser que les machines.


    Non, ce n'est pas inquiétant, parce qu'avec ce que la machine peut faire et épargner à l'humain, l'humain peut se concentrer sur d'autres tâches. Toutes les machines qui ont remplacé la force mécanique de l'homme lui ont permis de mieux penser, mieux conceptualiser. Que faire si la machine pense et conceptualise à la place ? C'est l'enjeu des prochaines décennies.

    Autre source d'inquiétude, je l'ai évoqué pour les fake news, c'est la capacité, avec l'intelligence artificielle, de créer des fake news bien plus redoutables qu'auparavant. Il est possible de prendre l'image d'un homme public et de le faire parler, avec le mouvement des lèvres adapté, et lui faire dire n'importe quoi dans n'importe quelle langue. La réalité devient sujette à falsification. Ce n'est plus la photo qui est truquée, mais le film.

    Le problème de la machine, c'est peut-être qu'elle ne prend pas en compte les imperfections du système, les bugs, les erreurs qui peuvent avoir des répercussions très graves. Un exemple intéressant d'intelligence artificielle, pas tout à fait encore au point et qui m'inquiéterait, c'est la conduire d'automobile par la machine. On imagine surtout le cas limite d'un risque d'accident, où l'on doit choisir entre continuer tout droit et s'écraser contre un autre véhicule ou dévier et écraser un piéton. Kissinger ne s'en moquait pas : « Dans l’avenir, nous serons de plus en plus souvent dépendants d’arbitrages opérés par des machines. L’action humaine est inspirée par des valeurs. Tel n’est pas le cas de ces machines intelligentes. Ne risque-t-on pas se laisser contaminer par leur vision instrumentale et amorale du monde ? ».

    C'est là le gros problème de l'intelligence artificielle : elle n'a pas de valeur, pas de morale. On pourrait toujours imaginer les robots selon Azimov, avec leurs règles dont celle de ne pas tuer d'humain, mais aujourd'hui les drones utilisent déjà l'intelligence artificielle pour définir leur cible et tirer. C'est déjà trop tard.

    Le 7 octobre 2021, le diplomate français Gérard Araud, très médiatisé ces dernières années, a écrit sur Kissinger et sur sa réflexion sur l'intelligence artificielle : « Trop d'information tue l'information mais en appelle encore toujours plus. Jamais on n'en a su autant ; jamais on n'en a compris si peu. Dans ce contexte, l'émotion et le consensus tiennent lieu d'une réflexion dont nul n'a plus le temps. Le risque est alors grand que, face à cet océan de faits, ne s'impose progressivement la tyrannie des algorithmes pour les traiter et l'expulsion progressive et volontaire de l'homme de la définition de son propre destin. Revenant à l'humanisme qui a fondé la culture de sa génération, Kissinger en appelle à des dirigeants qui, s'appuyant sur les faits, puissent les intégrer dans une vision historique et philosophique. Il n'est pas besoin de tout savoir pour tout comprendre. (…) Il ne s'agit pas des inquiétudes d'un vieil homme qui ne comprendrait plus son temps. J'ai moi-même été surpris des connaissances qu'il avait accumulées sur le sujet. C'est tout au contraire la réaction de quelqu'un qui a été confronté à la nécessité de prendre des décisions dans l'urgence et qui craint que la solution de facilité ne soit de s'en remettre à un algorithme. ».
     

     
     


    Le nouveau Prix Nobel de Physique John Hopfield est lui-même très conscient des risques de l'intelligence artificielle : « En tant que physicien, je suis très troublé par quelque chose qui n'est pas contrôlé. (…) Quelque chose que je ne comprends pas assez bien pour savoir quelle sont les limites que l'on peut imposer à cette technologie. ».

    Toutefois, les applications de l'intelligence artificielle sont nombreuses et opérationnelles et sauvent même des vies. Le professeur Anders Irbäck, membre du Comité Nobel de Physique, a cité deux domaines d'application importants, la modélisation dans les sciences des matériaux, et surtout la santé, l'analyse des images médicales, l'intelligence artificielle, bien plus que le médecin, est capable de déceler le début d'une tumeur cancéreuse à partir d'un cliché radiologique (IRM ou scanner), et j'ajouterai la régularité du rythme cardiaque, etc.


    Ce qui est sûr et fabuleux, c'est que l'homme est en train de faire imiter par la machine son propre fonctionnement cérébral, sans forcément bien le comprendre, mais avec des avantages énormes... et sans doute des menaces qui sont aujourd'hui encore difficilement définissables. J'aurai l'occasion de continuer à évoquer ce sujet très important dans un article ultérieur.


    Aussi sur le blog.

    Sylvain Rakotoarison (09 octobre 2024)
    http://www.rakotoarison.eu


    Pour aller plus loin :
    L'intelligence artificielle récompensée par les Nobel 2024 de Physique et de Chimie.
    Didier Raoult interdit d'exercer !
    2e rentrée scolaire contre les papillomavirus humains.
    Variole du singe (mpox) : "ils" nous refont le coup ?
    Covid : attention au flirt !
    Papillomavirus humains, cancers et prévention.
    Publications sur le papillomavirus, le cancer du col de l'utérus et l'effet de la vaccination anti-HPV (à télécharger).
    Émission "Le Téléphone Sonne" sur la vaccination contre les papillomavirus, sur France Inter le 3 mars 2023 (à télécharger).
    Le cancer sans tabou.
    Qu'est-ce qu'un AVC ?
    Lulu la Pilule.
    La victoire des impressionnistes.
    Science et beauté : des aurores boréales en France !
    Le Tunnel sous la Manche.
    Peter Higgs.
    Georges Charpak.
    Gustave Eiffel.
    Prix Nobel de Chimie 2023 : la boîte quantique ...et encore la France !
    Katalin Kariko et Drew Weissman Prix Nobel de Médecine 2023 : le vaccin à ARN messager récompensé !
    Covid : la contre-offensive du variant Eris.
    Hubert Reeves.
    Prix Nobel de Physique 2023 : les lasers ultrarapides, la physique attoseconde... et la France récompensée !
    John Wheeler.
    La Science, la Recherche et le Doute.
    L'espoir nouveau de guérir du sida...
    Louis Pasteur.
    Howard Carter.
    Alain Aspect.
    Svante Pääbo.
    Frank Drake.
    Roland Omnès.
    Marie Curie.







    https://rakotoarison.over-blog.com/article-sr-20241008-intelligence-artificielle.html

    https://www.agoravox.fr/actualites/technologies/article/l-intelligence-artificielle-257129

    http://rakotoarison.hautetfort.com/archive/2024/10/09/article-sr-20241008-intelligence-artificielle.html




     

  • Peter Higgs, héros des temps joyeux

    « La symétrie m’avait fasciné depuis mes années d’étudiant et j’étais embarrassé par les symétries approximatives de la physique des particules. » (Peter Higgs, le 8 décembre 2013 à Stockholm).




    _yartiHiggsB01.jpg


    Le physicien britannique Peter W. Higgs est mort ce lundi 8 avril 2024 à Édimbourg, en Écosse, des suites d'une "courte maladie" selon l'Université d'Édimbourg. Le Prix Nobel de Physique 2013 allait atteindre ses 95 ans le 29 mai prochain.

    Avec lui est partie l'une des sommités mondiales de la physique des particules. D'un naturel très joyeux et souriant, il est le modèle (j'allais écrire standard) de l'excellent scientifique, à savoir la passion, l'observation mais avant tout, la réflexion. Il existe en effet deux types de physiciens : ceux qui observent des trucs bizarres, et qui tentent d'élaborer une théorie qui corresponde (ils sont les plus nombreux, ils sont aussi très coûteux car ils ont beaucoup d'équipements pour observer, on les appelle les expérimentaux) ; et puis il y a ceux qui pensent, réfléchissent, reprennent une équation, l'amènent jusqu'aux confins de la pensée humaine, et alors, ils pondent des lois, des théories, et ils attendent de les voir validées par l'observation ou l'expérience (ce sont les théoriciens). Sans mettre de hiérarchie dans les démarches scientifiques (elles sont toutes les deux nécessaires et surtout elles ont été indispensables et complémentaires pour faire avancer la science), je dois admettre que j'ai une grande admiration pour les seconds, les théoriciens, qui sont des champions intellectuels, évidemment à condition que leurs théories coïncident avec la réalité palpable du monde réel, comme ce le fut pour Einstein en énonçant la Relativité générale (exemple exceptionnel de génie intellectuel).

    C'était un peu la réaction émue d'Étienne Klein sur Twitter, en apprenant la mort de Higgs : « Grâce à des esprits comme le sien, la physique devient à l’occasion capable de compléter le mobilier ontologique du monde. ». À méditer !

    Peter Higgs était en effet de ces théoriciens qui prédisent les lois. En tout cas, une loi, l'existence d'une particule, qu'on a appelée par la suite le boson de Higgs, un peu en oubliant d'autres contributeurs, une première équipe (dans l'ordre chronologique) composée des chercheurs belges François Englert et Robert Brout de l'Université de Bruxelles, mais aussi une troisième équipe composée de Thomas Kibble, Gerald Guralnik et Carl Richard Hagen. Le prestigieux Prix Sakurai qui récompense les grands chercheurs en physique des particules avait effectivement récompensé le 10 février 2010 ces six physiciens. Peter Higgs n'était pas à l'origine de l'appellation du boson de Higgs et il aurait volontiers parlé de boson de Brout-Englert-Higgs, voire de BEHHGK (en reprenant les initiales des six chercheurs). L'histoire gardera seulement Higgs. Injustement par simplisme.

    Le comité Nobel, au contraire du Prix Sakurai (mais comme le Prix Wolf de Physique 2004), n'a récompensé le 8 octobre 2013 que Peter Higgs, et François Englert, il aurait aussi récompensé Robert Brout mais il est mort en 2011, et il aurait pu aussi récompenser les trois autres. C'est toujours le problème de l'attribution des Nobel, car, d'une part, la science est toujours un travail d'équipe, qui se nourrit de l'expérience et des travaux des autres, communiqués lors de séminaires, symposiums, conférences, revues scientifiques, etc., et, d'autre part, il n'est pas rare que deux voire trois chercheurs, indépendamment l'un des autres, arrivent à prendre le même chemin et aboutir à la même conclusion, parce qu'à travers le monde, ils sont finalement formés de la même manière avec les mêmes réflexes (François Englert et Peter Higgs ne se connaissaient pas quand ils ont publié le même type de réflexion en 1964, à deux mois d'intervalle).

    _yartiHiggsB02.jpg


    Quelle a été la découverte théorique de Peter Higgs (et de ses collègues) ? L'idée que l'univers manquait de masse, et que sa particule pourrait être une bonne candidate pour y remédier. Peter Higgs a surtout été fasciné par la symétrie des particules, d'un monde qui pourrait être parfait. Le Modèle standard de la physique a établi quatre interactions (forces) : la gravité, la force électromagnétique, l'interaction forte et l'interaction faible. À chaque interaction, il y a un boson qui est associé, généralement à masse nulle : le graviton (dont l'existence n'est pas encore prouvée), le photon, le gluon, etc.

    _yartiHiggsB04.jpg


    Mais pour valider le modèle standard, il fallait une particule dont le champ scalaire redonnerait de la masse aux bosons de l'interaction faible. C'est ainsi que ces chercheurs ont imaginé l'existence du boson de Higgs, en quelque sorte, le chaînon manquant de la masse de l'Univers (lire pour plus de précision mon précédent article).

    Malheureusement, cette découverte de 1964 n'avait jamais été suivie d'observation pendant très longtemps, et donc, sans validation de sa pertinences. Moi-même, je n'imaginais pas vivre une pareille validation et c'était presque l'Arlésienne. De nombreuses équipes de recherche, partout dans le monde, pendant une près d'une cinquantaine d'années, ont tenté d'observer ce fameux boson de Higgs. La difficulté, c'est l'extrême brièveté de sa durée de vie, de l'ordre de l'attoseconde.

    Comme toujours dans ces cas-là, c'est la réalisation d'outils extrêmement puissants qui permet de valider des théories sur l'infiniment petit. En 2008, le CERN (Centre européen pour la recherche nucléaire à Genève) a mis en route un nouvel accélérateur de particules bien plus performant que les précédents, le plus puissant du monde, le LHC (Large Hadron Collider), un anneau de 27 kilomètres de longueur. Et beaucoup plus rapidement que prévu, le CERN a annoncé le 4 juillet 2012 que des bosons de Higgs avaient été observés : « Nous avons franchi une nouvelle étape dans notre compréhension de la nature. ». Les deux futurs Prix Nobel Peter Higgs et François Englert s'étaient déplacés pour observer eux-mêmes cet exploit. Higgs admettait volontiers : « Je n’aurais jamais pensé assister à cela de mon vivant. ». Trois mille chercheurs de cent pays ont été mobilisés sur ce projet géant de 4,3 milliards d'euros !

    _yartiHiggsB03.jpg


    C'était sans doute la même joie qu'a dû ressentir l'astrophysicien ukrainien Klim Tchourioumov. À 31 ans, il a découvert par l'observation une comète (avec sa collègue de 24 ans), la comète Tchourioumov-Guérassimenko, dite comète Tchouri, et quarante-cinq ans plus, l'être humain était capable de poser un véhicule sur la surface (la sonde Rosetta et le robot Philae) de cet astre à près d'un milliard de kilomètres de la Terre et d'en observer précisément les contours ! Mais revenons à nos bosons.

    C'est cette validation du boson de Higgs qui leur ont valu le Nobel de Physique l'année suivante. De simple hypothèse (à laquelle ne croyait pas, par exemple, Stephen Hawking), le boson de Higgs est devenu une réalité effective et reconnue.

    Pour autant, l'histoire n'est pas terminée. Le boson de Higgs ne répond pas à toutes les questions du Modèle standard. Vers 2045 sera installé au CERN un nouvel outil encore plus puissant, le FCC (Future Circular Collider), un anneau de 90 kilomètres de longueur construit à 200 mètres de profondeur (le LHC était à 100 mètres de profondeur). Pour Higgs, en 2022, il y a encore beaucoup à découvrir des hautes énergies : « Oui, nous avons gratté la surface, mais il nous reste clairement bien plus à découvrir. ». La lucidité du savant qui sait qu'il ne sait rien ! (et l'humilité).

    Peter Higgs était un chercheur encore à l'ancienne, prenant le temps de réfléchir. Il a fait toute sa carrière à l'Université d'Édimbourg, mais il ne s'entendait pas avec les dirigeants de l'université qui ne le trouvaient pas très productif. Il était resté, il était toléré simplement dans l'espoir qu'il reçût le Prix Nobel, prestige qui rejaillirait sur l'université du lauréat. Il s'est dit qu'il n'aurait pas été capable de faire une carrière comme aujourd'hui, avec une obligation folle de produire, produire, produire.

    Il faut dire que Peter Higgs, c'était vraiment une autre époque. "Le Monde" le décrit ainsi : « Peter Higgs n’a jamais eu d’ordinateur, répondait aux e-mails par courriers postaux, et s’est passé de télévision et de téléphone mobile, jugé trop intrusif… ».

    Étienne Klein a remarqué que le boson scalaire de Higgs avait pour anagramme l'horloge des anges ici-bas. Pour l'heure, un ange est monté dans ce cosmos si énigmatique, un ange qui ne croyait pas en Dieu, mais qui restait fermement attaché à croire au progrès, et à prendre la vie avec la bonne humeur. Peut-être que Dieu, c'est un peu Higgs maintenant, lui qui n'aimait pas une autre appellation de son boson, la particule de Dieu...


    Aussi sur le blog.

    Sylvain Rakotoarison (09 avril 2024)
    http://www.rakotoarison.eu


    Pour aller plus loin :
    Le discours de réception de Peter Higgs le 8 décembre 2013 à Stockholm (vidéo et texte à télécharger).
    Les trois publications scientifiques qui ont prédit l’existence du boson de Higgs (à télécharger).
    Sa particule, son champ, son Nobel.
    Peter Higgs.
    Georges Charpak.
    Gustave Eiffel.
    Prix Nobel de Chimie 2023 : la boîte quantique ...et encore la France !
    Katalin Kariko et Drew Weissman Prix Nobel de Médecine 2023 : le vaccin à ARN messager récompensé !
    Covid : la contre-offensive du variant Eris.
    Hubert Reeves.
    Prix Nobel de Physique 2023 : les lasers ultrarapides, la physique attoseconde... et la France récompensée !
    Des essais cliniques sauvages ?
    John Wheeler.
    La Science, la Recherche et le Doute.
    L'espoir nouveau de guérir du sida...
    Louis Pasteur.
    Howard Carter.
    Alain Aspect.
    Svante Pääbo.
    Frank Drake.
    Roland Omnès.
    Marie Curie.

    _yartiHiggsB05.jpg





    https://rakotoarison.over-blog.com/article-sr-20240408-peter-higgs.html

    https://www.agoravox.fr/actualites/technologies/article/peter-higgs-heros-des-temps-joyeux-254088

    http://rakotoarison.hautetfort.com/archive/2024/04/10/article-sr-20240408-peter-higgs.html