Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

intelligence artificielle

  • Le génie de Benoît Mandelbrot

    « C’est l’essentiel des phénomènes de la nature qui obéissent à cet autre type de hasard où l’on ne peut appliquer la loi des grands nombres. (…) Le modèle standard nous fait passer à côté de la plus grande partie de la réalité, et va jusqu’à nous empêcher même de la voir. » (Benoît Mandelbrot, 1973).



    _yartiMandelbrotBenoit06

    Le mathématicien Benoît Mandelbrot est né il y a juste 100 ans, le 20 novembre 1924, à Varsovie. Il est mort d'un cancer peu avant ses 86 ans le 14 octobre 2010 à Cambridge, dans le Massachusetts. J'ai déjà évoqué ce scientifique atypique et prolifique dans un article précédent, en particulier sur les fractales dont il est l'un des initiateurs.

    Benoît Mandelbrot a eu à la fois de la chance et de la malchance dans ses origines juives polonaises (sa famille était lituanienne). La "malchance", car ce n'était pas du tout facile d'être Juif pendant cette partie du siècle sur cette terre européenne. En 1936, la famille a d'ailleurs émigré en France, rejoignant une autre partie de la famille déjà installée. Sous l'Occupation, le jeune homme a dû se cacher et changer souvent d'adresses pour éviter d'être déporté voire assassiné dans les camps de la mort. Le fait qu'il ait été épargné a été sa chance, mais plus encore, la chance d'être né dans une famille qui l'a encouragé et qui a encouragé le travail et la curiosité, notamment avec son oncle Szolem Mandelbrojt, scientifique aussi, membre du Collège de France depuis 1938, qui lui a permis, entre autres, de rencontrer de nombreux autres scientifiques (cet oncle était l'un des fondateurs du fameux groupe Bourbaki).

    Polytechnicien, Benoît Mandelbrot se destinait à la recherche mathématique, mais loin de rester dans les cases de cette science dure, il voulait au contraire la relier avec des réalités quotidiennes. Il a été ainsi économiste ou linguiste autant que mathématicien. Faisant ses études en France, il est finalement parti aux États-Unis pour soutenir sa thèse de doctorat et toute sa vie, il a oscillé entre la France (et la Suisse) et les États-Unis, cumulant certains postes comme chercheur au CNRS, puis professeur d'université à Lille, en France, et professeur au Massachusetts Institute of Technology (MIT) puis à Harvard, puis à Yale, ou encore chercheur à IBM à partir de 1958, aux USA (il a refusé le Collègue de France en 1973).


    Il a quitté certains postes d'enseignement qui lui prenaient trop de temps afin de se consacrer à ses travaux de recherche, et probablement que son poste à IBM était le meilleur, puisque la compagnie informatique lui a laissé une liberté absolue dans ses activités. En effet, en tant que research fellow, ce qui est un grade privilégié dans une grande entreprise américaine, il n'avait pas vraiment d'impératif de management (projet ou hiérarchique) et pouvait se consacrer très librement à ses objectifs de recherche et même, bénéficier de temps de disponibilité pour pouvoir nouer des collaborations avec d'autres centres de recherche et rencontrer d'autres scientifiques.

    Sur ce point, il faut m'arrêter pour comparer le système de recherche des États-Unis et celui de la France. En France, la recherche est particulièrement fournie dans le public, dans les universités et dans des instituts de recherche dont le plus prestigieux est sans doute le CNRS en raison de son interdisciplinarité. Une fois que le chercheur a un poste, soit d'enseignant-chercheur, soit de chercheur, il est libre de pouvoir orienter ses recherches comme bon lui semble et évoluer dans sa carrière avec l'idée que les promotions et les choix se font par cooptation. Le problème de ce système, c'est que l'argent public sert surtout à payer les salaires (relativement faibles pour le chercheur mais très lourds pour l'État) et les gros équipements (de type synchrotron, etc.), mais manque pour financer des équipements parfois coûteux des laboratoires.

    D'où l'importance du privé en France. Ce n'est pas nouveau, mais la loi Pécresse de 2007 a considérablement aidé les laboratoires publics notamment en permettant aux universités de se doter d'argent privé. Même si c'était en contradiction idéologique avec la plupart des enseignants-chercheurs, cette loi a été largement acceptée par la communauté scientifique car elle a permis de poursuivre un financement que l'État (surendetté, et pas seulement de maintenant !) ne pouvait plus assurer. Non seulement les laboratoires publics ont gagné en autonomie, mais aussi en financement, sans pour autant être "vendus" aux entreprises.

    Mais là, je ne parle que de recherche publique. La France a bien sûr aussi de la recherche privée, mais elle est de moins en moins importante. Depuis une vingtaine d'années, l'État d'ailleurs encourage fortement l'investissement dans le recherche au moyen du crédit impôt recherche qui est l'un des mécanismes non seulement pour encourager cet investissement mais aussi pour inciter les grands groupes internationaux à installer leurs centres de recherche en France. Il reste que la recherche privée est directement tributaire des marchés et à court terme, ce qui peut inquiéter sérieusement pour l'avenir du pays.

    Autre point faible de la France, directement en rapport avec la conception de l'argent que se font beaucoup de Français (complexés par l'argent), il y a un réel chaînon manquant entre la découverte scientifique et sa valorisation industrielle. Il y a encore peu de dépôts de brevet au CNRS malgré la qualité excellente de la recherche de très nombreux scientifiques.

    Aux États-Unis, comme il y a très peu d'État (et je devine que très prochainement, avec le retour de Donald Trump, il y en aura encore moins), tout fonctionne depuis toujours avec l'argent privé : universités, laboratoires de recherche, etc. Mais cela n'empêche pas l'autonomie des chercheurs. Dans les universités, un chercheur est à la fois chercheur et entrepreneur, car il est capable financièrement d'investir pour valoriser les fruits de sa recherche (on appelle cela essaimage, ou start-up). Inversement, et c'est ce qui s'est passé pour IBM (qui ont eu des chercheurs qui ont reçu le Prix Nobel de Physique, les plus connus furent en 1986 à Zurich), c'est que les grandes entreprises privées jouent le rôle de la recherche publique en France. Notamment avec ce type de poste de research fellow. D'ailleurs, Benoît Mandelbrot devait prendre sa retraite d'IBM en 1993 mais il a eu la possibilité de garder un bureau et de continuer à y travailler avec le titre de fellow emeritus jusqu'en 2006, date à laquelle il a vraiment pris sa retraite (et a arrêté de donner des cours à Yale).

    Je termine cette grande parenthèse sur les chercheurs avec cette idée qu'un chercheur, qui est une personne très pointue dans un domaine très technique, dotée d'une forte intelligence couplée à une forte intuition, le tout avec un travail de longue haleine, persévérant et parfois infructueux, ne court pas, en général, après l'argent. Il existe des métiers (de type commercial) qui permettent de devenir riche beaucoup plus rapidement et avec beaucoup moins de labeur que de faire des mathématiques ou de la physique de très haut niveau. La passion et la curiosité sont des moteurs bien plus efficaces que l'argent pour les scientifiques. De plus, ils ont un autre moteur (commun également aux autres) qui est la reconnaissance. Et c'est aussi cette raison qui a conduit Benoît Mandelbrot à travailler plus aux États-Unis qu'en France où on s'intéressait peu à ses travaux.


    L'un des traits de génie de Benoît Mandelbrot a été d'avoir été capable, à partir de travaux antérieurs, comme la loi de George Kingsley Zipf d'observation empirique de la fréquence d'un mot dans un texte en fonction de son rang et la théorie de l'information de Claude Shannon, d'en faire une loi plus générale, ce qui a été l'objet de sa thèse soutenue le 19 décembre 1952 ("Contribution à la théorie des jeux de communication") qui lui a apporté une grande notoriété outre-atlantique.

    C'est à la fin des années 1960 que Benoît Mandelbrot s'est intéressé à ce qu'il a appelé les fractales, en voulant déterminer la longueur des côtes de la Grande-Bretagne, et en montrant que leur dimension de Hausdorff n'était ni 1 ni 2 mais entre 1 et 2 (non entière). Dans ce cadre, il s'est investi dans l'étude des fluctuations instantanées, essentielles pour mieux prévoir l'économie et les modèles financiers, trop souvent décrits par des moyennes qui ne rendent compte de rien. Au-delà de l'économie, les applications de ses travaux sont très nombreuses, de la forme des nuages aux crues du Nil en passant par la transmission du signal.

    Dans sa leçon au Collège de France le 13 janvier 1973 sur les "Formes nouvelles du hasard dans les sciences", Benoît Mandelbrot a dit en introduction : « La variété des phénomène naturels est infinie, mais les techniques mathématiques susceptibles de les dompter sont fort peu nombreuses. Il arrive donc souvent que des phénomènes qui par ailleurs n'ont rien de commun se trouvent partager la même structure mathématique. C'est un tel cousinage conceptuel qui semble aujourd'hui porter l'une vers l'autre les fluctuations qui à la fois sont "très erratiques" et possèdent une "homothétie statistique interne". Leur matière va de l'économique à la biologie, à la géophysique, à diverses branches de la physique et au-delà, mais de deux points de vue ces fluctuations se ressemblent : l'échec d'une technique mathématique et le succès d'une autre. Le premier les définit comme "non laplaciennes" ou "très erratiques", par contraste avec les fluctuations familières qui peuvent être dites "laplaciennes" ou "bénignes". Le deuxième les définit comme "statistiquement homothétiques". (…) Je voudrais faire sentir aussi bien le degré d'unité que l'homothétie apporte, que la variété des problèmes spécifiques auxquels elle contribue à répondre. ».
     

     
     


    L'Ensemble de Mandelbrot (inspiré par les travaux du mathématicien Gaston Julia) est la famille des fractales qui répondent à cette équation : z(0) = 0 et z(n+1) = z(n) puissance 2 + c (où c est un nombre complexe quelconque). Cela donne cette harmonieuse géométrie qui se répète de la plus grande à la plus petite échelle (cliquer ici).
     

     
     


    Benoît Mandelbrot a publié en 1982 un livre complet de six cents pages sur le sujet "The Fractal Geometry of Nature" : « Au fur et à mesure que la technologie s'est améliorée, les fractales tracées par ordinateur, mathématiquement précises, sont devenues plus détaillées. Les premiers dessins étaient en noir et blanc à basse résolution ; les dessins ultérieurs étaient en haute résolution et en couleur. De nombreux exemples ont été créés par des programmeurs qui ont travaillé avec Mandelbrot, principalement au centre de recherche d'IBM. Ces visualisations ont renforcé la force de persuasion des livres et leur impact sur la communauté scientifique. ». Pour plus de précision, on peut relire ici.


    Aussi sur le blog.

    Sylvain Rakotoarison (16 novembre 2024)
    http://www.rakotoarison.eu


    Pour aller plus loin :
    Benoît Mandelbrot.
    Publication : Tan, Lei. "Similarity between the Mandelbrot set and Julia sets". Comm. Math. Phys. 134 (1990), no 3, 587-617.
    Fractales explosives.
    Hubert Curien.
    Alain Bombard.
    Hubert Reeves.
    L'intelligence artificielle récompensée par les Nobel 2024 de Physique et de Chimie.
    Didier Raoult interdit d'exercer !
    2e rentrée scolaire contre les papillomavirus humains.
    Variole du singe (mpox) : "ils" nous refont le coup ?
    Covid : attention au flirt !
    Papillomavirus humains, cancers et prévention.
    Publications sur le papillomavirus, le cancer du col de l'utérus et l'effet de la vaccination anti-HPV (à télécharger).
    Émission "Le Téléphone Sonne" sur la vaccination contre les papillomavirus, sur France Inter le 3 mars 2023 (à télécharger).
    Le cancer sans tabou.
    Qu'est-ce qu'un AVC ?
    Lulu la Pilule.
    La victoire des impressionnistes.
    Science et beauté : des aurores boréales en France !
    Le Tunnel sous la Manche.
    Peter Higgs.
    Georges Charpak.
    Gustave Eiffel.
    Prix Nobel de Chimie 2023 : la boîte quantique ...et encore la France !
    Katalin Kariko et Drew Weissman Prix Nobel de Médecine 2023 : le vaccin à ARN messager récompensé !
    Covid : la contre-offensive du variant Eris.
    Hubert Reeves.
    Prix Nobel de Physique 2023 : les lasers ultrarapides, la physique attoseconde... et la France récompensée !
    John Wheeler.
    La Science, la Recherche et le Doute.
    L'espoir nouveau de guérir du sida...
    Louis Pasteur.
    Howard Carter.
    Alain Aspect.
    Svante Pääbo.
    Frank Drake.
    Roland Omnès.
    Marie Curie.

    _yartiMandelbrotBenoit05




    https://rakotoarison.over-blog.com/article-sr-20241120-benoit-mandelbrot.html

    https://www.agoravox.fr/actualites/technologies/article/le-genie-de-benoit-mandelbrot-257450

    http://rakotoarison.hautetfort.com/archive/2024/11/19/article-sr-20241120-benoit-mandelbrot.html



     

  • L'intelligence artificielle récompensée par les Nobel 2024 de Physique et de Chimie

    « Philosophiquement, intellectuellement, à tout point de vue, la société humaine n'est pas préparée à l'essor de l'intelligence artificielle. (…) Sommes-nous en train de basculer dans une nouvelle phase de l'histoire humaine ? » (Henry Kissinger, en juin 2018).



     

     
     


    Je sais que les sciences, c'est-à-dire, les sciences dures n'ont pas beaucoup de couverture médiatique en France, d'autant plus qu'on vit des moments très troublés d'ordre politique et international. Néanmoins, l'actualité scientifique est un élément important qui préfigure, voire configure notre avenir. Cette semaine est la semaine des attributions des Prix Nobel de 2024. Plutôt que d'insister sur les noms des lauréats, insistons sur les découvertes récompensées.

    Lundi 7 octobre 2024 ont été récompensés du Prix Nobel de Médecine les généticiens américains Victor Ambros et Gary Ruvkun pour leurs travaux sur les micro-ARN et leur rôle dans la régulation génétique. Mercredi 9 octobre 2024 ont été récompensés du Prix Nobel de Chimie les biochimistes américains David Baker, Demis Hassabis et John M. Jumper (anglo-américain) pour leurs travaux sur les protéines, le premier (la moitié du Prix) pour leur conception numérique et les deux autres (chacun un quart du Prix) pour les prédictions de leur structure qui font appel à l'intelligence artificielle.

    J'ai gardé pour la fin le Prix Nobel de Physique attribué le mardi 8 octobre 2024 au physicien américain John Hopfield et au chercheur anglo-canadien Geoffrey Hinton, spécialiste de l'intelligence artificielle, pour leurs travaux sur l'apprentissage automatique à l'aide de réseaux de neurones artificiels. Autant dire que la principale lauréate des Nobel en 2024, du reste non seulement de Physique mais aussi de Chimie, c'est
    l'intelligence artificielle.

    Il faut déjà s'entendre sur les termes. L'expression intelligence artificielle est une pâle traduction de son équivalent anglais, pris dans le sens aussi d'intelligence économique. En fait d'intelligence, la traduction française plus précise serait plutôt veille, on parle de veille économique. C'est sûr que dire veille artificielle serait mal traduire, mais il y a de cela. Je trouve que le mot intelligence de cette expression est pourtant mal défini et induit en erreur. Intellego en latin signifie je comprends.


    En français, la définition de l'intelligence, donnée par Le Robert, est : « faculté de connaître, de comprendre ; qualité de l'esprit qui comprend et s'adapte facilement ». Il y a une autre définition, dans le même sens : « l'ensemble des fonctions mentales ayant pour objet la connaissance rationnelle (opposé à sensation et intuition) ». On y trouve aussi la définition de l'intelligence artificielle : « ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l'intelligence humaine (raisonnement, apprentissage…) ». Il y a aussi un autre sens, qui n'est pas ici pertinent : « d'intelligence : de connivence, par complicité » (par exemple : intelligence avec l'ennemi).

    Pour reprendre la définition, il faut plus prendre le verbe connaître que le verbe comprendre pour parler d'intelligence artificielle (ce qui ne reprend pas l'étymologie latine du verbe comprendre). L'intelligence artificielle ne comprend rien, elle ne fait qu'accumuler, stocker, structurer et ressortir des connaissances d'un volume et d'une vitesse incomparables avec ce dont est capable l'être humain. En revanche, ce dernier comprend.
     

     
     


    Les travaux sur les réseaux de neurones artificiels, qui viennent d'être récompensés, sont fondamentaux, comme l'a expliqué, le 8 octobre 2024 à Stockholm, la professeure Ellen Moons, présidente du Comité Nobel de Physique : « L'apprentissage est une capacité fascinante du cerveau humain. Nous pouvons reconnaître des images et des paroles et les associer à des souvenirs et à des expériences du passé. Des milliards de neurones nous confèrent des capacités cognitives uniques. Les réseaux de neurones artificiels sont inspirés par ce réseau de neurones dans notre cerveau. Les lauréats du Prix Nobel de Physique de cette année, John Hopfield et Geoffrey Hinton, ont utilisé les concepts des principes fondamentaux de la physique statistique pour concevoir des réseaux de neurones artificiels qui fonctionnent comme des mémoires associatives et trouvent des modèles dans de grands ensemble de données. Ces réseaux de neurones artificiels ont été utilisés pour faire progresser la recherche sur des sujets de physique aussi divers que la physique des particules, les sciences des matériaux et l'astrophysique. Ils sont également devenus une partie de notre vie quotidienne, par exemple, dans la reconnaissance faciale et la traduction linguistique. Les découvertes et inventions des lauréats constituent des éléments constitutifs de l'apprentissage automatique qui peuvent aider les humains à prendre des décisions plus rapides et plus fiables, par exemple lors du diagnostic de problèmes médicaux. Cependant, même si l'apprentissage automatique présente d'immenses avantages, son développement rapide a aussi soulevé des inquiétudes sur notre avenir. Les humains portent collectivement la responsabilité d'utiliser cette nouvelle technologie d'une manière sûre et éthique pour le plus grand bénéfice de l'humanité. ».





    L'intelligence artificielle n'est pas nouvelle, et existe depuis les années 1950, et son principe est d'imiter le cerveau humain par un système de connexions de neurones. Ce qui est nouveau depuis une dizaine voire une vingtaine d'années, c'est qu'on est capable d'avoir un volume des mémoires et une vitesse, une puissance de calcul des microprocesseurs, extraordinaires, ce qui permet aux systèmes de neurones une évolution très rapide.

    Son principe est l'auto-apprentissage, et je me souviens que dans les années 1980, on parlait de système expert pour cela dans les processus de recherche d'erreurs et de solutions. La machine progresse au fur et à mesure de son évolution, de ses erreurs, de ses interactions. C'est cet aspect qui peut faire peur, qui doit faire peur, car cet apprentissage est hors contrôle d'une conscience humaine.
     

     
     


    Comme pour toute innovation scientifique, la question philosophique du bien, du mal, faut-il développer, freiner, n'a pas beaucoup de sens. Qu'on le veuille ou pas, l'intelligence artificielle existe depuis longtemps et surtout, est utilisée depuis longtemps et on ne reviendra pas en arrière. Il faut faire avec. Avec enthousiasme ou avec angoisse (ou plus probablement avec les deux).

    On pourra toujours imaginer une solution politique ou institutionnelle, comme pour l'énergie nucléaire. Certes, l'énergie nucléaire nous chauffe, nous apporte toute sorte d'énergie, mais en même temps, elle permet la bombe nucléaire. Il y a des traités internationaux qui réduisent les risques politiques, en limitant la prolifération de l'arme nucléaire, mais rien n'empêche des États de refuser de s'y soumettre.

    Pour l'intelligence artificielle, la situation est différente car si, pour maîtriser le nucléaire, la puissance d'un État est nécessaire, le développement de l'intelligence artificielle est accessible aux entreprises, notamment les plus grandes d'entre elles, les GAFAM dont la puissance financière permet d'investir massivement dans l'intelligence artificielle. Il faudrait donc imaginer une sorte d'accord international qui contraindrait tant les États que les entreprises à... à je ne sais pas quoi car comment limiter les risques d'abus de l'intelligence artificielle ? Sur quels paramètres jouer ?

    Mais revenons au sujet de fond. On ne connaît pas le fonctionnement exact du cerveau humain, et on ne connaîtra pas plus le fonctionnement réel de l'intelligence artificielle. C'est cela qui peut inquiéter à juste titre.
    Henry Kissinger (autre Prix Nobel, mais de la Paix), qui est mort centenaire l'an dernier, a réfléchi jusqu'au bout de sa vie aux grands enjeux du monde, et a beaucoup étudié l'intelligence artificielle dont il voyait l'essor comme aussi crucial que l'invention de l'imprimerie. En juin 2018, il se posait effectivement quelques questions : « La Toile nous a habitués à extraire et à manipuler des stocks d’informations non contextualisées, en fonction de nos besoins immédiats et pratiques. En outre, les algorithmes personnalisent les réponses en fonction de ce qu’ils savent de nous du fait de nos recherches précédentes. Du coup, la vérité est devenue relative. (…) Le monde digital valorise la vitesse au détriment de la réflexion, les positions radicales plutôt que la réflexion. L’information y supplante la sagesse. ».

    Il pose ainsi un véritable problème, celui des sources : le nombre devient alors un critère de vérité (au contraire de tout ce que j'ai appris dans ma culture classique), justement parce que c'est l'information qui l'emporte sur la compréhension. C'est la dure réalité de l'influence des fake news (fausses informations) qui peut avoir des conséquences électorales graves dans les pays démocratiques (pour lesquels les élections sont à l'origine de toute légitimité de pouvoir). De même que le problème des sources, celui d'une unique source : la pluralité des intelligences artificielles est indispensable pour éviter tout risque de big-brothérisation, si je puis m'exprimer ainsi !

     

     
     


    Sans doute l'ouverture de l'utilisation de l'intelligence artificielle au grand public est une nouvelle étape. Un peu dans le même genre d'importance que si l'on autorisait à chaque particulier de faire sa propre petite centrale nucléaire. Tout le monde pourra faire sa petite expérimentation. Plus ou moins réussie.

    Il faut reconnaître que c'est bluffant. Bien sûr, la traduction est l'une des applications fréquentes, et elle est de plus en plus fine et sophistiquée (même si elle n'est pas encore parfaite). Le dialogue humain/machine est donc renouvelé par une sorte de forme humaine à l'expression qui est assez intrigante. L'intelligence artificielle risque donc d'engendrer de la paresse intellectuelle dans les exposés, les résumés, les comptes rendus sur des connaissances déjà acquises (certainement pas sur des connaissances à construire). Faut-il s'en inquiéter ? À la fois oui et non.

    Oui, parce qu'il a été prouvé que lorsqu'on sait que la mémoire réside à l'extérieur du cerveau (dans un ordinateur, par exemple), alors, elle s'échappe du cerveau, elle ne reste plus mentalement parce qu'elle n'y est plus obligée. Bref, le cerveau ne va pas forcément évoluer en bien si on se fait de plus en plus assister par un ordinateur. La meilleure preuve est la course d'orientation, Qui, parmi les jeunes, sait même se servir d'une boussole ? Pourtant, savoir lire une carte IGN est indispensable au développement intellectuel, même si, aujourd'hui, il existe les GPS. D'une part, les GPS ne sont pas immortels (c'est un système de satellites qui ont chacun une durée de vie) ; d'autre part, cela nécessite de se reposer totalement sur la machine sans plan B. En plein désert, ou en pleine jungle, avec la batterie déchargée, que vaut un smartphone ?! C'est aussi le problème de la numérisation, des sauvegardes dans les clouds et de l'absence d'archives papiers.

    Se reposer totalement sur la machine risque de faire perdre des milliards de compétences humaines au fil des générations. Rien que la calculatrice est un instrument intéressant et utile car elle permet de calculer rapidement, mais encore faut-il que son utilisateur sache calculer lui-même pour qu'il comprenne bien la nature du résultat qu'une calculatrice lui fournit. On pourrait le dire de toute assistance par ordinateur. Si on n'apprend plus à calculer, on sera contraint de n'utiliser que les machines.


    Non, ce n'est pas inquiétant, parce qu'avec ce que la machine peut faire et épargner à l'humain, l'humain peut se concentrer sur d'autres tâches. Toutes les machines qui ont remplacé la force mécanique de l'homme lui ont permis de mieux penser, mieux conceptualiser. Que faire si la machine pense et conceptualise à la place ? C'est l'enjeu des prochaines décennies.

    Autre source d'inquiétude, je l'ai évoqué pour les fake news, c'est la capacité, avec l'intelligence artificielle, de créer des fake news bien plus redoutables qu'auparavant. Il est possible de prendre l'image d'un homme public et de le faire parler, avec le mouvement des lèvres adapté, et lui faire dire n'importe quoi dans n'importe quelle langue. La réalité devient sujette à falsification. Ce n'est plus la photo qui est truquée, mais le film.

    Le problème de la machine, c'est peut-être qu'elle ne prend pas en compte les imperfections du système, les bugs, les erreurs qui peuvent avoir des répercussions très graves. Un exemple intéressant d'intelligence artificielle, pas tout à fait encore au point et qui m'inquiéterait, c'est la conduire d'automobile par la machine. On imagine surtout le cas limite d'un risque d'accident, où l'on doit choisir entre continuer tout droit et s'écraser contre un autre véhicule ou dévier et écraser un piéton. Kissinger ne s'en moquait pas : « Dans l’avenir, nous serons de plus en plus souvent dépendants d’arbitrages opérés par des machines. L’action humaine est inspirée par des valeurs. Tel n’est pas le cas de ces machines intelligentes. Ne risque-t-on pas se laisser contaminer par leur vision instrumentale et amorale du monde ? ».

    C'est là le gros problème de l'intelligence artificielle : elle n'a pas de valeur, pas de morale. On pourrait toujours imaginer les robots selon Azimov, avec leurs règles dont celle de ne pas tuer d'humain, mais aujourd'hui les drones utilisent déjà l'intelligence artificielle pour définir leur cible et tirer. C'est déjà trop tard.

    Le 7 octobre 2021, le diplomate français Gérard Araud, très médiatisé ces dernières années, a écrit sur Kissinger et sur sa réflexion sur l'intelligence artificielle : « Trop d'information tue l'information mais en appelle encore toujours plus. Jamais on n'en a su autant ; jamais on n'en a compris si peu. Dans ce contexte, l'émotion et le consensus tiennent lieu d'une réflexion dont nul n'a plus le temps. Le risque est alors grand que, face à cet océan de faits, ne s'impose progressivement la tyrannie des algorithmes pour les traiter et l'expulsion progressive et volontaire de l'homme de la définition de son propre destin. Revenant à l'humanisme qui a fondé la culture de sa génération, Kissinger en appelle à des dirigeants qui, s'appuyant sur les faits, puissent les intégrer dans une vision historique et philosophique. Il n'est pas besoin de tout savoir pour tout comprendre. (…) Il ne s'agit pas des inquiétudes d'un vieil homme qui ne comprendrait plus son temps. J'ai moi-même été surpris des connaissances qu'il avait accumulées sur le sujet. C'est tout au contraire la réaction de quelqu'un qui a été confronté à la nécessité de prendre des décisions dans l'urgence et qui craint que la solution de facilité ne soit de s'en remettre à un algorithme. ».
     

     
     


    Le nouveau Prix Nobel de Physique John Hopfield est lui-même très conscient des risques de l'intelligence artificielle : « En tant que physicien, je suis très troublé par quelque chose qui n'est pas contrôlé. (…) Quelque chose que je ne comprends pas assez bien pour savoir quelle sont les limites que l'on peut imposer à cette technologie. ».

    Toutefois, les applications de l'intelligence artificielle sont nombreuses et opérationnelles et sauvent même des vies. Le professeur Anders Irbäck, membre du Comité Nobel de Physique, a cité deux domaines d'application importants, la modélisation dans les sciences des matériaux, et surtout la santé, l'analyse des images médicales, l'intelligence artificielle, bien plus que le médecin, est capable de déceler le début d'une tumeur cancéreuse à partir d'un cliché radiologique (IRM ou scanner), et j'ajouterai la régularité du rythme cardiaque, etc.


    Ce qui est sûr et fabuleux, c'est que l'homme est en train de faire imiter par la machine son propre fonctionnement cérébral, sans forcément bien le comprendre, mais avec des avantages énormes... et sans doute des menaces qui sont aujourd'hui encore difficilement définissables. J'aurai l'occasion de continuer à évoquer ce sujet très important dans un article ultérieur.


    Aussi sur le blog.

    Sylvain Rakotoarison (09 octobre 2024)
    http://www.rakotoarison.eu


    Pour aller plus loin :
    L'intelligence artificielle récompensée par les Nobel 2024 de Physique et de Chimie.
    Didier Raoult interdit d'exercer !
    2e rentrée scolaire contre les papillomavirus humains.
    Variole du singe (mpox) : "ils" nous refont le coup ?
    Covid : attention au flirt !
    Papillomavirus humains, cancers et prévention.
    Publications sur le papillomavirus, le cancer du col de l'utérus et l'effet de la vaccination anti-HPV (à télécharger).
    Émission "Le Téléphone Sonne" sur la vaccination contre les papillomavirus, sur France Inter le 3 mars 2023 (à télécharger).
    Le cancer sans tabou.
    Qu'est-ce qu'un AVC ?
    Lulu la Pilule.
    La victoire des impressionnistes.
    Science et beauté : des aurores boréales en France !
    Le Tunnel sous la Manche.
    Peter Higgs.
    Georges Charpak.
    Gustave Eiffel.
    Prix Nobel de Chimie 2023 : la boîte quantique ...et encore la France !
    Katalin Kariko et Drew Weissman Prix Nobel de Médecine 2023 : le vaccin à ARN messager récompensé !
    Covid : la contre-offensive du variant Eris.
    Hubert Reeves.
    Prix Nobel de Physique 2023 : les lasers ultrarapides, la physique attoseconde... et la France récompensée !
    John Wheeler.
    La Science, la Recherche et le Doute.
    L'espoir nouveau de guérir du sida...
    Louis Pasteur.
    Howard Carter.
    Alain Aspect.
    Svante Pääbo.
    Frank Drake.
    Roland Omnès.
    Marie Curie.







    https://rakotoarison.over-blog.com/article-sr-20241008-intelligence-artificielle.html

    https://www.agoravox.fr/actualites/technologies/article/l-intelligence-artificielle-257129

    http://rakotoarison.hautetfort.com/archive/2024/10/09/article-sr-20241008-intelligence-artificielle.html