En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.
« Dès 12 ans, plus de la moitié des garçons se rendent sur des sites adultes en moyenne chaque mois. » (Extrait d'un rapport de l'Arcom de mars 2023 pour des chiffres de 2022).
S'il y a bien deux mots qui sont très opposés, c'est pornographie et enfance, et pourtant, jamais les enfants, les adolescents, n'ont autant fréquenté des sites pornographiques sur Internet qu'aujourd'hui. Des études sont alarmistes. La moitié des préadolescents de 12-13 ans fréquenteraient ces sites régulièrement (au moins une fois par mois) et un tiers des préadolescentes du même âge. Et c'est deux tiers des garçons de 16-17 ans ! Forte croissance : en 2023, il y a eu 2,3 millions de mineurs qui ont fréquenté chaque mois des sites pour adultes. Plusieurs rapports ont alarmé les pouvoirs publics, dont celui de l'Arcom et celui du Sénat. Les mineurs représentent 12% du marché de ces sites, c'est une part non négligeable.
Depuis la loi n°2020-936 du 30 juillet 2020 visant à protéger les victimes de violences conjugales, c'est l'Arcom (ex-CSA) qui est chargée de veiller à la protection des enfants de contenus en ligne pour adultes.
Inutile de dire que si ces sites sont réservés pour les adultes, c'est bien parce qu'il faut avoir déjà une petite expérience de la sexualité qui ne soit pas la dégradante exhibition qu'on peut montrer en captant une part non négligeable de l'argent des internautes. Quand on sait qu'en plus, le support le plus utilisé pour la consultation, c'est le smartphone, autant dire que pour les parents, c'est mission quasi-impossible.
C'est vrai que de mon temps, lorsque j'étais collégien, des revues porno se promenaient sous le manteau, discrètement, pas moins dégradantes que les sites sur Internet, sous une motivation plus de curiosité que de perversion, mais c'était de l'artisanat par rapport aux grosses centrales industrielles que sont les sites sur Internet.
La France, très engagée pour protéger ses enfants, s'est donc dotée d'une législation relativement contraignante : les sites pour adultes doivent vérifier que leurs utilisateurs sont bien des adultes. Et la simple déclaration de majorité en un seul clic ne suffit plus. Cette obligation est en vigueur depuis le 11 janvier 2025.
Techniquement, il y a plusieurs pistes : pas envoyer une carte d'identité au site lui-même (ce serait la disparition assurée des clients !), mais au moyen d'un tiers qui vérifie l'âge, l'utilisation d'un code d'entrée, par exemple, ou encore, plus sophistiquée, l'analyse de son visage par un logiciel qui réussirait à associer un âge au visage (attention aux désillusions !). On peut convenir que ce n'est pas le métier a priori d'un fournisseur de contenus pornographiques (je reste dans ce que la loi autorise, car dès lors que le site diffuse du contenu illégal, il se moque bien de l'âge de ses clients, autre aspect de la loi).
C'est là qu'est venue la riposte des éditeurs de sites pornographiques. Eux, leur objectif, c'est que la loi les déresponsabilise et renvoie l'obligation aux fournisseurs d'accès internet et autres opérateurs de téléphonie mobile, ce qui serait, selon eux, plus efficace. Ainsi, pour protester, l'éditeur Aylo, qui produit YouPorn, PornHub et RedTube, a annoncé ce mardi 3 juin 2025 qu'il arrêterait la diffusion de ses sites en France à partir du lendemain, 4 juin 2025, laissant juste un message de protestation sur l'écran.
Bien sûr, un blocage sur le territoire français n'est jamais parfait, il est parfois facile de contourner certains blocages. Néanmoins, comme cela s'adresse à des mineurs, ces derniers sont moins enclins à trouver des astuces de navigation pour contourner ces blocages.
La réaction de la classe politique fut alors unanime, et c'était prévisible (et un bon coup d'épée dans l'eau de cet éditeur) : Tant mieux ! Bon débarras ! Au revoir ! Ont dit en chœur nos ministres et parlementaires sensibles à la protection de l'enfance.
La ministre en charge de la question, la très politique Aurore Bergé, a ainsi tweeté comme en signe de victoire : « Protéger les mineurs, c'est notre engagement, notre responsabilité. Pornhub, YouPorn et Redtube refusent de se conformer à notre cadre légal et décident de partir. Tant mieux ! Il y aura moins de contenus violents, dégradants, humiliants accessibles aux mineurs en France. Au revoir ! ».
L'ancienne ministre et actuelle sénatrice socialiste Laurence Rossignol n'a pas dit autre chose sur Public Sénat : « Enfin une bonne nouvelle ! Ces sites le font d’eux-mêmes, on ne l’aurait pas mieux fait ! (…) Qu’ils se rebellent sur le fait de couper l’accès aux mineurs, cela montre leur absence d’éthique et d’intérêt pour la santé mentale des plus jeunes. (…) Ils s’imaginent qu’il y aura des manifestations dans les rues contre leur fermeture, mais cela n’aura pas lieu. ».
De toute façon, par la loi, l'Arcom aura le pouvoir de bloquer en France, à parti du 6 juin 2025, les sites pour adultes qui ne vérifient pas réellement l'âge majeur de ses visiteurs. Et cela sans une décision de justice, juste après une simple mise en demeure.
Dans un arrêt du 5 janvier 2023, la Cour de Cassation a considéré que la vérification efficace de l'âge de leurs visiteurs était « nécessaire, adaptée et proportionnée à l'objectif de protection des mineurs » et a balayé les deux arguments des sites pornographiques, la violation de la vie privée et la liberté d'expression. On peut imaginer un cadre européen de vérification de l'âge, dans la mesure où l'Union Européenne a été très sensibilisée notamment par la France sur cette question.
Par un effet très contre-productif, l'initiative de cet éditeur a mis en lumière l'amoralité et surtout, l'irresponsabilité des sites à contenus pornographiques sur la question de la protection de l'enfance. Les responsables politiques sont heureux de l'auto-blocage des trois sites qui empêchera des enfants d'aller les visiter.
Je ne peux m'empêcher de rappeler une déclaration malheureuse d'un, à l'époque, simple député et ancien ministre. Invité de l'émission "Salut les Terriens" animée par Thierry Ardisson le 7 décembre 2013 sur Canal Plus, l'homme politique, à la question (idiote) : "Vous regardez bien YouPorn quand même ?", a répondu fort démagogiquement : « Comme tout le monde ! ».
Cet homme assez décevant, c'était Laurent Wauquiez qui a vite rétropédalé le 9 décembre 2013 en tweetant un semblant d'excuse : « Leçon du week-end : quand on fait de l'humour, il faut être certain d'être compris. J'ai voulu traiter par la dérision une question déplacée. Erreur. Sujet clos. Retour aux vrais sujets. ».
La fin du tweet donnait d'ailleurs l'étendue du problème : si, monsieur Wauquiez, la protection de l'enfance est un vrai sujet, qui, par le choix du gouvernement, sera loin d'être clos. Pour une fois, le retrait d'acteurs économiques de la France est une très bonne nouvelle pour nos familles, pour nos enfants et pour nos futurs adultes !
« Philosophiquement, intellectuellement, à tout point de vue, la société humaine n'est pas préparée à l'essor de l'intelligence artificielle. (…) Sommes-nous en train de basculer dans une nouvelle phase de l'histoire humaine ? » (Henry Kissinger, en juin 2018).
Je sais que les sciences, c'est-à-dire, les sciences dures n'ont pas beaucoup de couverture médiatique en France, d'autant plus qu'on vit des moments très troublés d'ordre politique et international. Néanmoins, l'actualité scientifique est un élément important qui préfigure, voire configure notre avenir. Cette semaine est la semaine des attributions des Prix Nobel de 2024. Plutôt que d'insister sur les noms des lauréats, insistons sur les découvertes récompensées.
Lundi 7 octobre 2024 ont été récompensés du Prix Nobel de Médecine les généticiens américains Victor Ambros et Gary Ruvkun pour leurs travaux sur les micro-ARN et leur rôle dans la régulation génétique. Mercredi 9 octobre 2024 ont été récompensés du Prix Nobel de Chimie les biochimistes américains David Baker, Demis Hassabis et John M. Jumper (anglo-américain) pour leurs travaux sur les protéines, le premier (la moitié du Prix) pour leur conception numérique et les deux autres (chacun un quart du Prix) pour les prédictions de leur structure qui font appel à l'intelligence artificielle.
J'ai gardé pour la fin le Prix Nobel de Physique attribué le mardi 8 octobre 2024 au physicien américain John Hopfield et au chercheur anglo-canadien Geoffrey Hinton, spécialiste de l'intelligence artificielle, pour leurs travaux sur l'apprentissage automatique à l'aide de réseaux de neurones artificiels. Autant dire que la principale lauréate des Nobel en 2024, du reste non seulement de Physique mais aussi de Chimie, c'est l'intelligence artificielle.
Il faut déjà s'entendre sur les termes. L'expression intelligence artificielle est une pâle traduction de son équivalent anglais, pris dans le sens aussi d'intelligence économique. En fait d'intelligence, la traduction française plus précise serait plutôt veille, on parle de veille économique. C'est sûr que dire veille artificielle serait mal traduire, mais il y a de cela. Je trouve que le mot intelligence de cette expression est pourtant mal défini et induit en erreur. Intellego en latin signifie je comprends.
En français, la définition de l'intelligence, donnée par Le Robert, est : « faculté de connaître, de comprendre ; qualité de l'esprit qui comprend et s'adapte facilement ». Il y a une autre définition, dans le même sens : « l'ensemble des fonctions mentales ayant pour objet la connaissance rationnelle (opposé à sensation et intuition) ». On y trouve aussi la définition de l'intelligence artificielle : « ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l'intelligence humaine (raisonnement, apprentissage…) ». Il y a aussi un autre sens, qui n'est pas ici pertinent : « d'intelligence : de connivence, par complicité » (par exemple : intelligence avec l'ennemi).
Pour reprendre la définition, il faut plus prendre le verbe connaître que le verbe comprendre pour parler d'intelligence artificielle (ce qui ne reprend pas l'étymologie latine du verbe comprendre). L'intelligence artificielle ne comprend rien, elle ne fait qu'accumuler, stocker, structurer et ressortir des connaissances d'un volume et d'une vitesse incomparables avec ce dont est capable l'être humain. En revanche, ce dernier comprend.
Les travaux sur les réseaux de neurones artificiels, qui viennent d'être récompensés, sont fondamentaux, comme l'a expliqué, le 8 octobre 2024 à Stockholm, la professeure Ellen Moons, présidente du Comité Nobel de Physique : « L'apprentissage est une capacité fascinante du cerveau humain. Nous pouvons reconnaître des images et des paroles et les associer à des souvenirs et à des expériences du passé. Des milliards de neurones nous confèrent des capacités cognitives uniques. Les réseaux de neurones artificiels sont inspirés par ce réseau de neurones dans notre cerveau. Les lauréats du Prix Nobel de Physique de cette année, John Hopfield et Geoffrey Hinton, ont utilisé les concepts des principes fondamentaux de la physique statistique pour concevoir des réseaux de neurones artificiels qui fonctionnent comme des mémoires associatives et trouvent des modèles dans de grands ensemble de données. Ces réseaux de neurones artificiels ont été utilisés pour faire progresser la recherche sur des sujets de physique aussi divers que la physique des particules, les sciences des matériaux et l'astrophysique. Ils sont également devenus une partie de notre vie quotidienne, par exemple, dans la reconnaissance faciale et la traduction linguistique. Les découvertes et inventions des lauréats constituent des éléments constitutifs de l'apprentissage automatique qui peuvent aider les humains à prendre des décisions plus rapides et plus fiables, par exemple lors du diagnostic de problèmes médicaux. Cependant, même si l'apprentissage automatique présente d'immenses avantages, son développement rapide a aussi soulevé des inquiétudes sur notre avenir. Les humains portent collectivement la responsabilité d'utiliser cette nouvelle technologie d'une manière sûre et éthique pour le plus grand bénéfice de l'humanité. ».
L'intelligence artificielle n'est pas nouvelle, et existe depuis les années 1950, et son principe est d'imiter le cerveau humain par un système de connexions de neurones. Ce qui est nouveau depuis une dizaine voire une vingtaine d'années, c'est qu'on est capable d'avoir un volume des mémoires et une vitesse, une puissance de calcul des microprocesseurs, extraordinaires, ce qui permet aux systèmes de neurones une évolution très rapide.
Son principe est l'auto-apprentissage, et je me souviens que dans les années 1980, on parlait de système expert pour cela dans les processus de recherche d'erreurs et de solutions. La machine progresse au fur et à mesure de son évolution, de ses erreurs, de ses interactions. C'est cet aspect qui peut faire peur, qui doit faire peur, car cet apprentissage est hors contrôle d'une conscience humaine.
Comme pour toute innovation scientifique, la question philosophique du bien, du mal, faut-il développer, freiner, n'a pas beaucoup de sens. Qu'on le veuille ou pas, l'intelligence artificielle existe depuis longtemps et surtout, est utilisée depuis longtemps et on ne reviendra pas en arrière. Il faut faire avec. Avec enthousiasme ou avec angoisse (ou plus probablement avec les deux).
On pourra toujours imaginer une solution politique ou institutionnelle, comme pour l'énergie nucléaire. Certes, l'énergie nucléaire nous chauffe, nous apporte toute sorte d'énergie, mais en même temps, elle permet la bombe nucléaire. Il y a des traités internationaux qui réduisent les risques politiques, en limitant la prolifération de l'arme nucléaire, mais rien n'empêche des États de refuser de s'y soumettre.
Pour l'intelligence artificielle, la situation est différente car si, pour maîtriser le nucléaire, la puissance d'un État est nécessaire, le développement de l'intelligence artificielle est accessible aux entreprises, notamment les plus grandes d'entre elles, les GAFAM dont la puissance financière permet d'investir massivement dans l'intelligence artificielle. Il faudrait donc imaginer une sorte d'accord international qui contraindrait tant les États que les entreprises à... à je ne sais pas quoi car comment limiter les risques d'abus de l'intelligence artificielle ? Sur quels paramètres jouer ?
Mais revenons au sujet de fond. On ne connaît pas le fonctionnement exact du cerveau humain, et on ne connaîtra pas plus le fonctionnement réel de l'intelligence artificielle. C'est cela qui peut inquiéter à juste titre. Henry Kissinger (autre Prix Nobel, mais de la Paix), qui est mort centenaire l'an dernier, a réfléchi jusqu'au bout de sa vie aux grands enjeux du monde, et a beaucoup étudié l'intelligence artificielle dont il voyait l'essor comme aussi crucial que l'invention de l'imprimerie. En juin 2018, il se posait effectivement quelques questions : « La Toile nous a habitués à extraire et à manipuler des stocks d’informations non contextualisées, en fonction de nos besoins immédiats et pratiques. En outre, les algorithmes personnalisent les réponses en fonction de ce qu’ils savent de nous du fait de nos recherches précédentes. Du coup, la vérité est devenue relative. (…) Le monde digital valorise la vitesse au détriment de la réflexion, les positions radicales plutôt que la réflexion. L’information y supplante la sagesse. ».
Il pose ainsi un véritable problème, celui des sources : le nombre devient alors un critère de vérité (au contraire de tout ce que j'ai appris dans ma culture classique), justement parce que c'est l'information qui l'emporte sur la compréhension. C'est la dure réalité de l'influence des fake news (fausses informations) qui peut avoir des conséquences électorales graves dans les pays démocratiques (pour lesquels les élections sont à l'origine de toute légitimité de pouvoir). De même que le problème des sources, celui d'une unique source : la pluralité des intelligences artificielles est indispensable pour éviter tout risque de big-brothérisation, si je puis m'exprimer ainsi !
Sans doute l'ouverture de l'utilisation de l'intelligence artificielle au grand public est une nouvelle étape. Un peu dans le même genre d'importance que si l'on autorisait à chaque particulier de faire sa propre petite centrale nucléaire. Tout le monde pourra faire sa petite expérimentation. Plus ou moins réussie.
Il faut reconnaître que c'est bluffant. Bien sûr, la traduction est l'une des applications fréquentes, et elle est de plus en plus fine et sophistiquée (même si elle n'est pas encore parfaite). Le dialogue humain/machine est donc renouvelé par une sorte de forme humaine à l'expression qui est assez intrigante. L'intelligence artificielle risque donc d'engendrer de la paresse intellectuelle dans les exposés, les résumés, les comptes rendus sur des connaissances déjà acquises (certainement pas sur des connaissances à construire). Faut-il s'en inquiéter ? À la fois oui et non.
Oui, parce qu'il a été prouvé que lorsqu'on sait que la mémoire réside à l'extérieur du cerveau (dans un ordinateur, par exemple), alors, elle s'échappe du cerveau, elle ne reste plus mentalement parce qu'elle n'y est plus obligée. Bref, le cerveau ne va pas forcément évoluer en bien si on se fait de plus en plus assister par un ordinateur. La meilleure preuve est la course d'orientation, Qui, parmi les jeunes, sait même se servir d'une boussole ? Pourtant, savoir lire une carte IGN est indispensable au développement intellectuel, même si, aujourd'hui, il existe les GPS. D'une part, les GPS ne sont pas immortels (c'est un système de satellites qui ont chacun une durée de vie) ; d'autre part, cela nécessite de se reposer totalement sur la machine sans plan B. En plein désert, ou en pleine jungle, avec la batterie déchargée, que vaut un smartphone ?! C'est aussi le problème de la numérisation, des sauvegardes dans les clouds et de l'absence d'archives papiers.
Se reposer totalement sur la machine risque de faire perdre des milliards de compétences humaines au fil des générations. Rien que la calculatrice est un instrument intéressant et utile car elle permet de calculer rapidement, mais encore faut-il que son utilisateur sache calculer lui-même pour qu'il comprenne bien la nature du résultat qu'une calculatrice lui fournit. On pourrait le dire de toute assistance par ordinateur. Si on n'apprend plus à calculer, on sera contraint de n'utiliser que les machines.
Non, ce n'est pas inquiétant, parce qu'avec ce que la machine peut faire et épargner à l'humain, l'humain peut se concentrer sur d'autres tâches. Toutes les machines qui ont remplacé la force mécanique de l'homme lui ont permis de mieux penser, mieux conceptualiser. Que faire si la machine pense et conceptualise à la place ? C'est l'enjeu des prochaines décennies.
Autre source d'inquiétude, je l'ai évoqué pour les fake news, c'est la capacité, avec l'intelligence artificielle, de créer des fake news bien plus redoutables qu'auparavant. Il est possible de prendre l'image d'un homme public et de le faire parler, avec le mouvement des lèvres adapté, et lui faire dire n'importe quoi dans n'importe quelle langue. La réalité devient sujette à falsification. Ce n'est plus la photo qui est truquée, mais le film.
Le problème de la machine, c'est peut-être qu'elle ne prend pas en compte les imperfections du système, les bugs, les erreurs qui peuvent avoir des répercussions très graves. Un exemple intéressant d'intelligence artificielle, pas tout à fait encore au point et qui m'inquiéterait, c'est la conduire d'automobile par la machine. On imagine surtout le cas limite d'un risque d'accident, où l'on doit choisir entre continuer tout droit et s'écraser contre un autre véhicule ou dévier et écraser un piéton. Kissinger ne s'en moquait pas : « Dans l’avenir, nous serons de plus en plus souvent dépendants d’arbitrages opérés par des machines. L’action humaine est inspirée par des valeurs. Tel n’est pas le cas de ces machines intelligentes. Ne risque-t-on pas se laisser contaminer par leur vision instrumentale et amorale du monde ? ».
C'est là le gros problème de l'intelligence artificielle : elle n'a pas de valeur, pas de morale. On pourrait toujours imaginer les robots selon Azimov, avec leurs règles dont celle de ne pas tuer d'humain, mais aujourd'hui les drones utilisent déjà l'intelligence artificielle pour définir leur cible et tirer. C'est déjà trop tard.
Le 7 octobre 2021, le diplomate français Gérard Araud, très médiatisé ces dernières années, a écrit sur Kissinger et sur sa réflexion sur l'intelligence artificielle : « Trop d'information tue l'information mais en appelle encore toujours plus. Jamais on n'en a su autant ; jamais on n'en a compris si peu. Dans ce contexte, l'émotion et le consensus tiennent lieu d'une réflexion dont nul n'a plus le temps. Le risque est alors grand que, face à cet océan de faits, ne s'impose progressivement la tyrannie des algorithmes pour les traiter et l'expulsion progressive et volontaire de l'homme de la définition de son propre destin. Revenant à l'humanisme qui a fondé la culture de sa génération, Kissinger en appelle à des dirigeants qui, s'appuyant sur les faits, puissent les intégrer dans une vision historique et philosophique. Il n'est pas besoin de tout savoir pour tout comprendre. (…) Il ne s'agit pas des inquiétudes d'un vieil homme qui ne comprendrait plus son temps. J'ai moi-même été surpris des connaissances qu'il avait accumulées sur le sujet. C'est tout au contraire la réaction de quelqu'un qui a été confronté à la nécessité de prendre des décisions dans l'urgence et qui craint que la solution de facilité ne soit de s'en remettre à un algorithme. ».
Le nouveau Prix Nobel de Physique John Hopfield est lui-même très conscient des risques de l'intelligence artificielle : « En tant que physicien, je suis très troublé par quelque chose qui n'est pas contrôlé. (…) Quelque chose que je ne comprends pas assez bien pour savoir quelle sont les limites que l'on peut imposer à cette technologie. ».
Toutefois, les applications de l'intelligence artificielle sont nombreuses et opérationnelles et sauvent même des vies. Le professeur Anders Irbäck, membre du Comité Nobel de Physique, a cité deux domaines d'application importants, la modélisation dans les sciences des matériaux, et surtout la santé, l'analyse des images médicales, l'intelligence artificielle, bien plus que le médecin, est capable de déceler le début d'une tumeur cancéreuse à partir d'un cliché radiologique (IRM ou scanner), et j'ajouterai la régularité du rythme cardiaque, etc.
Ce qui est sûr et fabuleux, c'est que l'homme est en train de faire imiter par la machine son propre fonctionnement cérébral, sans forcément bien le comprendre, mais avec des avantages énormes... et sans doute des menaces qui sont aujourd'hui encore difficilement définissables. J'aurai l'occasion de continuer à évoquer ce sujet très important dans un article ultérieur.