Cette semaine : sanctions records pour Google, innovations à l’IFA, IA dans l’éducation, classement des chatbots menteurs, suicides liés à ChatGPT, psys assistés par IA, retard des entreprises françaises en IA, cyberattaques en hausse et manipulation sur les réseaux sociaux.
💡 Découvrez Frogans, l’innovation française qui réinvente le Web
⚖️ Google sous pression : une semaine noire
Google essuie une série de condamnations majeures aux États-Unis, en France et en Europe. Vie privée bafouée, publicité abusive, abus de position dominante… la firme devra revoir ses pratiques et sortir le carnet de chèques. Mais elle ne sera pas démantelée et peut continuer à passer des partenariats avec Apple ou Samsung.
📱 IFA 2025 : la tech du quotidien se réinvente
À Berlin, l’IFA dévoile des produits malins : un Galaxy S25 FE plus abordable, des ampoules connectées Philips Hue qui deviennent détecteurs de mouvement, et même un robot aspirateur qui monte les escaliers !
🧠 Les chatbots IA qui désinforment le plus
Une étude Newsguard classe les IA selon leur fiabilité. Claude s’en sort bien, mais ChatGPT et Perplexity affichent un taux élevé de fausses infos — un vrai problème à l’heure où ces outils sont massivement utilisés pour s’informer.
🆘 ChatGPT et les drames humains
Suite à plusieurs suicides liés à des échanges avec ChatGPT, OpenAI lance un plan d’urgence : contrôle parental, surveillance renforcée, IA adaptée à l’âge… Mais quel sera l’impact réel de ces mesures ?
🎓 L’IA fait sa rentrée à l’école
En France, l'Éducation nationale prépare un assistant IA dédié aux enseignants, pendant que les cours d’IA deviennent obligatoires en 4e et 2nde. Enfin ! Mais faut-il pour autant développer une IA spéciale pour l’Education Nationale au risque qu’elle finisse sous le tapis ?
🏢 IA en entreprise : la France encore en retard
Peu d’entreprises françaises déploient vraiment l’IA, souvent par manque de formation ou de stratégie claire. Résultat : beaucoup de tests, peu de résultats, et un risque de rester à la traîne. Interview de Salime Nassur (Maars) [PARTENARIAT].
📚 IA : Luc Julia remis en cause
Jean-Paul Krivine, de l’AFIS (Association Françaises pour l’Information Scientifique) critique le dernier livre de Luc Julia, évoquant des erreurs à propos des LLM. Un point de vue qui se veut scientifique, en dehors de tout esprit polémique.
🔐 Cyberarnaques : attention aux "clickfakes"
Les faux captchas sont la nouvelle arme des cybercriminels : ils incitent les utilisateurs à installer eux-mêmes un virus. Une méthode redoutable par sa simplicité, qui a explosé cet été. Explications de Benoit Grünemwald (ESET) [PARTENARIAT].
📢 Mobilisation et réseaux : TikTok et Grok à la manœuvre
La manifestation du 10 septembre montre comment les réseaux sociaux — et même les IA — façonnent l’opinion. TikTok mobilise les jeunes, Grok devient une source d’info majeure, et les extrêmes politiques s’emparent du débat.
Monde Numérique :
[0:10] ChatGPT, Gemini, Grok, lequel est le plus menteur ? Celui qui véhicule le plus
Monde Numérique :
[0:16] de fausses informations. On va voir ça cette semaine dans Monde Numérique avec un classement qui vient de sortir. Et oui, on va encore beaucoup parler d'IA cette semaine dans l'hebdo. On reviendra notamment sur ces affaires tragiques, le suicide de plusieurs personnes qui s'étaient confiées à ChatGPT. OpenAI réagit, la firme américaine, annonce un contrôle parental et des mesures d'urgence. Mais est-ce que ce sera vraiment utile ? On en débat avec Bruno Guilherme Minetti.
Monde Numérique :
[0:45] De plus en plus de gens se confient à leur chatbot préféré, et certains psys ne se gênent pas pour en faire autant et à parler de leur passion à ChatGPT. En France, l'IA fait sa première rentrée scolaire. En revanche, l'IA tarde à s'installer dans les entreprises françaises. On verra ça avec mon invité Salim Nassur à l'approche de l'événement One to One IA Experience Client. On va revenir sur l'affaire Luc Julia, mais calmement, avec un spécialiste pour parler d'IA connexionniste contre IA symbolique. Tout un programme. L'actu, c'est aussi du côté des réseaux sociaux. À la veille de la mobilisation du 10 septembre, on verra comment TikTok et les réseaux russes ont amplifié le phénomène. Enfin, l'imagination des cybercriminales est sans limite. Cet été, ils s'en sont donnés à cœur joie. C'est ce que nous expliquera Benoît Grunemwald, des Z. Bref, un menu chargé cette semaine. Bienvenue à l'écoute de Monde Numérique, l'hebdo du 6 septembre 2025.
Invité :
[1:51] Monde numérique, Jérôme Colombin.
Monde Numérique :
[1:57] Comment allez-vous en cette rentrée ? Ravi de vous retrouver pour ce nouvel épisode de Monde numérique. Monde numérique, c'est chaque samedi, 50 minutes de news, de talk et d'interviews consacrées aux meilleurs de la tech. Ça, c'est l'hebdo. Plus d'une heure et sans pub si vous êtes abonné à la version longue sur Apple Podcast ou Spotify. Et puis, les autres jours de la semaine, Monde numérique, ce sont aussi des interviews longs formats, des éditos et même des vidéos sur la chaîne YouTube ainsi que la newsletter à découvrir sur mondenumérique.info La semaine prochaine, je vous annoncerai en principe une grosse nouveauté pour Monde Numérique une nouvelle manière de suivre et d'écouter ce podcast j'espère que ça vous plaira En attendant, merci pour votre fidélité vous qui êtes là chaque semaine et notamment à vous, plus particulièrement qui soutenez financièrement Monde Numérique à travers vos dons réguliers qui contribuent à faire vivre ce média Merci aussi pour vos petites étoiles et vos commentaires ça, ça ne coûte rien sur Apple Podcast ou sur Spotify Notamment, c'est parti pour l'actu.
Monde Numérique :
[2:54] Et on va commencer en parlant non pas d'IA, mais de Google, avec une semaine quasiment historique pour le géant américain, qui a vu souffler le chaud et le très très froid. La semaine avait plutôt bien démarré avec une décision de justice, la justice américaine, qui avait dû être accueillie par un ouf de soulagement. La justice a décidé de ne pas démembrer Google, de ne pas forcer la firme américaine à se séparer de Chrome et d'Android. Alors, une sanction modérée pour l'accusation d'abus de position dominante, de monopole, une sanction prise avec humilité, a expliqué le juge afin d'éviter un chaos technologique et économique. Alors, Google conserve le droit de signer des partenariats avec notamment Apple, Samsung, Firefox, etc., c'est-à-dire verser de l'argent à ces plateformes pour être en échange le moteur de recherche par défaut.
Monde Numérique :
[3:50] Car il y a un mais et un petit bémol, Google va devoir quand même se plier à certaines injonctions, partager ses données de recherche avec ses concurrents et ne plus signer de contrat d'exclusivité. La firme a décidé de faire appel. Je vous en parle dans un épisode spécial de Monde Numérique à retrouver sur le fil de ce podcast. Mais ensuite, ça s'est un peu gâté pour Google cette semaine avec une cascade de condamnations. Tout d'abord, mercredi aux Etats-Unis, décision de la justice ordonnant de verser 425,7 millions de dollars de dommages d'intérêt à près de 100 millions d'utilisateurs de Google. Motif atteinte à la vie privée. En fait, Google est accusé d'avoir continué à collecter des données privées après que les utilisateurs aient pourtant désactivé ce paramètre. Enfin, ce n'est pas terminé. En France, Google écope d'une amende record, là encore, de 325 millions d'euros infligés par la CNIL, la Commission nationale informatique et liberté, pour pratiques publicitaires abusives. Elle n'avait pas recueilli le consentement de ses utilisateurs pour leur envoyer de la publicité dans Gmail. C'est l'amende la plus élevée jamais prononcée par la CNIL. Et puis, ce n'est pas fini.
Monde Numérique :
[5:01] Vendredi, fin de semaine, troisième amende record de près de 3 milliards d'euros infligés par l'Union européenne. 2,45 milliards d'euros exactement pour un but de position dominante sur la publicité en ligne. Le régulateur européen reproche à Google d'avoir poussé la concurrence en favorisant ses propres services publicitaires au détriment de ses concurrents. Une semaine donc hors du commun pour le géant de Mountain View qui sauve les meubles mais va devoir mettre la main profondément au porte-monnaie.
Monde Numérique :
[5:36] Pendant ce temps, le salon IFA se tient à Berlin, comme chaque année, jusqu'au début de la semaine prochaine. Alors cette année, je n'y suis pas, mais j'ai quand même repéré quelques annonces intéressantes. Et tout d'abord en téléphonie, Samsung qui a dévoilé un nouveau smartphone, le Galaxy S25 FE, axé sur l'intelligence artificielle. Il reprend l'essentiel des fonctions qu'on trouve sur le modèle S25 haut de gamme, mais là c'est un produit plus abordable, à partir de 750 euros environ. TCL, marque chinoise qui a dévoilé également un smartphone pour les plus jeunes, le Next Paper 5G Junior, avec une particularité, toujours pour cette marque, un écran un peu à ancre électronique qui est censé limiter la fatigue visuelle. Du côté de la maison connectée, une annonce qui intéressera les possesseurs de produits Philips Hue, donc ces éclairages connectés. C'est un nouveau bridge, la passerelle qui sert à piloter tous les équipements à la maison. Un nouveau bridge beaucoup plus puissant permettant de piloter jusqu'à 150 lampes et 50 accessoires avec Wi-Fi intégré et surtout une nouveauté plutôt sympa, c'est la possibilité de transformer ces ampoules connectées Philips Hue en capteur de mouvement sans avoir besoin d'installer un capteur supplémentaire.
Monde Numérique :
[6:48] C'est assez astucieux, alors il faut qu'il y ait au moins trois lampes dans la pièce et ça analyse la propagation des ondes entre les ampoules et s'il y a des perturbations, c'est qu'il y a quelqu'un dans la pièce et donc ça permet de déclencher des scénarios. Voilà, maison connectée encore avec les aspirateurs qui sont à la Fiesta, avec une marque chinoise, UFI, qui franchit un cap très important, puisqu'elle a présenté le premier robot aspirateur capable de monter les escaliers. Il s'appelle Mars Walker. Alors, ce n'est pas exactement l'aspirateur lui-même, c'est une espèce de module de char qui transporte l'aspirateur et qui est capable comme ça de grimper dans les escaliers. Et puis, il y a aussi cet aspirateur robot équipé d'un bras articulé, qui permet de ramasser des choses dans les coins qui avaient été présentées au CES de Las Vegas. Enfin, la marque anglaise Dyson, connue pour ses aspirateurs sans fil, essaye de s'imposer sur le marché des aspirateurs robots avec un modèle présenté comme hyper puissant, le Spot Plus Scrub AI. Rien que le nom, c'est puissant. Voilà, pour un petit aperçu du salon IFA 2025 de Berlin.
Monde Numérique :
[7:52] Quels sont les chatbots d'intelligence artificielle les plus menteurs, les moins fiables quand on les interroge sur l'actualité, ceux qui ont le plus tendance à diffuser de fausses informations ? Je vous en parlais dans le sommaire, c'est un sondage, une étude très intéressante de la société spécialisée NewsGuard. En fait, il s'agit d'un baromètre mensuel qui analyse régulièrement les 10 plus gros outils d'IA. Et elle vérifie le pourcentage de fausses informations, de fake news, qui sont renvoyées lorsqu'on interroge ces chatbots sur l'actualité. Alors, au mois d'août, le bon élève de la classe, c'est Claude d'Anthropic, qui n'aurait renvoyé que 10% de fausses informations. Grok, l'IA de X&A et d'Elon Musk, n'est pas parmi les plus mauvais, mais enfin, il est quand même plus loin, en troisième position avec 33% de fausses informations.
Monde Numérique :
[8:43] ChatGPT n'est pas très bien classé, il faut bien le dire, en septième position avec 40% d'informations fausses. Enfin, on trouve en bas du classement, quasiment à la fin, en avant-dernier, un outil qui pourtant se targue d'être particulièrement fiable en fournissant les sources lorsqu'il donne des réponses, mais ce n'est pas très bon, 47% de fausses réponses pour perplexity. Voilà, alors on le sait, l'une des explications, c'est le fait que les chatbots veulent toujours répondre, même quand ils ne savent pas, et du coup, comme ils sont maintenant connectés au web, ils vont chercher toujours plus d'informations, quitte à tomber sur des fake news. Un phénomène d'autant plus préoccupant que des réseaux et des officines malveillantes, comme le précise NewsGuard, sont spécialisés dans la désinformation, créent de faux sites web pour diffuser des fake news, ce qui, au fil du temps, contribue à empoisonner les chatbots.
Monde Numérique :
[9:41] L'innovation de la semaine, c'est une rubrique que j'essaie de vous proposer
Monde Numérique :
[9:44] assez régulièrement dans le monde numérique, un focus sur une innovation technologique. Et on va parler aujourd'hui d'une trouvaille suédoise qui pourrait peut-être faire concurrence à des systèmes comme Starlink de communication par satellite. Et pour vous en parler, je convoque l'intelligence artificielle de Google Notebook LM.
Invité :
[10:05] Alors voici l'essentiel à savoir sur RU1, la nouvelle technologie de connexion de la start-up suédoise Terasi. C'est quoi en gros ? Eh bien, c'est un petit système conçu pour apporter une connexion Internet très rapide et super sécurisée, surtout là où la fibre ou la 5G manque ou ne sont pas fiables. C'est une alternative indépendante à des trucs comme Starlink. Le RU1, c'est une petite boîte, 200 grammes à peine, qui utilise la technologie Aircore. Attention, ça ne crée pas Internet tout seul. Non, ça transporte une connexion qui existe déjà, genre fibre, 5G ou même satellite. Il faut deux boîtiers qui vont créer un faisceau d'ondes millimétriques, très très directionnel, un peu comme un câble invisible, sur une distance de moins de 3 km. Niveau performance, on parle de très haut débit, jusqu'à 10 gigabits et ils visent même 20 gigabits. Et la latence ? Super faible, moins de 5 millisecondes. Parfait pour la vidéo 4K, piloter des drones ou des données super critiques. Et comme le faisceau est très étroit, c'est difficile à intercepter ou à brouiller. Plutôt sécurisé donc. Deuxièmement, est-ce un point clé ? L'indépendance. C'est là toute la différence avec Starlink. Avec RU1, c'est vous qui contrôlez toute la liaison. Pas de dépendance vis-à-vis d'un opérateur tiers. Donc pas de risque qu'on vous coupe la connexion pour des raisons politiques ou commerciales, comme on a pu le voir ailleurs. Vous êtes maître de votre réseau. Et enfin, à qui ça s'adresse ? Le RU1 vise clairement les communications critiques.
Invité :
[11:32] Pensez militaire, pour des opérations tactiques discrètes et mobiles. Pensez service de secours, pour rétablir les réseaux super vite après une catastrophe. Ou encore l'industrie, pour connecter des sites isolés comme des chantiers ou des plateformes pétrolières. Les atouts pour eux ? C'est rapide à déployer, c'est mobile, c'est robuste et surtout, ils gardent le contrôle total. En bref, RU1 s'annonce comme une solution de connectivité vraiment compacte et très performante pour les missions critiques où l'autonomie et le contrôle
Invité :
[12:01] total du lien sont juste essentiels.
Monde Numérique :
[12:04] Voilà pour ce système de communication RU1. Et puis, dites-moi ce que vous pensez de ce genre de petite chronique par intelligence artificielle, parce qu'elle est quand même assez douée, la jeune fille virtuelle, même si elle n'existe pas. Dites-moi ce que vous en pensez. Si ça vous plaît, on recommence la semaine prochaine. Musique, Avant de passer à la suite de cette émission, un mot à propos de Frogans, partenaire de monde numérique. Frogans, c'est une technologie innovante qui permet de diffuser du contenu via des mini-sites qui ressemblent à des widgets. Grâce à un protocole technique unique en son genre, initié en France. Et l'une des particularités de Frogans, selon ses concepteurs, c'est qu'il est nativement sécurisé et respectueux de la vie privée. Alexis Tamas, co-créateur de Frogans. Frogans, en fait, n'est pas basé sur la technologie des cookies. Quand on visite ton site Frogance et qu'on stoppe sa visite, en fait, on ne va pas être reconnu à la prochaine visite, sauf si je mets le site Frogance dans mes favoris. Et donc, ça crée en fait pour l'utilisateur une possibilité de contrôler complètement les données qu'il envoie et à qui il les envoie. Alors, est-il possible de révolutionner Internet depuis la France ? Si le sujet vous intéresse, deux réunions d'informations que j'aurai le plaisir d'animer auront lieu à Paris les 16 et 22 septembre prochains. Renseignements et inscriptions sur le site f2r2.fr.
Monde Numérique :
[13:20] F2R2.fr Le débrief transatlantique Le débrief transatlantique, salut Bruno Guylain-Mignetti à Montréal.
Invité :
[13:30] Salut Jérôme Colombin à Paris.
Monde Numérique :
[13:32] Ravi de te retrouver comme chaque semaine à la fois dans ton podcast Mon Carnet et dans Monde Numérique. On parle de l'actu de la semaine et Bruno la semaine dernière on parlait de ce drame, un jeune homme de 16 ans qui s'est suicidé après s'être confié à Tchadjipiti. Cette affaire a évolué, il se passe plein de choses et déjà il y a eu d'autres faits divers du même genre et surtout, et c'est de ça dont on va parler, OpenAI a décidé de réagir.
Invité :
[14:01] Oui, c'est intéressant. Il faut croire qu'ils nous ont entendus. C'est comme ça que j'ai pris la nouvelle. C'est certain. Mais donc, OpenAI a annoncé que d'ici la fin de l'année, il y aurait en place donc une mécanique qui permettrait donc d'assurer une meilleure, en guillemets, sécurité des jeunes utilisateurs ou des personnes qui seraient plus fragiles que d'autres. Donc des outils qui sont offerts par OpenAI. Ça veut donc dire, entre autres, évidemment, tout un côté machine au niveau des réponses de chat GPT et compagnie, mais de l'autre côté aussi, quelque chose qui est plus, j'allais dire, plus fonctionnel, c'est-à-dire la possibilité pour les parents d'avoir un accès aux comptes des plus jeunes. Évidemment, s'ils partagent, s'il y a un lien entre les comptes et donc de pouvoir suivre un peu les discussions lorsque ça vient sur des sujets plus délicats. Alors, évidemment, c'est une bonne nouvelle, mais bon, il faudra voir comment ça va se faire.
Monde Numérique :
[14:55] Oui, voilà. Parce que l'accès aux comptes, bon, alors on retrouve un peu la même problématique que ce qu'on a connu avec l'accès à Internet d'une manière générale, avec l'accès aux réseaux sociaux plus précisément. Finalement, on voit qu'aujourd'hui, ça s'est complètement déplacé sur les chatbots d'intelligence artificielle, puisqu'il y a eu ces suicides dont on parlait, donc des gens qui se confient à ChatGPT, et Chagipiti qui, visiblement, dans un premier temps, essayent un peu de les dissuader et de leur remonter le moral, mais très vite, on arrive à embrouiller, en fait, l'intelligence artificielle et elle en vient, dans certains cas, quasiment à encourager, à cautionner, etc. Et c'est là que c'est dramatique. Mais est-ce que tu as l'impression, tu n'as pas l'impression que cette histoire et cette réaction d'Open&Eye, qui est tout à fait louable, ils ont fait un long billet de blog pour expliquer qu'ils prenaient l'affaire très au sérieux et tout, Mais est-ce qu'ils peuvent vraiment faire quelque chose? Est-ce que ce contrôle parental sera vraiment utile ou bien c'est un peu juste pour se donner bonne conscience?
Invité :
[15:54] Je pense que tu viens de le dire. D'abord et avant tout, je pense.
Invité :
[15:58] Et ce n'est pas du sarcasme de ma part, mais c'est d'abord et avant tout pour montrer pas de blanche, montrer qu'ils sont proactifs parce que ça commence déjà. D'ailleurs, on en avait parlé la semaine dernière, mais il y a d'autres histoires qui vont finir devant la justice et où les parents ou les proches des gens qui se sont donnés la mort vont poursuivre la JPT. Bon, puis évidemment, quand on est aux États-Unis, c'est encore plus facile de le faire en espérant évidemment venger la mort d'un proche, mais aussi de faire de l'argent sur le côté. Et ça, c'est un geste concret de la part d'OpenAI pour essayer d'allumer des
Invité :
[16:35] lumières quand ça va mal. Sauf que.
Invité :
[16:37] Puis, je ne veux pas revenir sur toute l'histoire. À un moment donné, il y a aussi le fait que dans des familles, quand on se retrouve dans des situations comme ça, c'est aussi parce que la communication est peut-être moins fluide. Alors, est-ce que les parents vont vraiment faire attention? Ça, c'est un truc. Mais je veux revenir sur, et ça c'est quelque chose de nouveau parce qu'il y a des journalistes à la presse ici à Montréal qui se sont intéressés suite à toutes ces histoires-là. Ils ont fait les tests. Ils ont été entre autres sur ChatGPT, sur Grok, sur même le chat de l'IA de Snap pour tester, pour voir comment ça réussit. Et systématiquement, lorsque les jeunes ne sont pas en crise, mais en communication, et montrent qu'ils sont assez vulnérables par rapport à cette idée-là, rapidement, on les dirige, on les invite à communiquer à des experts, à tous les endroits.
Invité :
[17:30] Sauf qu'il s'agit juste de trouver la bonne façon d'amener le robot conversationnel à donner cette information-là. Et le meilleur exemple, c'est dans la plupart des cas, quand on leur disait, oui, mais c'est pour un roman. Je suis en train d'écrire une histoire et je veux savoir comment ça pourrait se faire. Et là, tout le monde ouvre les grandes pages et c'est parti. Et puis, ça devient très congrès. Si ça vous intéresse, il y a un petit résumé que j'ai fait sur mon carnet.
Invité :
[17:57] Mais sinon, il y a un lien vers l'article complet. C'est bien cherché. Et puis, personne n'a voulu réagir jusqu'à maintenant du côté des fabricants, des éditeurs de ces logiciels-là. Mais évidemment, du côté des psychologues et des professionnels qui sont touchés par cette réalité-là, tout le monde est alarmé par la facilité déconcertante avec laquelle des gens en situation de fragilité peuvent avoir l'information.
Monde Numérique :
[18:23] En fait, c'est toujours la même histoire. On arrive à hacker, d'une certaine manière, les IA génératives. C'est comme ça qu'on avait réussi, certains avaient réussi aussi à avoir des recettes pour fabriquer des bombes en expliquant, pareil, que c'était pour un roman, une fiction, etc. Juste pour revenir sur le système de contrôle parental, alors voilà, est-ce qu'il sera utile ou pas utile ? L'idée de lier le compte des enfants au compte des parents, bon, moi j'ai l'impression qu'il y a déjà des limites. D'abord, est-ce que tout le monde utilise ChatGPT avec un compte aujourd'hui ? Parfois, ça peut être en accès direct, sans être connecté, sans abonnement, etc. Ensuite, les ados n'ont pas forcément envie. Alors, bien sûr, il faudrait que ça se fasse dans la confiance, donc que les enfants sachent quelque part que leurs parents ne sont pas loin, peuvent intervenir. Mais comme tu le disais, s'il y a une situation de détresse dans une famille, ils vont tout faire au contraire pour se cacher. Donc, c'est quand même très, très compliqué. J'ai vu que ça pourrait aller éventuellement, dans des cas extrêmes, jusqu'à prévenir les forces de l'ordre.
Monde Numérique :
[19:36] Mais bon, ça paraît là encore un peu étrange. Et puis, il y a aussi autre chose, il y aurait la possibilité de choisir un modèle, un modèle de LLM, en fait, qui soit adapté spécifiquement à l'âge de l'enfant. Et donc, ça rejoint un peu ce que tu disais, c'est le fait déjà que le chatbot ne dise pas n'importe quoi et ne parte pas dans tous les sens. Rappelons qu'a priori, enfin, en principe, je crois qu'on n'a pas le droit de créer un compte ChatGPT en dessous de 13 ans en plus.
Invité :
[20:07] Oui, bien ça, c'est la loi américaine qui ne permet pas... Un enfant, j'allais dire un individu, mais un enfant de 13 ans et moins, de se brancher, peu importe. Pour se brancher, ça prend la permission des parents, mais sinon, c'est impossible pour un jeune, officiellement, de se brancher.
Monde Numérique :
[20:23] En tout cas, si on prend un peu de recul, c'est étonnant, enfin, c'est incroyable, mais finalement, c'est toujours les mêmes problèmes qui se posent. Je pense qu'OpenEI n'avait pas forcément prévu, il n'avait pas vu ça arriver.
Invité :
[20:36] C'est les problèmes de la société qui se portent dans le numérique.
Monde Numérique :
[20:39] Oui, bien sûr. Mais avec cette particularité, parce que le fait de prendre ChatGPT ou un autre pour un confident et allant jusqu'à des confidences quasi psychologiques, c'est une vraie tendance, c'est un vrai phénomène.
Invité :
[20:53] Tu me parlais de ça? Il y a des psychologues qui font même appel à ChatGPT, mais même en consultation?
Monde Numérique :
[21:01] Exactement, c'est incroyable. On savait qu'il y avait des gens qui prenaient ChatGPT pour un psy, mais on apprend qu'il y a aussi des psys qui utilisent ChatGPT comme des espèces de coachs pour les aider. C'est une histoire assez incroyable. En fait, c'est le MIT Technology Review qui raconte ça. C'est une personne qui était en conversation, en consultation avec son psychothérapeute en visio. Et le psy a fait une mauvaise manip, il a partagé son écran. Et là, la personne a vu qu'il était en train de copier-coller toutes ces questions dans ChatGPT et qu'il lui formulait les réponses que ChatGPT lui conseillait. Donc, c'est assez incroyable. Mais est-ce que c'est vraiment étonnant ? Je veux dire, on est tous tentés, quel que soit notre métier aujourd'hui, même si on a des compétences professionnelles, de se faire aider. En fait, c'est ça, se faire aider par l'IA. Mais celle-là, on ne l'avait pas vue arriver quand même.
Invité :
[21:57] Non, puis imagine la surprise du patient, de la patiente, qui voit ça à l'écran. Pouf! Sa conversation, puis tu vois que c'est une IA qui est en train de conseiller son psychologue. Là, tu te poses des questions sur les capacités de ton psychologue, s'il est en train essentiellement de relayer ce qu'elle lui a dit.
Invité :
[22:14] Il n'y a même plus de partie critique par rapport à plus.
Monde Numérique :
[22:16] Alors, nous, en France, mon cher Bruno, on va avoir une IA spéciale pour les enseignants.
Invité :
[22:22] Quelle fierté!
Monde Numérique :
[22:23] Tu vois un peu.
Invité :
[22:25] Quelle fierté.
Monde Numérique :
[22:26] Bon, évidemment, ça commence à faire des vagues. C'est Elisabeth Borne, l'ancienne première ministre, qui a annoncé ça. Il va y avoir un LLM développé spécialement pour les enseignants. Alors, ça fait grincer des dents parce que ça va coûter, ça représente un budget de 20 millions d'euros et bon, l'enseignement n'est pas au mieux de sa forme. Cela dit, il faut faire quelque chose. Je veux dire, on est quoi ? Trois ans après Tchadjipiti. il est urgentissime que le monde enseignant se saisisse de ça, donc je pense qu'il faut craquer quelques millions quand même pour cette histoire-là. Donc un LLM spécial pour les enseignants, je ne sais pas exactement à quoi il va ressembler, qu'est-ce que ça veut dire ? En fait, l'idée, on la devine, c'est d'arriver à avoir un modèle qui soit spécifiquement entraîné, pour répondre aux besoins des enseignants. Et les chiffres que tu citais pour le Canada, ils se retrouvent aussi un peu en France, parce que dès à présent, avant même d'avoir cet outil officiel, il y a déjà, selon une étude récente, 70% des enseignants qui utilisent déjà l'intelligence artificielle principalement pour préparer leurs cours.
Monde Numérique :
[23:29] Donc c'est qu'il y a un besoin, il y a une nécessité. Mais j'espère que le scénario qui arrive ne sera pas celui qu'on connaît déjà et qu'on a vu dans les entreprises, c'est-à-dire que finalement,
Monde Numérique :
[23:41] tout le monde utilise Chagipiti, Claude, Copaylott en douce, sans le dire au patron. Le jour où l'entreprise dit bon ben ok, vous voulez de l'IA, on va vous mettre une IA rien que pour vous, on l'a développée exprès c'est une IA maison et tout, et là ils la mettent en place et c'est un carnage, parce qu'elle n'est pas du tout au niveau, elle n'est pas aussi bonne et finalement personne ne s'en sert il s'est passé la même chose avec les moteurs de recherche en France, et là c'est un scénario qu'on voit arriver aussi avec l'IA dans les entreprises, donc je ne promets pas forcément un très bel avenir à cette IA.
Monde Numérique :
[24:15] Spéciale enseignant cela dit, juste un mot encore parce que ça t'intéressera peut-être de savoir que cette année, chez nous, les enfants ont fait leur première rentrée scolaire spéciale IA, d'une certaine manière, parce que désormais, il va y avoir des cours, d'intelligence artificielle obligatoires en classe de quatrième et en seconde. Vous avez ça, vous, au Québec et au Canada?
Invité :
[24:37] Non, on n'a pas encore ça. Évidemment, il y a des professeurs ou des enseignants à ce niveau-là qui vont de temps en temps avec un petit peu d'initiative,
Invité :
[24:46] mais il n'y a pas encore un vrai cadre dans lequel c'est enseigné chez nous.
Monde Numérique :
[24:49] Bruno, de quoi parles-tu cette semaine dans ton carnet ?
Invité :
[24:53] Écoute, je parle d'intelligence artificielle et de santé avec les gens de Eddie Hart et je parle aussi avec David Smadja. Je ne sais pas si ça dit quelque chose. C'est un médecin français. On l'a vu beaucoup sur les plateaux des télés françaises à l'époque de la pandémie de la COVID parce que c'est lui qui tentait, en tout cas sur certaines antennes, tentait d'expliquer l'effet des vaccins et comment l'impact de la COVID-19. De la maladie sur le système respiratoire. Et là, lui, évidemment, il a été pris dans la tourmente et dans la tempête de la désinformation. Et là, il est parti en cavale pour essayer de ramener, c'est mes paroles, c'est pas les siennes, mais le bon sens aux propos qui ont à voir avec le monde de la médecine, de la recherche, des chercheurs, des scientifiques sur les réseaux sociaux. Et donc, je fais une longue entrevue avec lui. C'est assez intéressant sur sa perception de la communication aujourd'hui sur les réseaux sociaux. Alors, ça, ça va être ça. Et puis, sinon, on va parler aussi avec quelqu'un. Ça, c'est un scoop.
Monde Numérique :
[26:02] On va parler de quelque chose avec quelqu'un, c'est ça?
Invité :
[26:04] Oui, ça, c'est un scoop. Je te l'annonce. Mais donc, c'est un ancien maire d'un arrondissement à Montréal qui, là, est en train de travailler sur une formule qui va aller chercher. Il y a 12 villes qui participent à ça au Québec. Mais il est en train de se faire la même chose en France, mais ça, je ne peux pas nous donner trop d'informations là-dessus. Mais donc, on va faire de la mutualisation de données pour gérer le risque d'enlever autant de la météo, autant des forces de la nature, et donc développer des cahiers de solutions pour faire de la prévention et tout ça qui va carburer avec l'intelligence artificielle pour faire du gros calcul scientifique.
Monde Numérique :
[26:49] Magnifique.
Invité :
[26:49] C'est assez intéressant comme histoire.
Monde Numérique :
[26:51] Parfait. Bonne écoute, bonne fin de podcast. Salut Bruno, à la semaine prochaine.
Invité :
[26:55] Bye. Monde numérique, le meilleur de la tech.
Monde Numérique :
[27:09] Les interviews de Monde numérique cette semaine. Et attention, les yeux ou les oreilles plutôt, c'est chargé quatre interviews. On va s'intéresser tout d'abord à l'IA dans les entreprises. En France, les entreprises seraient en retard en matière d'adoption de l'intelligence artificielle. On en parle dans un instant. On reviendra ensuite sur ce qu'on peut appeler l'affaire Luc Julia, mais de manière apaisée, avec Jean-Paul Krivine, auteur d'une critique très pointue sur le dernier livre de Luc Julia. Je dois vous en parler et vous l'entendrez. Enfin, les cybercriminels ne dorment jamais, ils continuent à nous pourrir la vie. Heureusement, les professionnels de la cybersécurité veillent au grain. On retrouvera Benoît Grenemval de la société EZ. Et puis ce n'est pas tout, on terminera avec un sujet un peu à la frontière entre le numérique et le politique, en tout cas un sujet d'actualité, à la veille du mouvement de protestation du 10 septembre. Que se passe-t-il sur les réseaux sociaux ? Ces phénomènes qu'on ne voit pas forcément à l'œil nu, la société Bloom a tenté de les décrypter. Les interviews qui vont suivre sont proposées en version intégrale si vous écoutez Monde numérique l'hebdo premium sur Apple Podcast ou Spotify. Sinon, retrouvez-les la semaine prochaine en épisodes séparés sur le fil du podcast Monde numérique. Bonjour Salim Nassur.
Invité :
[28:32] Bonjour Jérôme.
Monde Numérique :
[28:33] Fondateur de la société Mars avec deux A qui accompagne les entreprises dans leur transformation numérique. Bienvenue dans le monde numérique en partenariat avec l'événement 1 to 1 IA, expérience client à Biarritz du 30 septembre au 2 octobre. Alors Salim Nassur, les entreprises françaises seraient en retard en matière d'IA. A peine 10% d'entre elles auraient développé des outils d'IA selon l'INSEE. Avant de parler de retard, peut-être une question. Est-ce qu'au fond, le problème, ce n'est pas surtout de savoir à quoi peut servir l'IA et pourquoi développer l'IA ?
Invité :
[29:06] Est-ce que chaque entreprise aujourd'hui a intérêt à utiliser l'IA et l'IA générative ? Oui. Pourquoi ? Il n'y a pas une entreprise qui n'a pas de réunion. Donc aujourd'hui, avoir, comme je le vois encore dans des entreprises, quelqu'un qui fait un compte-rendu de réunion, qui le fait valider, Et au final, le compte-rendu arrive deux ou trois jours après. C'est une hérésie. On est d'accord. Quand tu sais qu'aujourd'hui, tu peux avoir le compte-rendu automatiquement envoyé à tous les collaborateurs avec un résumé, avec les action points dessus. Donc, rien que ça, ne pas l'utiliser. C'est comme ça me rappelle à l'époque où tout début de l'aventure de Wanadu, où on allait voir des entreprises. Il va y avoir l'email. Enfin, vous allez pouvoir utiliser l'email. les gens te disaient « Non, mais j'ai un fax, ça me va bien. » « Ok, mais le fax, tu ne peux pas l'envoyer à plusieurs machins en même temps. » « Oui, oui, mais non, ça va, je suis bien. » Et tu reviens un an après, et un an après... Et j'en disais, redites-moi l'email encore. OK, donc je suis presque prêt. Mais si moi, je prends l'email et Clotilde, il n'a pas d'email en face. Comment ça marche ? Donc, je vais attendre qu'il prenne l'email. Et c'est un peu la même chose aujourd'hui avec l'IA. Tout le monde se regarde un peu, fait des petits tests d'époque. Et notamment, il y a cette étude qui est sortie récemment du MIT qui dit, alors il faut bien la lire parce qu'il dit en effet qu'on ne trouve pas de ROI dans l'IA.
Monde Numérique :
[30:28] Voilà, alors j'allais poser la question. effectivement, 95% des entreprises qui utilisent l'IA disent ne pas observer de véritables retours sur l'investissement. C'est un problème, ça, quand même.
Invité :
[30:37] Alors, oui et non. Oui et non. Parce que déjà, quand tu regardes, je me suis tapé toute l'étude, donc quand tu regardes déjà, et qui est très honnête, c'est une étude très honnête dans le sens où, ils disent qu'il y a quand même beaucoup de biais, dans le sens où, un, c'est pas toutes les entreprises, c'est quelques entreprises qu'ils ont regardées. En plus, c'est du déclaratif sur certains. Certains, ils ont été voir sur les sites Internet. Et on sait bien qu'aujourd'hui, l'IA est un avantage compétitif. Donc, je ne vois pas une entreprise qui aurait trouvé le secret sauce aller le mettre publiquement pour tout le monde. Donc, il faut quand même tempérer ces chiffres-là. Après, quand on regarde, véritablement dans l'étude, on se rend compte, et on reviendra à ta question de comment toute entreprise peut l'utiliser, c'est qu'on ne met pas en cause l'outil. On met en cause la mise en exécution de cet outil. Éventuellement, sur l'outil, il y a des problèmes de mémoire, en effet, parce que tu ne peux pas être consistant dans le temps sur certains de ces outils. Mais grosso modo, aujourd'hui, c'est plus un problème d'exécution, de compréhension, de regarder comment tu te sers de cette valeur plutôt que est-ce que l'outil fonctionne ou ne fonctionne pas ? C'est pas ça le fruit sujet.
Monde Numérique :
[31:34] Exécution, ça veut dire quoi ? Ça veut dire qu'on ne l'utilise pas forcément au bon endroit ?
Invité :
[31:38] Oui, un exemple. Je prends un exemple très simple qui arrive, j'interviens dans beaucoup d'entreprises au niveau des comex, au niveau des collaborateurs et l'exemple typique, Je mets 107 ans à me décider. Et puis, d'un coup, d'un seul, je prends des licences, Claude, ChatGPT, ce que tu veux. Et je les pousse à mes collaborateurs. Et après, je dis, je n'ai pas de ROI. OK, mais en fait, ils ne l'utilisent pas. Et pourquoi ils ne l'utilisent pas ? Parce que tu ne leur as pas expliqué pourquoi c'était intéressant pour eux de l'utiliser. Tu ne leur as pas donné les clés pour l'utiliser. Donc, tu n'as pas formé les gens. Et en fait, c'est un peu comme le gars qui va acheter une voiture électrique, donc qui va payer un peu plus cher, mais qui n'a pas prévu dans son garage de pouvoir la recharger, qui n'a pas prévu au bureau de ne pas pouvoir la recharger, et qui, à un moment, a une superbe voiture, mais ne l'utilise pas parce que ce n'est pas pratique et il n'a pas su comment changer ses habitudes.
Monde Numérique :
[32:35] Donc, il faut des formations IA. C'est quoi, une formation IA ?
Invité :
[32:37] Une formation IA, si tu veux, c'est très, très simple.
Monde Numérique :
[32:39] Parce qu'il y a un an, c'était apprendre à prompter. On sent qu'aujourd'hui, ça a déjà un peu changé.
Invité :
[32:44] Alors justement, c'est là où là, alors pardon, du coup tu me demandes, mais chez Mars, on n'a jamais fait du apprendre à prompter. Mais juste avant ça, donc acculturation. Une fois que tu as fait de l'acculturation, l'acculturation, elle sert à quoi ? Elle sert à comprendre que, un, c'est la techno la plus révolutionnaire qu'on ait jamais eue. Donc ça, si tu n'as pas compris ça, tu ne peux pas t'y intéresser. À partir du moment où tu as compris ça, tu te dis, ok, il faut peut-être que je regarde un peu plus. Deux, c'est pas compliqué. Et ça, en fait, ça fait vraiment peur aux gens, en fait. Alors qu'en fait, c'est pas très compliqué.
Monde Numérique :
[33:12] C'est vrai que c'est une techno sympa.
Invité :
[33:14] C'est une techno sympa, c'est pas compliqué.
Monde Numérique :
[33:16] L'IA, c'est fun.
Invité :
[33:17] L'IA générative, c'est fun. Donc, une fois que les gens se disent, et tu vois, nous, on le voit dans toutes nos formations, certains, au départ, arrivent un peu à reculer, et après, ils se disent, en fait, c'est génial. Le meilleur exemple, c'est un gars qui était proche de la retraite, il vient de moi, il me dit à la fin, il me dit, quand je suis venu, on m'a un peu forcé, moi, je suis près de la retraite, tout ça, votre IA, ça ne m'intéresse pas. Et quand il est reparti, il me dit « mais en fait... », j'ai plus envie d'aller à la retraite. Il dit, tout ce que je fais qui m'emmerde, pardon, mais c'était ces termes, il me dit, je vais pouvoir le déléguer à l'IA et faire les trucs qui m'intéressent vraiment. C'est sympa, votre truc. Donc, si tu leur montres pourquoi c'est sympa, ils vont y aller. Et enfin, le dernier point, c'est simple, et c'est surtout, ça leur sert au quotidien. Et ça, c'est intéressant de voir, et là, il y a les galets d'eux, il y a le bâton et la carotte, ça leur sert au quotidien et surtout, de l'autre côté, s'ils n'y vont pas, ils se rendent obsolètes. Et se rendre obsolète, à un moment, ça veut dire que tu n'as plus de job. Et ça, on le sait aujourd'hui. On le voit même, tu vois, il y a des études sur LinkedIn, un peu partout, qui montrent que de plus en plus d'offres d'emploi demandent l'utilisation de l'IA générative. Si aujourd'hui, tu n'utilises pas l'IA générative, c'est un peu comme si tu n'utilisais pas Microsoft Office à une époque.
Monde Numérique :
[34:31] Celui qui va te remplacer, ce n'est pas l'IA, c'est quelqu'un qui utilise l'IA.
Invité :
[34:36] Bien sûr, je ne suis pas fan de cette formule-là, mais on l'a dit souvent. Mais effectivement, ça, si tu veux, acculturation et ensuite vient la formation. Et pour répondre à ta question, c'est quoi une formation IA ? Pour moi, en tout cas, et ça, ça n'engage que moi, ce n'est jamais que de la technologie.
Monde Numérique :
[34:52] Merci Salim Nassur, fondateur de Mars avec Deux Ailles. On te retrouvera donc à One to One IA expérience client à Biarritz du 30 septembre au 2 octobre. On va revenir maintenant sur cette affaire qui a fait beaucoup de bruit ces dernières semaines, les attaques contre le spécialiste de l'intelligence artificielle, Luc Julia. Alors, au-delà de la polémique, assez violente sur les réseaux sociaux, je vous propose maintenant un regard scientifique, celui d'un autre ingénieur, lui aussi spécialiste de l'IA, mais qui critique les propos de Luc Julia sur l'intelligence artificielle. Donc je me devais de donner la parole dans mon numérique à ce détracteur qui est intervenu publiquement dans le débat.
Monde Numérique :
[35:38] D'autant que ça pose aussi la question de la vulgarisation des sujets techniques dans les médias. On écoute mon deuxième invité de la semaine. Bonjour Jean-Paul Krivine.
Invité :
[35:48] Bonjour.
Monde Numérique :
[35:49] Vous êtes ingénieur informaticien à la retraite, vous avez beaucoup travaillé en intelligence artificielle et vous êtes rédacteur en chef de la revue Science et Pseudo-Science, édité par l'AFIS, l'Association française pour l'information scientifique, qui est une association qui se présente comme ayant pour but de promouvoir la science et d'en défendre l'intégrité. Et vous signez sur le site de la FIS un très long article qui critique le dernier livre de Luc Julia. Alors, c'est une critique plus apaisée, plus étayée que ce qu'on a pu entendre jusqu'à maintenant. On va donc essayer de, non pas de relancer la polémique, mais de faire de la pédagogie. Que reprochez-vous au livre de Luc Julia ?
Invité :
[36:29] Alors, déjà avant de dire ce que je reproche, il y a des choses qu'on peut séduire dans le livre. C'est un discours général sur l'intelligence artificielle qui tend à s'opposer un petit peu au discours apocalyptique ambiant. Ça, c'est quelque chose qui m'intéresse, que je partage en termes de finalité. Ce qui est le problème majeur de ce livre, ce n'est pas qu'il y a quelques erreurs, il y a énormément d'erreurs, mais... En gros, il donne l'impression, et en tout cas dans l'exposé du sujet, que l'auteur ne comprend pas ce que l'IA connexionniste d'aujourd'hui. Il fait une description des réseaux de neurones, de l'IA générative, qui est tout simplement fausse, et appuie son argumentation sur les erreurs, sur les hallucinations et sur d'autres sujets, sur cette compréhension erronée. Ça discrédite complètement le discours, et puis ça interroge globalement sur ce qui a été fait.
Monde Numérique :
[37:22] Alors, c'est là où on a besoin d'explications. Qu'est-ce que c'est que les IA connexionnistes ?
Invité :
[37:26] Alors, je ne sais pas si on va rentrer dans toute l'histoire de l'intelligence artificielle. L'IA connexionniste, c'est celle qu'on connaît pour le grand public, même souvent la presse, quand on parle d'intelligence artificielle, on ramène ça à l'IA connexionniste. Quand on rajoute connexionniste, c'est souvent par opposition à l'intelligence artificielle dite symbolique qui a caractérisé, on va dire, les années 1960 jusqu'à la fin, enfin le début des années 2000 ou fin des années 90. Pour dire en deux mots, l'IA symbolique, elle essaye de représenter les connaissances qu'on a envie de manipuler pour faire des raisonnements. Donc, on va représenter explicitement dans la machine ce qui est un chat, ce qui est un raisonnement, ce qui est, moi je ne sais pas, une machine qu'on essaie de diagnostiquer. Donc, c'est de la représentation des connaissances.
Monde Numérique :
[38:17] Donc, on la décrit au programme ?
Invité :
[38:19] Voilà, on décrit au programme des connaissances, on décrit au programme des modes de raisonnement, ce qui a été la belle époque de cette intelligence artificielle symbolique, c'est ce qu'on appelait les systèmes experts, qui codaient des règles d'expertise d'experts d'un domaine. Donc, si j'observe telle chose, alors il est possible que telle autre chose en soit la conséquence. Ça, c'est pour faire simple, l'IA symbolique, Et ça a eu des tas d'applications, notamment dans le domaine du jeu, je veux dire, on a souvent parlé du jeu d'échecs, où on représentait explicitement, je dirais, les arbres de décision du jeu d'échecs. L'IA connexionniste d'aujourd'hui, elle est complètement sur une autre approche. On pourrait dire que l'IA symbolique, quelque part, c'est des raisonnements déductifs. Alors que l'IA symbolique va procéder complètement autrement. Elle va essayer de coder dans ce qu'on appelle des réseaux de neurones, le terme, on peut le discuter parce qu'il est très anthropomorphique, le résultat d'un apprentissage sur énormément de données. Et c'est ça qu'il importe de comprendre et que, visiblement, la critique qu'on fait de ce qu'on peut dire dans le livre de Julia, c'est qu'il n'a pas compris ça, étant à ramener le fonctionnement de l'IA connexionniste d'aujourd'hui au mécanisme qu'il connaît de l'IA symbolique d'avant.
Monde Numérique :
[39:37] En quoi est-ce que ça change la perception du concept même d'intelligence artificielle ?
Invité :
[39:43] Alors, c'est important à comprendre. L'IA symbolique, finalement, on décrit des raisonnements dans la machine, on espère que la machine va les… et on espère, on fait tout pour que la machine les reproduise. Donc, on a quelque chose qui n'est pas une boîte noire, quelque chose où on peut suivre le raisonnement. Enfin, ça peut être compliqué, il faut peut-être céder d'outils, mais on s'en sort. L'IA connexionniste, elle fait des sortes d'abstractions et de généralisations sur de gigantesques corpus d'apprentissage dans lequel elle va coder, dans ses paramètres, la distinction entre les données, les données d'apprentissage et les paramètres de son modèle, cette sorte de, on peut dire, de synthèse qu'elle a faite. Alors, je ne sais pas, peut-être que vous voulez que je donne un exemple pour faire toucher les voix.
Monde Numérique :
[40:28] Oui, volontiers.
Invité :
[40:29] C'est un exemple extrêmement simplifié de ce qu'est l'IA connexionniste. Supposons qu'on veuille faire prédire à un système la taille d'un enfant en fonction de son âge. Alors, on peut rentrer des règles, ça c'est symbolique, de faire une certaine manière. En IA connexionniste, on va faire autrement. On va lui donner énormément de données d'un certain nombre d'enfants, en donnant leur âge et leur taille. Donc, moi, je ne sais pas, Benjamin à 10 ans, il mesure 1m10.
Invité :
[40:55] Laura à 8 ans, elle mesure, voilà. Et on va, je dirais, le faire travailler sur ces données. Et puis, finalement, le système, je dirais, en itérant là-dessus, c'est-à-dire qu'on lui dira à la fin où il trouvera lui-même que c'est vrai ou pas vrai ce qu'il a identifié, où il va trouver des régularités, en fait, il va trouver plein de régularités et il va dire, par exemple, qu'en général, les enfants à la naissance font en moyenne 40 cm et puis que chaque année, ils gagnent 10 cm jusqu'à 10 ans, par exemple. Il va trouver ça et donc ça, les données d'entraînement, c'est les milliers ou les dizaines de milliers de cas qu'on lui a soumis avec la taille et l'âge et puis les paramètres qu'il va garder, c'est juste le 40, qui est les 40 cm à la naissance et le disparant qui est l'accroissement. Il garde deux nombres, c'est les paramètres. Tout le reste, il l'oublie. Et donc, l'IA connexionniste a construit son réseau. Alors après, c'est un réseau, c'est mille fois plus compliqué que ce que je viens de dire, ne serait-ce que ce n'est pas deux paramètres, mais des milliards et des milliards de paramètres. Mais le principe est celui-là. Et on voit bien que dans ce résultat, l'IA n'a pu garder, n'a rien dans une base de connaissances. Elle a deux paramètres qui lui permettent, si je dis, « Eh bien voilà, j'ai un enfant qui a huit ans », il va me dire « Il est très probable qu'il ait cette taille-là ».
Monde Numérique :
[42:12] Est-ce que ces précisions techniques ou imprécisions, selon vous, sont de nature à fausser le raisonnement global ?
Invité :
[42:22] Alors, ça, c'est un débat qui est intéressant. On peut avoir un propos général sur l'intelligence artificielle, son impact dans la société, sans forcément être un expert de tous les sujets liés au connexionnisme. Et inversement, on peut être un expert des sujets au connexionnisme et raconter n'importe quoi sur les impacts dans la société. Il faut quand même, dès lors qu'on fait référence à des connaissances scientifiques et techniques, ne pas raconter des âneries qui, du coup, discréditent complètement le propos et ne pas faire reposer ce qu'on raconte sur des arguments qui sont faux. Or, c'est ce que fait Luc Julia. C'est-à-dire que le propos général, je l'ai dit tout à l'heure, pour dire qu'il y a, comment dire, une bulle autour d'Internet, qu'on nous dit que ces machines sont intelligentes, vont prendre le pouvoir et qu'il y a une vision apocalyptique, ce n'est pas fondé. Quand on sait comment ça marche, quand on explique, ce n'est pas fondé. Donc, formellement, le Julia a raison de dire ça, pas moi, je suis d'accord. Mais comme il l'appuie sur des arguments qui ne vont pas, ça discrédite complètement la chose.
Monde Numérique :
[43:23] Merci, Jean-Paul Krivine. Merci pour ces précisions. Chacun se fera son opinion, j'ai envie de dire, sur la polémique elle-même. Voilà, et on vous retrouve donc sur le site de l'AFIS, l'Association française pour l'information scientifique.
Monde Numérique :
[43:45] Bonjour, Benoît Grenemvald.
Invité :
[43:47] Bonjour, Jérôme Colombain.
Monde Numérique :
[43:49] Expert cybersécurité chez ESET, on se retrouve en partenariat entre ESET et Monde Numérique pour faire un point sur l'actualité de la cybercriminalité. Cet été, encore toute une série de cyberattaques, de fuites de données, France Travail, Air France KLM, Bouygues Télécom, Orange, Orange France et Orange Belgique en l'occurrence. Est-ce qu'on sait parmi toutes ces cyberattaques un petit peu comment ça s'est passé ?
Invité :
[44:15] Oui, il y a des fois où dans la cyberattaque, l'origine, c'est la fuite d'informations, notamment un login, un mot de passe. C'est le cas pour France Travail, où le compte en question a été identifié. C'est d'ailleurs son activité suspecte qui a levé les alertes. Et on sait aussi que ce compte a été compromis. Donc, ce n'est pas la personne qui travaille avec ce compte qui a mené cette opération.
Monde Numérique :
[44:41] Donc, le compte d'un employé de France Travail.
Invité :
[44:43] Exactement.
Monde Numérique :
[44:44] Qui est utilisé pour rentrer dans le système.
Invité :
[44:45] Tout à fait, qui a été compromis parce qu'il y a un logiciel malveillant spécifique qu'on appelle logiciel voleur d'informations, en anglais un infostyler. Et ce logiciel a un seul objectif, c'est être le plus furtif possible, rentrer sur un maximum de machines et aller chercher notamment dans les navigateurs les mots de passe, logins, mots de passe qui sont enregistrés, mais pas que.
Monde Numérique :
[45:07] D'accord, mais comment il est rentré cet infostyler ?
Invité :
[45:10] Alors généralement, l'infostyler, il rentre par de l'hameçonnage, il rentre par des sites web frauduleux qui sont des sites web pirates où on va venir réaliser des manipulations, voire même sur une nouvelle technique ou en tout cas une technique qui se répand de plus en plus. Premier semestre 2024, on l'a vu exploser à plus de 500% par rapport au premier semestre 2025, par rapport au dernier semestre 2024, plus de 500% d'explosion et c'est ce qu'on appelle clic fix. Ce sont des arnaques qui remplacent des captchas qui vous font croire que vous allez effectuer un captcha et qui en fait...
Monde Numérique :
[45:45] Donc le captcha, c'est le petit système d'authentification où il faut reconnaître les photos.
Invité :
[45:49] Etc. Oui, c'est ça.
Monde Numérique :
[45:50] Où est-ce qu'il y a un vélo, où est-ce qu'il y a un chat, etc.
Invité :
[45:52] Exactement, et qui n'en a jamais rempli, qui n'a jamais déplacé la fameuse pièce de puzzle pour la faire rentrer au bon endroit, chercher les vélos sur une photo découpée en plusieurs. Et ce qu'ont fait les cybercriminels, comme ils savent que quand on voit un captcha, finalement on est... On est enclin à le faire, on ne se doute pas qu'un CAPTCHA puisse être malveillant. Ils ont détourné le CAPTCHA et pour nous faire des opérations malveillantes, notamment faire nous-mêmes installer des logiciels malveillants, dont des infostyleurs sur nos machines.
Monde Numérique :
[46:23] Ça veut dire que je réponds à la question posée, je fais les petites énigmes du CAPTCHA, et en fait, je suis en train moi-même de mettre un logiciel malveillant sur mon ordinateur.
Invité :
[46:35] Exactement. Et ça, vraiment, ça se représente comme un captcha traditionnel. Et la première étape qu'on va vous demander, c'est de cliquer sur un bouton. Et en fait, ce bouton va faire un copier dans votre presse-papier. Et une fois que vous avez fait le copier, ils vont vous dire très bien, voici la prochaine étape. Vous appuyez sur Windows Air. Là, ça ouvre une invite de commande. Et dans cet invite de commande, on va vous dire, vous faites tout simplement CTRL V. Et là, ça va coller cette fameuse ligne de commande qui, en fait, va télécharger un logiciel malveillant. Alors, soit directement, soit avec plusieurs étapes, mais le fait est que ça va être automatique et préparé par les cybercriminels. Et là, vous vous retrouvez avec un logiciel malveillant sur votre ordinateur, dont certains sont, en grande partie d'ailleurs, sont des logiciels infostyleurs, donc ces fameux voleurs de données.
Monde Numérique :
[47:21] Oui, mais Benoît, bon, alors c'est vrai, ça peut nous arriver à tous, ce genre de choses, mais quand même, accepter le fait d'ouvrir une fenêtre pour taper une ligne de commande, on est déjà dans un process assez élaboré. Est-ce qu'il n'y a pas une petite lumière, normalement, qui doit s'allumer pour dire, attention, qu'est-ce que je suis en train de faire ?
Invité :
[47:42] Chaque personne qui a un minimum de connaissances en informatique, il y a de fortes chances qu'elle ne se fasse pas avoir. On est bien d'accord. Par contre, je pense à ma belle-mère. J'imagine qu'elle serait capable.
Monde Numérique :
[47:55] On a tous des proches comme ça qui sont plus vulnérables.
Invité :
[47:58] Qui sont vraiment des utilisateurs lambda et surtout, on va jouer sur un biais cognitif. Le biais cognitif, c'est qu'on a l'habitude de remplir des CAPTCHA et on a aussi l'habitude, peut-être inconsciemment, que les CAPTCHA sont différents et évoluent. Alors, nous, on sait que c'est parce que l'intelligence artificielle arrive à passer les différents CAPTCHA, donc il faut qu'ils soient à la fois de plus en plus difficiles à passer et en même temps différents. Et bien, moi, si je vois un CAPTCHA qui me dit « Tiens, on a changé de méthode maintenant, non, c'est plus reconnaître un avion sur une photo, mais rentrer une ligne de commande. Alors, moi, je sais que c'est une ligne de commande, mais un utilisateur lambda va savoir ce qu'est vraiment une ligne de commande. Le fait est, en tout cas, que ça fonctionne. On a vu, premier semestre 2025, une croissance de 500% des détections dans notre télémétrie, c'est-à-dire ce qui remonte des utilisateurs que l'on protège. Et surtout, on voit que ça fonctionne, parce que derrière, il y a ces fameux logiciels qui sont installés.
Monde Numérique :
[48:54] Merci Benoît Grunemwald, expert cybersécurité chez EZET. Bonjour Aurélie David.
Invité :
[49:07] Bonjour.
Monde Numérique :
[49:08] Vous êtes vice-présidente de Blum, une société spécialisée dans l'analyse des phénomènes sur les réseaux sociaux et vous avez examiné ce qui se préparait à la veille de la manifestation du 10 septembre en France. Alors avec un constat que vous résumez d'une phrase choc, vous parlez d'une confiscation de la démocratie par des militants du chaos. Qu'est-ce que vous voulez dire par là ?
Invité :
[49:31] Pourquoi est-ce qu'on parle d'un mouvement, entre guillemets, confisqué ? C'est parce qu'au départ, un petit peu à la manière des Gilets jaunes, c'est un mouvement qui est assez organique, ce qu'on appelle organique. C'est-à-dire que c'est plutôt un mouvement d'opinion des citoyens français. Et puis, très rapidement, les partis politiques essayent de s'en emparer et s'en emparent, finissent par s'en emparer. Et comme, bien évidemment, ils ont une puissance, on va dire, en termes de visibilité, une puissance médiatique qui est importante, c'est pour ça qu'on a insisté sur ce sujet et qu'on a appelé ça, entre guillemets, une confiscation.
Monde Numérique :
[50:13] Donc les partis qui ont soutenu, qui ont très vite embrayé, c'est-à-dire extrême droite, puis extrême gauche.
Invité :
[50:18] Etc. Exactement. Et on a aussi un petit peu, mais 3% uniquement, nous, d'activités pro-russes. Aujourd'hui sur le sujet.
Monde Numérique :
[50:30] Donc il y en a, mais c'est très limité.
Invité :
[50:32] Vous dites ? C'est très limité pour l'instant. Je dis bien pour l'instant, parce qu'en général, les modes opératoires de ce type d'amplification, c'est d'attendre de voir si un mouvement va prendre avant de l'amplifier réellement. Donc là, pour l'instant, on a notamment identifié le fait que tout ce qui est amplification inauthentique, Ce qu'on appelle amplification inauthentique, c'est l'utilisation de méthodes très différentes comme le multi-posting, le multi-commenting, etc. Tout ce qui n'est pas d'un comportement d'utilisateur habituel.
Monde Numérique :
[51:10] Avec tout ce qui est artificiel.
Invité :
[51:11] Voilà, qui peut être développé par des bots ou par des humains, mais qui sont payés pour publier énormément, republier énormément. Ça, on le voit apparaître à partir du moment où les mouvements politiques, les partis, s'emparent du sujet. Donc, ça change complètement la physionomie, on va dire, du mouvement. Et la physionomie… Donc.
Monde Numérique :
[51:36] C'est la fin de la spontanéité.
Invité :
[51:37] Exactement. Cette activité artificielle, de toute façon, elle n'est jamais isolée seule. Elle repose toujours sur des acteurs et des contenus réels qui, eux-mêmes, ensuite, sont boostés, amplifiés, modifiés, etc.
Monde Numérique :
[51:53] Alors, ce que vous révélez également, c'est l'importance de TikTok.
Invité :
[51:56] TikTok, aujourd'hui, c'est massif. C'est massif et c'est massif pas seulement en termes de volume. Ces massifs, des jeunes créateurs de contenu qui globalement ne parlent principalement que de musique, ou de mode de vie, qui animent leur communauté avec ce qu'on a à faire, des mèmes, etc., qui aujourd'hui prennent la parole en expliquant pourquoi est-ce qu'il y a des gens qui se mobilisent, et pourquoi est-ce qu'il faut aussi se mobiliser. Avec des thématiques qui peuvent être des thématiques environnementales. Donc, arrêter de consommer parce qu'en fait, on est dans cette société de surproduction, de surconsommation.
Monde Numérique :
[52:42] C'est un peu pour tout en fait.
Invité :
[52:43] Oui, alors ça, il y a une fragmentation des revendications qui est totale. Sur tous les réseaux sociaux, et oui, une fragmentation totale des revendications.
Monde Numérique :
[52:55] Alors, vous mettez en évidence également le rôle de l'intelligence artificielle, et en l'occurrence Grok sur X. Quel rôle ça joue ?
Invité :
[53:05] Énormément de gens vont interroger Grok pour lui poser des questions sur le 10 septembre. Sa centralité démontre qu'en fait, c'est une source d'informations privilégiée. Et donc ça, c'est quelque chose qui va rebattre les cartes, qui a déjà commencé à rebattre les cartes, parce qu'on le voit sur le 10 septembre, mais on le voit sur énormément de problématiques, que ce soit des problématiques de consommation, des problématiques politiques, des problématiques d'actualité. Donc on le voit vraiment partout. Mais aujourd'hui, qu'il soit central sur un sujet de mobilisation, c'est assez phénoménal.
Monde Numérique :
[53:42] Au point de l'amplifier, est-ce que ça augmente le ressentiment ?
Invité :
[53:47] Non, parce qu'en fait, ces réponses restent factuelles. En fait, il est nourri de l'ensemble des réponses sur X, parce qu'il y a aussi des mécanismes à l'intérieur de l'IA qui sont des mécanismes de modération. D'auto-modération on va dire, on pourrait dire auto-censure, mais d'auto-modération. Donc non, ça reste assez factuel, mais il se trouve que c'est complètement central. Donc aujourd'hui, c'est vrai qu'on se dit que tout ce qui est réglementation européenne, tout ce qui est justement effort de fact-checking dans les rédactions, qui est ultra important et vraiment fondamental, on va être obligé à un moment d'y repenser enfin en tout cas de le refonder parce qu'aujourd'hui dans les usages on a déjà voilà c'est déjà établi c'est.
Monde Numérique :
[54:45] Grok qui fait.
Invité :
[54:45] Autorité plus.
Monde Numérique :
[54:46] Que plus que les fact checkers des médias.
Invité :
[54:48] Alors je veux pas voilà mais en tout cas c'est dans les usages c'est déjà c'est déjà intégré merci beaucoup Aurélie David merci à vous surtout.
Monde Numérique :
[54:57] Vice-présidente de Bloom, Et voilà, c'est la fin de cet épisode de Monde Numérique, l'hebdo du 6 septembre 2025. Merci de l'avoir suivi jusqu'au bout, un hebdo particulièrement chargé cette semaine, surtout si vous avez écouté en version longue, deux heures d'émission. Attention, on ne prend pas ça toutes les semaines. N'oubliez pas de laisser un commentaire, des petites étoiles à propos de ce podcast sur votre plateforme d'écoute. Réagissez sur également le site mondenumérique.info ou encore sur les réseaux sociaux.
Monde Numérique :
[55:34] Cette semaine, j'en profite pour vous donner rendez-vous dans le podcast de mon camarade Carlos Diaz, Silicon Carnet, excellent podcast en direct de la Silicon Valley et dans lequel j'ai le plaisir d'intervenir pour son numéro de reprise, son numéro de rentrée. Voilà, Silicon Carnet, épisode du 5 septembre. On se retrouve samedi prochain pour un nouvel épisode de l'hebdo. D'ici là, passez une très bonne semaine pleine de tech et puis ne ratez aucun épisode de Monde Numérique. Salut !













