Cette semaine c’était le sommet pour l’IA organisé par l’Etat pour tenter de montrer qu’il y comprenait quelque chose. Stratégie qui n’a pas fonctionné à 100%, tellement la levée de boucliers de gens éveillés a été massive.
Et moi pendant ce temps là, j’ai écris quelques bafouilles , souvent en direct, sur Linkedin. Mais je me dis que linkedin étant dans un flux permanent, ces contenus ne vont pas faire de vieux os. Alors voilà ces quelques posts à chaud de la semaine de l’IA française. Dans 10 ans vous pourrez à nouveau vérifier que papy Cyroul avait raison.
30/01/25 : ChatGPT vs Deepseek

Une photo aussi racoleuse que les titres que vous lirez cette semaine alors que deux nouvelles IA ont fait leur entrée : d’un côté, Lucie, développée par Linagora en France, et de l’autre Deepseek, une IA chinoise. Tandis que la première a effectué un lancement qu’on peut qualifier de foireux, seconde fait sensation, en surpassant même (soit-disant) ChatGPT.
Mais ce qui mérite vraiment notre attention dans ces non-informations, c’est le point de vue de ceux qui vous en parlent.
En tant que fervent défenseur d’une information éclairée et précise (vous me connaissez) sur le sujet de l’IA, je vous propose trois clés de lecture essentielles pour évaluer rapidement la pertinence des articles sur ce sujet.
1 ➤ L’IA chinoise n’est pas la meilleure du monde. C’est faux. En vérifiant sur chatbot arena, un outil réputé fiable, Deepseek se classe en 3e après Gemini et égalité avec une des instances de ChatGPT 4o.
2 ➤ Comment peut-on comparer une IA bénéficiant de 500 milliards d’investissement sur 4 ans, soutenue par un gouvernement chinois prêt à tout pour dépasser les américains avec une startup française qui tente de reproduire les ambitions de Mistral ?
3 ➤ Et pour finir il est regrettable d’idéaliser (ou de détruire) les “startups françaises” ! Ces entreprises tirent parti de l’écosystème français favorable, de financements généreux et d’une bienveillance souvent … aveugle (les financeurs manquent souvent de connaissances approfondies), pour ensuite chercher des fonds à l’étranger une fois leur notoriété établie. Prenons l’exemple de Mistral : dans son tour de table, on retrouve une majorité d’investisseurs américains, quelques Chinois, mais très peu d’Européens. Cocorico mes fesses !
J’espère que ces 3 éléments vous permettront de prendre du recul face aux informations et titres putassiers (c’est le mot approprié) que vous verrez fleurir cette semaine.
Plus que jamais il est essentiel de développer son sens critique dans cette ère de la désinformation technologique.
10/02/25 : Aujourd’hui à Paris, 2 salles 2 ambiances autour de l’IA
D’un côté le sommet de l’IA (au Grand Palais), construit pour vendre les promesses de l’IA générative à grand renfort de FoMo et injonctions marketing coûteuses. Interventions d’opportunistes et marchands de tapis, paillettes et dopamine.
De l’autre, le contre-sommet de l’IA (theatre de la concorde, gratuit) construit avec des bouts de ficelles qui veut réfléchir au néo-humanisme de l’ère de l’IA. Ambiance bordélique et bon enfant, interventions de haut niveau, réflexions profondes.
Deux visions de l’IA et de la posture à adopter face à cette nouvelle techno. Chacun choisit la sienne.
N’hésitez pas à me retrouver, au contre-sommet, évidemment.
11/02/25 : L’IA peut-elle être éthique ?
Ce matin, je traîne mes basques chez Cap Digital pour la présentation d’un rapport au nom délicieux : L’IA des Lumières, et au sous-titre alléchant : pour un développement éthique de l’IA.
Le rapport de Francis Jutand est très complet, dressant une carte exhaustive des différents enjeux de l’IA(G). Je vous engage à le lire ici, je le trouve top (https://lnkd.in/eKnNqiHN).
Mais si le rapport est exhaustif, les propositions d’action (« pour densifier et élargir la Stratégie Nationale IA ») d’accompagnement des entreprises (et de l’Etat) ne le sont certes pas.
Ces propositions n’abordent pas par exemple l’obligation légale de frugalité numérique ou la responsabilité réelle des entreprises sur l’IA (arrêtons de nous cacher derrière l’IA Act bureaucratique). Bref, toutes les choses qui nécessitent des lois, de la régulation ou de l’éducation massive et populaire (Lumières ou pas lumières ?), des actions concrètes et rapide à l’opposé de promesses vagues d’un futur meilleur.
Car les promesses sont déjà l’apanage du business de l’iA. Hier, Mistral et Free ont annoncé un partenariat : 15 millions d’abonnés Free vont pouvoir installer Mistral sur leur smartphone gratuitement pendant un an…
Resultat prévisible : potentiellement 15 millions de futurs accros à une technologie pilotée par des capitaux étrangers (les actionnaires de Mistral – non ils ne sont pas français).
Face à un business qui ne s’arrête jamais il faut donc à la fois des actions stratégiques dans le temps long (ce qu’on trouve dans le rapport) mais aussi des actions concrètes et rapides.
Ainsi la question cette semaine n’est pas combien de milliards Macron peut mettre sur la table pour flatter sa virilité, mais plutôt à quel moment il va décider de défendre la démocratie et le progrès durable.
Ca n’est pas cette semaine.
13/02/25 : INESIA : quand les mots en disent (trop) long sur l’IA en France
Une des astuces pour repérer la manipulation consiste à compter les mots (lisez Clément Viktorovitch). Plus il y a renforcement, plus il faut se poser de questions. Alors regardons de plus près le communiqué de création de l’INESIA, l’institut national censé piloter l’IA en France. C’est instructif…
A partir des 8 phrases du texte, on analyse ainsi la fréquence des mots, puis on les regroupe par thème. Le but étant de faire émerger une grille de lecture des idées que l’on essaie de nous faire passer… sans les écrire clairement. On obtient :
- Evaluation / évaluer / Régulation / Encadrer (5 occurrences) —> L’INESIA est capable de réguler l’IA
- Sécurité / Sécuriser (4 occurrences) —> L’INESIA est capable de sécuriser l’IA
- Confiance / Fiabilité (4 occurrences) → L’IA est fiable, il faut lui faire confiance
- Innovation (2 occurrences) —> L’IA c’est de l’innovation
- Engagement / Responsable / Garantir (3 occurrences) —> Le gouvernement à travers L’INESIA est un acteur responsable et engagé de l’IA
Alors pourquoi le gouvernement insiste-t-il tellement sur ces principes sans les écrire directement ? Peut-être parce que c’est un ramassis de mensonges (ou alors il ne connait pas le sujet).
- Parce qu’il est impossible de réguler l’IA. La France n’a pas réussi avec les réseaux sociaux hier, elle ne va pas réussir avec l’IA demain. Elle ne va pas imposer sa loi aux Gafam ou à la Chine. La régulation passera forcément par l’Europe, et avec une vraie volonté de réguler. L’IA Act n’est absolument pas une réussite de ce point de vue là.
- Parce qu’il n’y a aucune confiance à avoir dans les Gafam ou dans la Chine. Les dernières actualités sur la Silicon Vallée nous l’ont démontré. Ces plateformes sont des girouettes guidées par le pouvoir et l’argent. Faire confiance à ça ? Jamais !
- Parce que l’innovation à base d’IA est très subjective (lisez L’IA générative et l’illusion de l’innovation facile). On ne peut parler d’innovation sans parler des conséquences sociétales de ces innovations, grandes absentes de tous les discours sur ce sujet.
- Engagement-responsabilité de l’État ? A ma connaissance, ça n’existe que dans les discours politiques.
Ce communiqué de presse est donc préoccupant car au delà d’une simple méconnaissance du sujet de l’IA, il révèle une volonté claire de manipuler l’opinion et d’influencer la perception du public sur cette technologie.
Ainsi, après avoir raté le virage du web dans les 90s en s’accrochant au Minitel, puis ignoré les transformations numériques majeures de la société dans les années 2000, l’État aborde la révolution de l’Intelligence Artificielle à coups de non-dits et de mensonges implicites.
L’IA est un sujet trop important pour qu’il soit traité par des politiciens ou des Instituts contrôlés par des politiciens.
Mais alors que faire ?
Le communiqué du Ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique :
Un nouvel acteur pour une IA de confiance en France ! 🇫🇷
L’État renforce son engagement pour une IA de confiance avec la création d’INESIA, l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle.
Sa mission ? Évaluer, sécuriser et encadrer l’IA pour garantir une innovation responsable et protéger nos systèmes les plus sensibles.
INESIA réunira des experts de l’ANSSI – Agence nationale de la sécurité des systèmes d’information, l’Institut national de recherche en sciences et technologies du numérique (Inria), le laboratoire national de métrologie et d’essais (LNE) et du pôle d’expertise de la régulation numérique (PEReN) sous la supervision du Secrétariat général de la défense et de la sécurité nationale (SGDSN) et de la Direction Générale des Entreprises pour :
✅ Analyser les risques systémiques de l’IA
✅ Assurer la fiabilité des modèles et algorithmes
✅ Accompagner la régulation et les entreprises
🔜 Cette initiative s’inscrit dans un mouvement international et précède le Sommet pour l’action sur l’IA qui se tiendra à Paris les 10 et 11 février 2025.
Avec INESIA, la France affirme son ambition : faire de l’IA une technologie de confiance, au service de l’innovation et de la souveraineté nationale.
En savoir plus ➡️https://lnkd.in/ea9yXgjK