1. L'IA sera le problème ou la solution ?
Les deux, mon capitaine !
Depuis 2023, une infinité de contenus de piètre qualité, générés par l'IA à coût marginal nul, inondent toutes les plateformes de manière croissante. De plus, on considère de plus en plus ChatGPT et consorts, non plus comme des assistants, mais comme des amis toujours disponibles, qui ne jugent jamais, avec une patience infinie et qui se souviennent de tout ce que vous leur avez confié. Un récent fil de discussion sur Reddit interrogeait les utilisateurs sur les usages qu'ils font de ChatGPT sans jamais l'avouer publiquement. Les réponses sont sidérantes et laissent transparaître beaucoup de mal-être et des difficultés sociales. Il ne s'agit pas d'utilisateurs experts optimisant leur productivité. Ce sont des personnes qui comblent des lacunes autrefois dévolues aux humains, non pas parce que l'IA est meilleure, mais parce que les humains sont devenus trop épuisants, trop peu fiables et trop complexes.
L'IA semble être à la fois le problème et la solution proposée, ce qui la rend particulièrement déroutante. Lire l'excellente analyse de Zak El Fassi : The Halt: Wake Up or Become Machine.
2. L'IA remettra en question notre rapport au savoir, à la certitude
“La vérité, c’est qu’il n’y a pas de vérité.” Pablo Neruda
Derrière cette apparente contradiction se cache une idée fondamentale : nos vérités ne sont que des points de vue, façonnés par notre époque, notre culture, notre éducation. Ce que l’on considère comme indiscutable aujourd’hui pourra paraître absurde demain. Selon une étude de Stanford (2023), 76% des utilisateurs d'IA générative ne vérifient jamais les informations fournies. Nous déléguons notre jugement à une machine qui n'en a pas.
A nous de privilégier toujours la prudence, la lucidité, mais aussi l’humilité face aux dogmes. Car peut-être que le plus grand mensonge, c’est de croire qu’on détient la vérité.
Le futur ne sera pas technologique OU humain. Il sera technologique ET humain. Et le leadership se trouvera dans l'espace entre les deux. L’un des défis majeurs à venir ne sera pas seulement de contrer les menaces visibles, mais de reconstruire des fondations stables à la confiance numérique. Dans ce nouveau régime, la véracité ne peut plus être présumée : elle devra être prouvée, sourcée et contextualisée. Comme dans les domaines scientifiques il faudra un consensus pour établir une vérité basée sur un ensemble de preuves vérifiables. Lire ce post de Michel Sérié L'illusion de vérité est plus dangereuse que l'erreur elle-même.
3. L'IA sera le moteur d’une explosion de la demande énergétique
Comme l’illustre le paradoxe de Jevons, toute amélioration d’efficacité ou baisse de coût tend à élargir les usages, entraînant in fine une augmentation globale de la consommation. À l’origine, l’informatique était réservée à des applications scientifiques ou militaires à forte valeur stratégique. Elle s’est ensuite diffusée vers les usages commerciaux, puis vers le grand public avec les logiciels, les jeux et les loisirs numériques. Aujourd’hui, les ordinateurs constituent l’infrastructure essentielle de l’intelligence artificielle, laquelle génère à son tour une demande inédite en puissance de calcul.
L’intelligence artificielle se distingue profondément des formes traditionnelles de calcul. Elle ne se limite plus à soutenir l’organisation ou l’automatisation de tâches, mais transforme en profondeur les gains de productivité et les usages numériques. L’ampleur et la diversité de ses applications laissent entrevoir une croissance très rapide des besoins informatiques. Si cette trajectoire se confirme, la capacité de calcul pourrait être contrainte par les limites de l’approvisionnement énergétique mondial dans un horizon de trois à quatre ans.
4. L'IA va remplacer vos tâches, pas forcément votre métier
Il y a quelques jours, j'ai vu une publication sur LinkedIn :
“Prédiction : Si votre emploi peut être effectué à distance, l’IA le remplacera.”
Contrairement aux idées reçues, l’IA générative ne rend pas les travailleurs obsolètes, mais transforme leur rôle. À chaque avancée technologique majeure — des compilateurs à l’automatisation du cloud — les outils ont simplifié certaines tâches tout en créant de nouvelles opportunités, renforçant plutôt que diminuant le besoin d’expertise humaine. La capacité à raisonner, comprendre des systèmes complexes et prendre des décisions reste essentielle, et l’IA n’est qu’un instrument qui nécessite un esprit critique et une supervision humaine pour produire des résultats fiables et adaptés aux contraintes réelles.
Les développeurs et les travailleurs plus largement doivent aujourd’hui adopter une posture proche de celle des polymathes de la Renaissance : combiner créativité, curiosité, compétences techniques et compréhension du monde réel. Comme Léonard de Vinci alliait art, science et ingénierie, les développeurs modernes doivent appréhender les systèmes comme des environnements vivants, où chaque changement a des impacts sur les services, les bases de données, l’infrastructure et les utilisateurs. La communication claire, la connaissance du domaine et la responsabilité vis-à-vis de la qualité et de la sécurité deviennent autant de compétences indispensables.
Face aux craintes de remplacement des emplois de cols blancs (les employés de bureau) par des agents IA, les grands acteurs du numérique positionnent leurs solutions non pas comme des substituts directs aux travailleurs, mais comme des outils d’augmentation du travail humain. Google, avec Gemini, intègre l’IA au cœur de Google Workspace (Docs, Gmail, Sheets, Meet) pour assister la rédaction, la synthèse, l’analyse de données et la recherche d’information, tout en laissant la décision finale à l’utilisateur. L’objectif affiché est de réduire la charge cognitive et le temps consacré aux tâches répétitives, afin que les professionnels puissent se concentrer sur des activités à plus forte valeur ajoutée, comme la coordination, la créativité ou la prise de décision.
De leur côté, ChatGPT (OpenAI) et Microsoft adoptent une approche convergente mais plus explicitement organisationnelle. ChatGPT est déployé comme assistant polyvalent — réflexion, aide à la décision, rédaction, programmation — intégré dans les flux de travail existants, tandis que Microsoft, avec Copilot et sa vision de la "Frontier Firm", formalise l’IA comme une nouvelle ressource productive, comparable au capital ou au travail. Cette « commercialisation de l’intelligence » vise à rendre les capacités cognitives accessibles à la demande, à grande échelle, tout en réorganisant le travail autour de la collaboration humain-IA plutôt que de la substitution pure. Dans ces modèles, l’IA devient une infrastructure de soutien : puissante, abondante et standardisée, mais dépendante du discernement, du contexte et de la responsabilité humaine pour produire de la valeur réelle.
En conclusion, l’IA ouvre une nouvelle ère pour tous les métiers, où notre valeur ajoutée sur les tâches spécifiques et notre créativité sont plus importantes que jamais. L’outil ne remplacera pas l’humain : il exige que nous continuons d’apprendre, de résoudre des problèmes complexes et d’intégrer des disciplines variées pour façonner des systèmes robustes et pertinents. C’est une renaissance professionnelle, où la curiosité, la réflexion et l’ingéniosité restent les fondements du succès.
5. Vers une meilleure utilisation des ressources énergétiques ?
Au cours des 50 dernières années, le travail intellectuel a commencé à occuper une place plus importante dans la production humaine. Une réflexion stratégique sur l'organisation du travail et l'environnement physique a considérablement amplifié l'utilisation des ressources1. L'outil ultime pour organiser l'information était l'ordinateur. Il n'est donc pas surprenant que le secteur technologique représente une part conséquente des consommations d'énergie.
Le secteur numérique mondial est constitué de « 34 milliards d’équipements pour 4,1 milliards d’utilisateurs, soit 8 équipements par utilisateur », auxquels s’ajoutent les infrastructures de réseaux et les centres informatiques (data centers), rappelle l'étude de GreenIT2. Le coût du calcul a continuellement diminué au cours du dernier demi-siècle (voir ci-dessous les 120 ans de la loi de Moore).
![]()
La loi de Moore, qui régissait la fabrication de semi-conducteurs sur des plaquettes de silicium, a pris fin après cinquante années de succès qui ont profondément transformé notre monde. Cette fin ouvre la voie à de nombreuses opportunités. On pourra utiliser nos ordinateurs pendant plus longtemps (plus de 10 ans) au lieu de 2 ou 3 ans dans les années 2000. En effet, nous avons tous conscience du changement climatique, du fait qu'il faut réduire rapidement l'empreinte environnementale des activités humaines, y compris celle du numérique.
Dans le domaine du numérique, la majeure partie de l’empreinte environnementale est liée à la phase de fabrication du matériel. C’est à ce moment-là que se concentrent la consommation d’eau, l’extraction de ressources, une forte dépense énergétique et la majorité des émissions de gaz à effet de serre. Cette réalité est d’autant plus marquée en France, où l’électricité utilisée pendant la phase d’usage des ordinateurs est majoritairement bas carbone, issue principalement du nucléaire, puis de l’hydroélectricité et des autres énergies renouvelables.
Je note que les équipements sont plus durables qu'il y a 10 ans, la connectique évolue plus lentement, et par conséquent on est moins poussé à changer tous les deux ans nos machines.
6. Rendre l'innovation compatible avec la réduction de l’empreinte environnementale du numérique
Face à l’arrêt de la loi de Moore pour certaines architectures et à la nécessité de réduire l’empreinte environnementale du numérique, l’innovation ne passe plus nécessairement par l’achat de matériel toujours plus puissant. Il est possible de continuer à innover en exploitant mieux l’existant, principalement grâce à l’optimisation logicielle. De nombreux logiciels, à tous les niveaux des systèmes d’information, souffrent d’inefficacités importantes, souvent liées à la loi de Wirth, selon laquelle les logiciels ralentissent plus vite que le matériel n’accélère3. Des gains spectaculaires sont pourtant observables : des applications ou des systèmes de machine learning peuvent être accélérés de plusieurs ordres de grandeur par de simples améliorations algorithmiques et techniques, sans changement matériel.
Dans cette perspective, la « loi d’erooM » propose un changement de paradigme symétrique à celui de la loi de Moore : investir de manière continue et structurée dans l’optimisation logicielle. En visant, par exemple, un facteur deux d’amélioration tous les deux ans, on libère régulièrement des ressources informatiques jusque-là gaspillées. Ces ressources peuvent alors être réaffectées à de nouveaux usages et de nouvelles applications, sans renouveler le matériel, réduisant ainsi fortement l’empreinte environnementale du numérique. Cette approche favorise également une montée en compétence des développeurs4, qui produisent des logiciels de meilleure qualité et retrouvent un sens et une fierté dans leur travail.
7. Les récits seront toujours considérés comme secondaires par rapport aux faits
Les relations humaines reposent sur l'art de raconter des histoires. Benjamin Ball, qui forme investisseurs et entreprises à la prise de parole en public, a souligné l'importance de raconter une histoire : « Il faut d'abord une histoire, puis l'étayer par des données. La logique et les données seules ne suffisent pas à convaincre.» Ball a cité l'exemple d'une entreprise finlandaise dont le cours de l'action a bondi de 12 % du jour au lendemain grâce à la présentation d'un récit cohérent, sans aucune information nouvelle. Peut-être que la valeur ajoutée du storytelling, combinée aux données, sera enfin comprise en 2026, mais j'en doute.
8. Les gouvernements continuent de privilégier les matières STEM au détriment des sciences sociales
Les gouvernements continueront probablement de privilégier l'enseignement des sciences, des technologies, de l'ingénierie et des mathématiques (STEM) malgré les capacités croissantes de l'intelligence artificielle dans des domaines techniques comme la programmation. Mettre davantage l'accent sur les compétences propres à l'humain, telles que la capacité à créer des récits captivants et à nouer des relations authentiques, permettrait de mieux préparer les étudiants aux environnements de travail automatisés et de réduire le chômage de longue durée.
10. Le besoin d'une pause
Ma dixième et dernière prédiction est que l'on aura, plus que les années précédentes, besoin de périodes de déconnexion après les épreuves et les tribulations de l'année 2025.
Pour lire d'autres prédictions
- Fred Cavazza Mes 10 prédictions pour 2026
- Dr. Werner Vogels Tech predictions for 2026 and beyond