SCOP d'ingénieurs experts du logiciel libre depuis 2004
+33 1 70 61 60 16

Cloud et DevOps : Les enjeux clés à l’horizon 2026

Cet article est un transcript édité de notre webinaire consacré à la prospective 2026. Pour en améliorer la lisibilité, nous avons supprimé les digressions et les “Euh” qui auraient rendu la lecture très pénible.

Notre prochain webinar

Les limites matérielles

C : Rien que le mot cloud laisse croire à une infinité de ressources. En réalité on est en crise sur le matériel : RAM, disques, puces… C’est documenté, entre 50 et 70 % de la production mondiale de mémoire vive devrait être absorbée par les data centers.

O : Oui, on en a fait l’expérience récemment : on a passé deux jours désagréables juste pour sourcer de la RAM et ces derniers jours encore pour trouver des disques.

Les prix augmentent très vite : sur certains disques, on a vu +60 à +70 % en six mois.

Et ce n’est pas juste une hausse normale comme on en a déjà connu. Ce qui change, c’est que les stocks disparaissent.

En tant qu’hébergeur, on achète le matos chez plusieurs fournisseurs pour éviter d’avoir des lots de disques avec des numéros de série qui se suivent, au cas où un lot serait défectueux.

Là, on a constaté que tout le monde était en tension, y compris Amazon. Sur le modèle de disque qu’on cherchait, il en restait trois en stock… On eu de la chance, on en voulait deux.

IA, goulots d’étranglement et modèle économique

O : Le problème, c’est le modèle économique de l’IA actuelle : il repose sur une croissance perpétuelle. Il faut toujours plus de clients, donc toujours plus de puissance.

Mais une barrette de RAM ou un bon disque dur, ce n’est pas trivial à fabriquer. Quand on regarde la chaîne d’approvisionnement, on voit des goulots d’étranglement, surtout du côté taïwanais : une grande partie des puces vient de là et ils ne peuvent pas augmenter la production à l’infini.

Le géant taiwanais des puces a annoncé la construction d’une nouvelle usine, une usine à 13 milliards… Or, une usine à 13Mds ne sort pas de terre en six mois.

Pendant ce temps, les acteurs de l’IA achètent du matériel de manière massive, sous forme d’engagements et d’abonnements : NVIDIA les fournit en priorité, au rythme maximal de production.

Résultat : ils absorbent le marché dès que ça sort et il ne reste plus grand-chose pour les autres.

Et en parallèle, les prix de l’énergie ont déjà explosé, mais ça, on l’a déjà subi et répercuté sur les contrats. Ce qui se passe maintenant, ce n’est plus seulement l’énergie : c’est le goulot d’étranglement matériel.

Si c’était uniquement l’énergie, les prix monteraient, mais on ne verrait pas les stocks se vider à ce point. En 2020, au début de la guerre en Ukraine, on a pris la claque sur l’énergie, mais les stocks de matos ne se sont pas effondrés comme aujourd’hui.
Là, on a la double peine : hausse des prix et risque de rupture de stock.

Et concrètement, si j’ai besoin de 8 To, j’ai besoin de 8 To. Si je peux les acheter, même plus chers, on s’arrange. Si je ne peux plus les acheter, là ça devient réellement problématique : plus de stock, plus de projet.

C’est la fin du "on a qu’à scaler"

O : On répète depuis des années que l’absorption de matériel par l’IA allait poser problème. Ça y est, ça commence.

Pour l’instant, c’est juste cher, mais on risque de vraies ruptures. Imaginez un gros incident type "Strasbourg qui brûle" : l’appel d’air en matériel serait énorme. Si les fournisseurs sont déjà à sec, ça peut avoir des conséquences très sérieuses.

Et ça met surtout fin à l’idée qu’on pourra toujours avoir plus de puissance.

Non. Il va falloir réfléchir autrement.

Nous, on le dit depuis longtemps pour des raisons d’efficacité énergétique, d’écologie, de bonne ingénierie. Maintenant, la main risque d’être forcée par la réalité matérielle.

Croissance exponentielle du matos, progrès limités de l’IA

C : En fait, c’est le principe d’une bulle, la fameuse bulle de l’IA a besoin de croissance sinon elle implose. Pour moi, on a une croissance exponentielle de la consommation matérielle et énergétique, pour une amélioration fonctionnelle plutôt linéaire des IA.

O: C’est pire. On continue à jeter du matos mais elles manquent de data.

Même les chercheurs le reconnaissent : au début, la courbe de consommation de matériel était exponentielle, mais on voyait clairement les progrès des modèles.

Aujourd’hui, on augmente toujours plus la taille des réseaux de neurones et la puissance de calcul, mais les améliorations sont moins flagrantes.

Les datasets sont recyclés, voire générés par les IA elles-mêmes. On se heurte à un mur.

Commercialement, la bulle continue, mais scientifiquement, on atteint les limites du "on met plus de GPU et ça s’améliore magiquement".

Hyperscalers, OVH et autres acteurs

C : Sur les fournisseurs, il faut distinguer :

Les hyperscalers (AWS, Azure, Google) : impact stratégique énorme, gros leviers économiques. Ils peuvent augmenter les prix, pratiquer la shrinkflation, dégrader un peu la qualité sans que ce soit toujours visible.

Des acteurs comme OVH : stratégiques à l’échelle française / européenne, mais avec une marge de manœuvre très réduite, notamment sur le support.

Les petits clouds comme nous : on vend surtout du service, de l’expertise, pas uniquement de la capacité brute. Notre modèle est moins directement indexé au prix de la machine.

O : Les hyperscalers peuvent aussi jouer sur l’emploi : supprimer des postes de support, fermer une filiale, etc. pour récupérer de la marge.

C: OVH ne peut pas faire ça, ils sont déjà au minimum sur le support, avec des équipes débordées. Ça fait partie de notre métier de faire des tickets à OVH et les temps de réponse sont souvent très longs.

O: Et nous, petits acteurs, on est moins dépendants du prix au gigaoctet que ceux dont le business entier repose sur le volume de machines vendues. Mais tout le monde est impacté par la tension sur le matériel.

Disponibilité, Amazon et risques systémiques

O : Si une entreprise a besoin de 8 To demain, elle peut encore aller sur Amazon, allumer un compte, allouer, consommer et rendre les volumes. Mais Amazon a ses propres contraintes de croissance et de renouvellement de matériel.

Le jour où Amazon se retrouve en tension de stock, ils augmenteront leurs prix et toutes les habitudes de développement prises comme si le gigaoctet était infini et pas cher vont faire très mal.

En 2026, la question, c’est : l'approvisionnement d'Amazon est-il garanti ? Entre tensions internationales, dépendance aux puces, pénurie de disques, on ne peut plus faire comme si la réponse était "oui, évidemment".

Ce ne sont pas de nouveaux risques, ce sont les risques habituels mais avec une probabilité qui grimpe parce que tout est plus tendu.

Sécurité IA et LLM comme amplificateurs d’attaques

C : Parlons sécurité. Les LLM changent la donne.

O : Oui, avant les script kiddies devaient au moins comprendre un minimum ce qu’ils faisaient. Maintenant, un LLM peut les aider à écrire ou adapter un exploit sans les connaissances de base.

Ce n’est pas la qualité de l’attaque qui coûte le plus cher, c’est la qualité de la défense. Si la défense est mauvaise, une attaque moyenne suffit.

Pour les pros de la sécu offensive, les LLM sont aussi très utiles : analyse de code plus rapide, aide à repérer des fuites mémoire, etc. Une fuite mémoire, c’est presque toujours un angle d’attaque.

On peut aussi imaginer des agents IA qui scannent en continu les CVE, les plugins vulnérables, les pages web, pour préparer des attaques ciblées. Ça permet de faire en quelques heures un travail qui prenait beaucoup plus de temps.

C : Et côté trafic, on le voit sur notre site : on est passé de 30 000 à 50 000 visites mensuelles en un mois, essentiellement à cause de bots.

On paye pour faire tourner notre site et on paye indirectement pour alimenter les LLM en données.

O : Ce ne sont pas des IA intelligentes au sens SF, ce sont surtout des machines à avaler de la data. Le volume produit par les humains est limité, donc les bots viennent gratter partout, tout le temps.

DDoS, IA et tensions internationales

C : On se demandait si les records de DDoS annoncés par Cloudflare allaient continuer à monter, vu le coût croissant du matériel.

O : Pour moi, ça dépend surtout des tensions internationales, pas du prix du disque dur.
On peut très bien imaginer des campagnes de DDoS régulières, ciblées, pour gêner des infrastructures critiques. Le coût de l’attaque augmentera sans doute, mais les États et certaines organisations auront toujours les moyens.

C : Je pense que les attaques seront pas forcément plus importante en volume, mais plus intelligentes et ciblées, avec des LLM qui aident à catégoriser les cibles, repérer les points faibles, etc.

LLM comme nouvelle surface d’attaque

C : Les LLM créent aussi leurs propres surfaces d’attaque.

O: Oui, fuite de données (data leakage) : entre ce qui est envoyé à des services publics de type ChatGPT et ce qui tourne en interne, il reste le problème de savoir ce qui sort réellement de votre réseau.

Model poisoning : vous téléchargez un modèle sur une plateforme type Hugging Face. Tout le monde peut y publier : OpenAI, Google… mais aussi mon oncle.

Un modèle entrainé peut contenir des comportements malveillants, déclenchés dans certaines conditions.

Jailbreak : quelqu’un parvient, par le prompt, à faire sauter une partie des garde-fous de votre modèle et vous vous retrouvez avec une IA qui fait ou dit des choses que vous n’aviez pas autorisées. Très gênant si vous la fournissez à vos clients.

Bots IA, SEO et nouvelle donne de la visibilité

C : Une autre conséquence : l’effondrement relatif des requêtes directes sur Google est compensé par la hausse des requêtes via les LLM.

Tous ceux qui faisaient du SEO doivent maintenant se demander comment apparaître dans les réponses des IA, ce qui est beaucoup moins transparent et prédictible.

Les guidelines sont floues, les biais sont difficiles à analyser. On passe d’un système déjà complexe à quelque chose de beaucoup plus opaque.

Apprentissage, juniors et vibe coding

Public : Sur la formation et le code généré par IA on voit des stagiaires qui ne manipulent plus les outils, mais enchaînent les prompts dans ChatGPT. Ils produisent du code mais ils n’apprennent pas les bases

C: oui et la dette technique explose

O : Certaines boîtes ont cru qu’elles pourraient remplacer des juniors par des IA. NVIDIA, par exemple, a expérimenté ce genre d’approche… et revient maintenant sur cette idée, en réembauchant des juniors.

Une IA ne progresse pas comme un humain : un stagiaire soutenu plusieurs mois finit par comprendre le contexte, critiquer les choix, proposer mieux. L’IA reste un outil, pas un collègue qui apprend.

Souveraineté numérique, Open Source et État

C : Sur la souveraineté numérique nous avons une dépendance totale et transversale aux américains.

O: En France, en gros, notre matériel est chinois/taïwanais, nos logiciels sont majoritairement américains.

Des grandes entreprises stratégiques ont massivement poussé sur Amazon, on en revient un peu, mais la dépendance reste forte.

C : On voit des démarches positives comme la Suite Numérique, Visio, l’intégration de logiciels libres par l’État pour ses propres usages (visioconférence, bureautique, etc.).

O: C’est une bonne direction, mais il manque un traitement sérieux du sujet financement de l’Open Source. L’Allemagne, par exemple, finance depuis des années des projets Open Source jugés stratégiques, avec des équipes dédiées. La France commence à bouger, mais timidement. Réutiliser des briques Open Source, c’est bien, financer leur pérennité, c’est mieux.

Hébergement souverain en France

C : Sur l’hébergement souverain, la question revient souvent : quelles options ?

En gros : Acteurs locaux / régionaux : bonne solution si les besoins sont raisonnables et bien qualifiés.

Les grands clouds souverains adossés à des hyperscalers américains (AWS, Azure, Google) posent question : dépendance financière et technologique évidente, même si juridiquement ils essaient de bricoler.

O: Pour beaucoup de cas d’usage, travailler avec un hébergeur local sérieux suffit à répondre aux besoins de souveraineté.

C: L’un des problèmes, c’est la prédation des hyperscalers, qui captent le marché, les capitaux, l’attention politique et deviennent des single points of failure internationaux. D’autant plus quand ceux-ci proposent des offres "souveraines" …

2026 : la fin de l’illusion "on scale et on verra"

Pour résumer notre tournant 2026 :

L’optimisation et l’efficacité ne seront plus du nice to have mais du must have.

Les coûts en énergie et en matériel vont forcer à coder mieux, à structurer l’infra correctement, à réfléchir aux données qu’on garde.

Le "ce n’est pas grave, on mettra plus de machines" ne sera plus tenable, ni pour le porte-monnaie, ni pour l’approvisionnement.

On espérait une prise de conscience écologique, on va probablement avoir une prise de conscience forcée par la pénurie et les prix.

Quelques lectures complémentaires :


Cédric Laitner

Inscrivez-vous à notre newsletter

Mieux comprendre le monde du DevOps et de l'administration système.

Abonnez-vous à notre newsletter

Hébergement & Infogérance

  • ✓ Service Astreinte 24h/7j/365
  • ✓ Supervision, monitoring & Alertes
  • ✓ Mises à jour en continu
  • ✓ Certificat SSL letsencrypt
  • ✓ Hébergement dédié sécurisé en France
  • ✓ Backup vers datacenter distant
Découvrir notre offre

Cela peut vous intéresser également

Expertise Technologique

Notre équipe possède une vaste expertise technologique.