IA et Cybersécurité : une catastrophe à venir
Généralisation des LLMs dans les services IT : entre gain de productivité et explosion de la dette technique, une analyse des risques.
Notre prochain webinar
En janvier 2026, Linus Torvalds annonçait son side project AudioNoise. Un petit projet sans ambition qui a beaucoup fait parler de lui parce que le créateur de Linux assumait complètement l’avoir “Vibe Codé”.
Cette adhésion, surprenante pour certains, ne vient pas sans astérisque : Le créateur de Linux a répété à plusieurs reprises que pour le code qui compte vraiment, pour les services critiques, rien ne remplace un développeur expert, et les IA ne sont pas (pour le moment) à la hauteur.
Il n’empêche que l’AI générative est entrée dans les processus de production logicielle, c’est un fait et il n’y aura (probablement?) pas de retour en arrière.
Les LLMs rédigent du code… beaucoup de code.
Cette adhésion généralisée est due à bien des facteurs, mais la raison la plus souvent affichée (ou assumée) est l’impératif de productivité.
Les LLMs auraient un effet multiplicateur sur le travail des développeurs.
Dans cet article, nous vous proposons un panorama de la menace que pose les LLMs sur les services IT, en particulier ceux des entreprises françaises.
L’objectif est d’évaluer le coût réel de cette productivité sous l’angle de la sûreté des systèmes informatiques.
Vibe Coding et augmentation de la dette technique
La dette technique augmente lorsque, pour des raisons de délais et/ou de coûts, la production logicielle ou les choix d’architecture ne s’inscrivent pas dans la durée.
Le vibe coding, qui consiste à s’appuyer intégralement sur un LLM pour créer du code, augmente la dette technique. Plutôt que de penser, concevoir et formaliser les briques logicielles soutenant une application, le développeur donne des instructions et valide ce qu’une machien à produit.
Le code généré n’est pas toujours connu du développeur et il respecte rarement les exigences de qualité de l’entreprise qui le déploie.
Les conséquences concrètes sont nombreuses, mais nous citerons d’abord la difficulté de mettre à jour et appliquer des patchs de sécurité. Le debug et l’audit du code deviennent beaucoup plus coûteux.
Par ailleurs, l’utilisation des LLMs semble impliquer une baisse de productivité pour les développeurs expérimentés.
Mais le plus grave est qu’avec la dette technique, la complexité augmente et une base de code difficile à maintenir devient plus difficile à sécuriser.
Des failles peuvent alors être plus difficiles à détecter ou à corriger, ce qui peut accentuer les risques de sécurité.
Avec la génération de code, les services IT produisent de plus en plus de code, de moins en moins maîtrisé ce qui implique plus de cibles, plus vulnérables.
LLM et biais de confirmation
Une des caractéristiques assez pernicieuse des LLMs est cette tendance à valider l’idée initiale de l’utilisateur.
Comme ce sont des outils très complexes et que la qualité du prompt entre en jeu, il est possible d’obtenir des réponses de meilleure qualité.
Mais dans la majorité des cas, les LLMs plongent leurs utilisateurs dans un confort intellectuel en confirmant les biais, quitte à tordre la réalité pour ce faire.
Et nous ne parlons pas uniquement des répétitions excessives de phrases du type : “Tu as tout à fait raison”, “Ce n’est pas ta faute, la documentation est imprécise”, etc. : les compromis avec la vérité qu’un modèle de langage est prêt à faire pour se conformer aux préconceptions de l’utilisateur pousse souvent le vibe codeur à la faute.
La demande “Peux-tu passer tous les fichiers en mode 777 ?” donnera sans doute lieu à un message rappelant les risques, mais le LLM étant par nature lénifiant, son premier objectif étant la satisfaction émotionnelle de son “interlocuteur”, il trouvera souvent un moyen de justifier des usages que même un adminsys débutant éviterait à tout prix.
Les LLMs, une nouvelle surface d’attaque
Ces applications déployées à moindre coût, s’agrémentent souvent des fonctionnalités reposant sur des LLMs.
Pensez Chatbots, génération et correction de texte ou classification et analyse automatisées.
Ces fonctions ajoutées aux applications permettent, à peu de frais, de répondre aux attentes des utilisateurs, réelles ou supposées.
Mais elles viennent avec leurs enjeux de sécurité spécifiques : jailbreak, prompt injection, model poisoning… Les modes de contournement et de manipulation des LLMs sont nombreux et ces risques sont moins connus et les protections moins matures.
Retenons donc que les LLMs permettent le déploiement de plus d’applications, plus vulnérables, avec des surfaces d’attaque plus large.
Les LLMs facilitateurs des attaques informatiques
Il y a peu, Mitchell Hashimoto publiait le projet Vouch un système de gestion de la confiance pour répondre à un changement structurel auquel font face les projets Open Source : la capaciter à produire du code n’est plus un critère de séléction satisfaisant dans les communautés Open Source.
Avec les IA génératives, n’importe qui peut proposer des modifications ou des ajouts de code. Le nombre de pull requests explose, à tel point que les mainteneurs ne sont plus en mesure d’évaluer la qualité du code.
Nous retrouvons cette disparition de la compétence comme barrière à l’entrée chez les acteurs malveillants, qui utilisent des versions débridées des LLMs pour générer du code à la volée et affiner leurs attaques.
Toutes les opérations facilitées par les LLMs s’appliquent à la malveillance : développer un script, rechercher une faille ou écrire un email de phishing convaincant… Les LLMs aident à augmenter la qualité et la quantité des attaques informatiques.
D’ailleurs, les limites des LLMs sont beaucoup moins problématiques dans ce contexte : La dette technique n’est pas forcément la priorité du pirate moyen.
Donc les LLMs permettent de déployer plus de code, moins bien maintenus offrant une surface d’attaque plus grande, tout en facilitant le déploiement de plus en plus d’attaques plus sophistiquées.
Contacter un expert maintenant
Des géants de l’IA très mal sécurisés
Comme tous les géants du numérique, les principaux fournisseurs de LLMs en mode SaaS sont des cibles privilégiées et ne sont pas exempts d’erreur.
Par nature les LLMs sont des outils fonctionnellement protéiformes. La plupart des usages se font sur le mode du chat mais ils sont utilisés comme un outil de recherche, couplé à un correcteur orthographique, un outil de brainstorming ou un encore, psychologue à peu de frais.
Cela implique que la compromission d’un LLM peut avoir des conséquences dramatiques et difficilement caractérisables sans connaissance des usages.
D’autant plus que cette pluralité fonctionnelle s’accompagne d’une très forte centralisation, les réponses proviennent toujours d’un serveur qui stocke et exploite les données, généralement situé aux États-Unis.
There is no (Open Source) alternative
Chez Bearstech, nous travaillons au quotidien pour des solutions Open Source offrant à nos clients le contrôle de leurs données en leur évitant le lock-in privateur.
On a fait de grands progrès pour proposer des solutions innovantes, sécurisées, libres et accessibles.
Notre offre GitLab en est un exemple : une solution souveraine, hébergée et gérée par vos serviteurs pour un budget très modeste.
Mais pour le moment, il n’existe pas d’alternatives aux géants américains des LLMs.
Le lecteur attentif nous dira que si, il existe pléthore de LLMs Open Source et il aurait raison. Mais le même lecteur pourra consulter l’évolution des coûts du matériel permettant de faire tourner les LLMs de manière satisfaisante. Les coûts du GPU et de la RAM sont devenus prohibitifs. Les LLMs Open Source coutent donc très cher à héberger, alors que les offres gratuites américaines florissent.
Parce qu’ils accaparent les ressources matérielles essentielles, les géants des LLMs rendent les alternatives Open Source difficilement accessibles en production.
TL;DR
Le futur de la cybersécurité a de quoi poser questions :
- Avec l’avènement des LLMs, de plus en plus d’applications, plus ou moins jettables, sont codées par des machines et déployées sans maîtrise réelle des équipes techniques.
- Ces applications exposent une surface d’attaque agrandie par des fonctionnalités basées sur des IA qui présentent de nouveaux risques.
- Cela alors que les attaques informatiques sont plus nombreuses, mieux ciblées et plus accessibles et que les DSI françaises dépendent de plus en plus des géants américains de l’intelligence artificielle.
Nous aimerions vous dire qu’il existe une solution simple, un produit miracle qui libérera de ces contraintes.
Mais notre seule réponse, celle que nous mettons en œuvre depuis plus de 20 ans, repose sur l’expertise et un usage raisonné de la technologie alliés a une démarche devops rigoureuse.
Si vous souhaitez échanger et bénéficier de notre expertise, contactez-nous.
Inscrivez-vous à notre newsletter
Mieux comprendre le monde du DevOps et de l'administration système.
Abonnez-vous à notre newsletterHébergement & Infogérance
- ✓ Service Astreinte 24h/7j/365
- ✓ Supervision, monitoring & Alertes
- ✓ Mises à jour en continu
- ✓ Certificat SSL letsencrypt
- ✓ Hébergement dédié sécurisé en France
- ✓ Backup vers datacenter distant
Cela peut vous intéresser également
Expertise Technologique
Notre équipe possède une vaste expertise technologique.