Parole d'experts : cap sur 2026, année de la modernisation anticipée pour les DSI
Interview croisée entre Damien Delavie, Directeur du développement des activités cloud et Arnaud Gautier, Directeur de la stratégie et de l’offre Cloud & Infrastructures d’adista groupe inherent.
L’année 2025 aura été marquée par deux mouvements contradictoires. D’un côté, une effervescence sans précédent autour de l’intelligence artificielle, devenue omniprésente dans les discours stratégiques et les feuilles de route IT. De l’autre, une réalité beaucoup plus rugueuse pour les directions des systèmes d’information : des infrastructures parfois éloignées des standards actuels, des budgets sous tension, des exigences réglementaires renforcées notamment en matière de cybersécurité.
À l’aube de 2026, Damien Delavie et Arnaud Gautier défendent une ligne claire et pragmatique : avant d’accélérer sur l’innovation, il faut remettre les fondations à l’état de l’art. Dans cet entretien, ils fixent le cap pour 2026 : moderniser le cœur du SI pour gagner en robustesse et en maîtrise des coûts, piloter plus finement la dépense avec le FinOps, mettre en place un cloud hybride adapté aux contraintes réelles des organisations, structurer la cybersécurité sous l’effet de NIS2, et surtout faire de la résilience et de la souveraineté des piliers de la stratégie IT.
Les DSI évoluent dans un environnement économique incertain. Comment cela influence-t-il leurs priorités ?
Damien Delavie : Les DSI affrontent aujourd’hui une réalité assez paradoxale. D’un côté, les métiers exigent toujours plus d’agilité, de disponibilité, de rapidité d’exécution. De l’autre, les budgets ne suivent pas la même courbe, et l’on observe même un resserrement des enveloppes dans de nombreux secteurs et des coûts à la hausse (matériels et licences). Cela oblige les directions IT à optimiser leurs arbitrages.
Dans ce contexte, la modernisation du SI devient un passage obligé. Les infrastructures coûtent cher, tant en exploitation qu’en maintenance, et leur obsolescence technique génère des risques considérables. À moyen terme, ne pas moderniser revient plus cher que de planifier une transformation progressive. C’est une équation que les DSI ont parfaitement intégré : elles ne peuvent plus se permettre de porter un SI fragilisé par le temps, qui dilue les ressources et limite leur capacité à soutenir les enjeux stratégiques de l’entreprise.
Arnaud Gautier : J’ajouterais que cette situation révèle surtout un problème de priorisation et de structuration de l’offre IT. Trop souvent, les DSI subissent leur patrimoine applicatif et infrastructurel au lieu de le piloter comme un actif stratégique, lisible et gouverné.
La modernisation n’est donc pas un projet périphérique : c’est un levier de reprise de contrôle sur les coûts, les usages et les trajectoires. En repensant le socle et les offres de manière cohérente, chez nos clients, on contribue à réduire la dette technique, on clarifie leurs arbitrages, et on redonne aux équipes IT la capacité de construire dans la durée, plutôt que de gérer l’urgence.
L’année 2025 a été marquée par un engouement massif pour l’IA. Quels enseignements en tirez-vous ?
Damien Delavie : L’IA a effectivement occupé une place considérable dans les débats et les ambitions des entreprises tout au long de l’année 2025. Trois ans après son arrivée massive dans les feuilles de route IT, on observe une entrée progressive dans des phases plus concrètes de mise en œuvre. Pour autant, un grand nombre de projets peinent encore à dépasser le stade du prototype ou de l’expérimentation, faute de fondations suffisamment solides pour être industrialisés.
Les retours du terrain sont assez clairs : les projets qui avancent sont ceux qui reposent sur une identification précise des cas d’usage, étroitement liés à des enjeux métiers mesurables. À cela s’ajoute un facteur déterminant, souvent sous-estimé au départ : la qualité des données. Sans données fiables, structurées et gouvernées, les phases d’apprentissage deviennent rapidement inefficaces, voire contre-productives. L’IA ne corrige pas un déficit de qualité de la donnée, elle le met en évidence.
Arnaud Gautier : Une fois les cas d’usage clarifiés et les données maîtrisées, les organisations se heurtent rapidement à des questions très concrètes de passage à l’échelle. La structuration et l’entraînement des modèles posent alors des enjeux forts en matière d’architecture, de sécurité et de maîtrise des environnements, en particulier pour les données sensibles ou stratégiques.
Dans ce contexte, les choix d’hébergement deviennent structurants. L’usage du GPUaaS se développe fortement, mais de plus en plus de clients s’interrogent sur l’opportunité d’héberger leurs propres infrastructures IA. Cette option suppose des capacités d’hébergement haute densité et, surtout, une capacité à suivre le rythme très rapide d’évolution des technologies de calcul – GPU, TPU ou architectures spécialisées – dont les cycles d’innovation rendent certains investissements rapidement obsolètes.
Beaucoup s’interrogent alors sur la pertinence de rester propriétaires de l’infrastructure, plutôt que de devenir consommateurs d’usages IA souverains, hébergés dans des environnements maîtrisés, sans avoir à porter directement la complexité et l’obsolescence de l’infrastructure sous-jacente.
L’IA rappelle ainsi une évidence : la valeur est bien là, mais sans un socle technologique modernisé, maîtrisé et évolutif, elle reste exposée, difficile à sécuriser et à faire durer, quel que soit le modèle d’hébergement retenu.
Pourquoi l’obsolescence du système d’information est-elle un sujet si critique ?
Damien Delavie : Le cœur du SI concentre à lui seul la majorité des risques et des coûts cachés. De nombreux ERP approchent de leur fin de vie ou ne sont plus alignés avec les exigences actuelles de performance, de conformité ou de modularité. Les fonctions Finance et Opérations, essentielles pour piloter l’entreprise, s’appuient parfois sur des systèmes qui ne sont plus en mesure d’absorber les évolutions réglementaires, les volumes de données ou l’intégration de l’IA. Les gains de productivité se retrouvent contraints.
Arnaud Gautier : L’obsolescence devient critique lorsqu’elle ne concerne plus seulement des briques technologiques, mais la capacité même du système d’information à être piloté. Un SI vieillissant tend à se fragmenter, à accumuler des exceptions et des traitements spécifiques, jusqu’à perdre toute lisibilité globale.
A partir de là, chaque évolution devient plus longue, plus coûteuse et plus risquée. Les choix se font au coup par coup, sans cadre structurant, et l’IT se retrouve enfermée dans une logique de réaction permanente. Ce n’est plus seulement un problème technique, mais un problème d’offre : lorsque le socle n’est plus cohérent, il devient impossible de proposer des services clairs, standardisés et évolutifs aux métiers.
La réponse ne consiste pas à tout remplacer, mais à redonner de la structure et de la cohérence à l’ensemble. C’est précisément là que la capacité à croiser les expertises infrastructures, cloud, cybersécurité, etc. prend tout son sens : en travaillant de manière transverse, sans traiter les sujets en silos, on peut bâtir des trajectoires de modernisation appuyées sur des offres et des plateformes lisibles. Cela permet aux organisations de reprendre la main sur leur SI et de transformer progressivement l’IT en un levier durable, plutôt qu’en une contrainte subie.
Où se situe le cloud dans cette stratégie de modernisation ?
Arnaud Gautier : Le cloud occupe une place centrale dans la stratégie de modernisation, mais à condition d’être abordé comme un cadre structurant, et non comme une réponse universelle. Il n’a de valeur que s’il est mis au service des usages, des contraintes opérationnelles et des objectifs économiques des organisations.
Dans les faits, les besoins sont très hétérogènes. Certaines applications critiques nécessitent des environnements privés ou souverains, d’autres tirent pleinement parti de la flexibilité du cloud public. C’est cette diversité qui rend le modèle hybride incontournable. Mais l’hybride ne doit pas être une juxtaposition d’environnements : il doit s’appuyer sur des offres claires, des plateformes cohérentes et une gouvernance unifiée.
C’est précisément dans ce cadre que l’approche du Groupe inherent prend tout son sens. En croisant toutes nos expertises, on peut structurer des offres Cloud & d’Infrastructures cohérentes, capables d’accompagner les organisations dans le temps. Le cloud devient alors un levier de transformation progressive, pilotée et sécurisée, plutôt qu’un empilement de choix tactiques.
Comment le FinOps s’intègre-t-il à cette transformation ?
Damien Delavie : Le FinOps est devenu indispensable, car le cloud, mal gouverné, peut générer des coûts très difficiles à anticiper. Mais il serait réducteur de limiter le FinOps à un exercice d’optimisation tarifaire. Il s’agit plutôt d’une culture, d’une manière d’aborder la consommation IT, qu’elle soit dans le cloud public, dans un cloud privé ou dans un datacenter interne.
Les DSI ont besoin de visibilité, d’outils de pilotage, d’une gouvernance claire et d’une capacité à projeter leurs dépenses. Dans un contexte économique contraint, cette discipline prend encore plus d’importance. Et elle va de pair avec la modernisation : plus un SI est rationalisé, automatisé, standardisé, plus il est prévisible financièrement. Le FinOps permet alors non seulement de réduire les coûts, mais aussi d’orienter les investissements vers les chantiers qui apportent vraiment de la valeur. L’idéal étant de maitriser sa structure financière afin de libérer des ressources au profit des métiers, des gains de productivité et de libération des tâches peu génératrices de valeur, notamment grâce à l’IA.
Comment voyez-vous le développement du cloud native dans les organisations françaises ?
Arnaud Gautier : Le cloud native représente un levier puissant en matière d’agilité, de résilience et de capacité d’évolution des applications. Mais c’est un modèle exigeant, qui suppose un certain niveau de maturité, tant sur le plan technique qu’organisationnel.
Beaucoup d’organisations sont encore freinées par leur dette applicative, par des architectures historiques peu modulaires ou par un manque d’automatisation. Dans ces conditions, chercher à basculer massivement vers des approches cloud native peut s’avérer contre-productif. Le risque est de déplacer la complexité sans réellement la traiter.
A l’inverse, pour les organisations qui ont engagé un travail de structuration de leur offre IT et de modernisation progressive de leurs plateformes, le cloud native devient un véritable accélérateur. Il permet de concevoir des applications plus sobres, plus évolutives et plus faciles à exploiter. Là encore, l’enjeu n’est pas de suivre un modèle unique, mais de s’inscrire dans une trajectoire réaliste, alignée avec les usages et le niveau de maturité de chaque organisation.
L’autre grand sujet de 2025 a été la cybersécurité, avec l’arrivée de NIS2. Quel impact observez-vous auprès des DSI ?
Damien Delavie : La directive NIS2 a un effet de loupe sur l’état de maturité des organisations. Les plus structurées, notamment les grands groupes, avaient déjà entamé des démarches de mise en conformité qui les rendent aujourd’hui mieux armés, notamment au travers de la certification ISO 27001. En revanche, une majorité d’ETI découvrent encore l’ampleur du sujet : obligations de moyens renforcées, responsabilité explicite des dirigeants, reporting d’incidents très strict, sanctions financières.
Arnaud Gautier : NIS2 agit comme un véritable catalyseur, car elle oblige les organisations à changer de posture. On ne parle plus d’une accumulation de solutions de sécurité déployées au fil du temps, mais d’un dispositif structuré, documenté et piloté, intégré au cœur même du système d’information.
Concrètement, cela pousse les DSI à revoir leurs architectures, leurs modes d’exploitation et leurs responsabilités. La cybersécurité ne peut plus être traitée comme une couche ajoutée a posteriori : elle doit être pensée dès la conception des offres Cloud & d’Infrastructures, en lien avec les enjeux de résilience, de continuité d’activité et de souveraineté.
Avec NIS2, la cybersécurité cesse d’être un sujet périphérique pour devenir un critère de conception des offres Cloud & d’Infrastructures. Les organisations ne peuvent plus dissocier protection, exploitation et reprise : c’est l’architecture globale qui fait le niveau de sécurité réel, et non l’addition de solutions spécialisées.
Beaucoup d’entreprises renforcent leur cybersécurité, mais restent sur une posture défensive. Faut-il aller plus loin ?
Damien Delavie : La prise de conscience autour de la cybersécurité est une excellente chose, et 2025 a clairement marqué un tournant dans la sensibilisation comme dans les investissements. Mais nous observons encore une limite importante : beaucoup d’organisations restent concentrées sur une posture essentiellement défensive, sans aller jusqu’au bout de la logique de résilience. Autrement dit, la question n’est plus seulement d’empêcher l’incident, mais de savoir ce qui se passe lorsqu’il survient malgré tout.
Arnaud Gautier : Oui, il faut aller plus loin, mais pas en ajoutant de nouvelles couches défensives. Aller plus loin signifie changer de référentiel : passer d’une logique centrée sur la prévention à une approche orientée continuité d’activité.
Cela suppose de concevoir le système d’information autour de scénarios de continuité concrets. Les capacités de reprise, d’isolation, de restauration ou de bascule ne sont pas des dispositifs annexes : elles doivent être intégrées nativement aux architectures Cloud & d’Infrastructures et aux offres qui les portent.
C’est à ce niveau que se joue aujourd’hui la maturité. Non pas dans la multiplication des outils de sécurité, mais dans la capacité à absorber un choc et à reprendre rapidement l’activité. La résilience devient alors un critère structurant des choix d’architecture et un pilier de la performance opérationnelle.
La question de la résilience renvoie aussi à celle de la localisation des données et de la souveraineté. Est-ce devenu un critère structurant pour les organisations ?
Damien Delavie : Très clairement, oui. La résilience ne se décrète pas, elle se construit à partir de choix d’architecture très concrets, et la localisation des infrastructures en fait pleinement partie. Lorsqu’un incident majeur survient, cyberattaque, défaillance technique, crise géopolitique, la capacité à reprendre rapidement l’activité dépend directement de la maîtrise de ses environnements, de leur accessibilité et de leur indépendance. Les datacenters de proximité jouent ici un rôle clé : ils permettent de garantir la continuité d’activité, de réduire les dépendances critiques et de garder un contrôle réel sur les données et les systèmes.
Disposer d’infrastructures hébergées en France, réparties sur le territoire, change profondément la manière de concevoir les plans de reprise. Cela permet de bâtir des scénarios crédibles, testables, avec des latences maîtrisées et une véritable autonomie opérationnelle. On sort d’une approche théorique de la résilience pour entrer dans quelque chose de très opérationnel, où l’on sait où sont les données, comment elles sont protégées, et dans quels délais les services peuvent redémarrer.
Cette logique s’inscrit pleinement dans les démarches de cloud souverain, y compris à l’échelle régionale. Le projet de cloud souverain porté par la région Grand Est en est une illustration concrète : il vise à sécuriser des données publiques et sensibles tout en garantissant leur hébergement et leur exploitation sur le territoire. adista s’est engagé aux côtés d’autres acteurs dans ce projet avec une conviction forte : la souveraineté numérique ne se joue pas uniquement à l’échelle nationale ou européenne, mais aussi au plus près des usages, des administrations et des entreprises locales. Cette approche territoriale renforce la capacité des organisations à isoler les incidents et à redémarrer sans dépendre d’acteurs extra-européens.
Arnaud Gautier : Oui, clairement. Mais la souveraineté n’est plus seulement un sujet de localisation des données. Elle est devenue un critère structurant, car elle influence directement les choix d’architecture, les modes d’exploitation et, in fine, la capacité des systèmes d’information à rester sécurisés et résilients.
Dans des architectures hybrides et distribuées, la question n’est plus uniquement de savoir où sont hébergées les données, mais qui maîtrise les environnements, les accès, les opérations et les dépendances technologiques. En situation de crise (cyberattaque, incident majeur, rupture d’un fournisseur) cette maîtrise fait toute la différence entre une organisation capable de reprendre rapidement et une organisation dépendante de décisions ou d’acteurs externes.
C’est à ce niveau que souveraineté et sécurité se rejoignent. Réduire la surface d’exposition, garantir une chaîne de confiance claire, maîtriser les conditions d’exploitation et de reprise deviennent des éléments structurants des choix de solutions Cloud & d’Infrastructures. La souveraineté n’est plus une posture idéologique, mais une condition opérationnelle de la résilience.
Cette exigence se traduit concrètement dans les trajectoires d’offres. L’entrée d’Adista dans le processus de qualification SecNumCloud, avec l’obtention en décembre 2025 du jalon J0 auprès de l’ANSSI pour son offre IaaS « adista secure cloud », illustre cette évolution. Ce cadre impose un haut niveau d’exigence sur la gouvernance, l’exploitation, la sécurité et la chaîne de confiance, bien au-delà de la seule question de l’hébergement des données. Il donne une réalité opérationnelle à la souveraineté, au service de la sécurité et de la continuité d’activité.
Le développement de datacenters de proximité répond à des enjeux de souveraineté et de résilience. Mais ces infrastructures ont aussi un impact environnemental. Comment concilier les deux ?
Damien Delavie : C’est une question essentielle, et il serait irresponsable de l’éluder. Oui, les datacenters se multiplient, et non, cela n’est pas sans impact environnemental. Un datacenter consomme de l’énergie, mobilise des ressources et s’inscrit durablement dans un territoire. La vraie question n’est donc pas de savoir s’il faut ou non des datacenters de proximité, mais comment les concevoir, les exploiter et les inscrire dans une trajectoire de sobriété numérique.
Les datacenters de proximité présentent toutefois un avantage souvent sous-estimé : en rapprochant l’infrastructure des usages, ils permettent de réduire certaines inefficiences structurelles, notamment liées aux latences, aux flux de données inutiles ou aux architectures surdimensionnées. Lorsqu’ils sont bien pensés, ils favorisent une meilleure adéquation entre les besoins réels des organisations et les ressources mobilisées, ce qui est un levier important de réduction de l’empreinte globale du numérique.
Arnaud Gautier : La conciliation entre souveraineté, résilience et impact environnemental ne se joue pas uniquement dans la performance énergétique des datacenters, même si elle est essentielle. Elle se joue d’abord dans la manière dont les systèmes d’information sont conçus, rationalisés et exploités.
Les datacenters de proximité du Groupe inherent s’inscrivent dans cette logique. Ils constituent un socle maîtrisé, opéré localement, qui permet de réduire certaines dépendances critiques et de bâtir des scénarios de résilience crédibles. Leur exploitation s’inscrit par ailleurs dans une démarche d’amélioration continue : efficacité énergétique, optimisation des systèmes de refroidissement, choix d’implantations raisonnées, modernisation régulière des équipements et pilotage fin de la consommation.
Mais l’impact environnemental ne se joue pas uniquement au niveau de l’infrastructure. Des architectures hétérogènes ou surdimensionnées génèrent mécaniquement des consommations inutiles, y compris dans des datacenters performants. A l’inverse, des offres Cloud & d’Infrastructures structurées, appuyées sur des plateformes cohérentes et des datacenters maîtrisés, permettent d’ajuster plus finement les ressources aux usages réels et de limiter la prolifération des environnements.
C’est en travaillant conjointement l’architecture, l’offre et les modes d’exploitation – et en s’appuyant sur des datacenters conçus et opérés dans une logique de sobriété – que l’on peut concilier durablement exigences de souveraineté, de résilience et de responsabilité environnementale.
Quel vœu faites-vous pour les entreprises en 2026 ?
Damien Delavie : Que les entreprises abordent la modernisation avec davantage d’anticipation et de sérénité. Après plusieurs années marquées par les urgences, incidents, ruptures technologiques, échéances réglementaires, beaucoup ont désormais une vision plus claire de leurs priorités et de leurs leviers d’action. L’enjeu est de transformer cette prise de conscience en trajectoires maîtrisées, pensées dans le temps, plutôt qu’en réponses contraintes.
Cela passe par des choix structurants et durables : investir dans des fondations solides, des infrastructures modernisées, des architectures résilientes, des plans de reprise réellement opérationnels, et des modèles cloud alignés sur les usages réels, les contraintes économiques et les enjeux de souveraineté. Intégrer la dimension environnementale dans ces décisions devient également un facteur de performance à part entière, en rationalisant les infrastructures et en pilotant leur cycle de vie.
Arnaud Gautier : Mon vœu est que les entreprises retrouvent une capacité de décision claire sur leur système d’information. Trop souvent, les choix IT sont contraints par l’existant, par des dépendances accumulées ou par une offre devenue illisible.
En 2026, la différence se fera sur la capacité à arbitrer sereinement entre les usages, les modèles technologiques et les niveaux de service, sans subir l’inertie du passé. Cela suppose des offres Cloud & d’Infrastructures suffisamment structurées pour permettre des choix éclairés, réversibles et pilotables.
Ce n’est pas la technologie qui fera la performance durable, mais la capacité à la maîtriser dans le temps.


