Vue lecture

Zero Touch, blueprints, automatisation, la nouvelle gestion IT de 2026

L’ancien temps est révolu. Celui où vous deviez configurer indépendamment chaque brique de votre infrastructure, effectuer manuellement le déploiement de vos environnements, et gérer jour après jour le cycle de vie de vos machines. Place à une gestion beaucoup plus agile et automatisée avec Dell Automation Platform (DAP) et Dell Private Cloud (DPC).

Le portail : Zero Touch Onboarding

Mettons-nous en situation pour comprendre concrètement à quoi ressemble le quotidien d’un administrateur dans ce nouveau modèle de gestion IT. Imaginons que vous souhaitiez déployer une infrastructure de cloud privé, mêlant des environnements VMware, pour héberger vos applications existantes, et des clusters OpenShift pour les applications cloud natives.

Vous avez commandé les serveurs Dell PowerEdge et les baies Dell PowerStore dont vous aviez besoin, puisque rappelons-le, l’approche composable vous permet de déployer indépendamment des ressources de calcul ou de stockage pour être au plus proche de vos exigences réelles. Lorsque vos équipements arrivent, vous les connectez à votre réseau… et c’est à peu près tout.

Il vous suffit ensuite d’accéder au portail Dell Automation Platform pour découvrir que vos nouveaux équipements ont été automatiquement onboardés. Le portail est le plan de contrôle qui va donner toute la visibilité sur l’inventaire matériel, l’état de santé des composants et la conformité du parc. Vous n’avez plus qu’à les assigner à l’orchestrateur pour que leurs ressources rejoignent le pool global et puissent être automatiquement allouées à vos futurs workloads. Bienvenue dans le Zero Touch Onboarding.

Le catalogue : des blueprints prêts à l’emploi

Vos ressources sont prêtes à être consommées. Dell Private Cloud lui, est prêt à entrer en jeu. Car c’est ici que l’intégration des deux solutions va apporter toute sa valeur. Dell Private Cloud va proposer un catalogue de « blueprints », c’est-à-dire un ensemble de fichiers YAML/Python basés sur le standard TOSCA (Topology and Orchestration Specification for Cloud Applications) qui décrit la topologie (serveurs, stockage, réseau, hyperviseur, etc.), les dépendances et les paramètres nécessaires.

Des blueprints existent pour déployer un cloud privé, des infrastructures IA ou encore des environnements Edge. Il est également possible de créer ses propres blueprints. Dans notre cas, vous allez pouvoir rattacher vos licences dans DAP, puis sélectionner les blueprints « Dell Private Cloud deploying VMware » et « Dell Private Cloud deploying Red Hat OpenShift », et laisser DAP faire le reste.

L’orchestrateur : des dizaines d’étapes manuelles automatisées en quelques minutes

Une fois le blueprint sélectionné dans l’interface de DPC, c’est l’orchestrateur de DAP qui entre en scène en arrière-plan. L’orchestrateur constitue le plan de gestion et va exécuter le scénario de déploiement complet décrit dans le blueprint. Par exemple : création d’un cluster vSphere sur PowerEdge, configuration du stockage Dell, mapping des LUN, intégration aux outils de management, etc. Il élimine ainsi le risque d’erreur humaine et remplace des dizaines d’étapes manuelles par un workflow unique et automatisé, déroulé en seulement quelques minutes.

Mais son rôle ne s’arrête pas là : il assure également la gestion du « Jour 2 ». Si une mise à jour de firmware est nécessaire ou si vous devez étendre votre cluster, l’orchestrateur pilote l’opération en toute transparence, garantissant que votre infrastructure reste toujours performante et sécurisée.

Plein cap sur l’après HCI

Dell Automation Platform et Dell Private Cloud sont donc les deux piliers de la nouvelle infrastructure composable qui vient bousculer l’hyperconvergence. Ensemble, les deux logiciels vont permettre aux entreprises de considérablement simplifier et accélérer la modernisation de leur IT, en automatisant les opérations de déploiement, de configuration et de gestion.

Mais ils vont en plus garantir la pérennité des investissements. Grâce à l’agnosticité vis‑à‑vis des systèmes d’exploitation et hyperviseurs tiers, qui évite tout verrouillage technologique, la même infrastructure Dell PowerEdge peut être réutilisée et accueillir de nouvelles images au fil du temps. C’est une nouvelle ère qui commence en 2026.

The post Zero Touch, blueprints, automatisation, la nouvelle gestion IT de 2026 appeared first on Silicon.fr.

  •  

Infrastructure composable : la revanche du 3-tiers sur le HCI ?

Il y a dix ans, l’hyperconvergence (ou HCI, pour HyperConverged Infrastructure) bousculait les codes du datacenter. En fusionnant le calcul et le stockage au sein d’une même plateforme, des solutions comme Dell VxRail ont tenu une promesse forte : briser les silos historiques de l’architecture 3-tiers traditionnelle.

Cette architecture a séduit par sa simplicité d’administration et son déploiement rapide. Pour beaucoup d’entreprises, l’hyperconvergence était la réponse idéale à la complexité de gestion des environnements virtualisés. Mais en 2026, l’intégration monolithique qui faisait la force du HCI commence à montrer des limites face aux nouveaux enjeux des entreprises

Objectifs 2026 : réduire la dépendance et les coûts

Le paysage IT a changé ces dernières années et pousse les DSI à réévaluer la pertinence du modèle HCI. Ces derniers souhaitent en premier lieu se libérer du « vendor lock-in », autrement dit, de la dépendance à un fournisseur, qui peut être importante dans un environnement hyperconvergé qui impose un hyperviseur spécifique. Les évolutions récentes des modèles de souscription logicielle ont mis en exergue cette problématique : l’augmentation des coûts de licence « au cœur » ou « au processeur » amène les entreprises à optimiser le nombre de serveurs physiques pour réduire leur facture logicielle.

L’autre enjeu majeur est le besoin croissant d’agilité. L’évolutivité de l’hyperconvergence est basée sur un modèle scale-out, qui consiste à ajouter des nœuds additionnels lorsque les besoins augmentent. Ce qui revient donc à augmenter simultanément les capacités de calcul et de stockage. À l’ère de l’IA et des Data Lakes, les besoins en stockage croissent souvent beaucoup plus vite que les besoins en puissance de calcul. Le résultat peut être un surprovisionnement coûteux pour l’entreprise. L’arrivée massive des containers et des charges de travail gourmandes en GPU renforce également la nécessité d’une infrastructure plus modulaire que ce que permettent les clusters HCI actuels.

L’évolutivité du 3-tiers et la simplicité du HCI (sans les coûts)

Le 3 tiers d’hier est-il donc redevenu la bonne solution d’aujourd’hui ? Pas tout à fait. Car en cassant les silos IT, l’hyperconvergence a apporté une simplicité de gestion des différentes briques qu’il est crucial de conserver. C’est ici que l’infrastructure composable entre en jeu, en proposant une architecture de cloud privé, qui sépare physiquement les ressources, comme dans le modèle 3-tiers, mais conserve une couche logicielle d’orchestration et d’automatisation, comme avec l’hyperconvergence.

Cette couche logicielle, incarnée par Dell Automation Platform (DAP), va donc offrir la même simplicité de gestion « en un clic » que le HCI, mais sur des composants que l’on peut faire évoluer indépendamment. L’ensemble des ressources sont ensuite réunies dans un pool logique unique qui permet à l’administrateur de composer à la demande l’infrastructure dont il a besoin. Et pour simplifier le déploiement, il peut sélectionner dans un catalogue des « blueprints », c’est-à-dire des environnements déjà testés et préconfigurés, pour l’IA par exemple, mais aussi créer ses propres blueprints, afin d’automatiser le déploiement d’environnements pensés spécifiquement pour ses besoins

VMware et OpenShift : deux mondes, une seule infrastructure

Cette infrastructure composable (on parle aussi parfois de d’infrastructure « désagrégée ») présente trois bénéfices majeurs par rapport à l’hyperconvergence. D’abord, elle offre une plus grande granularité en permettant d’ajuster indépendamment la puissance de calcul et la capacité de stockage, ce qui élimine le surprovisionnement et garantit une plus grande adéquation entre les investissements et les besoins.

Autre point fort, cette approche est totalement agnostique et permet de faire cohabiter machines virtuelles, conteneurs ou serveurs bare metal. Avec une infrastructure composable, vous pouvez connecter une seule baie de stockage de type Dell PowerStore, à dix serveurs Dell PowerEdge différents, dont cinq tournent sous VMware et cinq autres sous Red Hat OpenShift par exemple, le tout piloté par la console unique de DAP.

Moins de serveurs, moins de licences, donc moins de coûts. En associant granularité et agnosticisme, l’infrastructure composable génère d’importantes économies. D’après une étude réalisée par le cabinet Principled Technologies, une infrastructure composable permet de réduire le TCO de plus de 20 % sur 5 ans par rapport au HCI. Une belle revanche !

The post Infrastructure composable : la revanche du 3-tiers sur le HCI ? appeared first on Silicon.fr.

  •  
❌