Vue normale

Vinci Airports s’appuie sur l’IA et Google Cloud pour piloter la performance de ses 70 aéroports

16 mars 2026 à 16:22

Gérer 70 aéroports répartis dans 14 pays, accueillir 320 millions de passagers par an et générer 4,5 milliards € de revenus : le défi opérationnel de Vinci Airports est à la mesure de son empreinte mondiale.

Le groupe a engagé une transformation data et IA d’envergure, en s’appuyant sur Google Cloud Platform.

Une dépendance à la maîtrise des flux

Le modèle de Vinci Airports repose sur deux piliers : les redevances aéronautiques, qui représentent environ 50 % des recettes, et les revenus commerciaux générés par les dépenses des passagers (duty-free, restauration, parkings), qui en constituent 30 à 40 %.

Cette structure impose d’anticiper avec précision les flux de passagers. De cette capacité prédictive découlent en cascade le dimensionnement des équipes, le calibrage de l’offre commerciale, les projections financières et la stratégie d’investissement.

La difficulté résidait dans l’extrême hétérogénéité du réseau. Chaque aéroport dispose de ses propres systèmes informatiques, de ses contraintes locales et de ses spécificités opérationnelles. Les données étaient dispersées, non standardisées et cloisonnées.

Une Data Factory pour fédérer les données du réseau

C’est pour répondre à ce défi que Vinci Airports a lancé, en 2023, la construction d’une Data Factory globale hébergée sur Google Cloud Platform.

Cette infrastructure centralise la collecte de données issues de systèmes hétérogènes dans 14 pays, automatise les contrôles de qualité et harmonise les structures de données pour permettre des comparaisons fiables entre les plateformes.

L’architecture retenue s’appuie sur les briques éprouvées de Google Cloud : BigQuery pour le stockage et l’analyse de données massives, Vertex AI pour l’entraînement et le déploiement des modèles prédictifs, Cloud Run et Streamlit pour mettre à disposition des interfaces métier accessibles, Cloud Storage pour la gestion centralisée des modèles et Cloud Build pour l’intégration continue.

Ce choix architectural permet aux aéroports de conserver leurs outils locaux tout en exposant leurs données dans un référentiel commun, où elles sont nettoyées, structurées et exploitables pour alimenter des tableaux de bord, des analyses et des modèles d’IA.

Trois cas d’usage au cœur de la transformation

Le premier et principal cas d’usage porte sur la prédiction du trafic de passagers. Des modèles prédictifs multi-échelles ont été conçus pour répondre aux besoins de chaque niveau de management : projections annuelles pour la direction générale, vues hebdomadaires ou journalières pour les équipes opérationnelles, et analyses localisées par aéroport. Ces modèles croisent l’historique de trafic, des variables exogènes et des signaux faibles pour simuler des trajectoires et optimiser les arbitrages.

Le deuxième axe concerne l’efficacité opérationnelle. En analysant les cartes d’embarquement scannées, il est désormais possible d’anticiper les arrivées aux postes de sécurité. Croisées avec les capacités de traitement des files, ces données permettent d’ajuster les effectifs en temps réel, avec pour objectif de maintenir les temps d’attente sous les dix minutes.

Le troisième cas d’usage touche à l’optimisation commerciale. En croisant les données de trafic et les comportements d’achat, Vinci Airports identifie des profils de consommation selon les typologies de passagers et les destinations. Un voyageur britannique en transit ne dépense pas de la même façon qu’un passager français sur un vol domestique : ces patterns permettent de recommander aux commerçants des ajustements d’assortiment adaptés au profil de leur clientèle effective.

La qualité des données au coeur du projet

Artefact est intervenu dès les premières étapes du projet avec une approche collaborative impliquant les équipes opérationnelles dès le premier jour.

Cette démarche est décrite par Benoît Forest, directeur des Opérations et Data de Vinci Airports, comme une condition sine qua non : « Le timing d’embarquement des équipes opérationnelles est très important. Il doit commencer dès le jour un. Cela garantit que les data scientists comprennent les préoccupations métier et intègrent des besoins très opérationnels dans la conception des solutions. »

La qualité des données a constitué un autre enjeu majeur avec la mise en place des dispositifs automatisés de détection des fichiers manquants, de contrôle de la structure des données et de tests d’intégrité, avec alertes automatiques en cas d’anomalie.
Ces garde-fous, opérés entièrement dans Google Cloud Platform, préviennent les dérives silencieuses qui érodent la confiance des métiers dans les modèles.

« Je pense que le succès de ce projet réside dans la compréhension du défi stratégique métier, la définition du périmètre, le déploiement de la solution, la formation, et aujourd’hui l’outil est utilisé quotidiennement par les équipes métier », résume Benoît Forest.

Un cap vers l’IA générative

Vinci Airports engage ensuite une deuxième phase orientée vers la prédiction systématisée et l’IA générative. Trois cas d’usage sont à l’étude : un assistant GPT intégré aux tableaux de bord, un mode de requêtage conversationnel des bases de données, et un système d’extraction automatique de contenu documentaire (procédures, audits, rapports).

L’ambition est de dépasser les limites des dashboards Power BI actuels pour permettre à chaque collaborateur d’interroger directement l’ensemble des données via des agents IA autonomes, capables d’apporter des réponses à des questions complexes sans nécessiter de développement supplémentaire.

« L’IA nous permet ici de passer de l’intuition locale à la connaissance partagée, sans remplacer les équipes, mais en leur donnant les moyens de gagner du temps et de se concentrer sur la prise de décision », conclut Benoît Forest.

Photo : © DR

The post Vinci Airports s’appuie sur l’IA et Google Cloud pour piloter la performance de ses 70 aéroports appeared first on Silicon.fr.

Amazon S3 fête ses 20 ans : l’API qui a colonisé le cloud

16 mars 2026 à 15:04

Lancé le 14 mars 2006, Amazon Simple Storage Service a transformé le stockage informatique en profondeur. En vingt ans, il est passé de brique interne d’Amazon à une colonne vertébrale du Cloud  mondial, imposant ses API comme standard de facto et redessinant les modèles de coûts IT à l’échelle planétaire.

D’un besoin interne à une infrastructure planétaire

Tout commence par un besoin pragmatique : doter Amazon d’un stockage web-scale, simple, élastique et résilient pour ses propres applications e-commerce. Le service est ouvert aux développeurs externes dès son lancement, avec une promesse radicalement nouvelle : découpler le stockage de l’infrastructure matérielle, via une API simple et un modèle de facturation à l’usage. Une rupture nette avec les baies SAN/NAS en mode capex qui dominaient alors le marché.

Vingt ans plus tard, le résultat donne le vertige : S3 stocke plus de 500 000 milliards d’objets et traite jusqu’à 200 millions de requêtes par seconde. Une échelle impossible à reproduire économiquement pour la quasi-totalité des entreprises en interne. Cette masse critique a engendré un effet de plateforme puissant : de nombreux services ( data lakes, analytics, intelligence artificielle, sauvegarde, archivage ) se sont construits autour de S3, renforçant au fil du temps le verrouillage économique et technique au bénéfice d’AWS.

De 0,15 $/Go à la commodité : la guerre des prix en accéléré

En 2006, S3 est lancé à 0,15 dollar par Go et par mois pour le stockage, et 0,20 dollar par Go pour les transferts sortants. Un positionnement déjà agressif face aux infrastructures traditionnelles. Au fil des années, AWS orchestre une série de baisses de prix et de réorganisations par paliers, jusqu’à descendre autour de 0,023 dollar par Go/mois pour le stockage standard en us-east-1.

Ces réductions successives reflètent à la fois les économies d’échelle réalisées sur la supply chain matérielle et une stratégie délibérée de conquête et de défense de parts de marché face aux autres hyperscalers.

Résultat : le stockage objet s’est progressivement « commoditisé ». La différenciation ne se joue plus sur le seul coût brut au gigaoctet, mais sur la richesse de l’écosystème, les classes de stockage disponibles, les garanties de durabilité et les frais annexes. Notamment les coûts de requêtes et de sortie de données qui constituent aujourd’hui un sujet sensible pour les clients.

L’API S3, un standard de facto pour l’économie de la donnée

L’un des héritages les plus durables de S3 est sans doute la standardisation de ses interfaces de programmation. Les API S3 sont devenues le langage commun du stockage objet : la majorité des offres concurrentes, qu’elles soient on-premise ou issues d’autres fournisseurs cloud, revendiquent aujourd’hui explicitement une compatibilité avec ces API. En 2025, le stockage objet représentait environ 46 % du marché du cloud storage mondial, tiré par les usages data lake, bibliothèques média et sauvegarde.

S3 et Google Cloud Storage représentaient ensemble plus de 60 % du marché mondial du stockage objet en 2024, formant un duopole où l’API S3 sert de référence pour la portabilité. Ce statut confère à AWS un pouvoir considérable : la sémantique des opérations, les modèles de cohérence, la gestion du versioning et des politiques de cycle de vie définissent indirectement les architectures logicielles et donc les coûts de migration pour les entreprises qui souhaiteraient changer de fournisseur.

Un impact profond sur les DSI : du capex à l’opex, et ses nouvelles contraintes

Du point de vue des DSI, S3 a profondément reconfiguré la structure des dépenses de stockage. Le modèle capex ( achat de baies, sur-provisionnement, cycles de rafraîchissement ) a cédé la place à un opex à granularité fine, corrélé au volume réel utilisé.

Ce basculement améliore l’allocation du capital, mais expose les organisations à de nouveaux risques : facturation variable difficile à anticiper, coûts liés aux requêtes et au trafic sortant, et risque de  » bill shock  » en l’absence d’une gouvernance rigoureuse des données.

La multiplication des classes de stockage a par ailleurs transformé la gestion du stockage en une véritable problématique de data management. L’optimisation économique passe désormais par des politiques de cycle de vie sophistiquées, bien au-delà de la simple gestion de capacité.

Dans le même temps, la dépendance croissante à S3 comme « source de vérité » de nombreuses applications et data lakes renforce l’enjeu de portabilité et de souveraineté des données, expliquant en partie l’essor des solutions on-premise ou multi-cloud compatibles S3.

Au cœur de l’ère IA : S3 comme socle de la nouvelle économie des modèles

Vingt ans après son lancement, S3 occupe une position centrale dans l’économie de l’intelligence artificielle générative. Il constitue le socle de stockage pour les jeux de données d’entraînement, les feature stores, les logs d’inférence et les sorties de modèles.

À mesure que le volume de données non structurées explose sous l’effet de l’IA, le marché des logiciels compatibles S3 est évalué à plusieurs milliards de dollars en 2024, avec une croissance annuelle projetée supérieure à 15 % jusqu’en 2033. Un signal fort : l’écosystème économique autour de cette API dépasse largement AWS lui-même.

Illustration : © Amazon DR

The post Amazon S3 fête ses 20 ans : l’API qui a colonisé le cloud appeared first on Silicon.fr.

Handala Hack, un groupe hacktiviste iranien aux méthodes destructrices

16 mars 2026 à 13:02

Handala Hack n’est pas un groupe isolé. Selon les chercheurs de Check Point Research, il s’agit d’un persona en ligne opéré par Void Manticore (également connu sous les noms Red Sandstorm ou Banished Kitten), un groupe que le MOIS, le Ministère iranien du Renseignement et de la Sécurité, pilote directement.

Void Manticore possède en réalité plusieurs façades publiques distinctes. Outre Handala Hack, actif depuis fin 2023 et ciblant principalement Israël, on compte Homeland Justice, un persona que le groupe maintient depuis mi-2022 pour des attaques contre des cibles gouvernementales, télécom et autres secteurs en Albanie, ainsi que Karma, persona aujourd’hui disparu que Handala a vraisemblablement absorbé.

Les chercheurs notent que dans certaines intrusions, la communication à destination des victimes (messages dans les wipers, notes que les attaquants laissaient dans les environnements compromis) se présentait sous le nom Karma, tandis que les données volées transitaient ensuite vers Handala pour y être publiées.

Le nom et l’iconographie du groupe s’inspirent du personnage de bande dessinée palestinien Handala. L’entité a récemment élargi son périmètre d’action aux États-Unis, ciblant notamment le géant de la technologie médicale Stryker.

D’après des sources publiques citées dans le rapport, Void Manticore présenterait des chevauchements d’activité avec la Direction de la sécurité intérieure du MOIS, et plus précisément sa Division de lutte contre le terrorisme dirigée par Seyed Yahya Hosseini Panjakit tué par des frappes israéliennes sur l’Iran au début du mois.

Des accès initiaux obtenus via la chaîne d’approvisionnement IT

Handala cible de manière systématique les fournisseurs de services IT pour obtenir des identifiants d’accès. Le groupe les exploite ensuite pour s’introduire dans les environnements VPN des organisations victimes.

L’analyse révèle des centaines de tentatives de connexion et de brute-force contre des infrastructures VPN, originaires de nœuds VPN commerciaux et fréquemment liées à des noms d’hôtes Windows par défaut du type DESKTOP-XXXXXX ou WIN-XXXXXX.

Un élément est notable : après la coupure d’internet en Iran en janvier, les chercheurs ont observé ce type d’activité provenant de plages d’adresses IP Starlink, une tendance qui s’est poursuivie.

En parallèle, la discipline opérationnelle du groupe s’est dégradée : les analystes ont relevé des connexions directes depuis des adresses IP iraniennes, là où le groupe utilisait auparavant des nœuds VPN commerciaux pour masquer son origine.

Une phase de reconnaissance discrète avant la destruction

Dans au moins une intrusion récente que les chercheurs attribuent à Handala, le groupe a établi son accès initial plusieurs mois avant la phase destructrice. Durant cette période de latence, il a accumulé accès persistants et identifiants d’administration de domaine.

Les activités pré-impact observées comprennent :

  • La désactivation de Windows Defender
  • Des opérations de reconnaissance et de vol d’identifiants, incluant le dump de la mémoire du processus LSASS via rundll32.exe et comsvcs.dll
  • L’export de ruches de registre sensibles (HKLM)
  • L’exécution d’ADRecon (dra.ps1), un framework PowerShell de reconnaissance Active Directory, permettant d’obtenir des identifiants d’administrateur de domaine

Déplacement latéral : RDP et tunnelisation via NetBird

La marque de fabrique de Void Manticore est son fonctionnement manuel, « hands-on ». Le déplacement latéral s’effectue principalement via RDP (Remote Desktop Protocol). Pour atteindre les hôtes non directement accessibles depuis l’extérieur, le groupe déploie désormais NetBird, une plateforme open source permettant de créer des réseaux maillés privés « zero-trust ».

Les attaquants déploient NetBird manuellement : les attaquants se connectent en RDP sur les machines compromises, puis utilisent le navigateur web local pour télécharger le logiciel directement depuis le site officiel.

En installant NetBird sur plusieurs machines, ils établissent une connectivité interne entre systèmes, accélérant ainsi l’activité destructrice. Lors d’un incident, les chercheurs ont observé au moins cinq machines distinctes sous contrôle des attaquants opérant simultanément dans l’environnement.

Quatre méthodes de destruction déployées simultanément

La phase destructrice constitue la signature de Handala. Le groupe déploie quatre techniques de wiping en parallèle, qu’il distribue via les stratégies de groupe (GPO) pour maximiser l’impact.

1. Le Handala Wiper (exécutable custom)

Un wiper personnalisé, parfois nommé handala.exe, le groupe distribue via des scripts de connexion GPO à travers un fichier batch (handala.bat).Les attaquants le lancent à distance depuis le contrôleur de domaine sans l’écrire sur le disque des machines cibles. Il écrase le contenu des fichiers et emploie des techniques de wiping MBR pour corrompre ou détruire les données au niveau du disque.

2. Le Handala PowerShell Wiper (assisté par IA)

Un second wiper, cette fois en PowerShell, que le groupe distribue également par GPO. Il énumère et supprime tous les fichiers dans les répertoires C:\Users. Selon les chercheurs, la structure du code et la qualité détaillée des commentaires suggèrent que les attaquants ont développé ce script avec l’assistance de l’IA. En dernière étape, le script dépose une image de propagande nommée handala.gif sur tous les disques logiques.

3. Chiffrement des disques via VeraCrypt

Pour renforcer l’impact destructeur, les attaquants téléchargent VeraCrypt, un outil légitime de chiffrement de disque, directement depuis le site officiel en passant par le navigateur de la machine compromise. En chiffrant les disques système, ils rendent la récupération encore plus difficile, même si les autres composants de wiping n’ont que partiellement fonctionné.

4. Suppression manuelle

Dans certains cas, les opérateurs de Handala suppriment manuellement les machines virtuelles directement depuis la plateforme de virtualisation, ou suppriment des fichiers en se connectant en RDP, en sélectionnant tous les fichiers et en les effaçant. Handala a lui-même documenté ce comportement dans des vidéos et des matériaux qu’il diffuse.

Des TTPs stables, mais quelques évolutions notables

Les chercheurs soulignent que les TTPs de Void Manticore sont demeurées largement stables de 2024 à 2026, reposant sur des opérations manuelles, des wipers prêts à l’emploi, et des outils publics de suppression et de chiffrement. Deux évolutions récentes méritent toutefois attention. D’abord, l’adoption de NetBird pour la tunnelisation du trafic et l’accès aux hôtes internes. Ensuite, le recours à l’IA pour générer des scripts PowerShell de wiping

Recommandations pour les défenseurs

Le rapport formule plusieurs recommandations pratiques :

  • 1

    Imposer l’authentification multi-facteurs (MFA) pour tous les accès distants et les comptes privilégiés.

  • 2

    Surveiller les activités d’authentification suspectes : connexions depuis des pays inhabituels, horaires atypiques, pics de transfert de données en session VPN, enregistrement de nouveaux appareils, nouvelles plages ASN.

  • 3

    Restreindre les connexions depuis l’Iran et les plages Starlink exploitées par des acteurs iraniens — envisager de limiter temporairement le VPN aux seuls pays liés à l’activité de l’organisation.

  • 4

    Durcir et restreindre l’accès RDP, le désactiver là où il n’est pas nécessaire, et surveiller les connexions depuis des machines aux noms par défaut (DESKTOP-XXXXXX / WIN-XXXXXXXX).

  • 5

    Surveiller l’usage d’outils potentiellement indésirables : outils RMM, applications VPN comme NetBird, et utilitaires de tunnelisation SSH.

Image : © DR

The post Handala Hack, un groupe hacktiviste iranien aux méthodes destructrices appeared first on Silicon.fr.

❌