Amazon S3 fête ses 20 ans : l’API qui a colonisé le cloud
Lancé le 14 mars 2006, Amazon Simple Storage Service a transformé le stockage informatique en profondeur. En vingt ans, il est passé de brique interne d’Amazon à une colonne vertébrale du Cloud mondial, imposant ses API comme standard de facto et redessinant les modèles de coûts IT à l’échelle planétaire.
D’un besoin interne à une infrastructure planétaire
Tout commence par un besoin pragmatique : doter Amazon d’un stockage web-scale, simple, élastique et résilient pour ses propres applications e-commerce. Le service est ouvert aux développeurs externes dès son lancement, avec une promesse radicalement nouvelle : découpler le stockage de l’infrastructure matérielle, via une API simple et un modèle de facturation à l’usage. Une rupture nette avec les baies SAN/NAS en mode capex qui dominaient alors le marché.
Vingt ans plus tard, le résultat donne le vertige : S3 stocke plus de 500 000 milliards d’objets et traite jusqu’à 200 millions de requêtes par seconde. Une échelle impossible à reproduire économiquement pour la quasi-totalité des entreprises en interne. Cette masse critique a engendré un effet de plateforme puissant : de nombreux services ( data lakes, analytics, intelligence artificielle, sauvegarde, archivage ) se sont construits autour de S3, renforçant au fil du temps le verrouillage économique et technique au bénéfice d’AWS.
De 0,15 $/Go à la commodité : la guerre des prix en accéléré
En 2006, S3 est lancé à 0,15 dollar par Go et par mois pour le stockage, et 0,20 dollar par Go pour les transferts sortants. Un positionnement déjà agressif face aux infrastructures traditionnelles. Au fil des années, AWS orchestre une série de baisses de prix et de réorganisations par paliers, jusqu’à descendre autour de 0,023 dollar par Go/mois pour le stockage standard en us-east-1.
Ces réductions successives reflètent à la fois les économies d’échelle réalisées sur la supply chain matérielle et une stratégie délibérée de conquête et de défense de parts de marché face aux autres hyperscalers.
Résultat : le stockage objet s’est progressivement « commoditisé ». La différenciation ne se joue plus sur le seul coût brut au gigaoctet, mais sur la richesse de l’écosystème, les classes de stockage disponibles, les garanties de durabilité et les frais annexes. Notamment les coûts de requêtes et de sortie de données qui constituent aujourd’hui un sujet sensible pour les clients.
L’API S3, un standard de facto pour l’économie de la donnée
L’un des héritages les plus durables de S3 est sans doute la standardisation de ses interfaces de programmation. Les API S3 sont devenues le langage commun du stockage objet : la majorité des offres concurrentes, qu’elles soient on-premise ou issues d’autres fournisseurs cloud, revendiquent aujourd’hui explicitement une compatibilité avec ces API. En 2025, le stockage objet représentait environ 46 % du marché du cloud storage mondial, tiré par les usages data lake, bibliothèques média et sauvegarde.
S3 et Google Cloud Storage représentaient ensemble plus de 60 % du marché mondial du stockage objet en 2024, formant un duopole où l’API S3 sert de référence pour la portabilité. Ce statut confère à AWS un pouvoir considérable : la sémantique des opérations, les modèles de cohérence, la gestion du versioning et des politiques de cycle de vie définissent indirectement les architectures logicielles et donc les coûts de migration pour les entreprises qui souhaiteraient changer de fournisseur.
Un impact profond sur les DSI : du capex à l’opex, et ses nouvelles contraintes
Du point de vue des DSI, S3 a profondément reconfiguré la structure des dépenses de stockage. Le modèle capex ( achat de baies, sur-provisionnement, cycles de rafraîchissement ) a cédé la place à un opex à granularité fine, corrélé au volume réel utilisé.
Ce basculement améliore l’allocation du capital, mais expose les organisations à de nouveaux risques : facturation variable difficile à anticiper, coûts liés aux requêtes et au trafic sortant, et risque de » bill shock » en l’absence d’une gouvernance rigoureuse des données.
La multiplication des classes de stockage a par ailleurs transformé la gestion du stockage en une véritable problématique de data management. L’optimisation économique passe désormais par des politiques de cycle de vie sophistiquées, bien au-delà de la simple gestion de capacité.
Dans le même temps, la dépendance croissante à S3 comme « source de vérité » de nombreuses applications et data lakes renforce l’enjeu de portabilité et de souveraineté des données, expliquant en partie l’essor des solutions on-premise ou multi-cloud compatibles S3.
Au cœur de l’ère IA : S3 comme socle de la nouvelle économie des modèles
Vingt ans après son lancement, S3 occupe une position centrale dans l’économie de l’intelligence artificielle générative. Il constitue le socle de stockage pour les jeux de données d’entraînement, les feature stores, les logs d’inférence et les sorties de modèles.
À mesure que le volume de données non structurées explose sous l’effet de l’IA, le marché des logiciels compatibles S3 est évalué à plusieurs milliards de dollars en 2024, avec une croissance annuelle projetée supérieure à 15 % jusqu’en 2033. Un signal fort : l’écosystème économique autour de cette API dépasse largement AWS lui-même.
Illustration : © Amazon DR
The post Amazon S3 fête ses 20 ans : l’API qui a colonisé le cloud appeared first on Silicon.fr.
