❌

Vue normale

Reçu avant avant-hier

Atelier : Mieux comprendre l'impact du Cyber Resilience Act sur les pratiques Open Source !

ATELIER du lundi 31 mars de 11h30 Ă  13h30 Ă  Paris (participation en ligne possible).

Titre de l'image

Etes-vous prĂȘts pour les Ă©chĂ©ances de 2026 et 2027 du Cyber Resilience Act (CRA) ?

Le CRA est un dispositif adpoté par la Commission Européenne en 2024 pour répondre à la vulnérabilité accrue aux cyberattaques des entreprises et services publics européens,. Il vise à renforcer la cybersécurité et la cyberrésilience des produits logiciels (et matériels qui comportent des éléments numériques) connectés.

Le premier guide de conformitĂ© au CRA dĂ©diĂ© aux acteurs de l’open source, proposĂ© par le CNLL et innoÂł a pour objectif de faciliter la comprĂ©hension du CRA et les effets attendus, et de proposer des recommandations concrĂštes.

N'attendez pas pour commencer Ă  Ă©valuer vos obligations nouvelles Ă  venir et les adaptations nĂ©cĂ©ssaires de vos processus, rejoignez l'atelier du 31 mars !

📅 Quand ? Le 31 mars de 11h30 Ă  13h30, la rencontre sera suivie d'un buffet pour les personnes sur place.

📍 OĂč ? 137 Boulevard de Magenta 75010 Paris (nombre de places limitĂ©, participation en ligne possible).

L'objectif est de rendre la session de discussion la plus active possible, n'hĂ©sitez pas Ă  lire d'un Ɠil critique et intĂ©ressĂ© le guide en amont. Vous pouvez mĂȘme nous envoyer dĂšs aujourd'hui vos diverses questions ou remarques afin de nous aider Ă  prĂ©parer l'atelier : mission-cra-cnll@framagroupes.org.

Commentaires : voir le flux Atom ouvrir dans le navigateur

PremiĂšre publication libre de Multigit

3 février 2025 à 06:06

Multigit est un outil graphique conçu pour simplifier la gestion de projets composés de beaucoup de dépÎts git.

Une image et une vidéo valant mieux qu'un long discours, voici à quoi ça ressemble:

Screenshot

Je l'ai dĂ©veloppĂ© dans le cadre de mon travail chez IDEMIA oĂč nous sommes souvent confrontĂ©s Ă  plus de trente (voire plus de soixante) dĂ©pĂŽts Ă  gĂ©rer conjointement sur un projet. Dans ce contexte, la moindre opĂ©ration git devient un mini-dĂ©fi qu'il fallait relever quotidiennement.

Multigit est abouti et stable, il est utilisé au quotidien par plus d'une centaine de personnes (sous Windows), depuis plusieurs années. Mon employeur m'a aimablement autorisé à le publier en Open Source, ce dont je lui sais gré. Il est publié sous licence Apache 2.0

La problĂ©matique de gestion de plusieurs dĂ©pĂŽts git conjoints pour un projet est assez peu rĂ©pandue dans le monde du logiciel libre. Mais beaucoup plus dans le monde de l'entreprise. En effet, git ne gĂšre pas la notion de droit d'accĂšs Ă  une partie d'un dĂ©pĂŽt. La seule façon de restreindre l'accĂšs Ă  certains parties d'un projet est donc de crĂ©er un dĂ©pĂŽt spĂ©cifique pour les y stocker, avec des droits d'accĂšs au niveau du dĂ©pĂŽt. Ajoutons Ă  cela beaucoup de personnes, beaucoup de projets parfois complexes, beaucoup de sous-projets, beaucoup d'historique et on se retrouve avec une gestion des sources particuliĂšrement complexe. Complexe 
 avant l'arrivĂ©e de Multigit en tout cas.

Installation

Sous Linux, la seule option d'installation disponible Ă  l'heure actuelle est Python + pip, ou encore mieux avec pipx:

    $ sudo apt install python-pipx
    $ pipx install multigit_gx
    $ multigit

Sous Windows, un installeur graphique click-and-play vous permettra d'arriver au mĂȘme rĂ©sultat.

J'ai bien tentĂ© de fournir un snap pour Linux mais snap est conçu pour empĂȘcher Ă  peu prĂšs tout ce que veut faire Multigit: accĂšder Ă  tous vos fichiers et lancer des programmes de votre distribution (git, gitk, 
)

Je ferai mieux dans la prochaine version. D'ailleurs, si vous avez des recommandations pour un packaging moderne, simple, facile Ă  maintenir et couvrant toutes les distributions Linux, je suis preneur.

Contribution

Le projet est géré sous GitHub, les contributions ou les retours sont les bienvenus.

Commentaires : voir le flux Atom ouvrir dans le navigateur

Sortie de GCompris 25.0

Pour ses 25 ans (la premiĂšre version 0.1 Ă©tant sortie le 12 juin 2000), nous avons le plaisir de vous annoncer la publication de la nouvelle version majeure de la suite Ă©ducative GCompris.
Cette nouvelle version, sortie le 30 janvier 2025, contient entre autres cinq nouvelles activitĂ©s, listĂ©es dans la suite de la dĂ©pĂȘche, ce qui porte le nombre d’activitĂ©s Ă  195.

Nouvelles activités

« Croquis Â» est une activitĂ© pour dessiner librement avec de multiples outils pour permettre aux enfants d’explorer leur crĂ©ativitĂ©.
activité Croquis
« Utilise les complĂ©ments Ă  10 Â» est la continuation des activitĂ©s de complĂ©ment Ă  10 existantes. Celle-ci aide les enfants Ă  Ă©changer les nombres pour calculer facilement une somme.
activité Utilise les compléments à 10
« Addition verticale Â» est une activitĂ© pour Ă©crire une addition et la rĂ©soudre.
activité Addition verticale
« Soustraction verticale Â» est similaire Ă  l’activitĂ© d’addition mais pour la soustraction avec la mĂ©thode de l’emprunt par regroupement.
activité Soustraction verticale
« Soustraction verticale (mĂ©thode de l’emprunt par compensation) Â» est similaire Ă  celle dessus mais avec la mĂ©thode de l’emprunt par compensation.
activitĂ© Soustraction verticale (mĂ©thode de l’emprunt par compensation)

AmĂ©liorations d’ergonomie

Un Ă©cran de chargement a Ă©tĂ© rajoutĂ© sur les versions bureau. Nous avons eu des remontĂ©es de problĂšmes car sur certains ordinateurs, GCompris mettait du temps Ă  se lancer et aucun indicateur visuel n’était affichĂ© (GCompris attendait d’avoir chargĂ© toutes ses donnĂ©es avant d’afficher le menu principal).

Lors d’un changement de langue dans le panneau de configuration, celle-ci sera maintenant appliquĂ©e directement Ă  la sortie de la configuration, il n’y a plus besoin de redĂ©marrer GCompris pour qu’elle prenne effet.

CÎté technique

Cette version est la premiÚre version majeure développée avec Qt 6. Elle nécessite un compilateur gérant C++17. Cela implique des changements au niveau des versions des plateformes prises en charge :

  • Il n’y a plus de version 32 bits pour Linux et Windows. Qt ne fournit plus de version prĂ©-compilĂ©es et nous n’avons pas le besoin de crĂ©er une version 32 bits pour le moment.
  • Android seulement Ă  partir de la version 8.
  • Plus de macOS non plus : les dĂ©veloppeurs principaux n’ont pas accĂšs Ă  un ordinateur rĂ©cent sous macOS permettant de compiler, packager et surtout tester et maintenir la version gĂ©nĂ©rĂ©e. Un dĂ©veloppeur KDE a proposĂ© son aide, nous allons voir oĂč cela nous mĂšne.
  • Plus de Windows 7 et 8.

Sous Windows, le moteur de rendu par défaut a été modifié à Direct3d11.
Une nouvelle option en ligne de commande permet de choisir le moteur de rendu: « --renderer=opengl/software/direct3d11/direct3d12/metal Â» selon le systĂšme d’exploitation utilisĂ© et son support.

Traductions

Toutes les activités ont eu leurs descriptions mises à jour. Cette grosse mise à jour de fond a été effectuée par Anne-Françoise, Emmanuel et Rachel, tous les trois professeurs des écoles de la circonscription de Saumur.

Au niveau localisation, deux nouvelles langues font leur apparition (sanskrit, gĂ©orgien) portant le total de langues (traduit Ă  au moins 80 %) Ă  44 !

Nous remercions toutes les personnes qui nous ont aidĂ© Ă  faire cette nouvelle version !

Commentaires : voir le flux Atom ouvrir dans le navigateur

Guide CNLL/innoÂł sur le Cyber Resilience Act : ĂȘtes-vous prĂȘts pour les Ă©chĂ©ances de 2026 et 2027 ?

Le CNLL, Union des Entreprises du Logiciel Libre et du NumĂ©rique Ouvert, est l’instance reprĂ©sentative de la filiĂšre du logiciel libre en France, et innoÂł un cabinet de conseil spĂ©cialiste des modĂšles ouverts. Ils proposent le premier guide de conformitĂ© au CRA dĂ©diĂ© aux acteurs de l’open source, destinĂ© Ă  accompagner sans attendre les acteurs dans la mise en conformitĂ© de leurs activitĂ©s en dĂ©cryptant les obligations nouvelles et adaptations nĂ©cessaires de processus. Il est publiĂ© sous licence Creative Commons By-SA 4.0.

Guide CNLL / innoÂł sur le CRA

Pourquoi est-il nĂ©cessaire d'anticiper ?

AdoptĂ© formellement par l'UE en 2024, le CRA vise Ă  renforcer la cybersĂ©curitĂ© des produits logiciels (et matĂ©riels qui comportent des Ă©lĂ©ments numĂ©riques) pour rĂ©pondre Ă  la vulnĂ©rabilitĂ© accrue aux cyberattaques des entreprises et services publics europĂ©ens. Les acteurs ont jusqu’au 10 septembre 2026 pour se mettre en conformitĂ© avec certaines obligations critiques (notification des vulnĂ©rabilitĂ©s activement exploitĂ©es et des incidents graves) et jusqu’au 10 dĂ©cembre 2027 pour s’adapter Ă  l’ensemble des autres exigences du texte telles que la sĂ©curitĂ© par principe ou la transparence vis-Ă -vis des consommateurs.

Un guide pratique pour vous accompagner

Le guide rĂ©pond Ă  un objectif de sensibilisation des membres du CNLL et plus largement des acteurs de la filiĂšre du logiciel libre (producteurs, intĂ©grateurs et utilisateurs) aux enjeux et dĂ©fis du CRA. À l’aide de mises en situation Ă  partir d’exemples d’entreprises membres du CNLL, le guide propose une vision dĂ©taillĂ©e des modalitĂ©s d’application et obligations nouvelles : documentation technique dĂ©taillĂ©e, gestion rigoureuse des vulnĂ©rabilitĂ©s, dĂ©claration de conformitĂ© et apposition du marquage CE, production d’une Software Bill of Materials (SBOM), etc.

Transformons ensemble cette contrainte rĂ©glementaire en opportunitĂ© d'amĂ©lioration de la sĂ©curitĂ©, la qualitĂ© et la confiance pour nos produits et services !

👉 Explorez le guide dùs aujourd'hui et contribuez à sa prochaine version en partageant vos commentaires ou en rejoignant le groupe de travail.

👉 Participez Ă  la rĂ©union de prĂ©sentation en ligne qui aura lieu prochainement (informations Ă  venir sur le site : cnll.fr).

Commentaires : voir le flux Atom ouvrir dans le navigateur

La virtualisation pour les nuls et autres enjeux autour des datacenters

8 janvier 2025 Ă  14:54

Depuis quelques annĂ©es la virtualisation sous toutes ses formes est devenue l'alpha et l'omĂ©ga de l'informatique, elle a rĂ©volutionnĂ© en quelques annĂ©es la maniĂšre d'administrer les serveurs et de gĂ©rer les donnĂ©es. Cette dĂ©pĂȘche est un essai de vulgarisation sur la virtualisation pour en exposer ses grands principes techniques, ses avantages et inconvĂ©nients et ses enjeux sous-jacents.

Sommaire

Commençons par quelques définitions

C'est quoi la virtualisation ?

Pour pouvoir illustrer concrÚtement ce qu'est la virtualisation, à une époque pas si lointaine que ça, dans le monde professionnel on retrouvait des serveurs physiques dédiés, par exemple un serveur pour gérer les mails, un autre pour le serveur web et un dernier comme serveur de fichiers. Chacun des serveurs pouvant tourner sur des systÚmes d'exploitation (OS) différents. Dans notre exemple il en résulte qu'il faut maintenir et administrer trois machines différentes qui vont prendre de la place et consommer de l'électricité, sans une utilisation optimale de chacune des machines, si le serveur web par exemple a besoin momentanément d'un accroissement de puissance et de mémoire, il ne pourra pas bénéficier des ressources des autres serveurs physiques.
Avec la virtualisation, sur une seule machine physique on va faire tourner plusieurs environnements de serveurs distincts en mĂȘme temps, sans avoir Ă  redĂ©marrer, ils vont se partager les ressources matĂ©rielles de la machine physique de maniĂšre plus optimale et efficace en rĂ©duisant les coĂ»ts d'administration. On retrouvera donc sur une seule machine physique, nos serveurs de courriel, web et de fichiers, chacun dans un environnement distinct fonctionnant de maniĂšre autonome et isolĂ©e.

C'est quoi une machine virtuelle ?

On appellera chaque environnement distinct machine virtuelle, elle s'exécute sur une machine physique avec son propre systÚme d'exploitation, ses applications et avec les ressources de la machine physique qu'on veut bien lui allouer (mémoire, puissance de traitement, stockage). On dit aussi que la machine physique est appelée machine hÎte et les machines virtuelles sont des machines invitées. Une machine hÎte peut faire tourner plusieurs machines invitées.
Une machine virtuelle fonctionne comme n'importe quel poste informatique avec son OS qu'on peut mettre à jour, ses applications, ses paramÚtres systÚme et on pourra à partir de la machine hÎte accéder à toutes les machines virtuelles.

C'est quoi un hyperviseur ?

Pour que les machines virtuelles puissent s'exécuter indépendamment et utiliser les ressources de la machine hÎte simultanément sans qu'elles interfÚrent entre elles, il est nécessaire de rajouter une couche logicielle qui va gérer tout ça, c'est ce qu'on appelle un hyperviseur.
Il existe deux types d'hyperviseur:

  • L'hyperviseur de type 1, ou bien encore hyperviseur de matĂ©riel nu (bare metal en anglais) est en interface direct avec l'ordinateur physique, cela sous entend que votre machine soit compatible (Intel VT pour les processeurs Intel et AMD-V pour les processeurs AMD). Dans le monde libre, proxmox est certainement l'hyperviseur de type 1 le plus connu.
  • L'hyperviseur de type 2 ou bien encore hyperviseur de matĂ©riel invitĂ© (host metal en anglais) fonctionne dans un systĂšme d'exploitation dĂ©jĂ  prĂ©installĂ©, c'est le cas par exemple de VirtualBox qui permet de faire tourner une instance de windows dans un environnement Linux.

Un hyperviseur de type 1 est une couche logicielle trĂšs lĂ©gĂšre et offre de meilleures performances et est la solution privilĂ©giĂ©e pour des serveurs en production, l'hyperviseur de type 2 est plutĂŽt une solution destinĂ©e aux utilisateurs qui souhaitent tester d'autres systĂšmes d'exploitation ou faire tourner un logiciel sur un OS particulier sur un poste de travail classique. Mais rien ne vous empĂȘche de faire tourner plusieurs machines virtuelles sur un hyperviseur de type 2 qui pourront communiquer entre elles et fonctionner comme un hyperviseur de type 1, Ă  la diffĂ©rence qu'elles seront moins performantes.
Par abus de langage, le terme d'hyperviseur fait référence plutÎt à l'hyperviseur de type 1.

C'est quoi les avantages de la virtualisation ?

Une administration centralisée et facilitée

L'hyperviseur fournit des outils de gestion des machines virtuelles qui simplifient sensiblement le travail d'administration, comme les outils de déploiement à partir de modÚles de machines virtuelles, les outils de gestion de charge, de sauvegarde et de restauration de machines virtuelles.

La disponibilité et la robustesse aux pannes

Un autre avantage de la virtualisation est la fonctionnalitĂ© de migration Ă  chaud, elle permet de dĂ©placer une machine virtuelle d'une machine physique Ă  une autre sans qu'il soit nĂ©cessaire de l'arrĂȘter. Si un serveur physique prĂ©sente des dĂ©faillances, les machines virtuelles sont automatiquement dĂ©placĂ©es sur un autre hĂŽte physique.
Alors bien sĂ»r si le serveur physique tombe en rade sans crier gare, la migration Ă  chaud peut ne pas ĂȘtre opĂ©rante, dans ce cas on peut trĂšs bien envisager la mise en place d'une machine physique redondante sur laquelle les machines virtuelles sont rĂ©pliquĂ©es et qui prendra le relais automatiquement si le serveur primaire tombe.

L'amélioration des performances

La migration Ă  chaud Ă©voquĂ©e plus haut a un autre avantage si une machine virtuelle est sursollicitĂ©e et nĂ©cessite de la puissance de traitement et de la mĂ©moire, elle pourra ĂȘtre dĂ©placĂ©e automatiquement sur un autre serveur moins sollicitĂ© Ă  ce moment-lĂ .

La sécurité

La virtualisation isole les services chacun dans leur machine virtuelle, en cas de corruption d'une machine virtuelle par cyberattaque, l'impact est nul pour les autres services et la restauration d'une machine virtuelle est autrement plus rapide et plus simple qu'avec une machine physique.

La disparition des machines physiques

Le stade ultime de la virtualisation est de déléguer à un prestataire la gestion des machines physiques qui se retrouve quelque part dans un datacentre. On s'abstrait totalement du matériel physique et des contraintes qui vont avec et on gÚre seulement nos machines virtuelles à distance, c'est totalement transparent pour les utilisateurs qui accÚdent à leurs services via internet ou sur un réseau privé. On parle aussi d'infrastructure virtuelle.

Il existe d'autres types de virtualisation ?

On a surtout évoqué jusqu'à présent la virtualisation des serveurs, mais il existe également d'autres types de virtualisation comme:

La virtualisation du stockage

Cela consiste en la création d'un espace virtuel de stockage à partir d'installations physiques de stockage bien réelles comme les serveurs de fichiers, NAS ou SAN qu'ils soient locaux ou distants. Cela permet de mettre en commun toutes ces installations et de la gérer à partir d'un outil unique de gestion pour effectuer toutes les opérations de sauvegarde, réplication, d'archivage et de restauration.

La virtualisation des réseaux

Un réseau est composé d'un tas d'éléments actifs comme les commutateurs, les routeurs et autres pare-feux, de type et de marques différentes. Là aussi on va créer un réseau virtuel qui combine l'ensemble de ces éléments actifs physiques pour pouvoir centraliser leur gestion sans avoir à y accéder physiquement. La virtualisation des réseaux permettra également d'améliorer les performances du réseau avec des analyseurs de trafic qui pourront équilibrer la charge ou favoriser certains flux.

La virtualisation des données

Les données sont issues de diverses sources, ont chacune leur format et sont stockées sur différents supports locaux ou distants. La virtualisation des données est une couche logicielle qui va gérer l'ensemble de ces données de maniÚre centralisée et les mettre à disposition des utilisateurs et des applications dans le format désiré.

La virtualisation d'application

La virtualisation d'application permet de sĂ©parer l'application de son systĂšme d'exploitation hĂŽte et de fonctionner sur un poste utilisateur sans qu'elle soit installĂ©e. Dans la pratique l'application est installĂ©e sur un serveur centralisĂ© et peut tourner sur un poste utilisateur du rĂ©seau comme si elle Ă©tait installĂ©e localement, quand bien mĂȘme l'OS du poste utilisateur n'est pas celui pour lequel l'application a Ă©tĂ© conçue.

La virtualisation des postes de travail

La virtualisation permet de virtualiser des serveurs mais pas seulement, on peut virtualiser également des postes de travail pour en faciliter la gestion qui seront accessibles aux utilisateurs du réseau via un client léger bien moins cher qu'un PC client classique.

Autres concepts autour de la virtualisation

C'est quoi une infrastructure convergĂ©e et hyperconvergĂ©e ?

Une infrastructure convergée regroupe plusieurs composants informatiques traditionnels et bien physiques comme les serveurs de calcul, les dispositifs de stockage ou les éléments actifs réseau pour en assurer la gestion dans un tout cohérent. Cela simplifie la gestion de l'administration et ça optimise les ressources matérielles et logicielles. On dit que c'est une approche modulaire basée sur le matériel physique.
L'hyperconvergence a une approche plutĂŽt logicielle, elle intĂšgre une couche logicielle qui va combiner les ressources de calcul, de stockage et de rĂ©seau dans ce qu'on appelle un nƓud. Les nƓuds sont interconnectĂ©s et combinĂ©s entre eux pour former des pools au sein d'un cluster, on retrouve ainsi un pool de stockage ou un pool de calcul, si un nƓud venait Ă  dĂ©faillir ça n'aurait pas de consĂ©quence pour les autres nƓuds et le fonctionnement du pool et du cluster.

OK, mais une fois que tout ça est posĂ©, quelle est la diffĂ©rence entre les deux ?
L'infrastructure convergĂ©e a une approche basĂ©e sur le matĂ©riel physique, c'est Ă  dire qu'un serveur physique peut ĂȘtre sĂ©parĂ© du reste du dispositif et toujours fonctionner comme un serveur indĂ©pendant alors que ce n'est pas possible avec l'infrastructure hyperconvergĂ©e oĂč les noeuds sont nĂ©cessairement interconnectĂ©s entre eux pour que le cluster puisse fonctionner correctement. Par ailleurs l'infrastructure convergĂ©e intĂšgre de base d'autres fonctionnalitĂ©s comme la sauvegarde, la rĂ©plication, la dĂ©duplication des donnĂ©es, la compression, l'optimisation du rĂ©seau, etc.

C'est quoi un cluster haute disponibilitĂ© ?

On a bien vu que finalement qu'elle soit dans vos locaux ou chez un prestataire de service, la machine physique reste le maillon faible du dispositif. Pour améliorer encore plus la disponibilité et la robustesse, on va dupliquer les machines physiques et si possible en les dispatchant dans des locaux et sites différents. Le tout étant géré comme un seul systÚme. La virtualisation du stockage prend alors toute son importance, pour éviter de se rendre dépendant d'un serveur physique de données.

C'est quoi le cloud computing ?

On appelle cloud computing le fait de confier à un tiers sur internet la gestion de services informatiques (applications, stockage, outils de gestion, 
) mais aussi le fait d'utiliser des services fournis par un prestataire via internet. Le cloud computing repose largement sur la virtualisation, on peut dire que le cloud computing est un environnement alors que la virtualisation est une technologique. En matiÚre de cloud computing, il en existe de différentes sortes :

  • Infrastructure as a service (IaaS) ou infrastructure en tant que service : L'IaaS offre une infrastructure informatique complĂšte (serveurs, stockage, rĂ©seau, 
) sur un rĂ©seau privĂ© (ressources en accĂšs limitĂ©), public (ressources en accĂšs libre) ou hybride (qui mĂ©lange les deux).
  • Platform as a service (PaaS) ou plate-forme en tant que service : Le PaaS c'est grosso modo la mĂȘme chose que l'IaaS sauf qu'en plus on bĂ©nĂ©ficie d'outils supplĂ©mentaires pour pouvoir dĂ©velopper des applications qu'on retrouvera sur le cloud et tous un tas de services supplĂ©mentaires, gestion de base de donnĂ©es, aide Ă  la dĂ©cision, etc.
  • Le Software as a service (SaaS) ou logiciel en tant que service : Le SaaS est une offre logicielle complĂšte qu'on retrouvera sur internet, c'est typiquement des offres comme Microsoft Office 365 ou Google Workspace, dans le monde opensource, on peut dire que certains prestataires recensĂ©s par les CHATONS se rapprochent d'une solution SaaS.

NdM: il est question ici de cloud computing sur un cloud public, une infrastructure gérée par un hébergeur tiers. Il est aussi possible de faire du cloud computing privé, interne, dans une grosse structure qui en a la capacité, ce qui revient à déléguer l'hébergement à un tiers (des collÚgues dans ce cas). Et on peut combiner les deux pour faire du cloud hybride. Le cloud computing implique aussi la création de ressources en libre-service, de la facturation à l'usage et de la mutualisation.

Les enjeux

Enjeu environnemental

L'adoption quasi généralisée de solutions autour de la virtualisation dans le monde professionnel a conduit à la disparition progressive des serveurs locaux d'entreprise au profit d'un développement effréné des datacenters de par le monde. Or un datacenter est constitué de machines bien physiques tournant 24h24 7j/7 avec tout un dispositif lui aussi bien physique pour assurer leur fonctionnement optimal, leur sécurisation et la robustesse aux pannes, il s'agit notamment de :

  • La climatisation et le traitement d’air pour maintenir des conditions satisfaisantes de tempĂ©rature et hygromĂ©trie avec toute un systĂšme de circulation et de refroidissement d'air
  • La distribution de l’électricitĂ© avec un dispositif de sĂ©curisation en cas de coupure d'alimentation, souvent basĂ© sur tout un ensemble d'onduleurs et appuyĂ© par groupes Ă©lectrogĂšnes
  • la protection physique de l'installation avec contrĂŽle d'accĂšs, vidĂ©osurveillance et autres systĂšmes anti intrusion

Le tout nĂ©cessite une consommation Ă©lectrique massive et une forte consommation en eau. Si l'on traduit cela en Ă©quivalent d'Ă©mission de gaz de serre (GES), d'aprĂšs une Ă©tude de l'ADEME les datacenters ont dĂ©jĂ  atteint le mĂȘme niveau d'Ă©mission que le transport aĂ©rien Ă  l'Ă©chelle mondiale.
Il se trouve que le destin des datacenters est maintenant Ă©galement Ă©troitement liĂ© Ă  celui de l'IA, mĂȘme si dans ce domaine on envisage plutĂŽt des datacenters dĂ©diĂ©s, or les besoins gĂ©nĂ©rĂ©s par l'IA dopent l'expansion globale des datacenters dans le monde. La demande de puissance de calcul de l'IA est exponentielle et double tous les 3,4 mois selon OpenAI. Selon une Ă©tude Gartner citĂ©e par le Monde Informatique, rien que les besoins liĂ©s Ă  l'IA feront exploser la demande Ă©nergĂ©tique des datacenters au point que les fournisseurs d'Ă©nergie ne pourront y rĂ©pondre dĂšs 2027 !

Dans ce contexte il n'est pas Ă©tonnant donc que les grands acteurs du secteur poussent au dĂ©veloppement des centrales nuclĂ©aires qui leur permettra par la mĂȘme occasion de verdir leur image. Mais ces acteurs ne sont pas Ă  une contradiction prĂšs, on peut s'Ă©tonner du dĂ©veloppement dans certaines rĂ©gions qui de prime abord ne se prĂȘtent pas particuliĂšrement Ă  leur installation contrairement aux pays nordiques. Le projet d'installation de Meta dans une rĂ©gion aride d'Espagne oĂč chaque goutte d'eau compte, en est une triste illustration. Les tempĂ©ratures rĂ©gionales Ă©levĂ©es dĂ©cupleront ses besoins en Ă©lectricitĂ© et en eau pour les circuits de refroidissement alors que la rĂ©gion souffre de sĂ©cheresse chronique. On peut dĂ©plorer que tout cela ne pourrait se faire sans le soutien des gouvernements et des Ă©lus locaux qui ne trouvent rien Ă  redire.

Enjeu de résilience

Le marchĂ© actuel est dominĂ© par trois acteurs qui reprĂ©sentent Ă  eux trois plus de 60% du marchĂ© mondial il s'agit dans l'ordre d'AWS (Amazon), d'Azure (Microsoft) et de Google Cloud Platform, on parle d'eux comme des hyperscalers car ils fournissent des services Ă  l'Ă©chelle mondiale Ă  grande Ă©chelle. Cette hyperconcentration des acteurs et des solutions techniques fragilise l'Ă©conomie mondiale en la rendant davantage sensible et moins rĂ©siliente aux pannes, la dĂ©faillance d'un simple outil de sĂ©curitĂ© a ainsi entraĂźnĂ© en cascade une panne informatique mondiale en juillet dernier avec des consĂ©quences graves comme l'arrĂȘt partiel du contrĂŽle aĂ©rien, de centres d'appels d'urgence ou de services hospitaliers. Plus modestement l'incendie subi par OVH en 2021 a impactĂ© des milliers d'entreprise et services publics, toutes les donnĂ©es contenues sur les serveurs sont perdues, puisqu'OVH a commis l'erreur de stocker au mĂȘme endroit les donnĂ©es et les sauvegardes. NdM: historique de pannes GCP, AWS ou Azure
Cette hyperconcentration fait planer également des risques en termes de cybersécurité, la corruption d'un élément du systÚme et sa prise de contrÎle par un hacker aura vite des conséquences majeures.

Enjeu de souveraineté

Il faut savoir que les donnĂ©es gĂ©rĂ©es par un datacenter sont soumises Ă  la rĂ©glementation propre au pays oĂč il est installĂ©. Les autoritĂ©s aux États-Unis, au nom du Patriot Act peuvent donc ainsi accĂ©der aux donnĂ©es stockĂ©es sur leur territoire. Les datacenters souverains sont donc un enjeu majeur pour certains pays pour garantir que les donnĂ©es seront protĂ©gĂ©es par les lois nationales, sans ingĂ©rence Ă©trangĂšre possible.

En France notamment, 71% des entreprises se reposent sur des solutions américaines dont des acteurs étatiques. Une affaire illustre à elle seule cet état de fait, la solution Azure de Microsoft a été ainsi choisi pour héberger l'ensemble des données de santé de 4 établissements hospitaliers (et non de l'ensemble des Français) à des fins de recherche dans un entrepÎt de données de santé dénommé EMC2. Sauf qu'en l'espÚce Microsoft a répondu à un appel d'offre en bonne et due forme, que la CNIL a donné son autorisation et que les différents recours à ce stade ont tous échoué. Néanmoins voici ci-dessous texto la conclusion du rapport de la CNIL en 2023 :

(début de citation)

  • qu’aucun prestataire potentiel ne propose d’offres d’hĂ©bergement rĂ©pondant aux exigences techniques et fonctionnelles du GIP PDS (Note de l'auteur : groupement d’intĂ©rĂȘt public « Plateforme de donnĂ©es de santĂ©", appelĂ© aussi Health Data Hub) pour la mise en Ɠuvre du projet EMC2 dans un dĂ©lai compatible avec les impĂ©ratifs ce dernier ;
  • que le dĂ©veloppement d’un dĂ©monstrateur " cloud de confiance ", respectant les conditions de la circulaire prĂ©citĂ©e et permettant Ă  terme d’hĂ©berger des projets de cette nature, et notamment la plateforme du GIP PDS, devrait se poursuivre sur les prochaines annĂ©es ;
  • que la construction d’une plateforme d’hĂ©bergement spĂ©cifique pour le projet EMC2 pourrait retarder la migration de la solution d’hĂ©bergement du GIP PDS pour l’ensemble de ses missions ;
  • qu’en attendant cette migration, le projet EMC2 soit menĂ© sur la solution technique actuelle du GIP PDS.

À la lumiĂšre de ces conclusions, la CNIL dĂ©plore qu’aucun prestataire susceptible de rĂ©pondre actuellement aux besoins exprimĂ©s par le GIP PDS ne protĂšge les donnĂ©es contre l’application de lois extraterritoriales de pays tiers.
De maniĂšre gĂ©nĂ©rale, elle regrette que la stratĂ©gie mise en place pour favoriser l’accĂšs des chercheurs aux donnĂ©es de santĂ© n’ait pas fourni l’occasion de stimuler une offre europĂ©enne Ă  mĂȘme de rĂ©pondre Ă  ce besoin. Le choix initial du GIP PDS, dĂšs sa fondation, de recourir au cloud a conduit Ă  privilĂ©gier des offres d’acteurs Ă©tasuniens dont il apparaĂźt dĂ©sormais difficile de se dĂ©tacher Ă  court terme malgrĂ© l’émergence progressive de fournisseurs souverains. Le projet EMC2 aurait pu ĂȘtre retenu par le GIP PDS pour prĂ©figurer la solution souveraine vers laquelle il doit migrer.

(fin de citation)

À la lumiĂšre de cette conclusion, on peut comprendre que la CNIL s'est sentie contrainte et forcĂ©e de rĂ©pondre favorablement pour ne pas faire capoter ce projet en espĂ©rant que cette solution ne soit que transitoire et qu'elle pourra basculer sur une solution souveraine dans quelques annĂ©es.
Autre affaire d'actualité, le contrat entre EDF et AWS pour le stockage de certaines informations sensibles de maintenance du parc nucléaire français, le Canard enchaßné vient de révéler récemment que le contrat battait de l'aile car Amazon refuse d'inscrire noir sur blanc dans le contrat que les données d'EDF seront stockées en France (autre article).
Aussi la France cherche Ă  dĂ©velopper son "cloud souverain" pour ne plus ĂȘtre dĂ©pendant des gĂ©ants amĂ©ricains mais peine Ă  avancer sur le sujet faute de barriĂšres rĂ©glementaires et juridiques, de rĂ©ticences des Ă©lus et des populations sur les territoires pouvant accueillir des datacenters et d'une certaine frilositĂ© des banques et acteurs technologiques.

En guise de réponse aux enjeux

RĂ©ponse Ă  l'enjeu environnemental

Pour ne pas courir à la catastrophe annoncée, la mise en place de technologies plus efficaces et économes en énergie est un enjeu majeur, parmi les axes d'innovation on peut citer:

  • l'utilisation d'Ă©nergie renouvelable
  • le refroidissement des datacenters basĂ© sur des technologies peu gourmandes en eau,
  • la rĂ©utilisation de l'Ă©nergie dissipĂ©e par les datacenters.

Réponse à l'enjeu de résilience

Des normes et des certifications se sont mises en place qu'elles soient internationales, européennes ou nationales. On peut citer :

  • TIA 942 qui couvre diffĂ©rents domaines comme la disponibilitĂ©, la sĂ©curitĂ©, l'efficacitĂ© Ă©nergĂ©tique, le refroidissement, la redondance et la gestion de l'espace;
  • ANSI/BICSI-002 qui dĂ©finit des standards de conception et de pose des systĂšmes de cĂąblage, d'Ă©lectricitĂ©, dissipation de chaleur, refroidissement, etc.
  • ISO 27001 qui couvre la gestion de la sĂ©curitĂ© de la donnĂ©e;
  • ISO 22237 qui couvre l'installation et les infrastructures des datacenters;
  • le rĂ©fĂ©rentiel de sĂ©curisation des services cloud SecNumCloud Ă©laborĂ© par l’ANSSI;
  • la certification d'Uptime Institute avec sa classification du niveau de sĂ©curitĂ© des datacenters de Tier I Ă  Tier IV.

En France, France Datacenter est une organisation professionnelle qui fédÚre les entreprises qui conçoivent, construisent et exploitent les datacenters. Elle publie également des guides à destination de ses adhérents qui font référence, on peut citer notamment "le livre blanc sur la sécurité incendie" ou "l'humain et la sécurité du datacenter".

D'un point de vue réglementaire, on peut citer :

  • le rĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es RGPD;
  • La directive europĂ©enne relative Ă  DEE l’efficacitĂ© Ă©nergĂ©tique DEE;
  • La directive europĂ©enne relative Ă  la sĂ©curitĂ© des rĂ©seaux et de l’information, dite NIS 2 pour Network and Information System Security.

Le respect de ces normes, certification et a fortiori de la rĂ©glementation sont une garantie que les datacenters sont construits suivant les rĂšgles de l'art avec le niveau de qualitĂ©, de sĂ©curitĂ© et de fiabilitĂ© attendu. A ce propos pour en revenir Ă  l'incident OVH, les procĂ©dures judiciaires qui en ont dĂ©coulĂ© et qui ont conduit Ă  la condamnation d'OVH ont mis en Ă©vidence que la sociĂ©tĂ© qui se targuait d'ĂȘtre certifiĂ© ISO 27001 n'a pas respectĂ© la norme pour ne pas avoir prĂ©vu une copie de sauvegarde sur un site distant.

Réponse à l'enjeu de souveraineté

Le respect du RGPD et de la certification SecNumCloud sont une premiĂšre rĂ©ponse Ă  la menace des lois extraterritoriales sur la confidentialitĂ© des donnĂ©es, en parallĂšle le premier ministre de l'Ă©poque a diffusĂ© en 2021 une circulaire relative Ă  la doctrine d'utilisation de l'informatique en nuage par l'État qui a Ă©tĂ© actualisĂ© en 2023. Cette derniĂšre "exige (
) en cas de recours Ă  une offre commerciale d'informatique en nuage, l'hĂ©bergement des donnĂ©es d'une sensibilitĂ© particuliĂšre par des solutions disposant de la qualification SecNumCloud (
) et immunisĂ©es contre toute rĂ©glementation extracommunautaire".
Il faut par ailleurs créer l'environnement pour que des acteurs locaux puissent se développer et former une alternative crédible aux hyperscalers. L'émergence d'acteurs alternatifs de proximité est donc un enjeu que le marché seul ne suffit pas à faire percer, il faut une volonté politique, une stratégie et une vision à long terme, des financements, une adaptation de la réglementation à l'échelle européenne et nationale.
À ce sujet le prĂ©cĂ©dent gouvernement avait concoctĂ© une loi de simplification de la vie Ă©conomique destinĂ©e Ă  faciliter l'installation de datacenters en France en les qualifiant de projets d'intĂ©rĂȘt national majeur (PINM) pour qu'ils puissent bĂ©nĂ©ficier de mesures dĂ©rogatoires, de procĂ©dures accĂ©lĂ©rĂ©es tout en contournant le pouvoir des Ă©lus locaux puisque ça sera l’État qui signera les permis de construire. Avec cette loi la mĂ©tropole de Rennes n'aurait sans doute pas pu refuser l'implantation d'un datacenter de Microsoft s'il avait Ă©tĂ© jugĂ© d'intĂ©rĂȘt national. Aujourd'hui ce projet de loi continue son bonhomme de chemin lĂ©gislatif malgrĂ© l'instabilitĂ© politique actuelle.
Cet objectif de dĂ©veloppement d'une offre de proximitĂ© n'est pas forcĂ©ment compatible des objectifs environnementaux et de dĂ©veloppement durable que la France s'est imposĂ©e, mais il faut voir ça comme une opportunitĂ© pour innover et ne plus ĂȘtre Ă  la traĂźne des États-Unis dans ces domaines technologiques.

En guise de conclusion

D'une simple prĂ©sentation technique autour de la virtualisation, on en arrive en tirant la pelote Ă  des considĂ©rations Ă  fort enjeu sur la gestion et la confidentialitĂ© des donnĂ©es que bien des utilisateurs de cloud n'imaginent pas, ni mĂȘme ne considĂšrent Ă  sa juste importance. Pourtant il suffirait qu'ils en prennent conscience pour orienter leur choix vers des solutions respectueuses qui peinent encore aujourd'hui Ă  Ă©merger malgrĂ© les vƓux pieux de l’État qui n'est pas toujours exemplaire dans le domaine.

Pour aller plus loin

Quelques pages de vulgarisation

Une sélection de sites sur les enjeux et le futur autour de la virtualisation et les datacenters

Sites divers

Commentaires : voir le flux Atom ouvrir dans le navigateur

Projets Libres! Saison 3 Ă©pisode 7 : mesurer le trafic web avec Matomo

Pour bien commencer l'année 2025, Projets Libres! vous propose de parler de mesure de trafic web avec l'outi Matomo.

Les invités :

  • Matthieu Aubry, fondateur de Matomo
  • Laurent Destailleur, fondateur de AWStats

Les thÚmes abordés :

  • les diffĂ©rentes techniques d'analyse de trafic
  • les dĂ©buts de Matthieu dans l'analyse de trafic avec phpMyVisites puis Piwik
  • le changement de Piwik en Matomo
  • les enjeux autour de la marque Piwik
  • les modĂšles Ă©conomiques de Matomo
  • la licence utilisĂ©e
  • la communautĂ© autour de l'outil
  • etc.

À noter qu'une annonce importante de Laurent concernant AWStats se cache en toute fin d'Ă©pisode 📣 !

Bonne Ă©coute !

Commentaires : voir le flux Atom ouvrir dans le navigateur

Entrevue avec Herman BRULE, développeur d'Ultracopier et de CatchChallenger

Herman BRULE est l’auteur et le mainteneur de deux applications (libres sous licence GPL v3, mais aussi proposĂ©es dans des versions payantes « Ultimate ») : l’utilitaire Ultracopier et le jeu CatchChallenger.

Sommaire

Bonjour Herman, peux-tu te prĂ©senter ?

Bonjour !

Sur le plan professionnel, je suis DG de Confiared (hébergement Web et VPS) et de Confiabits (fabrication et assemblage de circuits imprimés), et directeur de la technologie chez CTO chez DanSolutions (FAI).
Par ailleurs, j’aide des associations locales (j’habite en Bolivie) dans des domaines techniques comme les tĂ©lĂ©coms ou le dĂ©veloppement logiciel, j’interviens parfois comme confĂ©rencier sur ces sujets.
Enfin, je participe au conseil d’administration de la section bolivienne de l’Internet Society (ISOC Bolivie).

Peux-tu nous raconter ton parcours ?

J’ai Ă©tudiĂ© l’électronique (BTS STI), puis le dĂ©veloppement web. J’étais d’ailleurs encore Ă©tudiant quand j’ai commencĂ© Ă  dĂ©velopper Ultracopier.
J’ai longtemps travaillĂ© dans l’e-commerce, puis pour des raisons personnelles je suis allĂ© vivre en Bolivie.
J’ai Ă©tĂ© plutĂŽt déçu par la qualitĂ© des offres locales, ici en Bolivie, dans le secteur des technologies de l’information, c’est pourquoi j’ai dĂ©cidĂ© de proposer mes services.

Peux-tu nous parler de ces deux logiciels ?

Ultracopier

Logo de Ultracopier

Comment est nĂ© ce projet ?

J’avais besoin d’un utilitaire avancĂ© pour la copie de fichiers, comme Supercopier, pour une utilisation sous Linux mais ce dernier n’était pas disponible sur cette plateforme.
Ultracopier est donc nĂ© non pas comme un fork de Supercopier mais comme un projet indĂ©pendant : Ă  l’époque, Supercopier Ă©tait Ă©crit en Pascal, et je prĂ©fĂ©rais Ă©crire en C++.

Au final, quand toutes les fonctionnalitĂ©s ont Ă©tĂ© implĂ©mentĂ©es et qu’Ultracopier a disposĂ© d’un skin Supercopier, une redirection a Ă©tĂ© mise en place.

Aujourd’hui, aprĂšs 20 ans, le projet est toujours actif et maintenu, malgrĂ© les problĂšmes de tentative de piratage, bug, DDOS, et les Ă©volutions technologiques.

Quels sont les points marquants qui ont, selon toi, marquĂ© son dĂ©veloppement ?

AprĂšs la reprise de Supercopier, qui a permis de fĂ©dĂ©rer sa base d’utilisateurs autour d’Ultracopier, il y a eu de nouvelles fonctionnalitĂ©s au fil du temps :

  • la prise en charge de gros volumes (>5TB >10 millions de fichiers)
  • les extensions (plugins) et thĂšmes graphiques (skins), dont le dĂ©veloppement m’a poussĂ© Ă  standardiser l’interface pour la rĂ©utilisation par des applis tierces.

Quel est le modĂšle Ă©conomique ?

C’est assez peu connu mais Ultracopier est proposĂ© dans deux versions : une gratuite (installable depuis le gestionnaire de paquets d’Ubuntu notamment) et une version « Ultimate ». Cette version, payante, est enrichie de fonctionnalitĂ©s comme

  • la mise en pause,
  • la limitation du taux de transfert,
  • d’autres options de performance selon le systĂšme d’exploitation utilisĂ© et inclut un support technique.

Pour ĂȘtre honnĂȘte, les utilisateurs de la version payante sont trĂšs peu nombreux : une Ă©crasante majoritĂ© utilisent la version gratuite et d’autres piratent la version payante.

Ma vie professionnelle et mon engagement Ă  l’ISOC Bolivie sont trĂšs chronophages, je ne compte pas mes heures sur mes principales activitĂ©s d’hĂ©bergeur et de FAI, et Ă  une usine de fabrication d’équipements rĂ©seau pour ces besoins.

J’ai quand mĂȘme publiĂ© de l’open source comme le firmware OpenWRT pour le routeur wifi 6 que je fabrique.

Des dons ou des achats sont bienvenus pour que je puisse me concentrer davantage Ă  l’open source ;) Je crois que beaucoup de dĂ©veloppeurs open source sont dans cette problĂ©matique.
Heureusement, l’hĂ©bergement ne coĂ»te presque rien car j’utilise mon propre service, et je suis le seul contributeur.

Quelles sont les fonctionnalitĂ©s les plus attendues que tu penses implĂ©menter ?

Je souhaiterais amĂ©liorer l’intĂ©gration d’Ultracopier dans les gestionnaires de fichiers sous Linux ou MacOs, mais ce n’est pas chose facile. Pendant des annĂ©es j’ai essayĂ© de faire modifier les gestionnaires de fichiers pour avoir la possibilitĂ© de replacer le copier/coller par Ultracopier. Rien. Soit je suis ignorĂ©, soit je suis refusĂ© (motif de refus rĂ©curent : je devrais refaire Ultracopier en « natif » : GTK, KIO, Haiku
), je me vois mal maintenir divers UI. Les votes sur demande de fonctionnalitĂ©s sont les bienvenus, par exemple ici pour KDE/Plasma.

Je veux aussi implémenter un moteur async natif sous linux (en utilisant io_uring) pour de meilleures performances.

As-tu eu des Ă©changes/retours avec les autres logiciels ou Ă©diteurs (communautĂ© linux / autres Ă©diteurs) ?

Non. J’ai essayĂ© de faire que le protocole d’envoi de copie/dĂ©placement Ă  un logiciel tiers soit un standard avec un protocole commun pour motiver les gestionnaires de fichiers Ă  l’utiliser, je n’ai reçu que des rĂ©ponses nĂ©gatives :/

Peux-tu partager des souvenirs marquants de cette expĂ©rience ?

Durant toutes ces annĂ©es, conscient que la copie de donnĂ©es est un sujet qui peut ĂȘtre trĂšs sensible, j’ai veillĂ© Ă  ĂȘtre rĂ©actif aux retours des utilisateurs : dĂšs que quelque chose d’anormal m’est reportĂ©, je m’assure de vĂ©rifier/corriger et de publier trĂšs rapidement. Je pense qu’Ultracopier garantit bien l’intĂ©gritĂ© des donnĂ©es lors des copies, parfois mieux que des copies par l’outil du systĂšme. Par exemple, si pendant le dĂ©placement de fichiers vers un lecteur rĂ©seau ce lecteur rĂ©seau se dĂ©connecte, alors Windows peut dĂ©truire la source sans avoir pu valider l’intĂ©gritĂ© rĂ©elle du fichier cible. Il faut reproduire un contexte trĂšs particulier, mais ça c’est vu.

MalgrĂ© cette attention, il m’est arrivĂ© de recevoir des insultes de certains utilisateurs, allant jusqu’à des menaces de mort. J’ai une bonne collection de conversations de ce genre ! Il s’agit d’une minoritĂ© d’utilisateurs, en majoritĂ© des dĂ©butants en informatique et qui n’ont pas utilisĂ© correctement l’outil, ou plus gĂ©nĂ©ralement leur ordinateur.

Par ailleurs, le spam et les tentatives de piratage (dont une pour rediriger les paiements des versions "Ultimate » !) auront eu raison des pages Wiki et Maintenance du site, faute de temps pour la modĂ©ration.

Il me semble tout de mĂȘme que la majoritĂ© silencieuse (= celle qui dit rarement merci ;) ) est dans l’ensemble trĂšs satisfaite des services rendus par Ultracopier, et cela est motivant. Pour moi, le point le plus positif est surtout l’acquis de connaissances.

CatchChallenger

Logo de CathChallenger

Quelle est l’origine de ce jeu ?

Je cherchais Ă  me familiariser avec la programmation autour de sujets relatifs aux clients/serveurs, comme les protocoles, la haute performance, le chiffrement, et aussi les bots
 â€Šet le dĂ©veloppement d’un jeu est le moyen ludique par excellence !

Vu qu’il n’y a pas de temps rĂ©el, je peux jouer avec TOR/I2P (un bon moyen de tester la sĂ©curitĂ©), pas de flottant donc cela marche sur tous les CPU, y compris ceux de plus de trente ans et les architectures exotiques comme celles que l’on trouve dans les routeurs (MIPS
).

C’est un mix de plusieurs jeux au gameplay de type crafting (Ă  la lineage/X3/minecraft) qui m’intĂ©ressait pour les techniques ce que ce genre implique.

Quels sont les points marquants qui ont, selon toi, marquĂ© son Ă©volution ?

Version 1 : j’ai essayĂ© de m’éloigner visuellement d’un jeu bien connu auquel mon jeu pouvait ĂȘtre associĂ©.

Version 2 : j’ai abandonnĂ© Qt niveau serveur car trop lent niveau SLOT/SIGNAL, et revu le thĂšme graphique avec des couleurs plus chaudes, mĂȘme si ça me rapproche d’un autre jeu connu.

Version 3 : modularité/API et interface responsive, refonte du datapack.

Est-il facile de monter son propre serveur? Ou de modifier le jeu ?

Le client intĂšgre un serveur embarquĂ© pour jouer en solo, qui peut ĂȘtre ouvert sur un rĂ©seau local ou sur Internet.

Le serveur a une interface graphique et une version console (avec diverses bases de donnée supportées, y compris du noSQL)

Le datapack est facilement interchangeable et tout est fait pour qu’un enfant puisse le modifier (png, xml, tmx, opus)

Y a-t-il d’autres contributeurs ?

Non

y a-t-il des fonctionnalitĂ©s importantes qui ne seront pas dĂ©veloppĂ©es, et pourquoi ?

Il y en a beaucoup, par manque de temps. Je n’ai jamais atteint un stade de maturitĂ© sur le jeu de base qui me convient, donc je me concentre lĂ -dessus. Par exemple, je me suis lancĂ© sur le multithreading GPU cĂŽtĂ© serveur : j’ai pu lancer des tests sur GPU, cela fonctionne bien mais complexifie trop le dĂ©veloppement sans apporter un rĂ©el bĂ©nĂ©fice.

Quel est le rapport avec tes autres projets ?

Avec ce projet, j’ai vite eu besoin d’un grand nombre de VPS, cela m’a incitĂ© Ă  m’intĂ©resser aux datacentres et Ă  monter modestement mon premier datacentre. De fil en aiguille, j’en ai fait mon activitĂ© :)

J’ai aussi eu besoin de connexions, de haute performance et de haute disponibilitĂ©. Curieux, je me suis lancĂ© dans la conception de mon hardware : onduleur, alimentation solaire


Qu’as-tu retirĂ© de ce projet ?

J’ai Ă©tĂ© surpris par les performances, pour un code qui n’est pas en assembleur et qui pourrait encore ĂȘtre optimisĂ© : des millions de joueurs sur un CPU de bureau par serveur. Vous saturez l’écran de bots bien avant de saturer le CPU, mĂȘme un trĂšs vieux CPU ou un microcontrĂŽleur de routeur, et la charge en RAM ne dĂ©passe pas quelques Mo.

La prĂ©diction cĂŽtĂ© client (Client-side prediction), les instructions prĂ©parĂ©es (SQL parameterized statement) sont trĂšs efficaces, je charge tout en RAM sous forme d’entier <=32Bits. Vu qu’il faut des performances bien supĂ©rieures du client pour surcharger un serveur, il y a peu de chance qu’on m’attaque via DDOS.

Quels conseils avec le recul donnerais-tu Ă  ceux qui entreprendraient de se lancer ?

Ne faites pas de projets que vous n’allez pas maintenir, aussi bien pour vous que pour ceux qui vont les utiliser.

Aussi, ne vous lancez pas sur un projet que mille autres personnes ont dĂ©jĂ  fait avant vous, il y a une tonne de projets de niche qui n’ont pas de solution open source !

Ton rapport au libre

Au niveau personnel, quels logiciels libres utilisez-vous, sur quel OS ?

J’utilise Gentoo Linux et presque que du libre.

MĂȘme question au niveau professionnel ?

En gĂ©nĂ©ral j’essaie de faire le modĂšle pro suivant : quand un logiciel a Ă©tĂ© rentabilisĂ©, je le libĂšre.

Niveau data center, on fonctionne en IPv6 avec des logiciels de conversion pour, par exemple, passer de HTTP IPv4 à IPv6, si tu ajoutes tous les services internes + gestionnaires, ça fait mal pas de logiciels.

Niveau industrie, je produis des onduleurs, des serveurs, des routeurs datacentres et domestiques (wifi 6 OpenWRT), avec les difficultĂ©s ici pour importer je dois faire avec ce que je trouve sur place (et il n’y a quasiment rien pour la microĂ©lectronique).

Niveau FAI, rien Ă  voir avec ce qu’il y a en France, entre les blocages politiques et administratifs (j’attends certaines autorisations depuis de nombreuses annĂ©es), les monopoles
 rien n’avance. Mais malgrĂ© ces difficultĂ©s j’ai pu innover et proposer des solutions efficaces pour des communautĂ©s locales, grĂące Ă  des logiciels libres.

Merci pour ce partage, et pour ton apport au libre ! Nous te souhaitons beaucoup de succĂšs dans tes nombreux projets pour 2025 !

Commentaires : voir le flux Atom ouvrir dans le navigateur

L’exploration et le calcul de l’espace : l’horlogĂšre, l’astronome et l’astrophysicienne

31 décembre 2024 à 09:14

En octobre 2024, on Ă©tait allĂ© Ă  la conquĂȘte de l’espace, cette fois-ci, on va se concentrer sur l’exploration de l’espace vu de la Terre. Pour cela, on se penchera sur la vie et les travaux de trois femmes : Nicole-Reine Lepaute qui, au siĂšcle des LumiĂšres, a calculĂ© la date du retour de la comĂšte de Halley, Janine Connes qui prendra la direction du premier centre de calcul en France et Françoise Combes qui vient d’ĂȘtre Ă©lue prĂ©sidente de l’AcadĂ©mie des sciences. C’est aussi l’occasion de voir l’évolution des outils utilisĂ©s en astronomie.

Phases de l’éclipse du soleil du 1er avril 1764
Illustration des douze phases principales selon les calculs de Nicole-Reine Lepaute

Sommaire

Préambule

Les deux dĂ©pĂȘches consacrĂ©es Ă  la conquĂȘte de l’espace dans le cadre de la journĂ©e Ada Lovelace Ă©taient trĂšs amĂ©ricano-centrĂ©es, et il manquait l’aspect Ă©tude et dĂ©couverte de l’espace qui en prĂ©cĂšde la conquĂȘte. Sans cette connaissance, il n’aurait pas Ă©tĂ© possible d’envoyer des satellites artificiels, d’aller sur la Lune, sur Mars ou encore de crĂ©er des stations spatiales, voire, de concevoir les tĂ©lescopes Hubble et James Webb. D’oĂč cette dĂ©pĂȘche, et le choix de ces trois femmes pour contrebalancer un peu leur amĂ©ricano-centrisme.

Le choix a Ă©tĂ© guidĂ© d’une part en tenant compte des informations dont je pouvais disposer, d’autre part de l’actualitĂ© : Janine Connes vient de mourir Ă  l’ñge de 98 ans et c’est une façon de lui rendre hommage, Françoise Combes vient d’ĂȘtre Ă©lue par ses pairs Ă  la prĂ©sidence de l’AcadĂ©mie des sciences.

Nicole-Reine Lepaute, l’horlogùre

La vie de Nicole-Reine Lepaute nous est essentiellement connue grĂące Ă  l’EncyclopĂ©die des dames de JĂ©rĂŽme Lalande. De fait les biographies que l’on peut trouver sur elle citent les mĂȘmes passages en Ă©lucubrant souvent sur les relations qu’elle aurait pu avoir avec l’astronome. Mais comme LinuxFr.org n’est ni un site « people Â» ni un site de rencontre et que l’autrice de l’article n’aime gĂ©nĂ©ralement pas faire comme tout le monde, on vous renverra en fin de dĂ©pĂȘche sur ces biographies.

Nicole-Reine Lepaute en quelques dates (et hauts faits)

Nicole-Reine Étable naĂźt le 5 janvier 1723 Ă  Paris. Elle n’est pas elle-mĂȘme horlogĂšre, mais elle Ă©pouse l’horloger Jean AndrĂ© Lepaute en 1749. Il deviendra le fournisseur officiel de la cour de Louis XV en 1750. Jean AndrĂ© Lepaute Ă©tait rĂ©putĂ© comme l’un des meilleurs horlogers de son temps. Quand il Ă©crira son TraitĂ© d'horlogerie, contenant tout ce qui est nĂ©cessaire pour bien connoĂźtre et pour rĂ©gler les pendules et les montres, c’est Nicole-Reine qui calculera la « longueur que doit avoir un Pendule simple pour faire en une heure un nombre de vibrations quelconque, depuis 1 jusqu’à 18000 Â» (table VI, pages 365 et suivantes du traitĂ©). Et on le sait parce qu’elle en est crĂ©ditĂ©e.

Le couple fait la connaissance de l’astronome JĂ©rĂŽme Lalande en 1754. Elle commencera peu aprĂšs Ă  travailler avec lui. En 1757, elle calculera les dates du retour de la comĂšte de Halley avec Lalande et Clairaut. Quand, en 1759, Lalande est chargĂ© des Ă©phĂ©mĂ©rides annuelles de l’AcadĂ©mie royale des sciences : La Connaissance des temps1, elle fera partie de l’équipe qui travaille sur les tables et Ă©phĂ©mĂ©rides astronomiques.

En 1761, elle entre Ă  l’AcadĂ©mie royale des sciences et belles lettres de BĂ©ziers. C’est, probablement, la premiĂšre fois qu’une femme entre dans une acadĂ©mie pour ses travaux scientifiques. Elle offre aux acadĂ©miciens les tables astronomiques pour BĂ©ziers qu’elle avait compilĂ©es Ă  leur intention. Malheureusement ses travaux sont perdus.

En 1764, une Ă©clipse est prĂ©vue, pour Ă©viter une Ă©ventuelle panique, le clergĂ© est invitĂ© Ă  informer le peuple du caractĂšre inoffensif de ce phĂ©nomĂšne cĂ©leste. Nicole-Reine Lepaute calculera les phases de l’éclipse et en dressera une carte. Elle fera publier deux documents :

Elle meurt, aveugle, le 6 dĂ©cembre 1783, elle aura passĂ© les trois derniĂšres annĂ©es de sa vie Ă  s’occuper de son mari loin des mathĂ©matiques. Son acte de dĂ©cĂšs figure sur le site archive.org.

Elle ne reste pas complĂštement oubliĂ©e. Ainsi, quand une nouvelle Ă©dition de la Bibliographie ancienne et moderne ou (en nettement plus long) Histoire, par ordre alphabĂ©tique, de la vie publique et privĂ©e de tous les hommes qui se sont distinguĂ©s, par leurs Ă©crits, leurs actions, leurs talens, leurs vertus ou leurs crimes paraĂźt en 1820, elle a sa notice relevĂ©e ici par le Journal des dames et de la mode. SignĂ©e d’un certain M. Weiss, elle porte cette mention :

Mme Lepaute, douĂ©e de tous les avantages extĂ©rieurs, portoit dans la sociĂ©tĂ© cette politesse et cette fleur d’esprit, que semblent exclure les Ă©tudes profondes


Le numĂ©ro du 15 fĂ©vrier 1898 du bi-mensuel La Femme (page 28) dresse un portrait de Nicole-Reine Lepaute en ajoutant :

Telle fut la vie pure et simple de celle que Clairaut appelait « la savante calculatrice Â». Plus grande lorsqu’elle partageait l’internement de son mari dans une maison de santĂ© que lorsqu’elle compulsait les tables astronomiques.

Et en concluant plus gĂ©nĂ©ralement :

« L’examen attentif des faits, des biographies. l’étude de la vĂ©ritĂ© historique devraient rassurer les esprits chagrins. La famille n’est pas en pĂ©ril parce que les filles s’adonnent aux mĂȘmes Ă©tudes que les garçons et osent aspirer Ă  des carriĂšres libĂ©rales et scientifiques. Â» Le revenu qu’une jeune fille peut se procurer courageusement, dignement par son travail, Ă  l’aide des diplĂŽmes qu’elle a remportĂ©s dans les concours par son Ă©nergie, sont un appoint pour couvrir les dĂ©penses d’un mĂ©nage futur et assurer l’éducation libĂ©rale des enfants Ă  venir, qui facilite l’établissement des jeunes Ă©poux. Un diplĂŽme, c’est une dot dont la fiancĂ©e qui l’apporte dans une corbeille de mariage peut ĂȘtre justement fiĂšre, et, loin d’ĂȘtre un obstacle Ă  fonder une famille, c’est une valeur qui favorise le mariage.

Les outils des astronomes au XVIIIe siĂšcle

Il n’est pas possible de savoir ce que Nicole-Reine Lepaute utilisait pour ses calculs. Il est en revanche envisageable de dresser une liste des outils dont les astronomes disposaient pour explorer l’espace et calculer les mouvements des astres.

Pour observer et cataloguer les astres, les astronomes du 18e siĂšcle disposaient des lunettes d’astronomie. La paternitĂ© de leur invention est souvent attribuĂ©e Ă  GalilĂ©e qui a construit sa premiĂšre lunette en 1609. On trouve une premiĂšre description de ce type d’instrument dĂ©jĂ  en 1538 dans l’Homocentrica (texte-image en latin) de JĂ©rĂŽme Fracastor2. En 1608, l’opticien hollandais Hans Lippershey dĂ©pose un brevet pour des lunettes astronomiques qui lui sera refusĂ©, car :

il Ă©tait notoire que dĂ©jĂ  diffĂ©rentes personnes avaient eu connaissance de l’invention. L’optique par Fulgence Marion (texte-image) (source Gallica BnF).

On doit l’invention du tĂ©lescope Ă  Isaac Newton en 1668. Son idĂ©e Ă©tait d’ajouter un miroir : il fallait pour augmenter la puissance des lunettes astronomiques (et autres longues-vues et jumelles d’ailleurs) augmenter l’épaisseur de la lentille en perdant en prĂ©cision. L’ajout d’un miroir concave donne une meilleure qualitĂ© d’image et permet d’augmenter la taille des tĂ©lescopes. Est-ce que Lalande ou Nicole-Reine Lepaute pouvaient disposer d’un tĂ©lescope ? Dans l’EncyclopĂ©die des dames, Lalande mentionne un « un tĂ©lescope de trente deux pouces qui coĂ»te environ dix Louis Â» qui suffit pour « voir ce qu’il y a de plus singulier dans le ciel Â».

Concernant les outils de calcul : il ne fait aucun doute qu’elle a pu et dĂ» utiliser les diffĂ©rentes tables existantes. À son Ă©poque, on utilisait divers abaques pour compter, par exemple un systĂšme de jetons, utilisĂ© notamment dans le commerce. Il est possible qu’elle ait eu connaissance, en femme cultivĂ©e, de la Pascaline, voire, de la machine Ă  calculer de Leibniz. Mais il est peu probable qu’elle les ait utilisĂ©es, notamment parce que ces machines ont Ă©tĂ© peu diffusĂ©es. Elle a pu, en revanche, utiliser les bĂątons de Napier (francisĂ© en Neper). Et elle utilisait certainement la bonne vieille mĂ©thode du papier et du crayon ou plutĂŽt de la plume, ou « calcul indien Â» qui est celle que l’on apprend Ă  l’école actuellement. Cette mĂ©thode est arrivĂ©e en Europe au XIIe siĂšcle et a Ă©tĂ© adoptĂ©e par le monde scientifique assez rapidement mais pas dans les classes les moins instruites de la population.

Nicole-Reine Lepaute aurait pu aussi utiliser une rĂšgle Ă  calcul, les premiĂšres ont Ă©tĂ© inventĂ©es au XVIIe siĂšcle, mais elles n’ont vraiment commencĂ© Ă  s’implanter en France qu’au XIXe siĂšcle.

Janine Connes, l’astronome

Aussi paradoxal que cela puisse ĂȘtre, il y a encore moins d’élĂ©ments biographiques concernant Janine Connes que pour Nicole-Reine Lepaute. Son obituaire ne comporte aucun Ă©lĂ©ment informatif autre que le strict minimum (nom et date). En revanche, on a la liste de ses publications et on peut mĂȘme accĂ©der Ă  certaines.

De la spectroscopie infrarouge Ă  transformĂ©e de Fourier au centre de calcul d’Orsay

Janine Connes naĂźt en 1926. Elle Ă©pouse l’astronome Pierre Connes avec qui elle mĂšnera diverses recherches. Elle meurt le 28 novembre 2024 Ă  Orsay, presque centenaire (98 ans).

En 1954, son professeur, le physicien Pierre Jacquinot lui suggĂšre un sujet de thĂšse :

Il s’agissait de faire des TransformĂ©es de Fourier (TF) de 1 million de points.
Pierre Jacquinot faisait partie de mon jury cette annĂ©e-lĂ , et Ă  l’issue du concours il m’avait proposĂ© de faire une thĂšse dans son Laboratoire AimĂ© Cotton (LAC) alors spĂ©cialisĂ© en spectroscopie atomique et dĂ©veloppements instrumentaux. Le sujet proposĂ© Ă©tait la spectroscopie par transformation de Fourier qui thĂ©oriquement devait battre en rĂ©solution et en Ă©tendue spectrale tous les records des rĂ©seaux et des interfĂ©romĂštres de Fabry-Perot. (Janine Connes, in De l’IBM 360/75 au superordinateur Jean Zay, chapitre 1).

La spectroscopie infrarouge Ă  transformĂ©e de Fourier (IRTF ou FTIR en anglais) sur laquelle Janine Connes a basĂ© sa thĂšse est une mĂ©thode d’analyse basĂ©e sur les ondes infrarouges :

Ces ondes vont de 12 800 cm-1 Ă  10 cm-1 et sont divisĂ©es en trois groupes: le proche infrarouge, le moyen infrarouge et l’infrarouge lointain. La FTIR utilise quant Ă  elle le moyen infrarouge qui s’étend de 4 000 cm-1 Ă  400 cm-1 (2,5 Â”m Ă  25 Â”m).
Quand une onde infrarouge est envoyĂ©e sur une molĂ©cule, cette derniĂšre absorbe une partie de l’onde qui correspond aux liaisons prĂ©sentes dans la molĂ©cule. L’absorption du rayonnement infrarouge ne peut avoir lieu que si la longueur d’onde correspond Ă  l’énergie associĂ©e Ă  un mode particulier de vibrations de la molĂ©cule. (Spectroscopie infrarouge Ă  transformĂ©e de Fourier (FTIR), A. Bonneau, Association des ArchĂ©ologues du QuĂ©bec).

Comme on peut le voir, c’est une technique utilisĂ©e dans des domaines trĂšs diffĂ©rents, incluant donc l’astronomie. Sa thĂšse en Ă©tablira les principes en astronomie. Actuellement la :

mĂ©thode de Fourier conserve toutefois quelques niches spĂ©cifiques, comme dans le domaine de l’infrarouge lointain spatial ou pour la spectroscopie intĂ©grale de grands champs. La spectroscopie de Fourier en astronomie : de ses origines Ă  nos jours, Jean-Pierre Maillard, 21 dĂ©cembre 2017 (Observatoire de Paris).

La page qui lui est consacrĂ©e (en) sur le site CWP (Century Women to Physics) de l’UCLA (UniversitĂ© de Californie Ă  Los Angeles) indique que sa thĂšse, ainsi que ses publications suivantes, ont Ă©tĂ© d’une importance majeure et a posĂ© les bases de ce qui allait devenir un nouveau et important domaine de recherche qui rend les transformĂ©es de Fourier rapides et relativement courantes :

Janine Connes's analysis of the technique of Fourier Transform Infrared Spectroscopy was of major significance and laid the foundations of what was to grow into a significant new field. Her thesis work and subsequent publications gave in-depth theoretical analysis of numerous practical details necessary for this experimental technique to work. All the more remarkable is that her work predates the age of digital computers, which now make fast Fourier Transforms relatively routine. Mary R. Masson

En 1960, elle Ă©crit avec le physicien H. P. Gush une Étude du ciel nocturne dans le proche infra-rouge dans lequel les deux auteurs remercient notamment le ComitĂ© EuropĂ©en de Calcul Scientifique pour ses attributions d’heures de calcul Ă  l’ordinateur 704 I.B.M.

En 1961, elle publie une sĂ©rie de quatre articles, seule ou avec d’autres chercheurs : Études spectroscopiques utilisant les transformations de Fourier. Pour le professeur Ian McLean, fondateur du laboratoire infrarouge de l’UCLA, ce sont des « travaux fondamentaux d’une importance extrĂȘme pour le domaine Â». Le travail de Janine et de Pierre Conne sur les transformations de Fourier aura notamment permis Ă  Lewis Kaplan de dĂ©terminer, en 1966, la composition de l’atmosphĂšre de Mars (en).

ParallĂšlement Ă  cela, elle enseigne Ă  la facultĂ© de Sciences de Caen. En 1963, elle sera invitĂ©e avec Pierre Connes Ă  rejoindre le Jet Propulsion Laboratory de la NASA Ă  Pasadena. De retour en France, elle commencera par intĂ©grer le laboratoire de Meudon au poste de directrice adjointe avant de se voir confier en 1969 la crĂ©ation et la direction du Centre Inter-RĂ©gional de Calcul Électronique (CIRCÉ) Ă  Orsay.

En 1970, l’astronome Ruper Wildt la propose, avec son mari, Pierre Connes, et le physicien Robert Benjamin Leighton pour le prix Nobel de physique pour « leur dĂ©veloppement de la mĂ©thode de spectroscopie infrarouge Ă  transformĂ©e de Fourier Â». Le prix sera attribuĂ©, finalement, Ă  Louis NĂ©el.

En 2022, elle Ă©crit avec la participation de Françoise Perriquet : De l’IBM 360/75 au superordinateur Jean Zay 50 ans d’informatique au centre de calcul du CNRS d’Orsay.

Les ordinateurs de ses débuts et le centre Jean Zay

Ce sont l’IBM 704 et l’IBM 360/75 dont on va voir quelques caractĂ©ristiques techniques.

L’IBM 704 Ă©tait la plus grande machine du monde. Il avait fallu deux avions pour la transporter des États-Unis Ă  Orly. Son arrivĂ©e en France avait fait l’objet d’une Ă©mission de la Radio TĂ©lĂ©vision française (RTF). Le prĂ©sentateur interrogeait la personne chargĂ©e de rĂ©ceptionner l’ordinateur au titre de l’Institut europĂ©en de calculs scientifiques, une fondation IBM, destinĂ©e Ă  offrir aux scientifiques europĂ©ens (pas seulement français) la possibilitĂ© de procĂ©der Ă  des calculs, jusque-lĂ  peu envisageables.

Les mentions en italiques sont des citations tirĂ©es de l’émission.

L’IBM 704 pesait 21 tonnes. Celui reçu Ă  Orly Ă©tait composĂ© de « 25 unitĂ©s diffĂ©rentes constituants chacun autant de petits meubles de dimension normale Â». Ne sachant pas ce qu’est un meuble aux « dimensions normales Â», on peut se donner une idĂ©e de la taille des Ă©lĂ©ments en se rĂ©fĂ©rant aux photos : environ la profondeur et la largeur de, disons, une armoire normande, mais en moins haut, quelque chose entre 1,10 m et 1,60 m selon les Ă©lĂ©ments.

Il fonctionnait avec des bandes magnĂ©tiques et pouvait :

  • en physique, s’occuper du dĂ©pouillement de donnĂ©es de mesure,
  • faciliter l’exploitation de l’énergie atomique Ă  des fins pacifiques,
  • faire des calculs en chimie,
  • faire des calculs dans tous les domaines de l’industrie et de la science.

Dans l’émission de radio, le prĂ©sentateur demandait Ă  la fin un exemple de traitement que pouvait faire l’IBM :

Neper a passĂ© plus de trente ans de sa vie Ă  Ă©tablir les tables de logarithmes et l’ordinateur 704 pourrait exĂ©cuter le mĂȘme travail en le transcrivant sur des bandes magnĂ©tiques en dix-sept secondes Ă  peu prĂšs.

Sorti en 1954, c’est le premier ordinateur commercialisĂ© Ă  utiliser des commandes arithmĂ©tiques en virgule flottante entiĂšrement automatiques et ce grĂące Ă  John Backus qui avait insistĂ© pour que ce soit configurĂ© au niveau du matĂ©riel.

L’IBM 360/75 qui Ă©quipait CIRCÉ faisait partie d’une gamme d’ordinateurs interopĂ©rables et polyvalents IBM 360 dont le premier est sorti en 1966 (la numĂ©rotation des sĂ©ries d’ordinateurs chez IBM est Ă©tonnante). Les IBM 360 seront commercialisĂ©s jusqu’en 1978. Ce sont les premiers Ă  avoir utilisĂ© le systĂšme Solid Logic Technology (SLT). L’IBM 360/30 Ă©tait le plus lent de la sĂ©rie ; il pouvait exĂ©cuter jusqu’à 34 500 instructions par seconde avec une mĂ©moire allant de 8 Ă  64 ko. Le 360/75 est l’un des derniers de la sĂ©rie.

Ces ordinateurs Ă©taient Ă©videmment programmĂ©s en FORTRAN. D’ailleurs, le premier compilateur FORTRAN a Ă©tĂ© Ă©crit pour l’IBM 704.

Le centre Jean Zay, que l’on peut considĂ©rer comme l’un des successeurs de CIRCÉ a Ă©tĂ© inaugurĂ© en janvier 2020. C’est l’un des plus puissants centres de calcul d’Europe. Sa puissance est de 125,9 PĂ©taflop/s. Il a coĂ»tĂ© 40 M€, coĂ»te en Ă©lectricitĂ© 3 Ă  4 M€ par an et il requiert 93 tonnes d’équipement rĂ©parti sur 320 m2 (source MinistĂšre de l’enseignement et de la recherche). Il tourne sous Linux Ă©videmment, comme tous les supers calculateurs de sa gĂ©nĂ©ration.

Françoise Combes, l’astrophysicienne

Quelle diffĂ©rence y a-t-il entre les mĂ©tiers d’astronome et d’astrophysicien ? À cette question, wikidifference propose :

La diffĂ©rence entre astronome et astrophysicien est que « astronome Â» est celui ou celle qui s’occupe d’astronomie tandis que « astrophysicien Â» est [un ou une] scientifique qui Ă©tudie l’astrophysique, l’étude de l’espace et des propriĂ©tĂ©s des objets de l’univers.

Pas trĂšs convaincant, ni explicite. Les astronomes observent et cataloguent l’espace sur la base d’observations quand, en astrophysique, on se base sur les lois de la physique pour observer l’univers. En fait, Ă  l’heure actuelle, les personnes qui, au dĂ©part, Ă©taient astronomes sont maintenant des astrophysiciennes : la connaissance a Ă©voluĂ©, les mĂ©thodes de recherche aussi ainsi que les outils. Mais, Ă©videmment, les astronomes sont, ont Ă©tĂ© des scientifiques, souvent diplĂŽmĂ©s en physique.

De la physique galactique Ă  l’AcadĂ©mie des sciences

Françoise Combes naĂźt le 12 aoĂ»t 1952. En 1975, elle rĂ©ussit l’agrĂ©gation de physique ce qui l’amĂšnera Ă  enseigner Ă  l’École normale supĂ©rieure (ENS) dont elle est issue. Elle soutient sa thĂšse d’État Ă  Paris VII en 1980, sujet de la thĂšse : les dynamiques et les structures des galaxies. En 1985, elle devient sous-directrice du laboratoire de physique Ă  l’ENS (Ulm). Et c’est en 1989 qu’elle devient astronome Ă  l’Observatoire de Paris. Elle est, depuis 2014, titulaire de la chaire Galaxies et cosmologie au CollĂšge de France.

Pendant cette pĂ©riode, 1970 -1980, qui voit la naissance des premiĂšres simulations numĂ©riques des galaxies, elle a l’idĂ©e de les faire en trois dimensions au lieu des deux dimensions habituelles. Elle ainsi pu rĂ©soudre :

un mystĂšre jusqu’alors inexpliqué : la formation d’un bulbe (sorte de renflement) dans les galaxies spirales. La clĂ© de l’énigme est la barre centrale, sorte de forme allongĂ©e centrale oĂč toutes les Ă©toiles se rassemblent. « Cette barre soulĂšve les Ă©toiles dans la direction perpendiculaire au plan, explique-t-elle. De ce fait, les Ă©toiles ne restent pas confinĂ©es dans un disque trĂšs mince mais prennent de l’altitude, ce qui forme un bulbe. Â» Ses simulations ont aussi montrĂ© comment la mĂȘme barre prĂ©cipite le gaz vers le centre, ce qui a pour effet d’alimenter le trou noir central. MĂ©daille d’or, site CNRS.

Elle a Ă©tĂ© admise Ă  l’AcadĂ©mie des sciences3 en 2004, une acadĂ©mie dont elle assure la vice-prĂ©sidence pour le mandat 2023-2024 et qui l’élit Ă  la prĂ©sidence pour le mandat 2025-2026. Une Ă©lection qui devrait normalement ĂȘtre ratifiĂ©e par dĂ©cret par le prĂ©sident de la RĂ©publique. Ce sera la deuxiĂšme femme Ă  la tĂȘte de cette vĂ©nĂ©rable institution (elle a Ă©tĂ© crĂ©Ă©e en 1666) oĂč elle succĂšde Ă  Alain Fischer et trente ans aprĂšs la biochimiste Marianne Grunberg-Manago

Des prix prestigieux et des publications

Françoise Combes a engrangĂ© les prix et les distinctions au cours de sa carriĂšre Ă  commencer par le prix de Physique IBM qu’elle obtient en 1986 et le prix Petit d'Ormoy de l’AcadĂ©mie des Sciences en 1993. En 2001, le CNRS lui dĂ©cerne une mĂ©daille d’argent.

En 2009, elle obtient le prix Tycho Brahe de la SociĂ©tĂ© europĂ©enne d’astronomie (EAS) dont c’est la deuxiĂšme Ă©dition pour ses

travaux fondamentaux dans le domaine de la dynamique des galaxies, sur le milieu interstellaire dans les systĂšmes extragalactiques, sur les lignes d’absorption molĂ©culaire dans le milieu intergalactique et sur la matiĂšre noire dans l’Univers. Â» CommuniquĂ© de presse (en anglais) de l’EAS (pdf).

En 2017 la SociĂ©tĂ© Astronomique de France (SAF) lui dĂ©cerne son prix Jules-Janssen. En 2020, le CNRS lui dĂ©cerne une mĂ©daille d’or. L’annĂ©e suivante, elle obtient le prix international pour les femmes de sciences L’OrĂ©al-Unesco (en).

Elle est autrice ou co-autrice de plusieurs livres dont les plus rĂ©cents :

  • Le Big bang, PUF 2024, collection Que sais-je ?, en version papier (10 â‚Ź) et numĂ©rique (PDF et EPUB)
  • Trous noirs et quasars, CNRS Ă©ditions 2021, collection Les grandes voix de la recherche, en papier (8 â‚Ź), numĂ©rique PDF et EPUB sans DRM (5,99 â‚Ź) et audio (9,99 â‚Ź).

Par ailleurs, l’entretien qu’elle a donnĂ© au CollĂšge de France en fĂ©vrier 2024 est aussi tĂ©lĂ©chargeable en PDF.

Sources, références et remerciements

L’illustration de tĂȘte est la reproduction de la gravure originale des phases de l’éclipse (je l’ai redessinĂ©e avec Inkscape) et on peut la tĂ©lĂ©charger sur mon site de modĂšles ainsi d’ailleurs que le CV de Nicole-Reine Lepaute ou sur OpenClipart.

LinuxFr.org ne rend peut-ĂȘtre pas plus intelligent, mais la rĂ©daction de dĂ©pĂȘches pour le site rend indĂ©niablement plus savant. Pour cette dĂ©pĂȘche et compenser une grande ignorance du sujet, j’ai Ă©tĂ© amenĂ©e Ă  lire, consulter, parcourir ou Ă©couter un certain nombre de documents en plus de ce qui est citĂ© dans le corps de la dĂ©pĂȘche. À vous de voir si vous avez envie de poursuivre l’exploration.

Nicole-Reine Lepaute

Janine Connes

  • Spectroscopie du ciel nocturne dans l’infrarouge par transformation de Fourier. J. Connes, H.P. Gush, Journal de Physique et le Radium, 1959, 20 (11), pp.915-917. 10.1051/jphysrad:019590020011091500, jpa-00236163
  • Tous les articles de J. Connes sur HAL Science ouverte, Ă  savoir : il y a un site academia.eu, mieux rĂ©fĂ©rencĂ©, qui les propose moyennant une inscription au site, mais cela vient de HAL qui ne demande pas d’inscription (donc pas de courriel) pour le tĂ©lĂ©chargement des fichiers.
  • Principes & applications de la spectro. de Fourier en astronomie : de ses origines Ă  nos jours, Jean Pierre Maillard, 8 fĂ©vrier 2019, confĂ©rence mensuelle de la SociĂ©tĂ© astronomique de France (SAF)
  • De l’IBM 360/75 au superordinateur Jean Zay 50 ans d’informatique au centre de calcul du CNRS d’Orsay, EDP Sciences, il existe en version papier (39 â‚Ź), PDF et EPUB avec DRM LCP (26,99 â‚Ź), on peut le feuilleter aussi sur le site Cairn Info.
  • RĂ©ception Ă  l’aĂ©roport d’Orly de l’IBM 704 qui avait servi Ă  Janine Connes pour ses calculs, podcast France Culture, rediffusion d’une Ă©mission de 1957.
  • L’IBM 704
  • l’IBM 360 (es), Academia Lab (2024). SystĂšme IBM/360. EncyclopĂ©die. RĂ©visĂ© le 29 dĂ©cembre 2024.

Françoise Combes

L’histoire de l’astronomie

  • Les tĂ©lescopes, Gilles Kremer, Sylvie Voisin, 30 mars 2018
  • Histoire et patrimoine de l’Observatoire de Paris
  • Une histoire de l’astronomie, Jean-Pierre Verdet, Seuil 1990, il a fait l’objet d’une publication au format EPUB avec DRM LCP (9,99 â‚Ź) EAN : 9782021287929, mais on peut le trouver d’occasion assez facilement. Il est dotĂ© d’une bonne bibliographie et est plutĂŽt passionnant.

Remerciements

Un trĂšs grand merci Ă  vmagnin pour ses informations et ses prĂ©cisions, mĂȘme si je n’ai pas tout utilisĂ©. Mais ce n’est pas perdu, un prochain portrait probablement (voire, sĂ»rement).

Merci aussi Ă  Enzo Bricolo pour m’avoir signalĂ© l’élection de Françoise Combes Ă  la prĂ©sidence de l’AcadĂ©mie des sciences, sans ça je l’aurais ratĂ©e et ce serait dommage.

Ainsi se clĂŽt cette sĂ©rie sur les femmes et la conquĂȘte de l’espace ainsi que l’annĂ©e 2024. Et c’est mon cadeau de nouvelle annĂ©e.


  1. La Connaissance du temps, qui se targue d’ĂȘtre la plus ancienne publication d’éphĂ©mĂ©rides toujours publiĂ©e est actuellement gĂ©rĂ©e et publiĂ©e par l’IMCCE - Observatoire de Paris, la version 2025 vient de paraĂźtre et est tĂ©lĂ©chargeable en PDF. Elle est accompagnĂ©e d’un logiciel de calcul d’éphĂ©mĂ©rides dĂ©veloppĂ© pour Windows, Mac et Linux. â†©

  2. Source : Les lunettes astronomiques, 29 mars 2018, Sylvie Voisin et Gilles Kremer, Le Blog Gallica. â†©

  3. Une acadĂ©mie qui s’engage en faveur de libre accĂšs et dont les comptes rendus sont publiĂ©s depuis 2020 sous licence Creative commons CC BY – SA. â†©

Commentaires : voir le flux Atom ouvrir dans le navigateur

❌