Prise en main de l’eSIM chez Kolet, c’était facile
Des fournisseurs d'eSIM pour les voyages, il y en a pas mal mais quand c'est un service français, il faut le noter et le tester, non ?


Je ne pourrais pas être plus d'accord.
C'est encore une fonctionnalité native simple mais très puissante des navigateurs que certains frameworks ont encouragé à ignorer et à remplacer maladroitement.
Ça ne veut pas dire qu'il faut bannir le state en mémoire, mais simplement comprendre les avantages et inconvénients de chacun et les utiliser à bon escient. L'article illustre ça avec beaucoup de justesse.
Je ne pourrais pas être plus d'accord.
C'est encore une fonctionnalité native simple mais très puissante des navigateurs que certains frameworks ont encouragé à ignorer et à remplacer maladroitement.
Ça ne veut pas dire qu'il faut bannir le state en mémoire, mais simplement comprendre les avantages et inconvénients de chacun et les utiliser à bon escient. L'article illustre ça avec beaucoup de justesse.
ADATA vient de présenter un nouvel appareil plutôt original puisqu'il s'agit d'un produit deux-en-un. Le SR800 combine à la fois les fonctions de SSD portable et de powerbank.
The post ADATA SR800 : un produit 2-en-1 à la fois powerbank et SSD portable pour votre smartphone first appeared on Bhmag.via https://shaarli.duraffort.fr/shaare/Xm7mdg
vid{7ed9ed8de0037de846b22bc0c70673f434fd9a491db5ca88b64e414cc90a0d15}
— Permalink
"Ma Dada est un site associatif qui vous aide à demander des documents publics, dits “administratifs” (rapports, délibérations, contrats, factures, algorithmes, correspondances, etc.) "
via https://www.numerama.com/politique/2099501-decouvrez-comment-acceder-aux-notes-de-frais-de-votre-maire-en-quelques-clics.html
vid{e88c69881deedff7f7e9d35b93801300b1547352cfade52b019c85baacd79617}
— Permalink
Using Google bq CLI, the following command allows to get the top Pypi keywords from the bigquery-public-data.pypi.distribution_metadata table:
bq query --use_legacy_sql=false 'SELECT keyword, COUNT(*) as keyword_count FROM `bigquery-public-data.pypi.distribution_metadata`, UNNEST(SPLIT(keywords, ", ")) as keyword GROUP BY keyword ORDER BY keyword_count DESC LIMIT 100'
Result for the top-15 keywords:
python : 128555 appearancesDuckDB Database SQL OLAP : 70739 appearancesai : 64997 appearancestensorflow tensor machine learning : 51144 appearancespulumi : 50076 appearancesapi : 47986 appearancesprobabilities probabilistic-graphical-models inference diagnosis : 46552 appearancesrust : 45607 appearancescli : 39512 appearancesOpenAPI : 38814 appearancessdk : 38060 appearancesllm : 37487 appearancesOpenAPI-Generator : 36734 appearancesdatabase : 35578 appearancesautomation : 34393 appearancesNote that this is a very basic query, that does take into account that some packages have a lot more versions published on Pypi than others.
Pour interroger tout le graphe (non divisé), il est possible d'utiliser QLever avec une syntaxe légèrement différente. Il s'agit d'une institution tierce qui fait une copie du graphe de manière régulière (tous les mois environ).
Exemple : Helen De Cruz (cf. ci-dessous)
PREFIX wikibase: <http://wikiba.se/ontology#>
PREFIX wd: <http://www.wikidata.org/entity/>
PREFIX wdt: <http://www.wikidata.org/prop/direct/>
PREFIX rdfs: <http://www.w3.org/2000/01/rdf-schema#>
SELECT DISTINCT ?work ?label WHERE {
{ ?work (wdt:P50 | wdt:P98) wd:Q47189712 .
} UNION { ?work wdt:P2093 "Helen De Cruz" .
}
OPTIONAL { ?work rdfs:label ?label FILTER(LANG(?label) = "en") }
}Et encore un article un peu technique pour finir la journée en beauté ! Si je vous disais que votre serveur Linux pouvait gérer 10 exaoctets de données sans broncher ? Vous ne me croiriez pas je pense… D’ailleurs c’est quoi 10 exaoctets ?? Et bien ça correspond à 10 millions de To. C’est pas mal hein ?
Hé bien c’est exactement ce que permet de gérer TernFS, le système de fichiers qu’XTX Markets vient de libérer après trois ans d’utilisation intensive. XTX Markets est une boîte d’algo-trading qui brasse 250 milliards de dollars par jour et j’avoue que c’est un joli cadeau de presque-Noël qu’elle vient de nous faire…
D’après ce qu’ils expliquent sur leur site , NFS et les autres solutions classiques ne tenaient plus la charge face à leurs 650 pétaoctets de données utilisées leur machine learning. Alors ils ont fait ce que font les vrais geeks, ils ont codé leur propre solution… et après trois ans de production sans perdre “un seul octet”, ils ont tout balancé en en open source sur GitHub .
Le truc génial avec TernFS, c’est qu’il a été pensé pour les fichiers immuables, vous savez, ces gros datasets de plusieurs gigaoctets qu’on écrit une fois et qu’on relit des milliers de fois pour entraîner des modèles. Pas de modification après création, pas de prise de tête avec les locks et la cohérence. C’est simple et efficace.
L’architecture repose sur quatre composants principaux qui bossent ensemble : les metadata shards (256 shards logiques pour gérer les métadonnées), le CDC (Cross-Directory Coordinator) pour les opérations entre répertoires, les block services pour stocker les données, et un registry pour orchestrer tout ce petit monde. Le tout communique en UDP/TCP avec du Reed-Solomon pour l’erasure coding et du CRC32-C pour vérifier l’intégrité. Bref, ça semble être du solide.
Et les chiffres qu’ils donnent sur leur production sont assez dingues. Ils parlent de 500+ pétaoctets répartis sur 30 000 disques durs et 10 000 SSD, dans 3 datacenters différents, avec des débits qui montent à plusieurs téraoctets par seconde en vitesse de pointe. Et leur système gère ça tranquille, avec du multi-région natif et une tolérance aux pannes qui ferait pâlir d’envie n’importe quel admin sys.
Si ça vous chauffe, pour installer TernFS, c’est du classique. Vous clonez le repo, vous lancez ./build.sh alpine ou ./build.sh ubuntu selon votre distrib, et c’est parti. Il y a un module kernel Linux pour gratter les perfs maximales et toucher les étoiles, mais vous pouvez aussi utiliser FUSE si vous préférez rester en userspace. Ils ont même implémenté une API S3 pour ceux qui veulent migrer depuis AWS sans tout réécrire.
git clone https://github.com/XTXMarkets/ternfs
cd ternfs
./build.sh alpine
# Et pour tester en local
./scripts/ternrun
Par contre, attention aux limitations ! Car TernFS n’est pas du tout fait pour les petits fichiers (genre les millions de fichiers de 1KB d’un projet Node.js). C’est vraiment optimisé pour du gros volume du style datasets ML, logs d’applications, archives, ce genre de trucs. Et y’a pas de système de permissions intégré non plus, car ils ont préféré garder ça basique et laisser chacun implémenter sa propre couche de sécurité.
Ils ont mis au point également un système de “block proofs” où chaque bloc de data a une preuve cryptographique qui permet de vérifier que le client n’a pas corrompu les données avant de les écrire. Ça évite qu’un client bugué ou malveillant ne pourrisse tout le filesystem. Ils ont aussi un système de “scrubbing” automatique qui détecte et remplace les secteurs défaillants sur les disques.
Chouette non ?
D’après Bloomberg , XTX Markets investit actuellement 1 milliard d’euros dans de nouveaux datacenters en Finlande. Avec leurs 25 000 GPUs (dont 10 000 A100 et 10 000 V100) et maintenant TernFS en open source, ils montrent surtout qu’ils ne rigolent pas avec l’infrastructure. C’est pas pour rien qu’ils arrivent à traiter un trillion d’enregistrements par jour pour leurs algos de trading.
Leur code est disponible sous double licence à savoir GPLv2+ pour le core et Apache 2.0 avec exception LLVM pour les bibliothèques client et les définitions de protocole. Ça permet d’intégrer TernFS dans à peu près n’importe quel projet, commercial ou non.
Bref, si vous gérez des pétaoctets de données et que ZFS commence à tirer la langue, TernFS vaut vraiment le coup d’œil. Reste à voir si d’autres géants du big data vont l’adopter ou si ça restera un outil de niche pour les vraiment gros volumes, mais avec l’explosion du Machine Learning et des LLMs, je parie qu’on va en entendre parler de plus en plus…

Le fabricant ADATA annonce aujourd'hui la sortie du SC735. Il s'agit une fois encore d'un SSD portable destiné aux baroudeurs et aux randonneurs.
The post Un SSD portable petit et résistant signé ADATA : le SC735 first appeared on Bhmag.Le nouveau SD820 d'ADATA est un SSD portable plutôt intéressant. Il offre en effet l'avantage d'être à la fois résistant et performant.
The post ADATA sort le SD820, un SSD portable résistant et performant first appeared on Bhmag.L'URFIST méditerranée a mis en place une résidence Wikimédia afin de faire rayonner la science en formant à Wikimédia.
[...]
Voici en quelques vignettes, le résumé de la résidence de Pierre-Yves Beaudouin (@pyb@mamot.fr) qui s'est déroulée du 13 mai 2024 au 12 mai 2025.