Ah, Simple ETF… le gourou de la tirelire automatique nous a régalé avec ce tweet
Le marché US fait du surplace depuis un an.
Performance du marché 0%. Performance avec un DCA +6,38%.
C'est la magie de l'investissement programmé.
Quand les cours chutent, votre versement mensuel achète automatiquement plus de parts. Vous baissez votre prix moyen sans effort.… pic.twitter.com/vrGBtp0PHh
Celui qui confond un screenshot d’appli avec une thèse de finance quantitative et qui pense avoir percé les mystères du capitalisme parce que son graphique est vert. Déjà, respire. Ensuite, arrête d’enseigner.
Donc, résumons ta pensée géniale : “Le marché fait 0 %, moi je fais +6 %, donc le DCA c’est magique.” Autrement dit : si tu balances de l’argent régulièrement dans un marché volatil et que tu choisis la bonne fenêtre a posteriori, tu gagnes. Putain. On tient un prix Nobel.
Là, je vais faire semblant d’être pédagogue, mais promis, ça va piquer.
Démolition express, pour adultes fonctionnels :
1. “Marché à 0 %” — le mensonge de départ
Non, le marché US ne “fait pas 0 %”. Tu as choisi une période arbitraire, un point d’entrée précis, un indice, un ETF. C’est de la sélection rétroactive, pas de l’analyse. Dire “le marché fait 0 %” parce que ton screenshot dit 0 %, c’est comme dire que la météo mondiale est clémente parce qu’il fait beau dans ta cour.
2. La performance DCA sortie du chapeau
Ton +6,38 % n’est pas une surperformance du DCA. C’est l’effet mécanique d’acheter plus bas lors des drawdowns dans une période précise. Essaie le même raisonnement dans un marché haussier continu : ton DCA sous-performe l’investissement initial. Mais ça, bizarrement, tu l’oublies. Amnésie sélective : maladie classique chez les gourous Twitter.
3. “Vous gagnez même dans un marché plat” — faux et malhonnête
Non !
Tu gagnes si :
la volatilité est suffisante,
les baisses sont temporaires,
la tendance de fond est haussière,
et si tu regardes après coup.
Sinon, tu dilues tes pertes gentiment. Le DCA ne crée pas de rendement, il redistribue le risque dans le temps. Présenter ça comme une machine à cash, c’est de la tromperie intellectuelle.
4. La magie… ou l’arnaque marketing ?
Parler de “magie” en finance, c’est l’aveu ultime d’incompétence. La finance n’a rien de magique. Elle a des probabilités, des scénarios, des compromis. Toi, tu vends une méthode “sans effort” à des gens qui confondent confort psychologique et rendement réel. Moralement, c’est limite. Intellectuellement, c’est indécent.
Le moment que tu redoutais
Tu prétends simplifier l’investissement, mais tu fais exactement l’inverse :
tu sur-simplifies pour masquer la complexité,
tu choisis les chiffres qui t’arrangent,
et tu transformes une stratégie défensive en promesse de gain.
Ce que tu dénonces implicitement — l’investissement émotionnel et naïf — tu l’incarnes à la perfection.
Conclusion
Arrête de vendre des évidences emballées comme des révélations. Le DCA n’est ni magique, ni supérieur, ni universel. C’est juste un outil. Et toi, manifestement, tu confonds l’outil avec le cerveau. Fin du débat.
French judicial authorities have launched a broad investigation into X, the social media platform owned by Elon Musk, and have recently taken more assertive legal steps as part of the case. The inquiry focuses on whether the platform and some of its executives may have breached French law through a range of alleged offenses linked to the platform’s operations. As part of the investigation, French police carried out searches on […]
Israël vivra et les racailles palestiniennes paieront le prix fort.
Quand je pense que l'État français a reconnu des terroristes comme une nation, je vomis. (Permalink)
Vous utilisez WSL sous Windows mais vous en avez marre de devoir jongler avec les commandes PowerShell dès qu'il s'agit de gérer vos distributions ?
C'est vrai que taper du wsl --import ou du wsl --unregister à chaque fois qu'on veut tester une nouvelle instance, ça finit par être un peu lourd.
Heureusement, y’a un dev, Eric Trenkel (alias bostrot), qui a eu la bonne idée de sortir WSL Manager (qu'on connaissait aussi sous le nom de WSL2 Distro Manager), une interface graphique complète pour piloter tout ça sans se faire mal au terminal.
Cette application, développée avec Flutter offre une vue d'ensemble sur toutes vos instances WSL installées. Ainsi, en un clic, vous pouvez les démarrer, les arrêter, les renommer ou même changer leur version.
Mais là où l'outil excelle, c'est dans sa capacité à importer de nouveaux environnements. Pour ceux qui se demandent comment ça se passe pour récupérer des distributions exotiques, sachez que WSL Manager permet de télécharger et d'utiliser n'importe quelle image Docker comme base pour une instance WSL, et ce, sans même avoir besoin d'installer Docker Desktop sur votre machine.
Par exemple si vous voulez un Alpine minimaliste pour du test ou un Kali pour du pentest, vous l'importez direct depuis les registres Docker et hop, vous avez un nouveau système prêt à l'emploi.
C'est d'ailleurs un excellent complément à des outils comme
DockStation
si vous voulez garder une approche visuelle de vos conteneurs, ou même
WinBoat
pour faire tourner du Windows dans Docker. L'application propose aussi des "Quick Actions", qui sont en gros des petits scripts prédéfinis que vous pouvez exécuter directement sur vos instances pour automatiser les tâches répétitives. Vous pouvez également lancer directement
Windows Terminal
ou VS Code dans la distribution de votre choix en un seul clic.
Si ça vous branche, plusieurs options s'offrent à vous pour l'installer. Comme le projet est open source sous licence GPL-3.0, vous pouvez récupérer les exécutables gratuitement sur la page GitHub du projet.
Il existe aussi une version sur le Microsoft Store
et notez aussi que bien que des paquets winget ou Chocolatey existent, ils sont souvent maintenus par la communauté et pas forcément à jour, donc privilégiez le téléchargement direct ou le Store pour être tranquille.
Voilà, si vous passez vos journées sous Linux tout en restant dans l'écosystème Microsoft, WSL Manager c'est le feu et ça permet de se concentrer sur son boulot plutôt que sur la syntaxe des commandes de gestion système.
Et si la prochaine génération de datacenters ne se construisait pas sur Terre, mais en orbite ? L’idée peut sembler relever de la science-fiction mais elle mobilise aujourd’hui des géants de la technologie et de l’espace.
Avec l’explosion des besoins en puissance de calcul pour l’intelligence artificielle et les tensions croissantes sur les ressources énergétiques terrestres, le concept de datacenters spatiaux gagne en crédibilité.
L’annonce d’une possible fusion entre SpaceX d’Elon Musk et xAI illustre l’intérêt grandissant pour cette approche. Si les promesses sont alléchantes – énergie solaire illimitée, refroidissement naturel, réduction de l’empreinte carbone -, les défis sont tout aussi considérables : coûts de lancement, fiabilité matérielle, maintenance impossible.
De quoi parle-t-on exactement ?
Les datacenters IA spatiaux sont des infrastructures de calcul déployées en orbite basse ou plus haute, combinant serveurs, accélérateurs IA (GPU, TPU, ASIC) et vastes surfaces solaires. Ils reposeraient sur des centaines de satellites interconnectés pour répondre à ces besoins massifs de compute pour l’entraînement et l’inférence des modèles IA très gourmands en ressources.
Au-delà de l’atmosphère, les satellites bénéficieraient d’une exposition solaire ininterrompue et pourraient dissiper la chaleur directement dans le vide spatial, supprimant ainsi deux des plus grands défis des datacenters terrestres.
Plusieurs programmes structurent aujourd’hui ce concept encore émergent, témoignant d’un réel engouement industriel.
> Google et le Project Suncatcher
Google développe le Project Suncatcher, un réseau ambitieux d’environ 80 satellites solaires positionnés à 400 km d’altitude, équipés de TPU (unités de traitement tensoriel) pour exécuter des charges IA. Ces satellites seraient interconnectés par des liaisons optiques et renverraient les résultats vers la Terre via des liens laser à haut débit. Deux premiers prototypes sont attendus en 2027, en partenariat avec Planet Labs.
> L’Initiative européenne ASCEND
En Europe, le projet ASCEND (Advanced Space Cloud for European Net zero emission and Data sovereignty), piloté par Thales Alenia Space et financée par la Commission européenne, conclut à la faisabilité de datacenters en orbite pour contribuer à l’objectif de neutralité carbone et à la souveraineté numérique européenne. Elle s’appuie sur un consortium mêlant experts environnementaux (dont Carbone 4), acteurs du cloud (Orange Business, HPE, CloudFerro), lanceurs (ArianeGroup) et agences spatiales.
Thales Alenia Space expérimente également le Space Edge Computing à plus petite échelle, en déployant un calculateur durci embarquant Microsoft Azure sur l’ISS pour traiter en orbite des flux d’observation de la Terre avec des applications IA comme DeeperVision. Cette approche préfigure des architectures hybrides où une partie du traitement IA est effectuée en orbite, le reste dans les clouds terrestres.
> Starcloud et Nvidia : objectif « hypercluster »
Starcloud, soutenu par Nvidia et Google, a franchi une étape importante le mois dernier en lançant le satellite Starcloud-1 via une fusée Falcon 9.
Équipé d’une puce Nvidia H100 – la plus puissante jamais envoyée en orbite – il entraîne et exécute le modèle Gemma de Google en tant que « proof of concept ». L’entreprise promeut des datacenters orbitaux alimentés 24/7 par l’énergie solaire, avec la promesse de réduire d’un facteur 10 les émissions de CO2 par rapport à un datacenter terrestre sur l’ensemble du cycle de vie. Elle vise à terme un « hypercluster » modulaire fournissant environ cinq gigawatts de puissance de calcul.
L’Alliance nippo-américaine contre la Chine
Au Japon, Space Compass et Microsoft explorent un réseau de satellites-relais optiques intégrant des capacités de edge computing pour rapprocher encore les fonctions de calcul IA des capteurs orbitaux et du cloud Azure.
La Chine n’est pas en reste, annonçant son intention de créer un « nuage spatial » au cours des cinq prochaines années. La China Aerospace Science and Technology Corporation s’est engagée à construire une infrastructure d’intelligence numérique spatiale de classe gigawatt, conformément à un plan de développement quinquennal.
Les défis technologiques et architecturaux
La mise en orbite d’un datacenter IA pose des défis technologiques considérables que les ingénieurs doivent surmonter.
> Lancement et assemblage
Les modules doivent être conçus de manière modulaire et suffisamment robustes pour résister aux violentes vibrations du décollage, puis être assemblés en orbite. Une tâche que des programmes comme EROSS IOD (European Robotic Orbital Support Services) entendent automatiser via la robotique spatiale européenne dès 2026.
> Gestion thermique complexe
Si le vide spatial évite la convection, il complique paradoxalement l’évacuation de la chaleur. Celle-ci doit passer par des radiateurs et une ingénierie thermique fine pour gérer des charges IA très denses. Contrairement aux idées reçues, le refroidissement dans l’espace n’est pas automatique et nécessite des systèmes sophistiqués.
> Fiabilité matérielle extrême
Les serveurs et accélérateurs IA doivent être durcis contre les radiations cosmiques et les cycles thermiques extrêmes, tout en restant compétitifs en performance par rapport aux générations terrestres renouvelées tous les 3 à 5 ans. C’est un défi majeur dans un secteur où l’obsolescence est rapide.
> Connectivité Haute Performance
Les datacenters spatiaux reposent sur des liens optiques haut débit, à la fois inter-satellites et vers le sol, afin de limiter la latence et de maximiser le débit pour l’entraînement et l’inférence distribués. Les liaisons laser deviennent indispensables pour gérer les volumes de données colossaux.
Les défis économiques et temporels
Malgré l’enthousiasme, les experts du secteur spatial restent prudents. Plusieurs obstacles majeurs se dressent sur la route de cette vision futuriste :
Les débris spatiaux représentent une menace constante pour tout équipement orbital
Les coûts de lancement demeurent substantiels malgré les progrès récents
La maintenance est extrêmement limitée une fois les satellites en orbite
Le rythme de renouvellement technologique pose question dans un environnement où l’accès physique est impossible
Selon les analystes de Deutsche Bank, les premiers déploiements de petits centres de données orbitaux sont attendus entre 2027 et 2028. Ces missions pionnières serviront à valider la technologie et évaluer la rentabilité. Les constellations plus importantes, comprenant potentiellement des centaines voire des milliers d’unités, ne verraient le jour que dans les années 2030, et seulement si ces premières expériences s’avèrent concluantes.
Le modèle économique repose sur trois piliers : la baisse rapide des coûts de lancement, la maturité de la robotique orbitale et la densification des puces IA. Si ces hypothèses se vérifient, le calcul IA en orbite pourrait devenir, à moyen terme, compétitif voire plus rentable que l’extension infinie de datacenters au sol dans des zones déjà contraintes en énergie et en eau.
Enjeux énergétiques et environnementaux : un bilan contrasté
Les datacenters IA tirent aujourd’hui la consommation électrique mondiale à la hausse, au point que certaines projections redoutent une saturation des réseaux et une tension croissante sur le foncier, l’eau et les énergies renouvelables. En orbite, la combinaison d’un flux solaire permanent (hors éclipses) et de panneaux plus efficaces qu’au sol ouvre un nouveau gradient d’optimisation énergétique.
Selon les porteurs du projet ASCEND, malgré l’empreinte carbone initiale des lancements, un datacenter spatial pourrait afficher, à horizon de vie complet, un bilan carbone meilleur qu’un équivalent terrestre si certains seuils de puissance et de durée de vie sont atteints. Des acteurs comme Starcloud avancent des chiffres impressionnants : jusqu’à 90% de réduction des coûts d’électricité, et un facteur 10 sur les émissions de CO2 sur la durée de vie, en supposant des lancements optimisés et une maintenance robotisée.
Cependant, la réalité est plus nuancée. Chaque lancement de fusée injecte des centaines de tonnes de CO2 et d’autres composés dans l’atmosphère, ce qui déplace le problème vers le secteur spatial et pose la question du rythme soutenable de mise en orbite de telles infrastructures. À cela s’ajoutent des enjeux préoccupants :
La pollution lumineuse causée par les constellations de satellites, déjà critiquée par les astronomes
La congestion croissante des orbites basses, source de risques de collision
L’impact cumulatif de milliers de lancements sur l’atmosphère
Le débat environnemental reste donc ouvert : les bénéfices opérationnels compensent-ils vraiment l’impact des phases de lancement et de déploiement ?
L’ambition de Musk et de Bezos
Pour Elon Musk, le timing semble idéal. SpaceX est le constructeur de fusées le plus performant de l’histoire et a déjà mis en orbite avec succès des milliers de satellites dans le cadre de son service internet Starlink. Cette infrastructure existante pourrait servir de fondation pour des satellites compatibles avec l’IA ou faciliter la mise en place de capacités informatiques embarquées.
Lors du Forum économique mondial de Davos au début du mois, il n’a pas caché son optimisme : « Il est évident qu’il faut construire des centres de données à énergie solaire dans l’espace… l’endroit le moins coûteux pour déployer l’IA sera l’espace, et ce sera vrai d’ici deux ans, trois au plus tard. »
SpaceX envisage d’ailleurs une introduction en bourse cette année, qui pourrait valoriser l’entreprise de fusées et de satellites à plus de 1 000 milliards $. Une partie des fonds levés servirait à financer le développement de satellites de centres de données dédiés à l’intelligence artificielle.
De leur côté, Blue Origin et Jeff Bezos travaillent sur leur propre technologie de datacenters spatiaux, en s’appuyant sur l’expertise d’Amazon. Le fondateur prévoit que les « centres de données géants de plusieurs gigawatts » en orbite pourraient, d’ici 10 à 20 ans, être plus abordables que leurs homologues terrestres.
Après des semaines de polémique sur la capacité de Grok à générer des deepfakes sexualisés de femmes et d’enfants, la Commission européenne ouvre une procédure d’infraction au titre du Digital Services Act (DSA).Entrée en vigueur en 2023, cette loi impose aux grandes plateformes des obligations strictes en matière de lutte contre les contenus illégaux et la désinformation.
L’enquête va examiner si X a correctement évalué et atténué les risques liés au déploiement de Grok dans l’Union européenne, notamment ceux concernant la dissémination d’images sexuelles manipulées, y compris des contenus susceptibles de constituer du matériel pédopornographique, selon la Commission.
« Les deepfakes sexuels non consentis de femmes et d’enfants constituent une forme violente et inacceptable de dégradation », a déclaré la commissaire européenne chargée de la tech, Henna Virkkunen. Et d’ajouter que l’investigation déterminera si X a respecté ses obligations légales ou si la plateforme a traité les droits des citoyens européens comme des « dommages collatéraux de son service ».
Le scandale a éclaté après que des utilisateurs de plusieurs pays ont signalé que le chatbot de xAI générait et diffusait des images sexualisées sur le réseau social X ainsi que sur l’application Grok. Face à la controverse, xAI a restreint l’usage de Grok aux abonnés payants et affirme avoir mis en place des mesures technologiques pour limiter la génération de certaines images sexualisées.
Une pression réglementaire mondiale
L’Union européenne n’est pas seule à réagir. Le régulateur britannique des médias Ofcom a ouvert sa propre enquête sur Grok au titre de l’Online Safety Act, tandis que la Malaisie et l’Indonésie ont purement et simplement banni le chatbot. La France et l’Inde ont également dénoncé la création illégale d’images sexualisées sans consentement.
Dans un communiqué du 14 janvier, X a indiqué que xAI avait restreint l’édition d’images pour les utilisateurs de Grok et bloqué, selon leur localisation, la génération d’images de personnes en tenues légères dans les juridictions où cela est illégal, sans préciser lesquelles.
Mais pour Bruxelles, ces ajustements ne suffisent pas. Un haut responsable de la Commission a expliqué aux journalistes que l’exécutif européen avait des raisons de croire que X n’avait pas procédé à une évaluation ad hoc avant de déployer les fonctionnalités de Grok en Europe.
Extension de l’enquête aux systèmes de recommandation
En parallèle, la Commission a élargi une procédure ouverte en décembre 2023 pour déterminer si X a correctement évalué et atténué tous les risques systémiques liés à ses systèmes de recommandation, notamment l’impact du passage récemment annoncé à un système basé sur Grok.
Les régulateurs ont prévenu que X pourrait faire l’objet de mesures provisoires en l’absence d’ajustements significatifs de son service. En cas de violation avérée du DSA, la plateforme s’expose à des amendes pouvant atteindre 6% de son chiffre d’affaires mondial annuel, compris entre 2 et 3 milliards $, selon les estimations.
Un nouveau clash avec Washington ?
Cette investigation intervient dans un contexte de tensions croissantes entre Bruxelles et l’administration Trump au sujet de la régulation des grandes plateformes technologiques américaines. En décembre dernier, la Commission avait infligé une amende de 120 millions € à X pour manquement à ses obligations de transparence, notamment concernant son système de certification par badge bleu, l’accès aux données pour les chercheurs et son registre publicitaire.
X n’a pas immédiatement répondu aux demandes de commentaires sur cette nouvelle enquête. La plateforme avait précédemment déclaré qu’elle retirait les contenus illégaux, y compris le matériel pédopornographique, suspendait les comptes concernés et coopérait avec les forces de l’ordre si nécessaire. « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à avoir une tolérance zéro pour toute forme d’exploitation sexuelle d’enfants, de nudité non consentie et de contenu sexuel non désiré », avait indiqué la plateforme.
La Commission irlandaise des médias, coordinateur national des services numériques dans le pays d’établissement de X au sein de l’UE, sera associée à cette investigation conformément au DSA. L’ouverture d’une procédure formelle ne préjuge pas de son issue, mais elle confère à la Commission des pouvoirs d’enquête élargis, notamment la possibilité de mener des inspections, des auditions et d’adopter une décision de non-conformité.
CAROLINE ROUX – JEAN-LUC MÉLENCHON : LA SOUMISSION - Il y a des soirs de télévision qui disent beaucoup plus que ce qu’ils prétendent montrer. Ce mardi 20 janvier, le spectacle donné aux téléspectateurs de France 2 par Caroline Roux et l’équipe de L’Événement relève de cette catégorie. Alors que la diplomatie européenne vivait une journée décisive face aux États-Unis de Trump, notamment marquée par un discours d'Emmanuel Macron salué sur la scène internationale, le service public faisait le choix incompréhensible d’opposer en prime time le ministre des Affaires étrangères au chef de La France insoumise ; la mascarade a duré 27 minutes et s'est terminée par des remerciements appuyés au leader d'extrême gauche. Un débat sans justification politique, sans enjeu clair, mais révélateur d’un profond dérèglement de l’information à France Télévisions.
UNE OBSÉQUIOSITÉ QUI INTERROGE
Au-delà de l’incongruité d’inviter, à ce moment crucial de l'actualité internationale, un leader d’extrême gauche qui ne représente rien sur la scène internationale, dont le groupe parlementaire a voté contre la quasi-totalité des aides à l’Ukraine et qui s’est illustré par une constante proximité envers les dictatures d’hier et d’aujourd’hui (Mao, Castro, Chavez, Maduro, Poutine, Xi Jinping), le plus frappant restera l’attitude de la présentatrice. Caroline Roux s’est montrée d’une obséquiosité confondante envers Jean-Luc Mélenchon : relances complaisantes, écoute religieuse, absence totale de contradiction, acquiescements silencieux face à des contrevérités flagrantes – allant jusqu’à laisser présenter LFI comme le premier défenseur de l’Ukraine depuis l'invasion russe. Dans le même temps, la journaliste, par ailleurs employée d’un groupe codétenu par l’activiste des gauches radicales Matthieu Pigasse, s’est révélée nettement plus sévère avec le ministre des Affaires étrangères, n’hésitant pas à l’interrompre, à le mettre en difficulté et, de fait, à favoriser son contradicteur. Quant au temps de parole du vieux tribun, il aura largement dépassé celui du ministre !
UN LOURD PASSIF
Cette séquence n’est pas un accident. Jean-Luc Mélenchon est, de loin, la personnalité politique la plus régulièrement invitée par Caroline Roux dans ses émissions politiques de France 2. Une fréquence qui interroge, tant elle ne repose sur aucune justification objective, ni institutionnelle, ni liée à l’actualité immédiate. Encore plus lorsqu'on sait à quel point le leader Insoumis fait systématiquement baisser les audiences des chaines où il intervient.
Le 12 janvier 2023, il bénéficiait déjà d’une émission L’Événement entièrement consacrée à sa personne, diffusée en direct depuis la Guyane. Il fut le seul à jouir d’un tel format sur mesure, d’un traitement de faveur digne d’un chef d’État, pour un responsable politique n’exerçant pourtant plus aucun mandat depuis les législatives de 2022. Résultat : un échec d’audience.
Le 24 juin 2024, nouvelle invitation en solo, toujours en prime time, cette fois en tant que leader de La France insoumise. Là encore, l’exclusivité accordée à cet entretien soulève de sérieuses questions sur les critères de sélection des invités dans une émission censée refléter le pluralisme du débat démocratique. Nouvel échec d’audience.
Le 13 mars 2025, il est une nouvelle fois mis en avant dans un format thématique (La France face aux menaces), placé d’emblée au premier rang des intervenants, juste après le ministre des Armées. Ses vociférations maladives feront - une fois de plus - baisser l'audience du programme.
Enfin, le 11 septembre 2025, il revient encore à l’antenne dans l’émission spéciale La République va craquer ?, consacrée aux tensions politiques et sociales. Une omniprésence qui ne doit rien au hasard et tout à une ligne éditoriale de plus en plus difficile à dissimuler.
Et à chaque fois, le même cirque médiatique : la présentatrice enchaîne les éloges, les postures obséquieuses et les sourires complices à l’égard du leader d’extrême gauche.
LA SOUMISSION COMME LIGNE ÉDITORIALE
Ce qui s’est joué ce mardi soir sur France 2 ne relève ni de la maladresse, ni de l’erreur ponctuelle. Il s’agit d’une soumission assumée, presque revendiquée, d’une partie du service public audiovisuel à une figure politique radicale dont l’influence réelle ne cesse pourtant de décliner dans le pays. Soumission dans le choix des invités, dans la mise en scène du débat, dans l’absence de contradiction et dans l’inégalité de traitement entre les protagonistes. En donnant à Jean-Luc Mélenchon un rôle qu’il n’a pas, France Télévisions ne remplit plus sa mission d’information : elle fabrique une centralité artificielle, elle entretient une illusion de puissance politique, elle abdique son exigence critique. Cette capitulation intellectuelle et journalistique n’est pas anodine. Elle signe le renoncement progressif du service public à sa neutralité, au profit d’un militantisme masqué qui, loin d’éclairer les citoyens, les prend en otage. (Permalink)
La mission d'1.2.Train est de simplifier l'achat de vos billets de train pour vous offrir le parcours client le plus rapide possible.
1.2.Train s'engage à rendre vos déplacements plus pratiques grâce à des résultats de recherche hyper rapides et un système de réservation très facile à utiliser.
1.2.Train propose les billets TER, TGV, Intercités, Eurostar et Lyria au même prix et avec les mêmes conditions d'échange et de remboursement que la SNCF.
Le nouveau protocole unifié Matter repose sur un système d’association très simple et pratique qui consiste à scanner un QRCode. Oui mais voilà, souvent ce QRCode est collé sur la notice, pas toujours sur l’appareil. Je sais pas vous mais les boîtes et les notices, c’est le plus souvent direction la poubelle chez moi. En […]
« Signal Intelligence Platform
A sleek, modern web-based front-end for signal intelligence tools.
Unified interface for pager decoding, 433MHz sensors, ADS-B aircraft tracking, satellite monitoring, WiFi reconnaissance, and Bluetooth scanning.»
Cette augmentation du prix de la mémoire vive se répercute sur les utilisateurs finaux. Le prix des modules de RAM a littéralement doublé en quelques semaines.
La multiprise SHELLY Power Strip Gen4 offre 4 prises au format Schuko avec mesure de consommation indépendantes, des cerclages lumineux LED multicolore et une compatibilité avec Matter, Zigbee 3.0 , WiFi 6, bluetooth, HomeKit, Alexa, Google Home et SmartThings. Compacte, sécurisée et puissante (jusqu’à 3500 W), elle permet un pilotage intelligent et fiable de vos […]