L’accord entre l’UE et l’Inde est-il une martingale pour l’auto européenne ?


Après des semaines de polémique sur la capacité de Grok à générer des deepfakes sexualisés de femmes et d’enfants, la Commission européenne ouvre une procédure d’infraction au titre du Digital Services Act (DSA).Entrée en vigueur en 2023, cette loi impose aux grandes plateformes des obligations strictes en matière de lutte contre les contenus illégaux et la désinformation.
L’enquête va examiner si X a correctement évalué et atténué les risques liés au déploiement de Grok dans l’Union européenne, notamment ceux concernant la dissémination d’images sexuelles manipulées, y compris des contenus susceptibles de constituer du matériel pédopornographique, selon la Commission.
« Les deepfakes sexuels non consentis de femmes et d’enfants constituent une forme violente et inacceptable de dégradation », a déclaré la commissaire européenne chargée de la tech, Henna Virkkunen. Et d’ajouter que l’investigation déterminera si X a respecté ses obligations légales ou si la plateforme a traité les droits des citoyens européens comme des « dommages collatéraux de son service ».
Le scandale a éclaté après que des utilisateurs de plusieurs pays ont signalé que le chatbot de xAI générait et diffusait des images sexualisées sur le réseau social X ainsi que sur l’application Grok. Face à la controverse, xAI a restreint l’usage de Grok aux abonnés payants et affirme avoir mis en place des mesures technologiques pour limiter la génération de certaines images sexualisées.
L’Union européenne n’est pas seule à réagir. Le régulateur britannique des médias Ofcom a ouvert sa propre enquête sur Grok au titre de l’Online Safety Act, tandis que la Malaisie et l’Indonésie ont purement et simplement banni le chatbot. La France et l’Inde ont également dénoncé la création illégale d’images sexualisées sans consentement.
Dans un communiqué du 14 janvier, X a indiqué que xAI avait restreint l’édition d’images pour les utilisateurs de Grok et bloqué, selon leur localisation, la génération d’images de personnes en tenues légères dans les juridictions où cela est illégal, sans préciser lesquelles.
Mais pour Bruxelles, ces ajustements ne suffisent pas. Un haut responsable de la Commission a expliqué aux journalistes que l’exécutif européen avait des raisons de croire que X n’avait pas procédé à une évaluation ad hoc avant de déployer les fonctionnalités de Grok en Europe.
En parallèle, la Commission a élargi une procédure ouverte en décembre 2023 pour déterminer si X a correctement évalué et atténué tous les risques systémiques liés à ses systèmes de recommandation, notamment l’impact du passage récemment annoncé à un système basé sur Grok.
Les régulateurs ont prévenu que X pourrait faire l’objet de mesures provisoires en l’absence d’ajustements significatifs de son service. En cas de violation avérée du DSA, la plateforme s’expose à des amendes pouvant atteindre 6% de son chiffre d’affaires mondial annuel, compris entre 2 et 3 milliards $, selon les estimations.
Cette investigation intervient dans un contexte de tensions croissantes entre Bruxelles et l’administration Trump au sujet de la régulation des grandes plateformes technologiques américaines. En décembre dernier, la Commission avait infligé une amende de 120 millions € à X pour manquement à ses obligations de transparence, notamment concernant son système de certification par badge bleu, l’accès aux données pour les chercheurs et son registre publicitaire.
X n’a pas immédiatement répondu aux demandes de commentaires sur cette nouvelle enquête. La plateforme avait précédemment déclaré qu’elle retirait les contenus illégaux, y compris le matériel pédopornographique, suspendait les comptes concernés et coopérait avec les forces de l’ordre si nécessaire. « Nous restons déterminés à faire de X une plateforme sûre pour tous et continuons à avoir une tolérance zéro pour toute forme d’exploitation sexuelle d’enfants, de nudité non consentie et de contenu sexuel non désiré », avait indiqué la plateforme.
La Commission irlandaise des médias, coordinateur national des services numériques dans le pays d’établissement de X au sein de l’UE, sera associée à cette investigation conformément au DSA. L’ouverture d’une procédure formelle ne préjuge pas de son issue, mais elle confère à la Commission des pouvoirs d’enquête élargis, notamment la possibilité de mener des inspections, des auditions et d’adopter une décision de non-conformité.
The post DSA : Bruxelles ouvre une enquête sur X, Grok et ses deepfakes appeared first on Silicon.fr.


Karman Industries vient de lever 20 millions de dollars pour un truc qui va faire plaisir aux écolos anti-cloud : Refroidir les datacenters sans utiliser une seule goutte d'eau ! Oui, nada !
Vous n'êtes pas sans savoir que les datacenters actuels, c'est un peu le scandale écologique dont personne ne parle. On estime qu'en 2028, ces usines à calcul vont engloutir entre 34 et 68 milliards de gallons d'eau par an rien qu'aux États-Unis. C'est comme si votre frigo tournait à la vitesse d'un réacteur d'avion...
Ah bah tiens, justement en parlant de réacteur...
David Tearse et CJ Kalra, les deux fondateurs de Karman Industries, ont décidé d'appliquer des techniques d'ingénierie aérospatiale au refroidissement de datacenters. Leur bébé s'appelle le HPU (Heat Processing Unit), une plateforme thermique modulaire de 10 MW qui utilise de la turbomachinerie ultra-rapide inspirée des moteurs de fusée de SpaceX.
Au lieu d'utiliser de l'eau comme réfrigérant, ils ont opté pour du CO2 liquide. Résultat ? Plus de 25% d'économies d'énergie pour le refroidissement, jusqu'à 80% d'espace en moins, et surtout... pas une goutte d'eau. Quand on sait que le refroidissement représente environ 40% de la facture électrique d'un datacenter, ça commence à chiffrer sérieusement.
L'équipe a levé plus de 30 millions de dollars au total, avec Riot Ventures en lead sur ce dernier tour donc c'est pas exactement une PME du coin, quoi.
Comme je l'avais déjà évoqué dans mon article sur la consommation d'eau des datacenters , le problème est déjà critique avec l'explosion de l'IA. Chaque requête ChatGPT, chaque image Midjourney, ça consomme à mort de la flotte quelque part. Bref, si la techno de Karman fonctionne comme prévu, ça pourrait changer pas mal de choses. Reste à voir combien ça coûte mais les premières livraisons sont prévues pour le troisième trimestre 2026, avec une usine de fabrication à Long Beach en Californie.
Voilà, y'a plus qu'à voir si ça tient ses promesses en conditions réelles ! Et j'espère que le meilleure hébergeur du monde, O2Switch s'équipera bientôt car j'ai vraiment envie de voir ça de mes yeux ^^.



TerraMaster vient de dévoiler un boîtier pour SSD M.2. NVMe qui porte le nom de D1 SSD Pro. Le boîtier est intégralement en aluminium.
The post TerraMaster dévoile le D1 SSD Pro : un boîtier ultra rapide pour SSD M.2. NVMe (maj tarifs) first appeared on Bhmag.Si vous avez envie de refaire un peu votre déco chez vous, sans forcément raquer des fortunes chez des designers scandinaves en claquettes chaussettes, j'ai trouvé un petit soft qui va vous plaire. Ça s'appelle maptoposter et c'est un script Python qui permet de transformer la plupart des villes en une affiche minimaliste plutôt jolie
Vous lui donnez le nom d'une ville et son pays (c'est obligé pour pas que le script se perde), et il va piocher dans les données d'OpenStreetMap via la bibliothèque OSMnx pour vous dessiner un plan aux petits oignons au rendu propre généré par matplotlib avec des calques pour les routes, les parcs et l'eau. On est loin du screenshot Google Maps repassé au stylo Bic que certains vendent sur les marchés, ahaha.
Et même sans les bâtiments qui ne sont pas inclus par défaut, je trouve que le rendu est vraiment très chouette... en tout cas suffisamment pour être encadré et exposé.
Et pas mal d'éléments sont également personnalisables, ce qui vous permettra de bricoler un truc propre avec les thèmes déjà inclus comme "noir" pour un look sombre ou "sunset" si vous êtes d'humeur nostalgique. Et si vous avez la flemme de choisir, vous pouvez même lui demander de générer la même ville avec tous les thèmes d'un coup.
Très pratique pour faire son choix avant de faire chauffer l'imprimante !
Maintenant pour ceux qui se demandent comment on installe ce bazar, c'est hyper fastoche. On récupère d'abord le dépôt, on installe les dépendances, et c'est parti :
git clone https://github.com/originalankur/maptoposter
cd maptoposter
pip install -r requirements.txt
Ensuite, pour sortir votre première affiche de Paris par exemple, c'est aussi simple que ça :
python create_map_poster.py -c "Clermont-Ferrand" -C "France" -t noir -d 10000
Le paramètre -d définit le rayon en mètres autour du centre, donc vous pouvez vraiment zoomer sur votre quartier préféré ou prendre toute la métropole. D'ailleurs, ça me rappelle un peu
City Roads
dont je vous avais parlé il y a un bail, mais ici on a un peu plus de contrôle sur les thèmes JSON et les dégradés de couleurs.
On peut même ajouter des fondus dégradés sur les bords pour donner un petit côté artistique supplémentaire et tout ça sans passer par la case Photoshop. Je suis sûr aussi que le code peut être modifié pour traiter d'autres data que des cartes... En tout cas, si vous cherchez une idée cadeau originale ou si vous voulez juste donner un look original à votre bureau avec des posters de qualité, allez jeter un œil à ce projet.
Et n'oubliez pas de garder l'attribution OpenStreetMap si vous imprimez le résultat, c'est la moindre des choses !
C'est par ici que ça se passe !
Et merci à Lorenper !

Un site simple & efficace pour consulter vos horaires de train, par le créateur de 12train.com.
La mission d'1.2.Train est de simplifier l'achat de vos billets de train pour vous offrir le parcours client le plus rapide possible.
1.2.Train s'engage à rendre vos déplacements plus pratiques grâce à des résultats de recherche hyper rapides et un système de réservation très facile à utiliser.
1.2.Train propose les billets TER, TGV, Intercités, Eurostar et Lyria au même prix et avec les mêmes conditions d'échange et de remboursement que la SNCF.
Vous savez comment ça se passe, on traîne sur le web, on tombe sur un article passionnant de 4 000 mots sur Korben.info, mais on n'a absolument pas le temps de le lire là, tout de suite. Alors on ouvre un onglet. Puis deux. Puis cinquante. Et à la fin de la semaine, votre navigateur ressemble à une forêt vierge de Favicons et votre RAM pleure du sang.
Pourtant, il existe des solutions comme Wallabag (ou feu-Pocket), mais si vous êtes un peu maniaque du contrôle comme moi, vous cherchez peut-être un truc plus moderne, plus léger et surtout que vous pouvez également héberger vous-même sur votre propre serveur. C'est là que Readeck entre en scène.
C'est un outil de "read-it-later", c'est-à-dire une application qui vous permet de sauvegarder du contenu web pour le consulter plus tard, une fois que vous avez la tête reposée. L'idée de Readeck, c'est donc de garder l'histoire mais de virer tout le reste : les pubs, les popups de cookies qui vous sautent au visage et les mises en page qui font mal aux yeux. On se retrouve avec un texte pur, propre, et une interface qui ne vous agresse pas.
Ce que j'ai trouvé super cool, c'est que ça ne se contente pas des articles de blog. Vous pouvez y balancer des photos, des vidéos et même des liens YouTube. Et là, petit bonus qui tue, Readeck est capable de récupérer automatiquement la transcription des vidéos quand elle est dispo. Du coup, vous pouvez lire la vidéo au lieu de l'écouter, surligner les passages importants et faire des recherches dedans comme si c'était un bête article de presse.
Niveau fonctionnalités, c'est assez complet. On peut organiser ses lectures avec des labels, marquer des favoris, et surtout utiliser une extension de navigateur pour sauvegarder un lien en un clic. Et si vous êtes plutôt lecture sur liseuse avant de dormir, sachez que vous pouvez exporter vos articles ou des collections entières au format EPUB. Hop, vous envoyez ça sur votre Kindle ou votre Kobo et c'est parti pour une lecture sans distraction.
Pour l'installation, c'est vraiment le bonheur des geeks. Le truc est distribué sous la forme d'un seul fichier binaire (un exécutable, quoi), sans aucune dépendance. Pas besoin de se taper l'installation d'une base de données complexe ou d'un serveur web usine à gaz pour commencer à jouer. Ça tourne sous Linux, macOS et Windows, et si vous préférez Docker, y'a une image officielle qui fait le job parfaitement.
Le développeur explique que ça tourne sans souci sur un vieux Raspberry Pi 2 qui traîne au fond d'un tiroir. Il faut compter environ 512 Mo de RAM pour être large, car l'outil peut consommer un peu de ressources quand il traite des grosses images dans les articles.
Et si vous n'avez pas envie de gérer votre propre serveur, l'équipe prévoit de lancer un service hébergé courant 2026. Ça permettra de soutenir le projet financièrement tout en profitant de l'outil sans mettre les mains dans le cambouis. En attendant, c'est du logiciel libre, c'est propre, et ça fait un excellent complément à un gestionnaire de bookmarks comme Linkding .
Bref, si vous cherchez une alternative solide et auto-hébergée pour nettoyer vos onglets et enfin lire tout ce que vous avez mis de côté, jetez un œil à Readeck , ça vaut vraiment le détour !


Le nouveau protocole unifié Matter repose sur un système d’association très simple et pratique qui consiste à scanner un QRCode. Oui mais voilà, souvent ce QRCode est collé sur la notice, pas toujours sur l’appareil. Je sais pas vous mais les boîtes et les notices, c’est le plus souvent direction la poubelle chez moi. En […]
Lire l'article complet: Vous avez perdu le code d’appairage Matter ? Essayez ceci sur le magazine de la maison connectée Domo-blog.fr.
La croissance du parc mondial de datacenters hyperscale ne montre pas de signes de ralentissement. Les dépenses d’infrastructure associées, non plus.
Depuis deux ans, les pointages trimestriels de Synergy Research Group en ont témoigné quasi systématiquement. Le dernier en date n’y déroge pas.
Le parc en question avoisine désormais les 1300 datacenters, pour une puissance informatique plus que quadruplée en 7 ans. Au T3 2025, les dépenses d’exploitation des hyperscalers – Synergy en recense une vingtaine, acteurs du IaaS, du PaaS, du SaaS, de la recherche, des réseaux sociaux, du e-commerce et du gaming – ont atteint 142 Md$. Elles étaient d’environ 80 Md$ un an plus tôt (et 50 Md$ au T3 2023).
Ces investissements vont pour l’essentiel dans les serveurs. La plupart d’entre eux (91 %) sont maintenant équipés d’accélérateurs. À commencer par des GPU… qui ont besoin d’autant plus de RAM qu’on y fait tourner des modèles d’IA.
La course engagée par les hyperscalers a contribué à engendrer une pénurie de mémoire. Et par là même une augmentation remarquable des prix. On en est par exemple arrivé, il y a quelques semaines, à ce qu’un kit de 64 Go de DDR5 coûte plus cher qu’une PlayStation.
Le phénomène est amplifié par une réorientation de la fabrication vers des types de mémoires adaptés aux accélérateurs IA. En tête de liste, la HBM (DRAM à large bande passante). Les modules mémoire génériques se raréfient d’autant plus.
Il se dit que la situation pourrait persister au moins jusqu’en 2027. Elle a en tout cas commencé à se répercuter en bout de chaîne, sur le prix des équipements informatiques. Chez Dell, il semble falloir se préparer à des augmentations de 10 à 30 % dans les gammes de PC B2B. Chez ASUS, il est question de 15 à 20 % de hausse sur des notebooks. Les prévisions sont similaires chez Acer, qui songerait aussi à livrer des modèles avec moins de RAM… potentiellement à rebours de la promesse des « PC IA ».
On surveillera particulièrement les plus petits fournisseurs, qui ont globalement moins d’inventaire, de trésorerie et de marge de négociation. Même chose avec les smartphones. Sur ce segment, la mémoire peut traditionnellement représenter jusqu’à 20 % du coût de revient matériel. Il est probable que, si hausses de prix il y a, elle seront plus nettes sur l’entrée et le milieu de gamme, où les marges sont faibles. À l’autre bout du spectre, on pourrait voir les flagships plafonner à 12 Go de RAM en 2026.
IDC estime que cette année, le marché des smartphones pourrait se contracter d’environ 5 % en volume, tandis que le prix de vente moyen augmenterait de quelque 8 %. Ses prévisions sont comparables pour les PC, dont les fabricants ne se verront sans doute pas livrer toute la capacité de mémoire commandée (potentiellement, autour de 70 % pour les principaux OEM et de 40 % pour les plus petits). D’autant plus que les hyperscalers se battent, de plus en plus agressivement, pour les stocks restants. Une tendance accentuée par le marché chinois, où les USA ont finalement autorisé la vente des GPU H200. Sur place, plus de 2 millions d’unités auraient été commandées à NVIDIA, qui en aurait à peine la moitié en réserve. AMD est aussi concerné, dans une moindre mesure, avec ses accélérateurs Instinct. Alibaba, entre autres, lui en aurait acheté jusqu’à 50 000.
En parallèle à leurs ventes sur le marché du datacenter, AMD et NVIDIA prépareraient tous deux des hausses de prix sur leurs cartes graphiques « grand public ». Ce mois-ci pour le premier ; en février pour le second. Avec la pénurie, la GDDR en est venue à constituer plus de 80 % de leur coût de revient.
AMD envisagerait par ailleurs de réintroduire des puces sur socket AM4 (potentiellement des CPU Ryzen 5000 et des APU Zen 3), ce qui éviterait d’avoir à racheter des cartes mères… et de la DDR5.
Du côté des fabricants de semi-conducteurs, on s’en tient dorénavant à des contrats au trimestre. Et on donne, comme sus-évoqué, la priorité à la mémoire HBM. Actuellement en mesure de produire 160 000 à 170 000 wafers par mois, Samsung Electronics prévoirait d’augmenter cette capacité de 50 %. Micron a quant à lui annoncé que son carnet de commandes HBM était rempli pour l’année 2026.
Dans ce contexte, le marché IT dans son ensemble a potentiellement connu, en 2025, une croissance sans égale depuis 30 ans. Tout du moins à en croire IDC, qui communiquait, début décembre, une estimation à + 14 % (4250 Md$), hors dépenses télécoms. En première ligne, les dépenses des fournisseurs de services d’infrastructure, pas majoritaires (environ 500 Md$), mais en nette croissance (+ 86 %, contre environ + 10 % pour les dépenses des entreprises).
Si on s’en tient à ce qu’IDC qualifie d’infrastructures IA (dans les grandes lignes, tout ce qui porte des applications au minimum « augmentées » par de l’IA), les Ètats-Unis concentrent les trois quarts des dépenses, contre environ 5 % pour l’EMEA.
Sur place se trouve environ 55 % de la capacité hyperscale mondiale, selon Synergy Research Group. La Virginie en concentre à elle seule 14 %. Mais la demande croissante en énergie favorise les implantations dans des Ètats moins densément peuplés comme l’Oregon (22 habitants au km² ; actuellement 5 % de la capacité mondiale), l’Iowa (17 hab/km² ; 4 %) et le Nebraska (10 hab/km²). On ne peut pas en dire autant d’emplacements tels que Londres et Francfort. Ce dernier est d’ailleurs sorti du top 20 des hubs mondiaux, comme Amsterdam. Ne reste, côté européen, que Dublin, qui accueille environ 4 % de la capacité hyperscale.

De cette capacité, le trio Amazon-Microsoft-Google détient une part (58 %) du même ordre que son poids sur le marché mondial du cloud d’infrastructure (63 %). Leur ratio capex est aujourd’hui au niveau de celui des telcos, approchant de 20 % du chiffre d’affaires – la majorité allant dans les datacenters.
Sur un marché du cloud d’infrastructure estimé à 107 Md$ au T3 2025, les néo-clouds (plates-formes spécialisées, le plus souvent sur les workloads IA à base de GPU) montent doucement en puissance. Ils ont passé les 5 Md$ de revenus trimestriels. Les principaux acteurs se nomment CoreWeave, Crusoe, Lambda, Nebius… et OpenAI (que Synergy inclut au titre de ses abonnements à ChatGPT).
En parallèle, les fusions-acquisitions(-investissements) « orienté(e)s datacenter » ont atteint en 2024 une valeur globale sans précédent : 73 Md$. Principal contributeur : l’acquisition d’AirTrunk, emmenée par le fonds Blackstone et bouclée en décembre pour 16 Md$. Suivent deux investissements dans Vantage Data Centers totalisant 9,2 Md$.
Illustration principale générée par IA
The post Course à l’IA : la bulle controversée, la pénurie avérée appeared first on Silicon.fr.

Quel est le prix à payer pour développer une politique nationale sur l’IA ? Alors que la France et l’Europe l’érigent en priorité stratégique, l’Autorité de la concurrence publie une étude sur son coût énergétique et environnemental, après son premier avis sur l’IA générative publié à l’été 2024.
Et le gendarme de la concurrence tire la sonnette d’alarme : la consommation électrique des centres de données pourrait représenter 4 % de la consommation nationale française dès 2035, tandis que les géants du secteur sécurisent déjà leurs approvisionnements en énergie, risquant de fausser le jeu concurrentiel.
Les chiffres parlent d’eux-mêmes. Les centres de données représentent actuellement environ 1,5 % de la consommation mondiale d’électricité, mais leur impact local s’avère bien plus significatif. L’Autorité anticipe que leur consommation pourrait au moins doubler d’ici 2030 pour atteindre 945 TWh dans le monde.
En France, la situation est tout aussi préoccupante. La consommation des centres de données, estimée à 10 TWh au début des années 2020, pourrait grimper entre 12 et 20 TWh en 2030, puis entre 19 et 28 TWh en 2035, représentant près de 4 % de la consommation électrique nationale. Face à cette explosion, les grands acteurs américains multiplient déjà les partenariats pour sécuriser leur approvisionnement en énergie décarbonée, qu’il s’agisse d’énergies renouvelables ou du nucléaire.
Au-delà de l’électricité, l’impact environnemental de l’IA mobilise d’importantes ressources tout au long de la chaîne de valeur : eau, métaux rares et foncier. Selon l’Arcep, le volume d’eau prélevé par les centres de données a atteint 0,6 million de mètres cubes en 2023, avec une croissance annuelle soutenue de 17 % en 2022 et 19 % en 2023. À cette consommation directe s’ajoutent les prélèvements indirects liés à la production d’électricité, estimés à plus de 5,2 millions de mètres cubes par an.
Plusieurs acteurs du numérique ont d’ailleurs annoncé une forte augmentation de leurs émissions de gaz à effet de serre, allant de 30 à 50 %, résultant notamment de l’augmentation de la consommation énergétique de leurs centres de données.
L’Autorité identifie trois types d’enjeux concurrentiels découlant de cette situation.
Premier enjeu : l’accès à l’énergie et la maîtrise de son coût. Les acteurs du secteur sont confrontés à des difficultés de raccordement au réseau électrique et à des incertitudes sur le prix de l’énergie. L’électricité représente entre 30 et 50 % des charges d’exploitation d’un centre de données, et le contexte énergétique est en pleine mutation, notamment avec la fin du dispositif ARENH au 31 décembre 2025.
Le nouveau système dual se met en place avec le versement nucléaire universel et les contrats d’allocation de long terme adossés à la production nucléaire proposés par EDF. L’Autorité se montre vigilante : elle veillera à ce que la position privilégiée des acteurs les plus importants ne leur permette pas de sécuriser des approvisionnements d’énergie dans des conditions avantageuses au détriment des plus petits. Elle rappelle également qu’EDF ne doit pas adopter de comportements anticoncurrentiels tels que la discrimination, le refus d’approvisionnement ou le verrouillage du marché.
Deuxième enjeu : la frugalité comme paramètre de concurrence. Face à l’impact environnemental de l’IA, le concept de frugalité se développe, défini comme la consommation optimisée des ressources dans un objectif de minimisation de l’impact environnemental. Les demandeurs montrent un intérêt croissant pour des outils plus frugaux, tandis que plusieurs acteurs développent des modèles de plus petite taille ou communiquent sur leur empreinte environnementale.
L’Autorité considère que la frugalité peut contribuer à l’animation du jeu concurrentiel en affectant le prix, la qualité et l’innovation. Elle peut notamment permettre à des entreprises de taille plus modeste de rivaliser avec les grands acteurs. Toutefois, elle met en garde contre plusieurs risques : l’adoption de comportements trompeurs en termes de frugalité, le fait de ne pas communiquer sur l’empreinte environnementale alors qu’il existe une demande, ou encore le fait de limiter l’innovation en matière de frugalité.
Troisième enjeu : la standardisation de l’empreinte environnementale. L’Autorité constate que les entreprises communiquent peu sur l’impact environnemental de leurs solutions, qu’il n’existe pas de méthodologie partagée et que les mesures entreprises sont difficilement comparables.
Plusieurs outils ont été développés, comme le référentiel général d’éco-conception des services numériques co-publié par l’Arcep et l’Arcom, ou encore le référentiel général pour l’IA frugale porté par l’Afnor. D’autres outils se concentrent sur la mesure de l’empreinte énergétique et carbone, tandis que certains acteurs proposent la mise en place d’une notation environnementale permettant de comparer les différents modèles.
Mais là encore, l’Autorité alerte sur plusieurs problématiques : l’adoption d’outils qui ne s’appuieraient pas sur une méthodologie robuste, l’adoption d’une standardisation privant certains acteurs de son bénéfice, les comportements empêchant la standardisation, ou encore les échanges entre concurrents portant sur des informations commercialement sensibles.
Elle insiste particulièrement sur la nécessité de disposer de données fiables et transparentes sur l’empreinte énergétique et environnementale de l’IA. Une transparence qui permettrait à la frugalité de pleinement jouer son rôle de paramètre de concurrence. Elle souligne également qu’il convient de s’assurer que l’accès aux zones adaptées à l’implantation de centres de données et à l’énergie, en particulier à l’électricité d’origine nucléaire, ne se fasse pas à l’avantage de certains acteurs uniquement.
The post IA : l’Autorité de la concurrence alerte sur la bataille de l’énergie appeared first on Silicon.fr.


Et si repasser en déplacement devenait enfin aussi simple que suspendre un vêtement et attendre tranquillement qu’il soit prêt à porter ?
L’article Launbot, le premier appareil à repasser automatique de voyage est disponible en précommande, rédigé par Nathalie Kleczinski, est apparu en premier sur NeozOne.
« Signal Intelligence Platform
A sleek, modern web-based front-end for signal intelligence tools.
Unified interface for pager decoding, 433MHz sensors, ADS-B aircraft tracking, satellite monitoring, WiFi reconnaissance, and Bluetooth scanning.»
via https://korben.info/intercept-sigint-dashboard-rtl-sdr.html
— Permalink

Cette augmentation du prix de la mémoire vive se répercute sur les utilisateurs finaux. Le prix des modules de RAM a littéralement doublé en quelques semaines.
The post Pénurie de mémoire et hausse de prix : ça empire… first appeared on Bhmag.
La multiprise SHELLY Power Strip Gen4 offre 4 prises au format Schuko avec mesure de consommation indépendantes, des cerclages lumineux LED multicolore et une compatibilité avec Matter, Zigbee 3.0 , WiFi 6, bluetooth, HomeKit, Alexa, Google Home et SmartThings. Compacte, sécurisée et puissante (jusqu’à 3500 W), elle permet un pilotage intelligent et fiable de vos […] 
Les clés usb Harry Potter sont avant tout des objets de collection sous licence officielle, mais derrière le côté « goodies », on trouve de vraies clés usb avec des caractéristiques techniques bien définies.
The post Idée cadeau pour Noël : des clés usb Harry Potter pour les fans du célèbre sorcier first appeared on Bhmag.