Vue normale

Reçu aujourd’hui — 24 novembre 2025

Evo 2 – L'IA qui écrit de l'ADN fonctionnel

Par :Korben
24 novembre 2025 à 14:25

Vous pensiez que les IA génératives se contentaient de pondre des images de chats à 6 pattes façon Ghibli et des textes pompés sur Wikipédia ? Hé bien, je vais vous décevoir car des chercheurs de l’Arc Institute, Stanford, NVIDIA, UC Berkeley et d’autres viennent de pousser le concept beaucoup, beaucoup plus loin…

En effet, ils ont créé Evo 2, le plus grand modèle d’IA pour la biologie jamais rendu public, capable de lire, comprendre et même écrire de l’ADN fonctionnel. Et cerise sur le gâteau, une étude publiée cette semaine dans Nature démontre qu’on peut utiliser cette technologie pour créer des protéines totalement nouvelles qui n’ont jamais existé dans la nature… et qui fonctionnent vraiment !

Le projet Evo 2 fonctionne comme un LLM classique, sauf qu’au lieu de lui faire bouffer du texte, on lui a fait avaler 9,3 trillions de nucléotides (les fameux A, T, G, C qui composent l’ADN) provenant de plus de 128 000 génomes couvrant tous les domaines du vivant : bactéries, archées, virus, mais aussi humains, plantes et autres eucaryotes.

Leur modèle existe en deux versions : 7 milliards et 40 milliards de paramètres (comparable aux gros LLM actuels) mais sa vraie force, c’est sa fenêtre de contexte d’un million de paires de bases, soit 8 fois plus que son prédécesseur Evo 1. Pour vous donner une idée, c’est suffisant pour analyser un chromosome entier de levure ou un génome bactérien complet en une seule passe.

Pour entraîner ce monstre, il a fallu mobiliser plus de 2 000 GPU NVIDIA H100 pendant plusieurs mois sur le cloud DGX, soit environ 150 fois plus de puissance de calcul qu’AlphaFold. L’architecture utilisée, baptisée StripedHyena 2 , permet un entraînement 3 fois plus rapide que les transformers classiques sur les longues séquences et petit fun fact, Greg Brockman, cofondateur d’OpenAI, a participé au développement de cette architecture pendant son année sabbatique.

L’une des applications les plus impressionnantes d’Evo 2, c’est sa capacité à prédire si une mutation génétique risque de causer une maladie, et ce, sans aucun entraînement spécifique. Les chercheurs ont testé le modèle sur le gène BRCA1, connu pour son lien avec le cancer du sein. Résultat, Evo 2 a prédit avec plus de 90% de précision quelles mutations étaient pathogènes et lesquelles étaient bénignes.

Mieux encore, Evo 2 est actuellement le seul modèle capable de prédire l’effet des mutations dans les régions non-codantes de l’ADN (les fameuses parties qu’on pensait “inutiles” et qu’on appelait autrefois “ADN poubelle”). Pour les variants codants, il est second meilleur, mais pour les variants non-codants, il est carrément le top du top of the pop !

Et pour prouver que le modèle ne fait pas que régurgiter ses données d’entraînement, l’équipe lui a demandé d’annoter le génome du mammouth laineux, une espèce qui n’était évidemment pas dans son dataset. Et le modèle a correctement identifié la structure exons-introns du génome de ce pachyderme (aujourd’hui disparu parce que j’ai mangé le dernier), démontrant qu’il a vraiment “compris” les règles fondamentales du vivant.

Mais là où ça devient vraiment dingue, c’est ce concept de “design sémantique”. En effet, dans les génomes bactériens, les gènes qui travaillent ensemble sont souvent positionnés côte à côte, du coup, si on donne à l’IA le contexte génomique d’une fonction particulière, elle peut générer de nouveaux gènes ayant des fonctions similaires.

En gros, on prompte l’IA avec de l’ADN au lieu de texte, et comme un bon LLM qui complète vos phrases, Evo complète… vos génomes.

Pour tester cette approche, les chercheurs ont d’abord généré une toxine bactérienne basée sur une toxine connue. Ils ont ensuite utilisé cette toxine comme “prompt” pour demander à l’IA de créer des antitoxines correspondantes. Sur 10 propositions, la moitié ont réussi à neutraliser partiellement la toxine, et deux d’entre elles l’ont complètement désactivée avec 95-100% de survie cellulaire.

Et ces antitoxines n’avaient que 21 à 27% de similarité avec les protéines existantes, donc autant dire qu’Evo a inventé quelque chose de quasi-nouveau ! Et ce n’est pas du bricolage aléatoire puisque l’analyse montre que ces protéines seraient l’équivalent d’un assemblage de 15 à 20 morceaux de protéines différentes, recombinés de façon inédite.

Et ce qui est encore plus impressionnant, c’est que certaines de ces antitoxines générées fonctionnent contre plusieurs toxines différentes utilisant des mécanismes d’action distincts. L’une d’elles neutralise trois toxines naturelles, alors que l’antitoxine naturelle équivalente ne fonctionne que contre sa toxine d’origine. L’IA aurait donc identifié une compatibilité fonctionnelle plus large que ce qu’on observe dans la nature !

Les chercheurs ont aussi testé des systèmes où l’antitoxine est un ARN plutôt qu’une protéine. Là encore, le modèle a généré une antitoxine fonctionnelle avec 88% de survie, tout en conservant les caractéristiques structurelles essentielles malgré une séquence divergente.

Mais surtout, l’équipe a généré une toxine qui ne ressemble à absolument rien de connu. Aucune similarité de séquence, aucune similarité structurale, même avec les méthodes de détection les plus sensibles. Pour reconstituer tous les acides aminés de cette protéine, il faudrait recombiner des fragments de plus de 40 protéines différentes, ce qui ressemble plus à une protéine Frankenstein créée de toutes pièces qu’à une variation évolutive.

Et histoire de pousser l’idée encore plus loin, l’équipe s’est attaquée aux anti-CRISPR. Ce sont des protéines utilisées par les phages pour désactiver le système immunitaire bactérien, qui sont parmi les plus évolutives qui existent, avec une diversité de séquences et de mécanismes absolument folle.

Et 17% des protéines générées ont montré une activité anti-CRISPR mesurable, soit un taux de succès remarquable. Parmi les candidates qui fonctionnent, certaines n’ont aucune similarité de séquence détectable avec les protéines connues, et même leurs structures prédites ne ressemblent à rien dans les bases de données. Ce sont littéralement des protéines nouvelles qui font le job !

Mais Evo 2 ne s’arrête pas à la génération de protéines individuelles. Le modèle peut maintenant créer des séquences génomiques complètes de plusieurs centaines de milliers de paires de bases. L’équipe a testé trois niveaux de complexité :

  • Génomes mitochondriaux : à partir d’un fragment de 3 kb d’ADN mitochondrial humain, Evo 2 a généré des génomes complets de 16 000 bases avec le bon nombre de gènes codants, d’ARNt et d’ARNr. Les protéines générées ont été validées par AlphaFold 3 et correspondent à des complexes fonctionnels de la chaîne respiratoire.
  • Génomes bactériens : en partant de Mycoplasma genitalium (le génome bactérien minimal), le modèle a produit des séquences de 600 kb où près de 70% des gènes prédits correspondent à des domaines protéiques connus.
  • Chromosomes de levure : Evo 2 a généré 330 kb d’ADN eucaryote avec des introns, des promoteurs, des ARNt correctement positionnés, le tout ressemblant aux vrais gènes de levure.

Les chercheurs ont même encodé des messages en code Morse (“EVO2”, “LO”) dans les profils d’accessibilité de la chromatine des séquences générées, démontrant qu’on peut “programmer” l’épigénome avec ce modèle.

On nage en pleine science-fiction, mais ça fonctionne !

Pour finir en beauté, l’équipe a lâché Evo sur 1,7 million de gènes bactériens et viraux comme prompts, générant 120 milliards de paires de bases d’ADN synthétique. Cette base de données, baptisée SynGenome , est accessible gratuitement et permet de rechercher des séquences par fonction, domaine protéique, espèce ou terme Gene Ontology.

On y trouve notamment des protéines chimériques avec des fusions de domaines jamais observées dans la nature. Ces combinaisons pourraient représenter des innovations fonctionnelles à explorer pour la biologie synthétique.

Et le plus beau dans tout ça c’est que tout est open source. Les modèles (7B et 40B paramètres) sont disponibles sur Hugging Face , le code d’entraînement et d’inférence est sur GitHub , et le dataset OpenGenome2 est téléchargeable. Vous pouvez même tester Evo 2 directement dans votre navigateur via l’ API hébergée par NVIDIA ou l’interface Evo Designer.

Pour ceux qui veulent aller plus loin, NVIDIA propose aussi des tutoriels de fine-tuning via son framework BioNeMo , et une collaboration avec le labo Goodfire a produit un outil d’interprétabilité pour visualiser ce que le modèle “voit” dans les séquences génomiques.

Bien sûr, la génération autorégressive peut produire des séquences répétitives ou des “hallucinations” biologiques (des gènes réalistes mais non fonctionnels), et c’est pourquoi ce design sémantique nécessite des filtres et des validations expérimentales. De plus, cette approche est limitée aux fonctions encodées par les relations contextuelles dans les génomes prokaryotes, ce qui exclut de nombreuses applications eucaryotes… pour l’instant.

Un des génomes bactériens générés était d’ailleurs incomplet et ne fonctionnerait probablement pas si on le synthétisait et l’insérait dans une vraie bactérie. Mais l’équipe travaille déjà avec des experts en synthèse et assemblage d’ADN de l’Université du Maryland pour tester expérimentalement ces génomes générés.

Bref, on n’en est pas encore à créer des enzymes qui digèrent le plastique sur commande, mais le fait qu’une IA puisse générer des protéines fonctionnelles à partir de rien, juste en apprenant les patterns de l’évolution… c’est quand même complètement dingue. Et avec un taux de succès allant de 17 à 50% sur seulement quelques dizaines de variants testés, le design sémantique surpasse déjà de nombreuses méthodes classiques de conception de protéines.

Quoiqu’il en soit, la biologie générative vient de franchir un cap, et j’ai hâte de voir ce que les biologistes vont en faire !

Source

Arrêt du tribunal allemand sur OpenAI : quelle est la suite pour les créateurs d’IA et d’art ?

24 novembre 2025 à 13:40

Dans un développement juridique significatif la semaine dernière, une organisation de musiciens allemands a remporté une victoire notable contre OpenAI. Le tribunal a statué que l’entraînement des modèles GPT-4 et 4o impliquait une violation des droits d’auteur, classant certains résultats générés par ces modèles comme des atteintes également. Ce jugement a résonné avec les critiques […]

Le post Arrêt du tribunal allemand sur OpenAI : quelle est la suite pour les créateurs d’IA et d’art ? est apparu en premier sur Moyens I/O.

Comprendre l’IA : Un guide simple de l’intelligence artificielle

24 novembre 2025 à 13:32

Depuis le lancement de ChatGPT fin 2022, le paysage technologique a été transformé. Ce moment décisif a déclenché la révolution de l’IA, donnant vie à des concepts autrefois confinés au monde de la science-fiction. Si vous vous demandez ce qu’est l’IA et comment elle fonctionne, vous êtes au bon endroit. Cet article explore l’essence de […]

Le post Comprendre l’IA : Un guide simple de l’intelligence artificielle est apparu en premier sur Moyens I/O.

Un neurone artificiel « polyvalent » vient d’être inventé : l’impact potentiel dépasse largement les laboratoires

Face aux limites des architectures neuromorphiques actuelles, des chercheurs ont conçu un neurone artificiel polyvalent. Ce « transneurone », capable de reproduire différents comportements neuronaux, pourrait permettre de développer des systèmes robotiques plus adaptatifs, plus économes en...

Avec la convergence technologique, l'usine fait un pas vers le futur

L'innovation industrielle repose aujourd'hui en grande partie sur l'intelligence artificielle, les jumeaux numériques et les robots collaboratifs. Ces trois technologies optimisent le fonctionnement des usines et deviennent un levier de performance.

Google Gemini s’apprête à enterrer Google Assistant : voici quand la bascule doit avoir lieu

24 novembre 2025 à 10:00

google assistant

Les utilisateurs Android peuvent se préparer à dire au revoir à l'Assistant de Google et dire bonjour à l'intelligence artificielle.
 [Lire la suite]

Chaque matin, WhatsApp s’anime avec les dernières nouvelles tech. Rejoignez notre canal Frandroid pour ne rien manquer !

C’est quoi DeepSeek AI, vu depuis Reddit ?

24 novembre 2025 à 09:41

DeepSeek, côté utilisateurs, c’est surtout :

  • Des modèles type DeepSeek-V3 et surtout DeepSeek-R1, vendus comme très forts en raisonnement, logique et code. euronews+1
  • Une origine chinoise assumée, avec une stratégie agressive sur les coûts, ce qui en fait un “disrupteur” dans la guerre des modèles. Business Insider+1

Sur Reddit, les discussions se concentrent moins sur le storytelling corporate que sur trois questions très concrètes :

  1. Est-ce vraiment meilleur que ChatGPT / Claude sur les tâches difficiles ?
  2. Est-ce fiable au quotidien (bugs, hallucinations, code foireux) ?
  3. Est-ce safe d’utiliser un modèle chinois pour du travail sérieux (data, juridique, entreprise) ?

2. Là où Reddit est impressionné : logique, code, technique

Raisonnement et puzzles

Sur r/OpenAI, un utilisateur explique avoir testé DeepSeek sur des puzzles logiques créés par le modèle o1 d’OpenAI : dans plusieurs cas, DeepSeek avait raison là où o1 se trompait, et o1 a fini par admettre son erreur. Reddit

Le ton est assez brutal : la personne affirme que la Chine a “largement dépassé” les US sur certains aspects de l’IA. Ça reste une opinion, mais ça résume bien le ressenti d’une partie de Reddit technique : DeepSeek n’est pas un gadget, c’est un vrai concurrent.

Expérience développeurs : R1 plébiscité

Sur r/LocalLLaMA, plusieurs devs racontent que DeepSeek-R1 est très solide pour le code :

  • Un biologiste qui fait du Python / R pour l’analyse de données dit que là où V3 échouait et Claude Sonnet nécessitait 4–5 prompts, R1 lui génère directement le fichier dont il a besoin en un seul prompt. Reddit
  • Un autre thread classe DeepSeek comme “4ᵉ IA la plus intelligente au monde”, avec un focus fort sur le rapport prix/performances par rapport à d’autres modèles payants. Reddit

En résumé côté devs :

✅ Très bon pour le code, la logique complexe, la génération de scripts, le debug pas trop tordu.
✅ Pour le prix, beaucoup trouvent que c’est imbattable.


3. Les cas d’usage émergents sur Reddit

En recoupant les threads, on voit quelques patterns d’usage récurrents :

  • Data / recherche / analyse
    DeepSeek est souvent cité pour du raisonnement multi-étapes, de l’analyse de données et des tâches techniques où on préfère un modèle “froid et logique” à un modèle très verbeux. Learn Hub+1
  • Développement logiciel & scripting
    Utilisation massive pour Python, R, front-end, génération de fichiers complets, refonte de code legacy. Les utilisateurs apprécient particulièrement la capacité R1 à détailler sa chaîne de raisonnement (utile pour comprendre pourquoi ça marche… ou pourquoi ça plante). Reddit+1
  • Domaines pro spécifiques (ex : e-discovery / juridique)
    Sur r/ediscovery, des pros du juridique discutent de l’impact de DeepSeek sur la relecture documentaire / legal review : la baisse de coût du raisonnement IA met potentiellement la pression sur tout un pan de prestations intellectuelles. Reddit+1

4. Les critiques : erreurs, instabilité, “pas magique non plus”

L’autre moitié de Reddit est nettement plus nuancée.

Plus d’erreurs que les concurrents sur certains workflows

Sur r/ChatGPTCoding, un dev explique que DeepSeek, utilisé avec l’outil Cline, fait plus d’erreurs et réécrit / supprime plus de code que Claude Sonnet 3.5 dans son expérience. Reddit

Sur un autre thread (en portugais), un utilisateur répond à la question “DeepSeek est-il vraiment supérieur à ChatGPT ?” par un non assez net : modèle utile, mais bourré d’erreurs, parfois totalement inutiles. Reddit

Traduction en langage direct :
👉 Reddit n’est pas en train de dire “DeepSeek écrase ChatGPT partout”.
Les retours ressemblent plutôt à : “monstrueux sur certaines tâches, assez casse-gueule sur d’autres”.

UX et polish

Plusieurs résumés extérieurs basés sur Reddit convergent :

  • DeepSeek est très bon techniquement, notamment en logique et multilingue.
  • ChatGPT reste plus polyvalent, plus fluide et mieux intégré pour la plupart des usages grand public (contenu, brainstorming, conversation, images). Learn Hub+1

Ça colle bien à ce qu’on lit sur Reddit : les power users techniques sont excités, l’utilisateur moyen est plus mitigé.


5. Rapport qualité-prix : le gros point fort vu par Reddit

Là-dessus, il y a quasi-consensus :

  • DeepSeek est perçu comme l’un des meilleurs modèles “price/performance” du moment. Reddit+1
  • Beaucoup voient dans sa stratégie de prix agressifs une pression directe sur les géants US et une course à la baisse des coûts des modèles de raisonnement. Reddit+1

Dans certains threads, les gens écrivent clairement qu’à qualité similaire, ils préfèrent payer DeepSeek plutôt que des modèles plus chers, surtout pour du code ou du raisonnement pur.

Mais il faut être lucide :
💬 “Pas cher” est un avantage énorme pour les hobbyists et petites boîtes.
💬 Pour une entreprise avec risques juridiques / compliance, ce n’est pas suffisant pour trancher.


6. Gros sujet sur Reddit : confiance, Chine, données & souveraineté

Là, ça devient plus politique et stratégique.

Inquiétudes sur la confidentialité

Des articles et discussions relayés sur Reddit soulignent plusieurs points :

  • DeepSeek est très fortement promu dans des régions comme l’Afrique, avec des inquiétudes sur la protection des données et le fait que des infrastructures critiques reposent sur un acteur chinois. Africa Defense Forum+1
  • Des reviews orientées “privacy” rappellent que même si certains modèles peuvent tourner localement, beaucoup d’usages passent par des serveurs en Chine, ce qui fait tiquer les utilisateurs sensibles à la souveraineté des données. toksta.com+1

Impact socio-économique

Un chercheur DeepSeek lui-même a récemment expliqué que l’IA pourrait remplacer la plupart des jobs en 10–20 ans, appelant les boîtes tech à jouer le rôle de “gardiens de l’humanité”. Business Insider

Sur Reddit, ça nourrit deux types de réactions :

  • des enthousiastes du progrès technique (“let it rip”),
  • des gens nettement plus inquiets, qui voient DeepSeek comme un accélérateur de déséquilibres globaux.

7. En pratique : faut-il tester DeepSeek si tu utilises déjà ChatGPT / Claude ?

Si on synthétise froidement la voix de Reddit:

Quand DeepSeek vaut clairement le coup de s’y intéresser :

  • Tu fais beaucoup de code, data, logique, et tu veux un moteur de raisonnement très agressif niveau prix. Reddit+2Reddit+2
  • Tu es prêt à t’auto-surveiller : relire le code, vérifier les résultats, croiser avec d’autres modèles.
  • Tu veux explorer des workflows hybrides :
    • V3 pour les tâches générales
    • R1 pour les problèmes vraiment durs (schema Reddit classique). BytePlus

Quand rester principalement sur ChatGPT / Claude a du sens :

  • Tu travailles dans des secteurs très réglementés (juridique, médical, finance) et la question de la localisation des données / auditabilité est critique. Africa Defense Forum+1
  • Tu cherches un modèle polyvalent, stable, bien intégré avec des outils existants, pour toi ou pour une équipe non technique. Learn Hub
  • Tu n’as pas envie de multiplier les risques d’erreurs bizarres dans ton workflow.

8. Conclusion : ce que disent vraiment les commentaires Reddit sur DeepSeek

Si on coupe le bruit marketing, Reddit raconte plutôt ceci sur DeepSeek AI :

  • 🧠 Très fort en raisonnement et code, parfois meilleur que des modèles plus “prestigieux” sur des puzzles logiques et certaines tâches dev. Reddit+2Reddit+2
  • 💸 Excellent rapport qualité/prix, ce qui en fait un outil quasi incontournable pour les power users et les petites structures tech. Reddit+2BytePlus+2
  • ⚠ Pas plus fiable que les autres, parfois moins : erreurs, code cassé, comportements moins polis que ChatGPT ou Claude sur certains use cases. Reddit+1
  • 🌍 Gros débats sur la confiance (Chine, données, souveraineté), surtout dès qu’on touche au juridique, aux données clients ou à des enjeux géopolitiques. Africa Defense Forum+2Reddit+2

Donc non, ce n’est ni “le tueur de ChatGPT” ni un jouet surcoté.
C’est un acteur sérieux qui force tout le monde – surtout les US – à bouger, avec un gros angle “raisonnement + coût”.

Si tu veux, on peut faire un deuxième article plus opérationnel du style :

“Comment intégrer DeepSeek dans un stack IA existant (ChatGPT / Claude) sans foutre en l’air ta conformité ni ton workflow.”

L’article C’est quoi DeepSeek AI, vu depuis Reddit ? est apparu en premier sur Raspberry Pi France.

Google a résolu le problème du texte dans les images : on a testé Nano Banana Pro, c’est bluffant

24 novembre 2025 à 08:57

Oubliez tout ce que vous savez sur les générateurs d'images. Jusqu'ici, Midjourney ou DALL-E étaient des artistes un peu illettrés. Même si les dernières améliorations de ChatGPT étaient encourageantes. Avec Nano Banana Pro, Google change les règles. Vous lui demandez la différence technique entre le MagSafe et le Qi 2.2 ? Il ne se contente pas de dessiner : il va chercher l'info, la comprend, et vous sort un comparatif visuel parfait.
 [Lire la suite]

Tous nos bons plans directement sur WhatsApp. Rejoignez Frandroid Bons Plans, zéro spam garanti.

Google dément utiliser vos e-mails sur Gmail pour entraîner son IA

24 novembre 2025 à 07:38

Une rumeur tenace enflamme les réseaux sociaux et sites depuis quelques jours : Google aurait discrètement modifié ses conditions d’utilisation pour utiliser vos e-mails et pièces jointes sur Gmail afin d’entraîner ses modèles d’intelligence artificielle. Face à la polémique, le géant de la tech monte au créneau pour …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Google dément utiliser vos e-mails sur Gmail pour entraîner son IA est apparu en premier sur KultureGeek.

Face à Google Gemini 3, Sam Altman tire la sonnette d’alarme en interne

24 novembre 2025 à 07:17

Après des mois à parader comme le maître incontesté de l'IA, le masque tombe chez OpenAI. Une note interne de Sam Altman, révélée par The Information, dresse un constat brutal : l'ambiance est morose, Google est revenu dans la course, et la croissance risque de caler.
 [Lire la suite]

Pour ne rater aucun bon plan, rejoignez notre nouveau channel WhatsApp Frandroid Bons Plans, garanti sans spam !

Reçu hier — 23 novembre 2025

Quand l’intelligence artificielle isole : OpenAI face à des accusations de manipulation

23 novembre 2025 à 20:30

OpenAI fait face à une vague inédite de poursuites judiciaires. Sept plaintes déposées ce mois-ci accusent ChatGPT d’avoir contribué à des tragédies humaines : quatre décès par suicide et trois cas de délires potentiellement mortels. Les familles des victimes pointent du doigt un comportement manipulateur du chatbot, conçu pour maximiser l’engagement des utilisateurs. Au cœur ... Lire plus

L'article Quand l’intelligence artificielle isole : OpenAI face à des accusations de manipulation est apparu en premier sur Fredzone.

Après une rupture, une Japonaise « épouse » un avatar qu’elle a créé sur ChatGPT

23 novembre 2025 à 11:00
Une mariée avec son bouquet et son alliance.

Et si l’amour 2.0 allait plus loin que les simples matchs sur une application ? Une femme japonaise vient de dire « oui »… à un avatar IA né sur ChatGPT. Oui, on en est là.

L’article Après une rupture, une Japonaise « épouse » un avatar qu’elle a créé sur ChatGPT, rédigé par Méline Kleczinski, est apparu en premier sur NeozOne.

Enfin une fonction utile de l’IA : trouver des vols à pas cher

Par :Olivier
23 novembre 2025 à 11:01
Google Flights

Google déploie de nouveaux outils dopés à l’IA pour organiser ses voyages. Bonne nouvelle : les fonctions de Google Flights arrivent enfin en France, même si le fameux Mode IA capable de bâtir un itinéraire complet n’est, lui, toujours pas dispo.

💾

💾

Gmail et IA : Google dément formellement utiliser vos e-mails pour entraîner Gemini

23 novembre 2025 à 08:10

Internet s'est enflammé ces dernières 48 heures sur une rumeur affirmant que Google utilisait vos emails privés pour entraîner Gemini. Une case à décocher d'urgence, disait-on. Sauf que Google vient de répondre, et c'est beaucoup moins effrayant que prévu.
 [Lire la suite]

Tous nos bons plans directement sur WhatsApp. Rejoignez Frandroid Bons Plans, zéro spam garanti.

« Un vrai cercle vicieux » : pourquoi l’IA menace déjà notre transition énergétique

23 novembre 2025 à 07:00
Ia Consommation Energie

L’intelligence artificielle (IA) générative s’est imposée en trois ans comme la nouvelle révolution planétaire. Mais derrière les réponses fluides de ChatGPT, des centres de données géants avalent des quantités d’énergie telles que leur empreinte carbone pourrait bientôt rivaliser avec celle de pays entiers. Non seulement cette pollution est massive, mais elle est aussi extraordinairement difficile à mesurer : courons-nous vers la catastrophe ?

La poursuite de lanceur d’alerte révèle les dangers présumés des robots : à lire absolument

23 novembre 2025 à 00:16

Dans un tournant frappant des événements ressemblant à l’intrigue d’un thriller de science-fiction, un procès pour dénonciation a émergé contre une entreprise de robotique renommée de la Silicon Valley. Les allégations suggèrent qu’un technicien de sécurité, mis à l’écart par la direction de l’entreprise, a soulevé des préoccupations concernant la sécurité d’un robot humanoïde aux […]

Le post La poursuite de lanceur d’alerte révèle les dangers présumés des robots : à lire absolument est apparu en premier sur Moyens I/O.

❌