Vue normale

Disney attaque le modèle Seedance 2.0 qui génère des répliques parfaites de ses films grâce à l’IA

14 février 2026 à 11:12

Quelques jours après le lancement tonitruant de Seedance 2.0, le modèle IA capable de générer des vidéos, Disney envoie une mise en demeure à Bytedance. L'entreprise n'apprécie pas les vidéos virales qui mettent en scène Dark Vador ou Mickey avec un réalisme effrayant. L'entreprise, pourtant associée à OpenAI, parle d'un « pillage massif » de sa propriété intellectuelle.

GeForce RTX 50 Series de Nvidia, la gamme, les prix, les spécifications et les tests

13 février 2026 à 17:50

GeForce RTX 50 seriesLes spécifications, les prix, la gamme et la puissance de l'ensemble des cartes graphiques GeForce RTX 50 series du constructeurs Nvidia.

Cet article GeForce RTX 50 Series de Nvidia, la gamme, les prix, les spécifications et les tests a été publié en premier par GinjFo.

Elon Musk veut une usine sur la Lune… avec une catapulte électromagnétique pour lancer ses satellites IA !

Pour faciliter la mise en place de ses data centers orbitaux dédiés à l’IA, Elon Musk veut les lancer depuis la Lune. Il compte créer une usine d’assemblage des satellites sur l'astre. Un canon électromagnétique permettrait de les placer en orbite. Lunaire…

Nvidia GeForce Now est maintenant disponible sur les Amazon Fire TV Stick

13 février 2026 à 13:10

Nvidia officialise l’arrivée de GeForce Now sur les Fire TV Stick d’Amazon, éliminant le bricolage d’installations détournées avec le fichier APK. Le service se télécharge désormais directement depuis la boutique d’applications d’Amazon, transformant la clé HDMI en un appareil de cloud gaming après connexion d’une manette Bluetooth. Trois …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Nvidia GeForce Now est maintenant disponible sur les Amazon Fire TV Stick est apparu en premier sur KultureGeek.

Chez Cisco, un mouvement « AgenticOps » à diffusion lente

13 février 2026 à 12:16

Mélangez ITOps et agentique : cela donne l’AgenticOps.

Cisco avait dévoilé cette marque ombrelle en juin 2025. Il y avait associé une vitrine nommée AI Canvas. La promesse : un espace de travail collaboratif orchestrant les différentes instances de Cisco AI Assistant, et dont l’interface serait générée de façon dynamique à partir des données de télémétrie. Il aurait plusieurs points d’entrée, à commencer par Meraki et Splunk… jusqu’au futur Cisco Cloud Control (moteur unifié de politiques réseau, sécurité et observabilité)*.

La disponibilité générale d’AI Canvas se fait encore attendre. Si bien que pour le moment, la principale traduction de la promesse AgenticOps est Cisco AI Assistant. Sa diffusion dans l’écosystème Cisco se poursuit, avec désormais Catalyst Center en ligne de mire (il y est disponible en bêta, sur demande).

OT, succursales, datacenter… L’AgenticOps gagne (doucement) l’écosystème Cisco

Dans le même temps, les capacités de dépannage et d’optimisation agentique arrivent sur les réseaux OT. Sur la partie campus/succursales, ce sont les recommandations de configurations qui font leur entrée, en complément à des améliorations pour le module AI Packet Analyzer.

Toujours sur le volet AgenticOps, côté datacenter, la corrélation d’événements sur Nexus One doit arriver en juin. Auparavant (en mai), des fonctionnalités devraient commencer à apparaître dans Security Cloud Control, pour le firewall.

Autre nouveauté : une composante Experience Metrics (en alpha) censée faire le pont avec les données d’UX pour consolider le dépannage. Elle s’appuie sur des intégrations avec Apple, Intel, Samsung et Zebra.

Des SLM maison et des outils associés

Pour porter sa démarche AgenticOps, Cisco a développé un modèle spécialisé (Deep Network Model). Mi-2025, il était dit formé sur 40 millions de tokens. Au dernier pointage, on a atteint les 100 millions.

À ce modèle en sont associés d’autres. Cisco a renforcé ses capacités en la matière en s’offrant – en novembre 2025 – une entreprise à l’origine d’une plate-forme LLMOps. Le groupe américain a aussi conçu des briques destinées à favoriser le traitement des données machine : LAPSE et ACE.

LAPSE (Lightweight Autonomous Program Synthesis and Execution) structure la télémétrie : il la convertit à la volée vers un schéma optimisé pour la tâche.

ACE (Analytics Context Engineering) favorise l’ingénierie de contexte. Il embarque l’analytics dans la boucle de raisonnement des LLM en utilisant un sous-ensemble de SQL et des outils Bash ancrés sur un système de fichiers virtuel mappé aux API d’observabilité.

Ce système doit permettre de communiquer à tout modèle des « vues hybrides » optimisées pour ses compétences, tout en l’autorisant à fouiller les données brutes. D’abord conçu pour améliorer le Deep Network Model, il est aujourd’hui un service autonome.

Orientées lignes ou colonnes (un algorithme le détermine), les vues sont par défaut en JSON. Cisco propose un format custom inspiré par le projet TOON.

* Meraki et ThousandEyes furent les premières sources de données d’AI Canvas. Le service gère la télémétrie d’équipements tiers si injectée à la main ou via Splunk. Cisco envisage de permettre à des partenaires d’y intégrer des capacités par API.

Illustration générée par IA

The post Chez Cisco, un mouvement « AgenticOps » à diffusion lente appeared first on Silicon.fr.

OpenAI accuse DeepSeek de copier ses LLM

13 février 2026 à 12:16

OpenAI tire la sonnette d’alarme auprès du Congrès américain. Dans un mémorandum adressé ce jeudi à la Commission spéciale de la Chambre des représentants sur la Chine, elle accuse son rival chinois DeepSeek d’exploiter de manière déloyale les modèles d’IA américains pour entraîner sa propre technologie.

Selon le document consulté par Bloomberg et Reuters, DeepSeek aurait recours à la « distillation », une technique qui consiste à utiliser les résultats d’un modèle d’IA établi pour former un nouveau modèle concurrent. OpenAI affirme avoir détecté « de nouvelles méthodes masquées » conçues pour contourner ses défenses contre l’utilisation abusive de ses systèmes.

Ces pratiques, largement liées à la Chine et occasionnellement à la Russie selon OpenAI, persistent et se sophistiquent malgré les tentatives de répression des utilisateurs qui violent les conditions d’utilisation.

DeepSeek aurait recours à la « distillation »

L’inventeur de ChatGPT indique que des comptes associés à des employés de DeepSeek ont développé des moyens de contourner les restrictions d’accès en passant par des routeurs tiers qui dissimulent leur origine. Des lignes de code auraient également été créées pour accéder aux modèles américains et en extraire les résultats « de manière programmatique ».

Fin septembre 2025, dans un article publié sur le site de Nature, une flopée d’auteurs présentés comme l’ »Équipe DeepSeek-AI » révélaient avoir dépensé 294 000 $ pour l’entraînement de son modèle R1. Un montant bien inférieur aux chiffres rapportés pour ses concurrents américains. Et de préciser que ce modèle axé avait été entraîné pendant un total de 80 heures sur un cluster de 512 puces H800, après une phase préparatoire utilisant des puces A100 pour des expériences sur un modèle plus petit.

En comparaison, Sam Altman, PDG d’OpenAI, déclarait en 2023 que l’entraînement des modèles fondamentaux avait coûté « bien plus » que 100 millions $ – mais sans donner de chiffres détaillés pour aucune de ses sorties.

Une menace commerciale et sécuritaire

Cette situation représente une double menace. Sur le plan économique d’abord : DeepSeek et de nombreux modèles chinois étant proposés gratuitement, la distillation pose un risque commercial majeur pour des entreprises comme OpenAI et Anthropic, qui ont investi des milliards de dollars dans leurs infrastructures et facturent leurs services premium.

Sur le plan sécuritaire ensuite : OpenAI souligne que le chatbot de DeepSeek censure les résultats sur des sujets sensibles pour Pékin, comme Taïwan ou la place Tiananmen. Lorsque des capacités sont copiées par distillation, les garde-fous disparaissent souvent, permettant une utilisation potentiellement dangereuse de l’IA dans des domaines à haut risque comme la biologie ou la chimie.

David Sacks, conseiller de la Maison Blanche pour l’IA, avait déjà alerté sur ces tactiques l’an dernier, affirmant que DeepSeek « extrayait davantage de jus » des puces anciennes tout en distillant les connaissances des modèles d’OpenAI.

La question des semi-conducteurs

Les préoccupations de Washington portent également sur l’accès aux puces d’IA avancées. Fin 2024, le président Trump a assoupli les restrictions, autorisant Nvidia à vendre ses processeurs H200 à la Chine – des puces moins performantes d’environ 18 mois par rapport aux versions Blackwell les plus récentes.

Des documents obtenus par la commission sur la Chine révèlent que Nvidia a fourni un soutien technique pour aider DeepSeek à améliorer et co-concevoir son modèle R1. Le modèle de base DeepSeek-V3 n’aurait nécessité que 2,8 millions d’heures de GPU H800 pour son entraînement complet – des processeurs qui ont pu être vendus à la Chine pendant quelques mois en 2023.

Illustration : image générée par l’IA

The post OpenAI accuse DeepSeek de copier ses LLM appeared first on Silicon.fr.

{ Tribune Expert } – Le vrai prix de l’ingestion de données

13 février 2026 à 10:42

Les plateformes d’ingestion de données sont souvent perçues comme un investissement coûteux. Cette perception, centrée sur leur prix affiché, ne tient pas compte du coût réel des solutions développées en interne. Entre dette technique, instabilité opérationnelle et pression sur les équipes, le choix de l’ingestion mérite d’être réévalué à l’aune du coût total de possession.

Comparer des prix ne suffit plus

Dans un contexte d’optimisation budgétaire permanente, l’ingestion de données est encore trop souvent considérée comme un poste secondaire. Le raisonnement est connu : pourquoi payer une plateforme spécialisée quand une équipe interne peut construire des flux “maison” avec les outils disponibles ?

Ce calcul, en apparence rationnel, repose sur une illusion comptable. Il compare une dépense explicite à une dépense implicite. Il oppose une ligne budgétaire visible à une réalité économique éclatée, diffuse, sous-estimée. Et il fait perdre de vue l’essentiel ; dans un système d’information moderne, l’ingestion n’est pas un projet ponctuel, c’est une fonction continue, critique et structurante.

La fausse économie des pipelines internes

Le développement de pipelines en interne est perçu comme un levier de flexibilité. Il l’est, mais à un prix que peu d’entreprises sont capables de mesurer. Derrière chaque ingestion artisanale se cachent des heures de configuration, de patchs, de réajustements, de surveillance.

Ces tâches mobilisent des profils techniques hautement qualifiés, souvent en tension sur d’autres priorités. À mesure que les sources de données se multiplient, que les formats évoluent, que les systèmes en amont se transforment, ces pipelines deviennent fragiles, rigides, coûteux à faire évoluer.

Il ne s’agit plus d’outillage, mais de dette technique. Cette dette ne se voit pas sur une facture, mais pèse dans les délais, dans la qualité des données, dans la frustration des équipes. Elle enferme les entreprises dans une logique de réparation continue.

Chaque incident absorbe des journées entières, retarde des projets, impose des arbitrages entre maintien en conditions opérationnelles et développement de nouvelles capacités. Et surtout, elle crée une dépendance à des individus. Ce n’est pas le système qui garantit la fiabilité, ce sont des personnes-clés, difficilement remplaçables, dont l’indisponibilité ou le départ devient un risque opérationnel majeur.

L’ingestion instable contamine toute la chaîne de valeur

Ce qui dysfonctionne dans l’ingestion ne reste jamais confiné à l’IT. Lorsque les données n’arrivent pas à temps, ou arrivent incomplètes, ou dans un format inutilisable, c’est toute la chaîne de valeur qui vacille.

Les équipes métiers prennent des décisions sur la base d’informations erronées ou obsolètes. Les outils d’analyse produisent des indicateurs incohérents. Les alertes automatiques se déclenchent trop tard ou à tort. L’ensemble du système perd en fiabilité, et avec lui, la capacité de l’entreprise à se coordonner, à anticiper, à réagir.

Ce coût opérationnel est rarement chiffré, mais ses effets sont bien réels. Il ralentit les cycles de décision. Il détériore la confiance dans les données. Il alimente un climat de suspicion entre les équipes techniques et les métiers. Et il oblige les organisations à surdimensionner leur système de contrôle pour compenser ce que l’ingestion aurait dû fiabiliser en amont.

La perspective financière : sortir de l’illusion du gratuit

Pour les directions financières, cette situation pose un vrai problème de gouvernance. Ce n’est pas la préférence d’un outil sur un autre qui est en jeu, mais la capacité à appliquer une logique d’investissement cohérente.

Comparer une plateforme au coût apparent élevé à une solution interne supposément gratuite revient à nier l’existence des coûts cachés. Or, dans un système complexe, ces coûts invisibles finissent toujours par réapparaître, sous la forme de retards, de burn-out, de turn-over, de projets gelés ou avortés.

À l’inverse, une plateforme d’ingestion expose ses coûts. Elle formalise un engagement de service. Elle mutualise des efforts de maintenance, d’évolution, de conformité. Et surtout, elle introduit de la prévisibilité. Elle permet de planifier, de budgéter, d’industrialiser. Elle transforme une dette en charge maîtrisée. La discipline financière rend visible ce qui est structurellement opaque.

La perspective technologique : l’infrastructure avant tout

Du côté des directions informatiques, le constat est encore plus limpide. L’ingestion ne fait pas partie des domaines où l’entreprise peut se différencier. Aucun client ne choisira un produit parce que ses pipelines sont faits maison. En revanche, tous les services numériques reposent sur des données fiables, disponibles, bien synchronisées. L’ingestion est donc une fonction d’infrastructure. Comme pour le réseau, la cybersécurité, ou encore le stockage, la question n’est pas d’innover, mais d’assurer. Et dans cette logique, l’externalisation à un outil robuste, éprouvé, maintenu, s’impose comme un choix de bon sens.

Confier l’ingestion à une plateforme dédiée permet aux équipes internes de se concentrer sur les vrais enjeux différenciants comme l’architecture, la gouvernance, la qualité et l’analyse. Continuer à bricoler l’ingestion en interne, c’est détourner des ressources rares de leur cœur de mission.

Ce n’est pas la plateforme qui coûte cher, c’est l’improvisation

Dire qu’une plateforme d’ingestion est trop chère, c’est se tromper d’indicateur. Ce qui pèse le plus lourd dans les bilans, ce ne sont pas les lignes de licence, ce sont les heures perdues, les erreurs accumulées, les décisions mal orientées. Ce n’est pas la dépense visible qui menace la compétitivité, c’est l’instabilité tolérée. Dans un environnement où la donnée est vitale, chaque faille d’ingestion est une brèche dans le fonctionnement global.

L’heure n’est plus à la comparaison des devis. Elle est à la mesure de la résilience. Et à ce jeu-là, la question n’est plus de savoir combien coûte une plateforme, mais l’absence de celle-ci.

*Virginie Brard est RVP France & Benelux chez Fivetran

The post { Tribune Expert } – Le vrai prix de l’ingestion de données appeared first on Silicon.fr.

Nvidia : GeForce Now est maintenant disponible sur les sticks Fire TV

Par : Olivier
13 février 2026 à 08:29
Geforce Now Nvidia

Nvidia continue d’étendre GeForce Now en s’invitant désormais sur les clés Fire TV d'Amazon. La passerelle idéale pour transformer le petit boîtier branché derrière la télé en véritable console capable de faire tourner des milliers de jeux PC ! Il faut juste avoir sous la main une manette… et une bonne connexion.

La refonte d’Apple Siri prendrait du retard, selon des sources internes

13 février 2026 à 08:00
La refonte d’Apple Siri prendrait du retard, selon des sources internes
Le redéploiement de Siri, l’assistant vocal d’Apple, connaîtrait des retards selon plusieurs sources. Ce contretemps pourrait impacter le calendrier initialement prévu par la marque pour le lancement de nouvelles fonctionnalités basées sur l’intelligence artificielle.

Un chercheur en sécurité de l’IA quitte Anthropic pour des raisons de conscience morale

12 février 2026 à 19:00

Mrinank Sharma, ancien responsable de l’équipe de recherche sur les sauvegardes chez Anthropic, a annoncé son départ de l’entreprise lundi dernier dans une lettre publique empreinte de gravité. Ce départ marque un tournant symbolique pour une firme qui se positionne comme le défenseur éthique de l’intelligence artificielle. Sharma y exprime un profond désenchantement face à ... Lire plus

L'article Un chercheur en sécurité de l’IA quitte Anthropic pour des raisons de conscience morale est apparu en premier sur Fredzone.

La santé reproductive dans l’espace : une zone d’ombre scientifique préoccupante

12 février 2026 à 16:00

L’humanité multiplie ses incursions au-delà de l’atmosphère terrestre, emportant avec elle ses systèmes reproductifs dans cet environnement hostile. Pourtant, neuf chercheurs tirent la sonnette d’alarme : la santé sexuelle en orbite constitue un angle mort majeur des politiques spatiales actuelles. Si les effets corporels des séjours prolongés – rayonnement cosmique inévitable, microgravité perturbant les mécanismes ... Lire plus

L'article La santé reproductive dans l’espace : une zone d’ombre scientifique préoccupante est apparu en premier sur Fredzone.

Wikipedia vs archive.today - 700 000 liens en sursis

Par : Korben
12 février 2026 à 15:56

Un peu moins de 700 000 liens, c'est le nombre de références vers archive.today que Wikipedia envisage de supprimer d'un coup ! Et la raison est assez dingue... en fait le service d'archivage a planqué du code DDoS dans son CAPTCHA afin d'attaquer le blog d'un mec qui a eu le malheur de chercher l'identité du fondateur du site.

L'histoire est tordue vous allez voir...

En 2023, un blogueur du nom de Jani Patokallio publie un article sur son blog Gyrovague pour tenter d'identifier le créateur d'archive.today, un certain "Denis Petrov" (probablement un pseudo). Pas de quoi fouetter un chat, sauf que le principal intéressé n'a visiblement pas kiffé.

Du coup, un bout de JavaScript s'est retrouvé comme de par hasard dans la page CAPTCHA du service, exécutant une requête vers le blog de Patokallio toutes les 300 millisecondes. Chaque visiteur qui passait par le CAPTCHA devenait alors un soldat involontaire d'une attaque DDoS.

Et le bonhomme ne s'est pas arrêté là... il a ensuite menacé de créer un site porno avec le nom du blogueur. On est vraiment dans la réponse proportionnée, clairement.

Le souci, c'est que la version anglophone de Wikipédia utilise archive.today de manière MASSIVE. Cela représente 695 000 liens répartis sur environ 400 000 pages. C'est le deuxième fournisseur d'archives de toute l'encyclopédie !

Et c'est pas que l'anglophone qui est touchée... Côté francophone, on compte un peu moins de 13 000 liens archive.today, et les patrouilleurs sont déjà en train de les désactiver . Sans parler de tous les autres projets Wikimedia potentiellement concernés, comme Commons qui en contient aussi pas mal.

Du coup, les éditeurs se retrouvent face à un sacré dilemme. D'un côté, on a ceux qui veulent tout blacklister parce que "la sécurité de vos lecteurs, ça passe avant les citations". Et de l'autre, ceux qui rappellent que le service contient des archives qu'on ne trouve NULLE PART ailleurs, même pas sur la Wayback Machine .

Bon courage pour trouver un remplaçant les mecs !

Et petit détail qui n'en est pas un, au passage... En fait, archive.today sert aussi à contourner des paywalls. C'est pratique pour vérifier des sources, ou lire de supers articles sans payer mais techniquement c'est illégal.

Mais quand la source originale a disparu, on fait comment ? Et c'est là tout l'intérêt de ces services d'archivage.

Bon, les paywalls, on comprend tous pourquoi ça existe. Produire de l'info de qualité, ça coûte un bras. Sauf que c'est quand même un truc un peu naze. Vous bossez, vous produisez un contenu top, et au final y'a que 10 personnes qui payent pour le lire. Et ce sont les mêmes 10 personnes qui sont pigistes et qui vont reprendre votre info pour la diffuser gratuitement sur leur média ! On le voit avec Mediapart... des enquêtes énormes derrière un paywall, et toute la presse qui reprend leurs scoops sans payer. Je trouve ça vraiment dommage.

Moi, ce que j'aime dans le fait d'écrire sur le web, c'est que vous me lisiez. Et mettre du contenu derrière un paywall, ça voudrait dire que plein d'entre vous ne me liraient plus. C'est pour cela que même le contenu que je réserve en avant-première sur Patreon , au bout de quelques semaines, je le libère pour tout le monde.

Quand je vois The Verge par exemple qui en met dans tous les sens... ben j'y vais plus. J'ai pas envie de payer un abonnement de plus pour une valeur ajoutée pas folle. C'est un peu comme les bandeaux cookies, à savoir un effet de bord regrettable du web moderne. On doit faire avec parce que personne n'a trouvé mieux comme idée...

Bref, entre les DDoS vengeurs, les 700 000 liens en sursis et les paywalls qui pourrissent tout ... le web ouvert, c'est pas gagné les amis. Voilà voilà.

Source

Waymo - Ses voitures autonomes pilotées depuis les Philippines

Par : Korben
12 février 2026 à 15:38

Les voitures Waymo, celles qui se baladent toutes seules à San Francisco, Phoenix ou Los Angeles... ne seraient pas si autonomes que ça en fait. Hé oui, quand elles sont paumées, ce sont des opérateurs aux Philippines qui leur disent quoi faire.

C'est le chef de la sécurité de Waymo lui-même, Mauricio Peña, qui a lâché le morceau lors d'une audience au Congrès américain le 4 février dernier. Du coup on apprend que ces fameux robotaxis, quand ils bloquent sur une situation (un carrefour bizarre, un chantier, une route pas cartographiée...), envoient une demande d'aide à des opérateurs humains qui pour certains sont basés aux États-Unis et d'autres aux Philippines.

Peña a bien insisté : ces opérateurs "fournissent des indications" mais "ne conduisent pas le véhicule à distance". En gros, c'est de la téléassistance, plutôt que du téléguidage et le robotaxi reste "toujours en charge" de la conduite.

Sauf que le sénateur Ed Markey, lui, voit pas ça du même œil. Selon lui, avoir des gens à l'étranger qui influencent le comportement de milliers de véhicules sur les routes américaines, c'est un sacré problème de (cyber) sécurité. Il parle carrément de "prise de contrôle par des acteurs hostiles" qui pourraient obtenir un accès quasi-total à ces bagnoles.

Hé oui, tout peut arriver dans la vie, Ed !

D'ailleurs y'a eu un accident avec l'un de ces taxis sans conducteur qui a percuté un gamin près d'une école primaire à Santa Monica, il n'y a pas longtemps. Alors est ce que c'était la faute de l'IA qui conduisait ou un opérateur humain à l'autre bout du monde qui s'est assis sur son clavier ? Allez savoir...

Et la filiale d'Alphabet n'est pas la seule dans ce cas car Tesla aussi s'appuie sur des opérateurs à distance pour superviser ses véhicules autonomes.

Perso, ce qui me dérange c'est pas qu'il y ait des humains dans la boucle. En fait c'est normal, la techno n'est pas encore au point. Mais le piège, il est au niveau du marketing. On nous vend de l'"autonome", du "sans conducteur", de la voiture du futur pilotée par l'IA ... alors qu'en fait y'a un call center aux Philippines qui veille au grain.

Et le plus marrant dans tout ça, c'est que les opérateurs doivent avoir un permis de conduire et sont contrôlés sur les infractions routières qu'ils auraient commis de leur côté à titre perso. Il faut des gens irréprochables avec le permis... pour aider une bagnole qui est censée ne pas en avoir besoin (de permis). J'adore ^^.

Voilà, comme je l'expliquais dans mon article sur la conduite autonome , y'a encore BEAUCOUP de chemin à faire avant d'avoir de vrais véhicules sans chauffeur. Et finalement, même les meilleurs comme Waymo "trichent" un peu.

Source

C’est officiel et très brutal, Renault annonce mettre un coup d’arrêt aux plus beaux rêves d’Alpine

Les inquiétudes du maire de Viry-Châtillon étaient légitimes : le groupe Renault confirme qu’il abandonne tous ses programmes internationaux en sport automobile en exceptant la Formule 1. Surtout, il annule aussi les projets de voitures les plus ambitieux d’Alpine et avoue déjà que tous les emplois ne seront pas conservés. Sur quoi travailleront les survivants de l'usine française ?

❌