Vue normale

AI Demand To Push Android Phone Prices Higher In 2026

13 décembre 2025 à 16:00
According to recent industry analyses, although smartphone manufacturers have been trying to keep stable prices for Android devices released in 2025, this trend is probably not going to happen next year, in 2026. Rising production costs driven by global demand for memory components are expected to have a huge impact, causing a significant price increases across the whole Android market. A major factor behind all the shift is the escalating […]

Disney investit 1 milliard $ dans OpenAI

12 décembre 2025 à 16:30

Est-ce un tournant majeur pour Hollywood ? Alors que beaucoup de professionnels du cinema américain se mobilisent depuis 2023 contre les effets dévastateurs de l’utilisation de l’IA sur leurs métiers, Walt Disney investit un milliard $ dans OpenAI, assorti d’un accord de licence lui permettant à l’inventeur de ChatGPT d’utiliser plus de 200 personnages iconiques de ses franchises Marvel, Pixar et Star Wars dans ses outils d’intelligence artificielle.

Un contrat de trois ans

Dans le cadre de ce contrat de trois ans, les utilisateurs de ChatGPT et de Sora, l’outil de génération vidéo, pourront créer des images et de courtes vidéos mettant en scène Mickey Mouse, Cendrillon, Simba ou encore Dark Vador.

L’accord, qui démarre en janvier 2026, prévoit l’exclusivité pour OpenAI durant la première année concernant l’utilisation des personnages Disney mais, comme le précise Bloomberg, ne pourra pas exploiter la propriété intellectuelle du groupe pour entraîner ses modèles. Il exclut toute utilisation de l’image ou de la voix des acteurs. Un utilisateur pourra ainsi générer une vidéo avec Woody de Toy Story, mais sans la voix de Tom Hanks.

Disney va utiliser les APIs

En échange de cette licence, Disney prendra une participation d’un milliard $ dans OpenAI, valorisée à 500 milliards $. Le groupe recevra également des bons de souscription lui permettant d’acquérir des parts supplémentaires à un prix symbolique durant la durée du contrat. Disney devient par ailleurs un client  d’OpenAI, utilisant ses API pour développer de nouveaux produits et expériences, notamment pour Disney+, et déploiera ChatGPT en interne pour ses employés.

Pour Bob Iger, le PDG de Disney, cette alliance marque une évolution stratégique face aux bouleversements technologiques. « Aucune génération humaine ne s’est jamais opposée au progrès technologique, et nous n’avons pas l’intention d’essayer », a-t-il déclaré sur CNBC.
Selon le FT, il s’agit du plus important accord conclu à ce jour entre une entreprise d’IA et un groupe médias qui ont dû composer avec l’expansion rapide d’OpenAI et ses implications pour leur propriété intellectuelle.

Tandis que le New York Times poursuit OpenAI en justice, d’autres éditeurs comme News Corp ont préféré négocier des accords de licence.

Disney lui-même a adopté une approche ferme sur la protection de ses droits. Selon  Bloomberg, le groupe a adressé mercredi soir une lettre de mise en demeure à Google, l’accusant de violer massivement ses droits d’auteur en utilisant ses contenus pour entraîner ses propres outils d’IA. Disney et Comcast ont également poursuivi Midjourney, une entreprise de génération d’images par IA, pour violation de droits d’auteur.

Des syndicats vigilants, des artistes inquiets

L’annonce a suscité des réactions contrastées dans le milieu créatif hollywoodien. La Writers Guild of America s’est montrée particulièrement critique, estimant dans une note à ses membres qu’OpenAI et d’autres entreprises d’IA ont « volé » d’importantes bibliothèques d’œuvres créées par ses membres. « L’accord de Disney avec OpenAI semble cautionner ce vol et céder la valeur de ce que nous créons à une entreprise tech qui a bâti son business sur notre dos  », dénonce le syndicat selon Bloomberg.

Le syndicat des acteurs SAG-AFTRA a adopté un ton plus mesuré, affirmant que Disney et OpenAI l’avaient contacté pour offrir des assurances sur l’utilisation éthique et responsable de la technologie.

The post Disney investit 1 milliard $ dans OpenAI appeared first on Silicon.fr.

GPT-5.2 : précision scientifique et scores records face à Gemini 3

OpenAI déploie GPT-5.2, une nouvelle gamme de modèles axée sur la rigueur scientifique et la résolution de problèmes mathématiques complexes avec des résultats inédits.

Cet article GPT-5.2 : précision scientifique et scores records face à Gemini 3 est apparu en premier sur Linformatique.org.

OpenAI Chief Dismisses ChatGPT Ad Rumors

11 décembre 2025 à 16:00
Reports have emerged concerning the potential integration of ads into the ChatGPT platform, which currently serves approximately 800 million weekly users. Screenshots circulating on social media purportedly show a Target advertisement within the ChatGPT interface, leading to user concern and speculation about a shift in OpenAI’s operational strategy. I'm in ChatGPT (paid Plus subscription), asking about Windows BitLocker and it's F-ing showing me ADS TO SHOP AT TARGET. Yeah, screw […]

Poésie contre l’IA : les garde-fous débordés

10 décembre 2025 à 16:17
Des poèmes malveillants contournent les garde-fous de 25 modèles d’IA, révélant une vulnérabilité systémique des mécanismes d’alignement actuels.

Pourquoi Adobe s’invite dans ChatGPT

10 décembre 2025 à 15:52

Adobe va intégré Photoshop, Adobe Express et Acrobat dans ChatGPT. Les utilisateurs pourront taper une requête dans ChatGPT pour retoucher des photos, créer un graphique, animer des designs ou résumer un PDF, déclenchant automatiquement l’outil correspondant.

Adobe va ainsi toucher les 800 millions d’utilisateurs actifs hebdomadaires de ChatGPT qui devront créer un compte Adobe pour utiliser les applications au sein de ChatGPT.

Ce lancement s’appuie sur l’annonce d’Adobe fin octobre, lorsque l’entreprise avait remanié ses outils de montage vidéo et d’édition d’images pour permettre aux utilisateurs d’exécuter des tâches via des assistants IA conversationnels. L’intégration dans ChatGPT s’inscrit dans la continuité de cette innovation en matière d’IA agentique et du protocole MCP.

Une adaptation aux bouleversements de l’IA

En août dernier, Adobe avait lancé Acrobat Studio, transformant les documents statiques en espaces de travail interactifs alimentés par l’IA. Lors de sa conférence Adobe MAX, l’éditeur avait également présenté des assistants IA pour Photoshop et Adobe Express, permettant à chacun de créer en utilisant ses propres mots et d’affiner les résultats avec les outils de classe mondiale de l’entreprise.

Son accord avec OpenAI intervient à un moment où Adobe intensifie ses efforts pour s’adapter aux transformations engendrées par l’IA dans les marchés du design professionnel, tout en élargissant sa portée auprès de nouveaux publics qui découvrent ses applications pour la première fois.

Les termes financiers de l’accord ne sont pas dévoilés.

The post Pourquoi Adobe s’invite dans ChatGPT appeared first on Silicon.fr.

L’Agentic AI Foundation veut imposer les standards de l’IA autonome

10 décembre 2025 à 15:17

Les poids lourds de l’intelligence artificielle passent à l’offensive pour structurer le marché naissant des agents IA.

OpenAI, Anthropic et Block annoncent la création de l’Agentic AI Foundation (AAIF), une nouvelle fondation hébergée par la Linux Foundation. L’ambition : imposer des standards ouverts pour ces systèmes capables d’agir de manière autonome, avant que la fragmentation du marché ne s’installe durablement.

Parmi les membres, on peut aussi citer Cloudflare, Oracle, Cisco, IBM  Salesforce.

L’initiative ne sort pas de nulle part. En s’appuyant sur la Linux Foundation, les trois fondateurs reprennent un modèle de gouvernance qui a fait ses preuves dans l’open source : transparence des décisions, règles publiques et représentation équilibrée des contributeurs. Un choix qui vise à rassurer les entreprises, réticentes à dépendre d’un seul fournisseur pour des technologies aussi critiques.

Car l’enjeu est de taille. Après des années d’expérimentation, les agents IA sortent des laboratoires pour devenir une infrastructure d’entreprise à part entière. Ces systèmes, capables de planifier et d’exécuter des tâches complexes avec un minimum de supervision humaine, soulèvent des questions majeures de sécurité, d’interopérabilité et de verrouillage technologique.

Trois briques technologiques au cœur du dispositif

L’AAIF démarre sur des bases concrètes, avec trois projets open source déjà largement adoptés par les développeurs. Anthropic apporte le Model Context Protocol (MCP), un protocole permettant de connecter les modèles de langage à des outils et systèmes externes de manière standardisée. Une brique essentielle pour orchestrer des agents capables d’agir dans des environnements complexes.

De son côté, Block contribue avec goose, un framework modulaire conçu pour construire et déployer des agents IA extensibles.

OpenAI, enfin, verse AGENTS.md dans l’escarcelle de la fondation. Ce format d’instructions ouvert, déjà utilisé par des dizaines de milliers de projets, fonctionne comme un « README pour machines » : il documente les capacités, outils et comportements des agents pour faciliter leur interopérabilité.

Un soutien des géants du cloud

L’initiative bénéficie d’emblée d’un soutien de poids. AWS, Google, Microsoft, Bloomberg et Cloudflare ont rejoint la fondation en tant que membres « platinum ». Une configuration qui donne à l’AAIF une influence immédiate sur la définition des standards de fait pour l’IA agentique, tout en affichant une neutralité vis-à-vis des fournisseurs.

Pour les développeurs, la promesse est de proposer un socle unifié de protocoles et de formats pour créer des agents fonctionnant à travers différents clouds, outils et référentiels de code. En standardisant des technologies déjà massivement utilisées, la fondation entend réduire les coûts d’intégration et accélérer l’adoption par les entreprises.

Au-delà de l’interopérabilité, l’AAIF met en avant les enjeux de sûreté et de fiabilité. En posant un cadre commun pour décrire les capacités des agents, contrôler leur accès aux outils et coordonner leur action entre systèmes, la fondation veut réduire les risques liés à des implémentations hasardeuses. Objectif : faciliter l’audit des comportements d’agents et faire évoluer collectivement les bonnes pratiques au fur et à mesure que ces technologies se diffusent.

The post L’Agentic AI Foundation veut imposer les standards de l’IA autonome appeared first on Silicon.fr.

{ Tribune Expert } – Sécuriser la GenAI commence par un inventaire clair et une visibilité réelle sur ses composants

8 décembre 2025 à 11:18

La plupart des organisations ont découvert la GenAI ces dernières années. Dès lors, elles ont avancé vite, très vite. Les usages ont rapidement fleuri et les projets se sont empilés, mais un constat a fini par s’imposer dans les discussions entre équipes techniques : impossible d’ignorer plus longtemps les risques spécifiques liés aux grands modèles de langage.

Car c’est peu de dire que la sécurité des LLM a, dans un premier temps, été reléguée au second plan. L’arrivée de l’OWASP LLM Top 10 change cet état de fait en apportant un cadre clair pour identifier les vulnérabilités critiques observées dans les applications et comprendre comment les atténuer.

L’OWASP, pour Open Web Application Security Project, est une organisation internationale dédiée à la sécurité des logiciels. Le référentiel LLM top 10, recense les 10 principaux risques de sécurité liés spécifiquement aux modèles de langage (LLM) et aux applications qui les utilisent. Il donne enfin un vocabulaire commun aux développeurs, aux architectes et aux équipes sécurité. Sa vocation est simple : rendre les charges de travail IA plus sûres, en offrant des repères que les entreprises n’avaient pas jusqu’ici.

L’initiative a d’ailleurs pris de l’ampleur et s’inscrit désormais dans le GenAI Security Project, un effort mondial qui dépasse la seule liste des dix risques initiaux et fédère plusieurs travaux autour de la sécurité de l’IA générative.

Ce mouvement répond à une réalité vécue sur le terrain. Beaucoup d’équipes peinent encore à s’aligner au moment de déployer des technologies GenAI : responsabilités dispersées, rythmes différents et une question récurrente sur la manière d’aborder ce sujet émergent. L’OWASP arrive justement pour apporter cette cohérence, avec des contrôles compréhensibles et applicables dans des environnements où tout s’accélère.

Sa singularité tient aussi à sa place dans l’écosystème. Là où des cadres de classification des menaces comme MITRE ATT&CK et MITRE ATLAS décrivent surtout les tactiques et techniques d’attaque, l’OWASP LLM top 10 se concentre sur les risques spécifiques aux modèles génératifs. Il offre ainsi une grille de lecture complémentaire et nécessaire pour mieux structurer les priorités.

GenAI, Kubernetes et l’élargissement de la surface d’attaque

Si l’OWASP LLM Top 10 arrive à point nommé, c’est aussi parce que les environnements techniques qui portent la GenAI ont profondément changé.

Les organisations ne se contentent plus d’utiliser des services grand public. Elles déploient désormais leurs propres modèles, souvent au sein de plateformes cloud native pensées pour absorber des volumes variables et des charges de calcul élevées.

L’écosystème s’est transformé à grande vitesse, avec l’adoption de solutions comme Llama 2, Midjourney, ElevenLabs, ChatGPT ou encore Sysdig Sage dans des environnements Kubernetes taillés pour la scalabilité et l’orchestration.

Cette transition a un effet immédiat car elle élargit la surface d’attaque. Un modèle d’IA déployé dans un cluster Kubernetes n’a rien à voir avec une application traditionnelle exécutée on-premises. Les risques ne sont plus seulement liés aux données ou au comportement du modèle, mais à toute la chaîne qui l’entoure. Un conteneur mal configuré, un composant obsolète ou un accès mal maîtrisé peuvent suffire à exposer l’ensemble de l’infrastructure.

La complexité de ces environnements accentue un phénomène déjà bien visible : l’absence de repères communs pour comprendre ce qui relève d’un risque LLM, d’une mauvaise configuration Kubernetes ou d’un problème de chaîne d’approvisionnement logicielle.

Dans un tel contexte, la seule intuition ne suffit plus. Les équipes doivent composer avec des technologies qui évoluent plus vite que les pratiques internes, tout en tenant compte d’un paysage réglementaire qui se densifie, notamment avec l’entrée en vigueur de l’AI Act en Europe en 2025.

C’est précisément cette convergence, qui englobe nouveaux usages, infrastructures distribuées et pression réglementaire, qui rend indispensable une approche structurée de la sécurité GenAI. Et c’est là que l’OWASP pose les premières briques d’une méthodologie enfin partagée.

Poser les fondations d’une sécurité opérationnelle et efficace !

Face à ces environnements qui se complexifient, l’adage à retenir est que l’on ne protège correctement que ce qu’on voit réellement. Or, la majorité des organisations manquent encore d’un inventaire fiable de leurs actifs IA, qu’il s’agisse de modèles internes ou de solutions tierces intégrées rapidement. L’OWASP rappelle d’ailleurs que cette visibilité constitue la première étape d’une sécurité GenAI solide.

C’est là que certaines approches prennent tout leur sens, comme l’identification automatique des endroits où les paquets IA s’exécutent, en reliant ces informations aux événements d’exécution (runtime), aux vulnérabilités et aux mauvaises configurations. L’objectif est simple : faire émerger les risques réels, là où ils apparaissent.

La visibilité passe aussi par la SBOM (Software Bill of Materials). En y intégrant les composants d’IA, les équipes disposent d’une liste complète de tous les éléments qui composent leurs charges de travail GenAI. Ce recensement permet ensuite de prioriser les charges de travail selon leur niveau de risque.

Enfin, pour structurer cette démarche, les organisations peuvent s’appuyer sur des rapports OWASP Top 10 préconfigurés et sur l’alignement avec MITRE ATLAS, qui éclaire la manière dont les modèles peuvent être ciblés selon des tactiques d’attaque documentées.

En réunissant ces briques (inventaire, SBOM et visibilité sur l’exécution au runtime) les équipes disposent non seulement d’informations, mais d’une lecture hiérarchisée et exploitable de leurs risques GenAI. C’est cette capacité à voir, comprendre et prioriser qui transforme enfin la sécurité de l’IA en pratique opérationnelle.

Philippe Darley est expert sécurité du Cloud chez Sysdig

The post { Tribune Expert } – Sécuriser la GenAI commence par un inventaire clair et une visibilité réelle sur ses composants appeared first on Silicon.fr.

IDFKA, la porte dérobée en Rust qui vise les télécoms russes

7 décembre 2025 à 08:56
IDFKA, backdoor en Rust, infiltre un sous-traitant télécom russe et cible bases d’abonnés et appels, illustration d’une menace d’espionnage durable.

Gemini Web Gets New Design And Dark Mode Upgrade

5 décembre 2025 à 23:16
Google has begun rolling out a redesigned interface for Gemini on the web, following earlier updates made to the Android and iOS apps. According to the company, the goal is to deliver a cleaner and more modern look, aligning the desktop experience with the refreshed mobile design. The update introduces both visual refinements and new organizational features, improving overall navigation and interaction with the AI service. Among the first noticeable […]

Fujitsu Extended Its AI Motion-Analytics Platform With a Life-Size Golf Experience at CEATEC 2025

5 décembre 2025 à 20:16
At CEATEC 2025, Fujitsu expanded its ongoing exploration of what it officially calls its “AI technologies for human augmentation” with a new Golf Motion Analysis Experience, powered by the Kozuchi AI platform and developed in collaboration with Uvance partner AIGIA’s golf swing–analysis app.  This builds on last year’s showcase, where the company demonstrated how Kozuchi’s advanced skeleton recognition could analyze basketball shooting mechanics, yoga postures, and lifting movements in industrial […]

❌