AI Demand To Push Android Phone Prices Higher In 2026


Le géant du divertissement a adressé mercredi une mise en demeure à Google, l’accusant de violations répétées de droits d’auteur. Selon les informations rapportées par Variety, Disney reproche au mastodonte technologique d’avoir exploité ses créations à grande échelle par l’intermédiaire de modèles d’intelligence artificielle et de services associés. La lettre dénonce une distribution commerciale non autorisée d’images ... Lire plus
L'article Disney attaque Google pour exploitation massive de ses propriétés intellectuelles via l’IA est apparu en premier sur Fredzone.Est-ce un tournant majeur pour Hollywood ? Alors que beaucoup de professionnels du cinema américain se mobilisent depuis 2023 contre les effets dévastateurs de l’utilisation de l’IA sur leurs métiers, Walt Disney investit un milliard $ dans OpenAI, assorti d’un accord de licence lui permettant à l’inventeur de ChatGPT d’utiliser plus de 200 personnages iconiques de ses franchises Marvel, Pixar et Star Wars dans ses outils d’intelligence artificielle.
Dans le cadre de ce contrat de trois ans, les utilisateurs de ChatGPT et de Sora, l’outil de génération vidéo, pourront créer des images et de courtes vidéos mettant en scène Mickey Mouse, Cendrillon, Simba ou encore Dark Vador.
L’accord, qui démarre en janvier 2026, prévoit l’exclusivité pour OpenAI durant la première année concernant l’utilisation des personnages Disney mais, comme le précise Bloomberg, ne pourra pas exploiter la propriété intellectuelle du groupe pour entraîner ses modèles. Il exclut toute utilisation de l’image ou de la voix des acteurs. Un utilisateur pourra ainsi générer une vidéo avec Woody de Toy Story, mais sans la voix de Tom Hanks.
En échange de cette licence, Disney prendra une participation d’un milliard $ dans OpenAI, valorisée à 500 milliards $. Le groupe recevra également des bons de souscription lui permettant d’acquérir des parts supplémentaires à un prix symbolique durant la durée du contrat. Disney devient par ailleurs un client d’OpenAI, utilisant ses API pour développer de nouveaux produits et expériences, notamment pour Disney+, et déploiera ChatGPT en interne pour ses employés.
Pour Bob Iger, le PDG de Disney, cette alliance marque une évolution stratégique face aux bouleversements technologiques. « Aucune génération humaine ne s’est jamais opposée au progrès technologique, et nous n’avons pas l’intention d’essayer », a-t-il déclaré sur CNBC.
Selon le FT, il s’agit du plus important accord conclu à ce jour entre une entreprise d’IA et un groupe médias qui ont dû composer avec l’expansion rapide d’OpenAI et ses implications pour leur propriété intellectuelle.
Tandis que le New York Times poursuit OpenAI en justice, d’autres éditeurs comme News Corp ont préféré négocier des accords de licence.
Disney lui-même a adopté une approche ferme sur la protection de ses droits. Selon Bloomberg, le groupe a adressé mercredi soir une lettre de mise en demeure à Google, l’accusant de violer massivement ses droits d’auteur en utilisant ses contenus pour entraîner ses propres outils d’IA. Disney et Comcast ont également poursuivi Midjourney, une entreprise de génération d’images par IA, pour violation de droits d’auteur.
L’annonce a suscité des réactions contrastées dans le milieu créatif hollywoodien. La Writers Guild of America s’est montrée particulièrement critique, estimant dans une note à ses membres qu’OpenAI et d’autres entreprises d’IA ont « volé » d’importantes bibliothèques d’œuvres créées par ses membres. « L’accord de Disney avec OpenAI semble cautionner ce vol et céder la valeur de ce que nous créons à une entreprise tech qui a bâti son business sur notre dos », dénonce le syndicat selon Bloomberg.
Le syndicat des acteurs SAG-AFTRA a adopté un ton plus mesuré, affirmant que Disney et OpenAI l’avaient contacté pour offrir des assurances sur l’utilisation éthique et responsable de la technologie.
The post Disney investit 1 milliard $ dans OpenAI appeared first on Silicon.fr.

OpenAI déploie GPT-5.2, une nouvelle gamme de modèles axée sur la rigueur scientifique et la résolution de problèmes mathématiques complexes avec des résultats inédits.
Cet article GPT-5.2 : précision scientifique et scores records face à Gemini 3 est apparu en premier sur Linformatique.org.

Adobe va intégré Photoshop, Adobe Express et Acrobat dans ChatGPT. Les utilisateurs pourront taper une requête dans ChatGPT pour retoucher des photos, créer un graphique, animer des designs ou résumer un PDF, déclenchant automatiquement l’outil correspondant.
Adobe va ainsi toucher les 800 millions d’utilisateurs actifs hebdomadaires de ChatGPT qui devront créer un compte Adobe pour utiliser les applications au sein de ChatGPT.
Ce lancement s’appuie sur l’annonce d’Adobe fin octobre, lorsque l’entreprise avait remanié ses outils de montage vidéo et d’édition d’images pour permettre aux utilisateurs d’exécuter des tâches via des assistants IA conversationnels. L’intégration dans ChatGPT s’inscrit dans la continuité de cette innovation en matière d’IA agentique et du protocole MCP.
En août dernier, Adobe avait lancé Acrobat Studio, transformant les documents statiques en espaces de travail interactifs alimentés par l’IA. Lors de sa conférence Adobe MAX, l’éditeur avait également présenté des assistants IA pour Photoshop et Adobe Express, permettant à chacun de créer en utilisant ses propres mots et d’affiner les résultats avec les outils de classe mondiale de l’entreprise.
Son accord avec OpenAI intervient à un moment où Adobe intensifie ses efforts pour s’adapter aux transformations engendrées par l’IA dans les marchés du design professionnel, tout en élargissant sa portée auprès de nouveaux publics qui découvrent ses applications pour la première fois.
Les termes financiers de l’accord ne sont pas dévoilés.
The post Pourquoi Adobe s’invite dans ChatGPT appeared first on Silicon.fr.

Les poids lourds de l’intelligence artificielle passent à l’offensive pour structurer le marché naissant des agents IA.
OpenAI, Anthropic et Block annoncent la création de l’Agentic AI Foundation (AAIF), une nouvelle fondation hébergée par la Linux Foundation. L’ambition : imposer des standards ouverts pour ces systèmes capables d’agir de manière autonome, avant que la fragmentation du marché ne s’installe durablement.
Parmi les membres, on peut aussi citer Cloudflare, Oracle, Cisco, IBM Salesforce.
L’initiative ne sort pas de nulle part. En s’appuyant sur la Linux Foundation, les trois fondateurs reprennent un modèle de gouvernance qui a fait ses preuves dans l’open source : transparence des décisions, règles publiques et représentation équilibrée des contributeurs. Un choix qui vise à rassurer les entreprises, réticentes à dépendre d’un seul fournisseur pour des technologies aussi critiques.
Car l’enjeu est de taille. Après des années d’expérimentation, les agents IA sortent des laboratoires pour devenir une infrastructure d’entreprise à part entière. Ces systèmes, capables de planifier et d’exécuter des tâches complexes avec un minimum de supervision humaine, soulèvent des questions majeures de sécurité, d’interopérabilité et de verrouillage technologique.
L’AAIF démarre sur des bases concrètes, avec trois projets open source déjà largement adoptés par les développeurs. Anthropic apporte le Model Context Protocol (MCP), un protocole permettant de connecter les modèles de langage à des outils et systèmes externes de manière standardisée. Une brique essentielle pour orchestrer des agents capables d’agir dans des environnements complexes.
De son côté, Block contribue avec goose, un framework modulaire conçu pour construire et déployer des agents IA extensibles.
OpenAI, enfin, verse AGENTS.md dans l’escarcelle de la fondation. Ce format d’instructions ouvert, déjà utilisé par des dizaines de milliers de projets, fonctionne comme un « README pour machines » : il documente les capacités, outils et comportements des agents pour faciliter leur interopérabilité.
L’initiative bénéficie d’emblée d’un soutien de poids. AWS, Google, Microsoft, Bloomberg et Cloudflare ont rejoint la fondation en tant que membres « platinum ». Une configuration qui donne à l’AAIF une influence immédiate sur la définition des standards de fait pour l’IA agentique, tout en affichant une neutralité vis-à-vis des fournisseurs.
Pour les développeurs, la promesse est de proposer un socle unifié de protocoles et de formats pour créer des agents fonctionnant à travers différents clouds, outils et référentiels de code. En standardisant des technologies déjà massivement utilisées, la fondation entend réduire les coûts d’intégration et accélérer l’adoption par les entreprises.
Au-delà de l’interopérabilité, l’AAIF met en avant les enjeux de sûreté et de fiabilité. En posant un cadre commun pour décrire les capacités des agents, contrôler leur accès aux outils et coordonner leur action entre systèmes, la fondation veut réduire les risques liés à des implémentations hasardeuses. Objectif : faciliter l’audit des comportements d’agents et faire évoluer collectivement les bonnes pratiques au fur et à mesure que ces technologies se diffusent.
The post L’Agentic AI Foundation veut imposer les standards de l’IA autonome appeared first on Silicon.fr.


Le Future of Life Institute vient de publier l’édition 2025 de son AI Safety Index, un rapport qui évalue les pratiques de sécurité des principales entreprises développant des intelligences artificielles avancées.
Les conclusions sont sans appel : aucune entreprise n’atteint l’excellence en matière de sécurité, et le secteur dans son ensemble reste dangereusement mal préparé face aux risques existentiels que pourraient poser les IA futures.
Sur les huit entreprises évaluées, aucune n’obtient une note maximale. Le meilleur résultat revient à Anthropic avec un simple C+, suivi d’OpenAI (C) et de Google DeepMind (C-). Les autres acteurs ( xAI, Z.ai, Meta, DeepSeek et Alibaba Cloud) obtiennent des notes nettement inférieures, allant de D à F.
Cette situation révèle que même les leaders du secteur se situent tout au plus dans la moyenne. L’industrie de l’IA, malgré ses ambitions affichées de développer des systèmes toujours plus puissants, est loin de disposer des garde-fous nécessaires.
Malgré certaines critiques, Anthropic demeure l’entreprise la plus responsable selon l’index. Elle se distingue par une gouvernance solide (statut de Public Benefit Corporation), des efforts significatifs en recherche de sécurité, un cadre de sécurité relativement développé et une communication transparente sur les risques.
Toutefois, des faiblesses importantes subsistent. Le rapport souligne notamment l’absence récente d’essais sur l’amélioration des capacités humaines dans le cycle d’évaluation des risques, ainsi qu’un passage par défaut à l’utilisation des interactions des utilisateurs pour l’entraînement des modèles.
Les recommandations adressées à Anthropic incluent la formalisation de seuils de risques mesurables, la documentation de mécanismes concrets d’atténuation, l’amélioration de l’indépendance des évaluations externes et la publication d’une version publique robuste de sa politique de lanceurs d’alerte.
OpenAI se distingue par un processus d’évaluation des risques plus large que certains concurrents et par la publication, unique parmi ses pairs, d’une politique de lanceur d’alerte (whistleblowing) suite à sa médiatisation.
Néanmoins, le rapport appelle l’entreprise à aller plus loin : rendre ses seuils de sécurité réellement mesurables et applicables, accroître la transparence vis-à-vis des audits externes, et surtout aligner ses positions publiques avec ses engagements internes.
DeepMind montre des progrès en matière de transparence, ayant notamment complété le questionnaire de l’AI Safety Index et partagé des éléments de politique interne, comme son dispositif de « whistleblowing ».
Cependant, les fragilités persistent : l’évaluation des risques reste limitée, la validité des tests externes est jugée faible, et le lien entre la détection de risques et le déclenchement de mesures concrètes demeure flou.
Certaines entreprises ont entamé des démarches d’amélioration. Par exemple, xAI a publié un cadre de sécurité pour ses « IA de frontière », et Meta a formalisé un cadre avec seuils et modélisation des risques.
Mais les évaluations restent superficielles ou incomplètes : les couvertures de risque sont restreintes, les seuils peu crédibles, les mécanismes d’atténuation flous ou absents, et la gouvernance interne insuffisante. On note notamment l’absence de politique de lanceurs d’alerte et un manque d’autorité claire en cas de déclenchement de risques.
Pour les entreprises les moins bien notées, notamment DeepSeek et Alibaba Cloud, les progrès constatés sont très modestes, principalement sur la publication de cadres de sécurité ou la participation à des standards internationaux.
Le constat le plus alarmant du rapport concerne la sécurité existentielle, c’est-à-dire la capacité à prévenir des catastrophes majeures comme la perte de contrôle ou le mésalignement (misalignment).
Pour la deuxième édition consécutive, aucune entreprise n’obtient une note supérieure à D dans ce domaine. Cela signifie qu’en dépit des ambitions exprimées par certains acteurs de développer une AGI ou une superintelligence dans la décennie, aucune démarche crédible et concrète de planification pour garantir le contrôle ou l’alignement à long terme n’a été mise en place.
Un membre du comité d’experts qualifie ce décalage entre la cadence des innovations techniques et l’absence de stratégie de sécurité de profondément alarmant.
Cette situation pose plusieurs défis majeurs :
Un risque structurel : Si les entreprises continuent à développer des IA sans plans tangibles de contrôle existentiel, nous pourrions nous diriger vers des systèmes dont le comportement échappe à tout encadrement, posant potentiellement un danger global.
Un problème de gouvernance collective : L’absence d’un standard universel, d’un plan de surveillance indépendant ou d’une régulation contraignante rend la sécurité de l’IA dépendante de la bonne volonté des entreprises.
Une dissonance entre ambitions et préparation : Nombreuses sont les acteurs qui visent l’AGI dans la décennie, mais aucun ne démontre qu’il a envisagé, préparé ou traduit cela en mesures concrètes.
Face à ce constat, le rapport formule plusieurs recommandations à destination des entreprises, des régulateurs et des décideurs publics.
D’abord, les entreprises doivent dépasser les déclarations d’intention et produire des plans concrets, chiffrés et mesurables, avec des seuils de risque clairs, des mécanismes d’alerte, des protocoles d’atténuation et une vraie gouvernance interne, idéalement avec une surveillance indépendante..
Ensuite, les entreprises devraient s’engager publiquement à respecter des standards communs, par exemple en adoptant l’AI Act dans l’Union Européenne ou un code de bonnes pratiques similaire, et en coopérant à des initiatives globales de gouvernance de l’IA.
Enfin, en cas d’intention réelle de développer des IA très puissantes, les acteurs doivent clarifier leurs objectifs et expliquer comment ils comptent garantir le contrôle, l’alignement et la prévention des risques existentiels.
Il convient de noter que les évaluations reposent sur des éléments publics ou documentés. Il ne s’agit pas d’audits internes secrets, mais d’observations sur ce que les entreprises ont rendu public ou déclaré. Par conséquent, l’index mesure ce que l’on sait des pratiques, ce qui signifie que des efforts internes invisibles pourraient exister sans être capturés.
De plus, l’édition 2025 couvre des pratiques jusqu’à début novembre 2025 et ne prend pas en compte les événements récents, lancements de nouveaux modèles ou annonces postérieures à cette date.
AI Safety Index 2025 : la méthodologie
Sources d’information Système de notation
Limites reconnues L’édition 2025 couvre les pratiques jusqu’à début novembre 2025 et ne prend pas en compte les événements, lancements de modèles ou annonces postérieures à cette date de collecte. |
The post AI Safety Index 2025 : un bilan inquiétant de la sécurité de l’IA appeared first on Silicon.fr.

La pression monte sur OpenAI. Dans un mémo interne envoyé ce lundi et consulté par le Wall Street Journal, Sam Altman convoque une « alerte rouge » pour améliorer la qualité de ChatGPT. Une décision qui implique de reléguer d’autres projets au second plan, dont le développement de la publicité, des agents IA pour le shopping et la santé, ainsi que Pulse, un assistant personnel produisant des actualités matinales personnalisées.
Ce virage stratégique intervient alors que Google vient de reprendre la main technologique. Le géant de Mountain View vient de lancer son modèle Gemini 3, qui a surpassé le GPT-5 d’OpenAI sur les tests de référence de l’industrie. De son côté, Anthropic, autre rival montant, a également dépassé OpenAI avec son modèle Opus 4.5.
Les chiffres témoignent que la dynamique profite à Google qui affirme que sa base d’utilisateurs actifs mensuels est passée de 450 millions en juillet à 650 millions en octobre, dopée notamment par le lancement d’un générateur d’images en août. Plus révélateur encore : d’après Similarweb, les internautes passent désormais plus de temps à discuter avec Gemini qu’avec ChatGPT, même si OpenAI conserve une large avance en nombre d’utilisateurs avec plus de 800 millions d’utilisateurs hebdomadaires.
Le défi pour OpenAI ne se limite pas à la technologie. L’entreprise fait face à un désavantage structurel majeur : elle n’est pas rentable et doit lever des fonds quasiment en continu pour survivre, contrairement à Google qui peut financer ses investissements sur ses revenus courants. Selon ses propres projections financières, OpenAI devra atteindre environ 200 milliards $ de chiffre d’affaires pour devenir profitable en 2030.
Dans son mémo, Sam Altman insiste sur la nécessité d’apporter des améliorations substantielles à ChatGPT, en matière de personnalisation, de rapidité, de fiabilité et de capacité à répondre à un éventail plus large de questions. Pour y parvenir, il a instauré des conférences téléphoniques quotidiennes avec les équipes responsables et encouragé les transferts temporaires entre services.
Cette « alerte rouge » succède à une précédente « alerte orange ». OpenAI utilise un système de trois codes couleur (jaune, orange, rouge) pour hiérarchiser l’urgence des problématiques à traiter.
Malgré ces difficultés, Sam Altman conserve des arguments pour rassurer. Dans son mémo, il a affirmé qu’un nouveau modèle de raisonnement prévu la semaine prochaine surpassera le dernier Gemini de Google. Nick Turley, responsable de ChatGPT, a d’ailleurs souligné lundi soir sur X que l’objectif était de poursuivre la croissance « tout en rendant ChatGPT encore plus intuitif et personnel ».
Reste que cette mobilisation générale confirme ce que beaucoup soupçonnaient : la domination initiale d’OpenAI dans l’IA générative appartient désormais au passé. La course de fond ne fait que commencer.
Illustration : image générée par l’IA
The post Pourquoi OpenAI décrète l’« alerte rouge » face à Google appeared first on Silicon.fr.


Alors qu’OpenAI caracole en tête des valorisations technologiques, le modèle financier du géant de l’intelligence artificielle révèle un appétit gargantuesque pour les centres de données.
Selon une analyse approfondie de l’équipe logicielle et services américains de HSBC, citée par le Financial Times, l’entreprise se dirige vers un déficit de financement cumulé de 207 milliards $ d’ici 2030. En cause : ses engagements massifs en matière de calcul.
Le point de départ de l’analyse de HSBC réside dans la prise en compte des récents accords de location de « cloud compute » : 250 milliards $ auprès de Microsoft et 38 milliards $ auprès d’Amazon. Des transactions portent la puissance de calcul totale sous contrat à 36 gigawatts.
Basée sur une valeur cumulée totale des accords pouvant atteindre 1800 milliards $ , la facture annuelle de location de centres de données d’OpenAI pourrait grimper à environ 620 milliards $. Bien que seul un tiers de cette capacité soit attendu en ligne d’ici la fin de la décennie, les analystes de HSBC anticipent des coûts de location cumulés de 792 milliards $ entre aujourd’hui et 2030, un chiffre qui atteindrait 1400 milliards $ d’ici 2033.
Pour estimer la capacité d’OpenAI à honorer ces dettes, HSBC a dû bâtir un modèle de prévision de revenus extrêmement optimiste. Trois hypothèses projettent une croissance exponentielle :
> Explosion de la base d’utilisateurs.
Le nombre d’utilisateurs devrait atteindre 3 milliards d’ici 2030, soit l’équivalent de 44 % de la population adulte mondiale hors Chine (contre environ 800 millions actuellement).
> Ubiquité des abonnements .
Les abonnements aux grands modèles de langage (LLM) sont appelés à devenir « aussi omniprésents et utiles que Microsoft 365 ». HSBC modélise que 10 % des utilisateurs d’OpenAI deviendront payants d’ici 2030, contre une estimation actuelle de 5 %.
> Diversification des recettes.
Outre les abonnements, de nouveaux vecteurs de croissance comme la publicité, l’IA agentique et potentiellement le projet Jony Ive devraient émerger. Les sociétés éditrices de LLM sont ainsi supposées capter 2 % du marché de la publicité numérique d’ici la fin de la décennie.
HSBC anticipe que le marché de l’IA grand public générera 129 milliards $ de revenus annuels d’ici 2030 (dont 56 % pour OpenAI) et que l’IA d’entreprise atteindra 386 milliards $ (dont 37 % pour OpenAI).
Malgré cette croissance fulgurante, l’augmentation parallèle des coûts signifie qu’OpenAI devrait continuer à subventionner ses utilisateurs bien au-delà de la prochaine décennie. C’est dans ce contexte que se creuse l’énorme besoin de financement.
La synthèse financière de HSBC pour la période cumulée jusqu’en 2030 est la suivante :
| Éléments financiers (cumulé 2023-2030) | Montant (en milliards $ ) |
|---|---|
| Coûts de location des centres de données | 792 |
| Flux de trésorerie disponible (Free Cash Flow) | 282 |
| Autres injections de capitaux (Nvidia, AMD) | 26 |
| Total des entrées de liquidités | 308 |
| Déficit brut de financement (Coûts – Entrées) | -484 |
| *Le déficit final est estimé à 207 Mds $ après intégration des facilités de dette et liquidités disponibles. | |
En incluant les facilités de dette et de capitaux propres non tirées (24 milliards $) et les liquidités disponibles (17,5 milliards $ mi-2025), le modèle de HSBC aboutit à un déficit de financement de 207 milliards $, auquel les analystes ajoutent une réserve de trésorerie de 10 milliards $ portant le besoin total à 217 milliards $.
Face à ces chiffres abyssaux, HSBC pondère en explorant quelques pistes de revenus additionnels. Ainsi, une conversion de 20 % des utilisateurs de ChatGPT en abonnements payants, par exemple, pourrait générer 194 milliards $ de revenus supplémentaires sur la période.
L’hypothèse du scénario du pire, pour OpenAI, pourrait être de renégocier et d’annuler certaines obligations contractuelles liées aux centres de données, compte tenu des relations entremêlées entre les acteurs de l’IA, du cloud et des semi-conducteurs.
Néanmoins, l’analyse de HSBC se veut très optimiste sur le concept de l’IA qui devrait
« pénétrer tous les processus de production » et générer des gains de productivité au niveau mondial.
Elle estime son impact potentiel sur le PIB mondial de plus de 110 000 milliards $. De quoi largement éclipser ce qui est actuellement perçu comme des dépenses en capital (capex) déraisonnables.
The post Pourquoi OpenAI doit trouver 207 milliards $ pour survivre, selon HSBC appeared first on Silicon.fr.





ChatGPT Atlas arrive sur macOS avec un agent web supervisé et des réglages de confidentialité visibles, Windows et mobile annoncés ensuite pour étendre l’usage.
Cet article ChatGPT Atlas arrive sur macOS, versions Windows et mobile est apparu en premier sur Linformatique.org.