Vue normale

Disney investit 1 milliard $ dans OpenAI

12 décembre 2025 à 16:30

Est-ce un tournant majeur pour Hollywood ? Alors que beaucoup de professionnels du cinema américain se mobilisent depuis 2023 contre les effets dévastateurs de l’utilisation de l’IA sur leurs métiers, Walt Disney investit un milliard $ dans OpenAI, assorti d’un accord de licence lui permettant à l’inventeur de ChatGPT d’utiliser plus de 200 personnages iconiques de ses franchises Marvel, Pixar et Star Wars dans ses outils d’intelligence artificielle.

Un contrat de trois ans

Dans le cadre de ce contrat de trois ans, les utilisateurs de ChatGPT et de Sora, l’outil de génération vidéo, pourront créer des images et de courtes vidéos mettant en scène Mickey Mouse, Cendrillon, Simba ou encore Dark Vador.

L’accord, qui démarre en janvier 2026, prévoit l’exclusivité pour OpenAI durant la première année concernant l’utilisation des personnages Disney mais, comme le précise Bloomberg, ne pourra pas exploiter la propriété intellectuelle du groupe pour entraîner ses modèles. Il exclut toute utilisation de l’image ou de la voix des acteurs. Un utilisateur pourra ainsi générer une vidéo avec Woody de Toy Story, mais sans la voix de Tom Hanks.

Disney va utiliser les APIs

En échange de cette licence, Disney prendra une participation d’un milliard $ dans OpenAI, valorisée à 500 milliards $. Le groupe recevra également des bons de souscription lui permettant d’acquérir des parts supplémentaires à un prix symbolique durant la durée du contrat. Disney devient par ailleurs un client  d’OpenAI, utilisant ses API pour développer de nouveaux produits et expériences, notamment pour Disney+, et déploiera ChatGPT en interne pour ses employés.

Pour Bob Iger, le PDG de Disney, cette alliance marque une évolution stratégique face aux bouleversements technologiques. « Aucune génération humaine ne s’est jamais opposée au progrès technologique, et nous n’avons pas l’intention d’essayer », a-t-il déclaré sur CNBC.
Selon le FT, il s’agit du plus important accord conclu à ce jour entre une entreprise d’IA et un groupe médias qui ont dû composer avec l’expansion rapide d’OpenAI et ses implications pour leur propriété intellectuelle.

Tandis que le New York Times poursuit OpenAI en justice, d’autres éditeurs comme News Corp ont préféré négocier des accords de licence.

Disney lui-même a adopté une approche ferme sur la protection de ses droits. Selon  Bloomberg, le groupe a adressé mercredi soir une lettre de mise en demeure à Google, l’accusant de violer massivement ses droits d’auteur en utilisant ses contenus pour entraîner ses propres outils d’IA. Disney et Comcast ont également poursuivi Midjourney, une entreprise de génération d’images par IA, pour violation de droits d’auteur.

Des syndicats vigilants, des artistes inquiets

L’annonce a suscité des réactions contrastées dans le milieu créatif hollywoodien. La Writers Guild of America s’est montrée particulièrement critique, estimant dans une note à ses membres qu’OpenAI et d’autres entreprises d’IA ont « volé » d’importantes bibliothèques d’œuvres créées par ses membres. « L’accord de Disney avec OpenAI semble cautionner ce vol et céder la valeur de ce que nous créons à une entreprise tech qui a bâti son business sur notre dos  », dénonce le syndicat selon Bloomberg.

Le syndicat des acteurs SAG-AFTRA a adopté un ton plus mesuré, affirmant que Disney et OpenAI l’avaient contacté pour offrir des assurances sur l’utilisation éthique et responsable de la technologie.

The post Disney investit 1 milliard $ dans OpenAI appeared first on Silicon.fr.

Microsoft ouvre son bug bounty au code tiers

12 décembre 2025 à 15:46

Microsoft vise plus large avec son programme bug bounty.

Le voilà désormais susceptible d’indemniser la découverte de failles dans des dépendances. Il s’engage plus précisément à récompenser les signalements de vulnérabilités critiques qui touchent directement ses services en ligne indépendamment de la provenance du code concerné – si ce dernier n’est pas déjà couvert par un bug bounty.

Autre évolution : tous les services en ligne de Microsoft sont maintenant inclus par défaut, sans restriction de périmètre. Cela vaut aussi pour les nouveaux services, dès leur publication.

Ces règles s’appliquent depuis le 11 décembre 2025. Elles sont rétroactives sur 90 jours.

Les vulnérabilités Hyper-V, potentiellement les plus lucratives

Le programme de bug bounty englobait déjà les composants tiers (ouverts ou propriétaires), mais inclus dans les services Microsoft.

Aux dernières nouvelles, les récompenses peuvent monter jusqu’à 100 000 $ pour les vulnérabilités qui affectent des services d’identité (compte Microsoft, ADD et certaines implémentations d’OpenID). C’est 60 k$ pour Azure ; 30 k$ pour Copilot ; 20 k$ pour Azure DevOps, Dynamics 365/Power Platform et l’API Defender for Endpoint ; 19,5 k$ pour Microsoft 365 ; 15 k$ pour .NET Core/ASP.NET Core et pour certains dépôts open source de Microsoft.

Sur la partie endpoints et on-prem, on atteint 250 k$ pour Hyper-V ; 100 k$ sur Windows Insider Preview ; 30 k$ sur Edge ; 15 k$ sur Microsoft 365 Insider.

En 2023 comme en 2024, le montant total des récompensés distribuées a avoisiné 17 M$, répartis à chaque fois entre un peu moins de 350 chercheurs.

À consulter en complément :

Microsoft 365 : un vol de données assisté par Copilot
ToolShell, cette faille SharePoint qui s’est construite en plusieurs temps
Project Zero (Google) change sa politique de divulgation de vulnérabilités
Roni Carta (Lupin & Holmes) : « Avec la cybersécurité offensive, notre objectif est de lutter contre les failles de la supply chain logicielle »

Illustration générée par IA

The post Microsoft ouvre son bug bounty au code tiers appeared first on Silicon.fr.

{ Tribune Expert } – Agents IA : les grands bénéfices des petits modèles de langage

12 décembre 2025 à 13:45

Il y a quelque temps, le dirigeant de l’une des plus grandes entreprises tech au monde expliquait dans un podcast que les organisations qui utilisent l’intelligence artificielle (IA) pour accroître leur productivité et stimuler l’économie seront les véritables gagnants de cette révolution.

Cette déclaration met en lumière les avancées concrètes observées avec l’IA générative, en particulier avec les petits modèles de langage (SLM) et les agents d’IA. Moins visibles que les grands modèles de langage (LLM) qui équipent sur les ordinateurs portables et les smartphones, les SLM offrent des avantages remarquables et des applications concrètes pour les équipes terrain, notamment dans des secteurs comme celui de la distribution.

Une sélection de SLM dédiés, intégrée à une suite d’agents d’IA, peut être optimisée de manière efficace pour l’automatisation intelligente de tâches spécifiques. Ces capacités d’IA permettent aux équipes terrain de capturer facilement le contexte de leurs workflows, puis de l’intégrer directement dans un terminal mobile doté d’agents d’IA afin d’améliorer la productivité, l’expérience client, et renforcer la visibilité des actifs.

Rendre l’IA réelle

Les SLM sont également idéaux pour des capacités d’IA embarquée (on-device AI). Ils apportent cette technologie directement sur des terminaux mobiles, transportables et autres terminaux aux ressources limitées, permettant ainsi des fonctionnalités telles que les assistants vocaux hors ligne et la traduction en temps réel.

Les agents d’IA basés sur des SLM permettent de mettre en œuvre des applications d’edge computing, en traitant les données au plus près de leur source, ce qui réduit la latence et la consommation de bande passante.

Cette technologie offre des avantages significatifs aux équipes terrain dans la distribution, les entrepôts et la logistique, en améliorant la prise de décision en temps réel et l’efficacité opérationnelle. Voici quelques exemples d’agents IA générés par des SLM :

1. Agent de connaissances : capable d’interagir en langage naturel avec les supports de formation et les procédures opérationnelles standards pour faciliter l’intégration des collaborateurs, et leur fournir l’information dont ils ont besoin dès qu’ils en ont besoin.

2. Agent de vente : aide à répondre aux questions des clients et collaborateurs, interroge en direct les stocks et les prix, et propose des recommandations de vente croisées ou additionnelles.

3. Agent de merchandising : combine reconnaissance d’image embarquée et vision par ordinateur pour automatiser l’analyse de l’état des rayons, identifier les ruptures, erreurs de placement, non-conformités planogramme ou erreurs de prix et de signalétique.

L’IA au bon moment, et sans cloud

Les SLM embarqués présentent des avantages particulièrement intéressants pour les équipes informatiques, innovation et techniques, notamment en matière de confidentialité :

● Confidentialité renforcée : les données de l’utilisateur ne quittent en effet jamais l’appareil, ce qui réduit le risque de violation de données et garantit un meilleur contrôle des informations personnelles.

● Faible latente : le traitement s’effectue localement, sans qu’il soit nécessaire d’interroger un serveur éloigné. Les réponses sont ainsi quasi instantanées, ce qui est essentiel pour les applications en temps réel, telles que les assistants vocaux ou la traduction.

● Réduction des coûts de bande passante et de cloud : comme les données ne sont plus systématiquement envoyées dans le cloud, le traitement local diminue l’usage des données mobiles et les dépenses liées au calcul des LLM dans le cloud.

● Fonctionnalités hors-ligne : lorsque les LLM sont intégrés aux appareils, l’IA peut continuer à fonctionner sans connexion Internet, ce qui est particulièrement utile dans les zones où la connectivité est limitée ou instable.

L’avenir est aux agents d’IA multimodaux

Le futur de l’IA est intrinsèquement multimodal. Les êtres humains n’expérimentent pas le monde uniquement par le texte ; ils utilisent tous leurs sens. L’IA doit faire de même en s’appuyant sur tous ces « sens » pour réellement comprendre et interagir efficacement avec le monde.

La bonne nouvelle, c’est que les SLM et les agents IA peuvent être multimodaux, comme dans l’exemple de l’agent merchandising évoqué précédemment. Pour exploiter pleinement leur potentiel, notamment lorsqu’ils sont déployés sur des appareils en périphérie, ils doivent justement être multimodaux, et ne pas se limiter au traitement et à la génération de texte. Deux approches principales permettent d’atteindre cet objectif :

● Les SLM multimodaux intégrés sont conçus pour traiter plusieurs modalités directement. Cette approche est la plus efficace, mais elle requiert un travail de conception et d’entraînement particulièrement méticuleux.

● Les systèmes multimodaux modulaires combinent un SLM avec des modèles spécialisés distincts (par exemple un modèle de reconnaissance d’images ou de transcription de la parole en texte). Le SLM joue alors le rôle de coordinateur en traitant le texte et en interagissant avec les autres modèles selon les besoins.

La tendance est aux SLM multimodaux plus intégrés, à mesure que la technologie évolue et que l’entraînement des modèles, même complexes, gagne en efficacité. Toutefois, une approche modulaire reste souvent plus simple et plus rentable à court terme.

L’avenir reposera probablement sur une combinaison des deux approches, en fonction des cas d’usage et des ressources disponibles. Les travaux de R&D actuels permettront de créer des SLM multimodaux intégrés et des agents IA plus efficaces et plus puissants, tout en développant des systèmes modulaires robustes, faciles à personnaliser et à déployer sur une large gamme d’appareils.

L’objectif est de permettre à des systèmes d’IA de comprendre le monde à travers plusieurs prismes, afin d’offrir des interactions plus naturelles, intuitives et efficaces avec les humains et leur environnement. L’IA qui améliore le travail au quotidien sera la véritable gagnante de demain.

*Andrea Mirabile est directeur global de la recherche en intelligence artificielle de Zebra Technologies

The post { Tribune Expert } – Agents IA : les grands bénéfices des petits modèles de langage appeared first on Silicon.fr.

VMware exclut l’UE de la marche forcée vers VCF

12 décembre 2025 à 13:44

Chez VMware, fini le catalogue de prix unifié pour l’EMEA (Europe, Moyen-Orient, Afrique).

Il y a désormais deux catalogues. Respectivement pour l’Espace économique européen (UE + Islande, Liechtenstein et Norvège) et pour les autres pays de cette zone.

VVF et vSphere Enterprise+ maintenus dans l’UE, mais jusqu’à quand ?

La différence n’est pas des moindres : hors de l’EEE, les offres VVF (vSphere Foundation) et VSEP (vSphere Enterprise+) ne sont plus commercialisées.

Ne restent que VSS (vSphere Standard) et VCF (Cloud Foundation).
Le premier change de modèle : il devient un SKU sans durée déterminée, à 70 $/cœur/an – soit le tarif jusque-là appliqué pour un an d’engagement.
Le second voit son prix augmenter de 350 à 400 $/cœur/an.
En parallèle, le module complémentaire Private AI Foundation n’est plus disponible.

La nouvelle politique commerciale hors EEE impose par ailleurs le fameux minimum de 72 cœurs.
Ce minimum s’entend par ligne de commande – en d’autres termes, par édition de produit VMware. Broadcom l’appliquait déjà depuis avril… en dehors de l’EMEA. L’examen de son cas par la Commission européenne a probablement motivé cette exception et la décision de la faire perdurer dans l’EEE.

VCF comme offre unique : on y va tout droit

vSphere Enterprise+ avait disparu de la gamme VMware une première fois, quelques semaines après la fusion avec Broadcom. Il avait finalement été réintroduit en novembre 2024, sans vSAN (stockage) ni NSX (réseau).
Depuis, on l’a continûment dit en sursis. Comme vSphere Standard, qui n’est déjà plus vendu en APAC (Asie-Pacifique) depuis avril 2025 – et qui semble désormais ne plus l’être non plus en Amérique du Nord.

Ces offres sont d’autant plus sur la sellette qu’il n’est pas prévu qu’elles prennent en charge vSphere 9. Jusqu’à nouvel ordre, elles sont cantonnées au maximum à vSphere 8 (Update 3), dont le support général se termine en octobre 2027.

Les perspectives n’étaient pas beaucoup plus positives pour VVF. Surtout que VCF 9 a apporté plusieurs capacités favorisant les migrations depuis d’autres produits VMware, notamment pour l’importation NSX.

Illustration générée par IA

The post VMware exclut l’UE de la marche forcée vers VCF appeared first on Silicon.fr.

Fusion Broadcom-VMware : le CISPE muscle son recours en annulation

12 décembre 2025 à 09:09

La structure de financement de la fusion Broadcom-VMware et les engagements de croissance associés auraient-ils dû alerter la Commission européenne ?

C’est l’opinion du CISPE, qui vient d’en faire part publiquement. En toile de fond, un recours que le lobby des fournisseurs cloud européens a introduit cet été auprès du Tribunal de l’UE. Il entend, par ce biais, faire annuler la décision de juillet 2023 par laquelle Bruxelles a autorisé Broadcom à acquérir VMware.

À ces fins, trois moyens sont invoqués. Selon le premier, la Commission européenne a omis d’examiner le risque de création ou de renforcement d’une position dominante – ainsi que d’une réduction significative de concurrence – sur le marché des logiciels de virtualisation des serveurs. Alors même, prétend le CISPE, qu’elle avait les éléments pour. Notamment des « avertissements remarquablement clairs » de personnes interrogées dans le cadre de son enquête de marché.

Le deuxième moyen dénonce une autre omission : l’analyse des risques de ventes groupées des logiciels VMware et des produits (software/hardware) de Broadcom. Le CISPE l’admet : la Commission européenne a affirmé que ces offres n’étaient pas complémentaires et qu’elles n’avaient pas les mêmes acheteurs. Il considère toutefois qu’elle n’en a pas donné de preuve concrète, sinon un renvoi à l’étude de marché. Elle n’aurait, par ailleurs, pas expliqué en quoi l’opération se distinguerait des acquisitions de CA Technologies et de Symantec, « qui ont toutes deux entraîné des ventes groupées et d’autres effets anticoncurrentiels similaires ».

Le troisième moyen pointe une omission d’enquête de manière approfondie au sujet des éventuels effets négatifs sur l’innovation sur tous les marchés affectés par l’opération.

Dette et promesses de croissance, d’indéniables indicateurs ?

Pour financer l’acquisition, Broadcom a levé environ 28,4 Md$ de dette, en plus de reprendre celle de VMware (autour de 8 Md$). Cette situation a engendré une « forte motivation » à monétiser rapidement la base VMware installée, assure le CISPE.

Pour ce qui est des engagements de croissance, le lobby se réfère à la promesse de Hock Tan de faire passer l’EBITDA de VMware d’une fourchette de 4,7-5Md$ à 8,5 Md$ dans un horizon de 3 ans après la fusion. Sur un marché en progression de seulement 5 à 8 % par an, une telle ambition ne pouvait raisonnablement être atteinte sans la stratégie commerciale agressive qui s’est ensuivie, estime-t-il.

672 jours pour publier la décision

Parallèmement à ce recours, le CISPE a déposé plainte début décembre auprès du Médiateur européen. Motif : Bruxelles a pris beaucoup trop de temps pour publier le texte complet de sa décision (672 jours en l’occurrence), qui n’a été attaquable qu’à partir de ce moment-là.

La Commission européenne a justifié ce délai par le droit des parties concernées à exiger la confidentialité de données commerciales sensibles. Et par le temps ainsi nécessaire pour s’accorder sur une version « épurée » du texte de la décision. Le CISPE rétorque que Broadcom en a profité pour jouer la montre.

La Commission européenne s’est concentrée sur le cas Marvell

Broadcom et VMware avaient signé leur accord de fusion le 26 mai 2022. Le 15 novembre, ils en avaient formellement notifié la Commission européenne. Cette dernière avait ouvert une enquête approfondie le 20 décembre.

Son avis préliminaire d’avril 2023 avait tracé les grandes lignes : le coeur du dossier porterait sur les effets de conglomérat au niveau des marchés des contrôleurs hôtes de bus Fibre Channel et des adaptateurs de stockage.

Sur les contrôleurs FC, le seul concurrent était Marvell. Bruxelles craignait que Broadcom ait la capacité de l’exclure en dégradant l’interopérabilité de ses contrôleurs FC et des logiciels de virtualisation serveur de VMware. Mais que ce dernier n’en aurait pas forcément la motivation, vu le risque de voir sa réputation de neutralité affectée.

Concernant les adaptateurs de stockage, les fabricants de serveurs seraient capables d’absorber les effets d’une certification retardée, avait jugé la Commission européenne. Un tel scénario n’affecterait pas significativement la concurrence, avait-elle ajouté ; tout comme d’ailleurs une dégradation de l’interopérabilité, d’autant plus que Broadcom ne jouissait pas d’une position dominante.

L’enquête a également englobé le marché des NIC et l’éventualité d’une vente liée des solutions logicielles de Broadcom et de VMware. Conclusion sur le premier point : le nouvel ensemble n’aurait pas la motivation économique de pratiquer une stratégie d’exclusion. Sur le second, il n’en aurait pas la capacité, les acheteurs étant distincts comme d’ailleurs les cycles d’achat.

Les engagements qui ont fait mouche

Face aux craintes exprimées, Broadcom avait proposé des engagements pour 10 ans. Principalement :

  • Garantir à Marvell un accès à ses API, à son kit de développement de pilotes, à sa suite de certification et à du support technique, au même niveau que pour sa propre division FC
  • Lui donner une visibilité complète sur ses pilotes de contrôleurs FC et lui permettre de les réutiliser et de les modifier, y compris pour développer ses propres pilotes
  • Opérer une séparation organisationnelle entre l’équipe chargée des contrôleurs FC et celle assurant certification et support technique

Soumis à un test de marché, ces engagements avaient convaincu. Broadcom avait  néanmoins dû en affiner quelques aspects. Dont :

  • Clarification de définitions et/ou élargissement de leur périmètre
  • Garantie de frais modiques pour l’accès aux éléments susmentionnés
  • Promesse d’octroyer cet accès en temps opportun
  • Pas de traitement de faveur pour les produits Broadcom dans le guide de compatibilité VMware
  • Suppression d’une clause qui donnait au nouvel ensemble la possibilité de développer des API pour usage interne de dev/test

Illustration générée par IA

The post Fusion Broadcom-VMware : le CISPE muscle son recours en annulation appeared first on Silicon.fr.

❌