Vue normale
-
- Prix Nobel de physique, château pour enfants malades et surconsommation électrique de l'IA : l'actu des sciences
-
- Le vestige qu’on n’attendait pas : une espadrille vielle de 750 ans découverte dans un nid de vautour !
Le vestige qu’on n’attendait pas : une espadrille vielle de 750 ans découverte dans un nid de vautour !
-
- Le cylindre lumineux photographié dans le ciel de Mars par un rover de la Nasa affole les réseaux sociaux
Le cylindre lumineux photographié dans le ciel de Mars par un rover de la Nasa affole les réseaux sociaux
« Il est fou de rage » : Donald Trump est-il en train d’essayer de censurer South Park ?

Le président américain aurait lancé un plan secret pour faire déprogrammer la série hyper populaire.
Tron: Ares, quand la forme éclipse le fond (critique sans spoilers)
Après Tron (1982) et Tron: Legacy (2010), la grille revient avec Tron: Ares, au cinéma le 8 octobre 2025. Exit Garrett Hedlund et Olivia Wilde, héros du deuxième volet, place à Jared Leto et Greta Lee. Et avec eux, une tentative de réinventer (un peu) la licence. Voici notre avis, sans spoilers.
-
- Je suis monté à bord du Dacia Hipster : pourquoi cette voiture électrique ultra abordable me séduit autant qu’elle m’interroge
Je suis monté à bord du Dacia Hipster : pourquoi cette voiture électrique ultra abordable me séduit autant qu’elle m’interroge
Rejoignez-nous de 17 à 19h, un mercredi sur deux, pour l’émission UNLOCK produite par Frandroid et Numerama ! Actus tech, interviews, astuces et analyses… On se retrouve en direct sur Twitch ou en rediffusion sur YouTube !
-
- Le virus de la fièvre hémorragique de Crimée-Congo circule activement en France, et ça inquiète les chercheurs
Le virus de la fièvre hémorragique de Crimée-Congo circule activement en France, et ça inquiète les chercheurs
Prix Nobel de physique 2025 : la mécanique quantique à l'honneur avec un nouveau lauréat français !
Comment écouter de la musique sur Spotify dans la meilleure qualité audio possible ?
Spotify a lancé il y a peu une option d'écoute sans perte, « lossless ». Elle peut être activée dans les paramètres du logiciel, pour celles et ceux qui paient un abonnement.
-
- On connaît enfin la date de sortie de A Knight of the Seven Kingdoms, le prochain spin-off de Game of Thrones
On connaît enfin la date de sortie de A Knight of the Seven Kingdoms, le prochain spin-off de Game of Thrones
A Knight of the Seven Kingdoms, la nouvelle série de HBO, débarquera enfin en 2026. Voici tout ce que vous devez savoir sur ce projet basé sur le roman du Chevalier Errant (The Hedge Knight), qui se place dans le même univers que Game of Thrones et House of the Dragon.
Valerion dévoile le VisionMaster Max et frappe fort avec ses objectifs interchangeables

Valerion a marqué les esprits à l'IFA 2025 en dévoilant la version finale de son VisionMaster Max, le premier vidéoprojecteur lifestyle au monde équipé d'objectifs interchangeables. Avec des noirs abyssaux, une technologie anti-effet arc-en-ciel révolutionnaire et un système audio dédié, la marque premium vise directement le trône du home cinéma haut de gamme.
KPop Demon Hunters : après le succès Netflix, attention aux arnaques !

De nombreuses plateformes surfent sur la vague du film Netflix pour proposer des produits dérivés pas franchement officiels.
Google paie jusqu’à 30 000 dollars si vous trouvez une faille dans son IA

Google lance un nouveau programme qui récompense tous ceux qui trouvent des failles de sécurité dans ses systèmes d’intelligence artificielle, dont Gemini. La récompense peut atteindre 30 000 dollars. Des scénarios d’attaque concrets visés par le programme Les failles que recherche activement Google concernent l’exploitation malveillante des modèles …
Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Google paie jusqu’à 30 000 dollars si vous trouvez une faille dans son IA est apparu en premier sur KultureGeek.
Boitier Aquarium, be quiet! annonce les Light Base 500 LX et 500
be quiet! dévoile les Light Base 500 LX et Light Base 500. Ces boitiers visent les joueurs ou les professionnels à la recherche d’un châssis généreux et polyvalent.
Cet article Boitier Aquarium, be quiet! annonce les Light Base 500 LX et 500 a été publié en premier par GinjFo.
Google écarte Samsung de la conception du modem Tensor G6

Après des années de collaboration avec Samsung, Google miserait sur MediaTek pour doper la connectivité et l’autonomie de ses prochains smartphones.
Garmin Instinct 3 Amoled : cette montre outdoor lancée en 2025 est à -30 % pour le Prime Day
Tous nos articles sont aussi sur notre profil Google : suivez-nous pour ne rien manquer !
Cette planète en formation est incroyablement gourmande en gaz et poussières
-
- Personne ne l’avait vu venir : un astéroïde vient de frôler la Terre à la hauteur de la Station spatiale !
Personne ne l’avait vu venir : un astéroïde vient de frôler la Terre à la hauteur de la Station spatiale !
-
- { Tribune Expert } – Agents IA : nouvelle cible et source de vulnérabilité au sein des organisations
{ Tribune Expert } – Agents IA : nouvelle cible et source de vulnérabilité au sein des organisations
L’adoption fulgurante des agents d’intelligence artificielle (IA) transforme les entreprises, mais expose également leurs systèmes à de nouvelles vulnérabilités. Autonomes, interconnectés et parfois déployés sans supervision, ces agents disposent d’un accès direct à des données et infrastructures critiques.
L’essor des IA génératives, notamment les modèles de langage de grande taille (LLM), a bouleversé les pratiques professionnelles bien plus profondément qu’on ne le pense. Ces technologies, capables de comprendre et de produire du langage naturel, sont désormais utilisées au travail pour des tâches aussi diverses que la rédaction de contenus, l’analyse de données ou l’automatisation des processus d’affaires. Elles offrent des gains de productivité significatifs et transforment des secteurs entiers, de la finance à la santé. Pourtant, ce potentiel d’innovation s’accompagne de nouveaux risques pour les entreprises.
L’essor des agents IA
Déployées sous forme d’agents, ces IA agissent de manière autonome, parfois sans surveillance directe, et interagissent avec des systèmes d’information complexes. Conçues pour accomplir des tâches spécifiques en exécutant des actions sur des bases de données ou des infrastructures, elles sont désormais intégrées dans des processus décisionnels critiques. Ce qui conduit à des vulnérabilités inhérentes à leur fonctionnement et les expose à des risques de détournement ou de mauvaise utilisation. En effet, 23%1 des organisations ont déjà subi des incidents liés à des agents IA compromis.
Les dérives possibles : manipulation et mauvaise utilisation
L’un des plus grands dangers associés à l’utilisation des agents IA réside dans le jailbreak. Ce terme désigne le fait de contourner les limites de sécurité des IA pour leur faire exécuter des tâches pour lesquelles elles n’ont pas été initialement conçues ou qu’elles ne devraient pas accepter de réaliser. Dans le cas des IA génératives, un jailbreak peut permettre à un utilisateur malveillant de forcer l’IA à produire du contenu inapproprié, tel que des codes malicieux ou des deepfakes. Cette manipulation ouvre une porte d’entrée pour la création simplifiée d’attaques qui étaient jusqu’alors difficilement imaginables.
Par exemple, des attaquants pourraient entraîner un agent IA à rédiger du code capable de pénétrer les systèmes de sécurité d’une entreprise ou créer de faux documents (comme de faux contrats ou des déclarations financières frauduleuses). Le tout, sans que les mécanismes de protection habituels ne détectent l’intrusion, car l’agent IA semble légitime aux yeux des systèmes de surveillance de sécurité. Le jailbreak des IA permet ainsi de transformer un outil de productivité en un vecteur d’attaque extrêmement efficace, facile à utiliser mais difficile à repérer et à neutraliser.
Un autre danger majeur lié à l’usage des agents d’IA est la manipulation des intentions de ces IA. Contrairement à un logiciel classique, un agent IA dispose de capacités d’analyse, de contexte et de prise de décision qui peuvent être utilisées de manière malveillante. Si un utilisateur malintentionné manipule les données d’entrée de l’IA, il peut orienter l’agent pour qu’il prenne des décisions qui lui sont favorables, mais qui pourraient s’avérer dangereuses pour l’entreprise.
Par exemple, en modifiant les informations que l’IA reçoit ou en influençant ses processus d’apprentissage, un individu pourrait pousser l’agent IA à prendre des décisions qui ne respectent pas la politique de l’entreprise ou qui exposent des données sensibles à des risques de fuite. De même, la modification des réponses fournies par l’IA peut modifier le comportement global des utilisateurs au sein de l’entreprise. Cette capacité à prédire et réagir aux intentions humaines soulève des questions éthiques sur la supervision et le contrôle des agents IA dans des environnements professionnels.
Confidentialité des données : le talon d’Achille de l’entreprise
Au-delà des risques de manipulation se pose la question de la confidentialité. Dernièrement, Sam Altman (CEO d’OpenAI) alertait lors d’un podcast sur l’usage incontrôlé de ChatGPT comme outil de soutien psychologique. Il insistait sur un point fondamental : si vous confiez des données sensibles à une IA sans en comprendre les implications, cela vous fait courir un risque majeur en termes de confidentialité.
Cette alerte, bien qu’issue d’un usage personnel des IA génératives, trouve un écho immédiat dans le contexte professionnel, en particulier lorsqu’elles sont déployées sous forme d’agents autonomes. En entreprise, un agent IA, interconnecté à plusieurs sources d’information et systèmes métiers, peut accéder – volontairement ou non – à des données critiques. Or, si cet agent interagit avec un LLM mal sécurisé ou un service tiers non supervisé, les informations transmises peuvent être stockées, analysées, voire utilisées à des fins non maîtrisées.
Les risques sont multiples : violation du RGPD, perte de propriété intellectuelle, divulgation d’informations stratégiques, ou encore non-conformité aux obligations réglementaires comme la directive NIS2. Dans ce cadre, la question n’est plus simplement technique, mais également juridique et éthique. Le déploiement d’un agent IA doit ainsi s’accompagner d’un encadrement strict de l’accès aux données et d’une gouvernance claire sur la conservation et l’usage des informations sensibles.
Le spectre du Shadow IT
Avec l’avènement de l’IA grand public, on voit apparaître un phénomène nommé Shadow IA – qui fait immédiatement référence au shadow IT. Tout comme pour le Shadow IT, l’utilisation d’agents IA en dehors des canaux validés par les équipes de sécurité IT expose les entreprises à des utilisations imprévues, impliquant des risques de perte de données et d’accroissement de la surface de vulnérabilité de l’entreprise.
Ce manque de visibilité crée un risque de sécurité, car ces agents peuvent s’exécuter au sein de systèmes internes et échappent ainsi aux mécanismes traditionnels de sécurité. On retrouve donc avec le Shadow IA les mêmes dérives qu’avec le Shadow IT : l’utilisation d’outils non validés contourne les protocoles de sécurité et augmente le risque d’attaques internes ou externes.
Dans cette dynamique, il est crucial que les entreprises réévaluent leurs paradigmes de sécurité et considèrent l’IA non seulement comme un outil de productivité devenu indispensable, mais aussi comme une cible privilégiée pour les cybercriminels. Face à cette nouvelle donne, l’anticipation devient la clé : une gouvernance proactive et une gestion minutieuse de ces technologies sont les seuls moyens de prévenir des conséquences dramatiques.
C’est désormais aux entreprises de prendre conscience que l’intégration de l’IA doit passer par une stratégie de sécurité dédiée, intégrée à la PSSI (Politique de sécurité du système d’information). Celle-ci devra alors se construire avec des outils apportant de la visibilité sur les utilisations réelles, et l’implication des utilisateurs afin de comprendre leurs besoins.
*Jérome Delaville est Chief Customer Officer Olfeo, groupe Ekinops
The post { Tribune Expert } – Agents IA : nouvelle cible et source de vulnérabilité au sein des organisations appeared first on Silicon.fr.
Le Lossless disponible sur Spotify en France : comment l’activer facilement ?

L'audio sans perte permet de profiter d'un son de meilleure qualité sur vos appareils compatibles.