Vue lecture

La Chine construit son premier hôpital spécialisé dans l’IA.

Le matin du 26 avril, l'Université Tsinghua a organisé une cérémonie d'inauguration de l'hôpital Tsinghua AI Agent et la réunion municipale de médecine Tsinghua 2025 dans la salle de réception du bâtiment principal. Le président Li Luming a passé en revue les progrès des programmes médicaux de l'Université Tsinghua au cours de l'année écoulée, soulignant l'engagement fort de l'université en faveur du développement des disciplines médicales. Il a souligné la force de Tsinghua en recherche fondamentale en intelligence artificielle, qui a déjà donné lieu à une série d'innovations de haut niveau à l'intersection de l'IA et de la médecine. La création de l'hôpital Tsinghua AI Agent représente une nouvelle initiative de Tsinghua visant à exploiter ses atouts en sciences et en ingénierie pour favoriser le progrès médical. Le développement de l'hôpital Tsinghua AI Agent se déroulera par phases. Dans un premier temps, le système hospitalier sera construit en s'appuyant sur l'infrastructure complète d'IA de l'université et sur ses compétences interdisciplinaires en ingénierie et en médecine. Il sera mis en œuvre à titre pilote à l'hôpital Tsinghua Changgung de Pékin et à l'hôpital Internet Tsinghua Changgung de Pékin, en commençant par des services tels que la médecine générale, l'ophtalmologie, le diagnostic radiologique et la pneumologie. À l'avenir, l'hôpital vise à créer un écosystème en boucle fermée combinant « IA + Santé + Éducation + Recherche », favorisant ainsi le développement efficace et la répartition équitable de ressources médicales de haute qualité. L'objectif ultime est d'offrir à un plus grand nombre de personnes des services médicaux abordables, durables et de qualité. Wong Tien Yin a souligné que l'hôpital à agents IA est conçu pour transcender le modèle traditionnel « Hôpital + IA ». Ainsi, les fonctions des agents IA sont intégrées dès la conception, guidées par les besoins des services cliniques. Cette approche aidera les médecins à prendre des décisions précises, améliorera l'efficacité des soins et la satisfaction des patients, réduira les coûts de fonctionnement de l'hôpital et contribuera à remédier à la pénurie de médecins généralistes. À long terme, l'hôpital prévoit de fonctionner comme un hôpital physique doté d'IA, favorisant ainsi une transformation révolutionnaire des modèles de soins. Il servira également de plateforme clé pour la formation médicale à Tsinghua, formant une nouvelle génération de « médecins collaboratifs IA ». Le Programme clinique universitaire de l'Université Tsinghua s'engage à établir un cadre universitaire collaboratif grâce à la collaboration interdisciplinaire et à l'intégration des ressources des hôpitaux affiliés à Tsinghua, des facultés de médecine de Tsinghua et d'autres facultés de l'Université Tsinghua, ainsi que de partenaires internationaux. En établissant un mécanisme de collaboration interdisciplinaire à long terme, axé sur les besoins cliniques et suivant le modèle « X + Médecine », le Programme clinique universitaire vise à favoriser le partage ouvert et une synergie renforcée entre les domaines des soins cliniques, de l'enseignement et de la recherche, élevant ainsi le niveau de la médecine universitaire. De plus, il vise à insuffler un nouvel élan au développement des disciplines et des talents afin de soutenir les objectifs de la stratégie « Chine en bonne santé 2030 ». (Lire la suite)
  •  

WhatsApp sous le feu des critiques pour Meta AI : avertissement et plainte auprès du garant antitrust et de la vie privée

Depuis plus d'un mois, Meta AI fait son apparition discrètement mais visiblement au sein de l' application WhatsApp , intégrée directement dans la barre de recherche et son bouton dédié. Nous avons déjà couvert une grande partie du fonctionnement de Meta AI et de ce que nous pouvons en faire , mais nous avons également souligné les problèmes de confidentialité et la controverse sur le fait que vous ne pouvez pas le désactiver . L''italien Codacons est désormais également entré dans la mêlée, en présentant un avertissement à Meta et une plainte officielle auprès de l'Antitrust et du Privacy Garantor . L'accusation est claire : l'activation automatique du service se serait produite sans consentement explicite , avec de possibles violations du RGPD et du Code de la consommation . Selon Codacons , le problème principal n’est pas tant la présence de l’IA elle-même, mais le fait qu’elle ne peut pas être réellement désactivée . La seule option offerte à l'utilisateur est d' ignorer ou de masquer partiellement la fonction, mais cela n'empêche pas que les données soient traitées en arrière-plan de toute façon. L'association parle d'une violation manifeste du RGPD , notamment : - de l’article 5, qui exige le respect de critères tels que la légalité, la régularité et la transparence ; - de l'article 6, qui établit que le traitement des données doit être fondé sur une base juridique valable , telle que le consentement libre et explicite de l'utilisateur. La jurisprudence européenne, avec des affaires telles que l’ arrêt Planet49 (C-673/17) , a déjà précisé que le consentement ne peut jamais être présumé ni activé par défaut . Dans ce cas, cependant, Meta AI a été activé automatiquement , sans donner aux utilisateurs de véritables outils pour décider. Et même l’intérêt légitime ne peut justifier le traitement, selon Codacons, car l’ équilibre avec les droits fondamentaux des utilisateurs fait défaut. À cela s’ajoute la manière dont la fonctionnalité a été présentée : non pas comme un choix, mais comme une amélioration de l’expérience . Une décision qui, selon Codacons, cache la finalité de la collecte de données et de la fidélisation , grâce à l'utilisation de techniques persuasives capables d'orienter le comportement des utilisateurs. Avec le dépôt de la plainte, Codacons a demandé à l' Antitrust et au Privacy Garant d'intervenir pour évaluer si l'activation automatique de Meta AI sur WhatsApp viole le cadre réglementaire européen. En parallèle, il a averti Meta en demandant d' arrêter immédiatement la diffusion de la fonction, au moins jusqu'à ce que trois conditions spécifiques soient garanties : - Transparence totale sur le fonctionnement de Meta AI et sur le type de données collectées. - La possibilité de désactiver complètement l'assistant, facilement et définitivement. - Respect total du Règlement européen sur la vie privée , notamment en matière de consentement. Le cœur du problème est la liberté de choix : personne ne conteste l’introduction de fonctions basées sur l’intelligence artificielle , mais celles-ci doivent être facultatives , et non imposées automatiquement. Le risque, selon Codacons, est que Meta tente de normaliser l’utilisation de l’IA sans fournir aux utilisateurs le contrôle nécessaire. Cette histoire pourrait devenir un cas symbolique dans le débat plus large sur l’utilisation de l’intelligence artificielle dans les applications que nous utilisons au quotidien. Si l’intervention des autorités donne raison à Codacons, un précédent important pourrait être créé qui obligera d’autres plateformes à adopter des critères plus stricts en termes de consentement éclairé et d’activation de nouvelles fonctionnalités . (Lire la suite)
  •  

AI Alive est la nouvelle fonctionnalité de TikTok qui semble magique

TikTok a lancé une nouvelle fonctionnalité appelée AI Alive , conçue pour donner vie aux photos directement dans les Stories . Il s'agit d'une technologie qui utilise l'intelligence artificielle pour animer des images statiques et les transformer en courtes vidéos , sans avoir besoin d'applications externes ou de compétences d'édition. Ce développement marque l'entrée de TikTok dans le monde de la génération de vidéos basée sur l'IA à partir d'images , donnant à chacun la possibilité de raconter des histoires visuellement plus riches . En quelques clics, vous pouvez passer d'une photo statique à un contenu dynamique, prêt à être partagé. AI Alive est intégré à la caméra TikTok Stories , accessible en appuyant sur le symbole « + » en haut de votre boîte de réception ou de votre profil. Après avoir sélectionné une photo dans la galerie Stories, une nouvelle icône AI apparaît dans la barre latérale : à partir de là, l'animation automatique de l'image démarre. Si le processus n’est pas clair, l’image suivante devrait clarifier les étapes que vous devrez suivre une fois que l’option sera disponible pour tout le monde. Le système utilise l’intelligence artificielle pour analyser la scène et appliquer des effets visuels tels que des mouvements naturels, des transitions lumineuses, des sons ambiants et des micro-animations. Tout se passe en quelques secondes, sans avoir à quitter l'application, et est conçu pour ceux qui souhaitent créer du contenu percutant même sans expérience technique. Un coucher de soleil peut se transformer en un court métrage avec des nuages ​​en mouvement et des vagues qui s'écrasent , tandis qu'une photo de groupe peut devenir un souvenir animé , avec des sourires et des regards qui prennent vie. TikTok affirme avoir conçu AI Alive en mettant clairement l'accent sur la sécurité de la communauté . Chaque contenu généré est soumis à plusieurs niveaux de contrôle , avant et après publication. L'image téléchargée, toute invite de texte et la vidéo générée sont toutes analysées pour détecter d'éventuelles violations des directives de la plateforme . Lorsqu'un créateur décide de partager son histoire d'IA, un dernier contrôle de sécurité est effectué . De plus, les utilisateurs peuvent signaler tout contenu problématique , comme n'importe quelle autre vidéo sur l'application. Pour rendre l'utilisation de l'intelligence artificielle claire, TikTok ajoute une étiquette visible et intègre également des métadonnées C2PA dans les vidéos . Ces métadonnées permettent d'identifier l'origine du contenu même s'il est téléchargé et repartagé en dehors de la plateforme . Sur le papier, tout semble être fait dans les règles de l'art, mais il faudra attendre que cette fonctionnalité soit généralisée avant de porter un jugement définitif , également parce que nous ne la voyons pas encore disponible. (Lire la suite)
  •  

Sortie de Lazarus 4.0, l'IDE pour Free Pascal

Le 5 mai, jour qui se prête aux manipulations numériques, l'environnement de développement Lazarus est sorti en version 4.0. Lazarus est écrit en Pascal et permet de développer en Pascal Objet, c'est à dire en Delphi. Il accompagne le compilateur libre Free Pascal.

Le langage Pascal est toujours très utilisé, l'index TIOBE de mai 2025 le classe en neuvième position (et ça progresse), loin devant PHP ou Rust. Et si on en parle peu malgré ses qualités c'est peut-être parce qu'il n'est pas porté par de grandes corporations.

Lazarus 4.0 est dispo sur Linux, *BSD, Macos, Windows, il y a même des paquets debian pour RapsberryPi. Il est compilé avec FreePascal 3.2.2. La LCL (Lazarus component library) fournit des widgets graphiques multi-plateformes pour

  • Linux/FreeBSD (GTK2, Qt4, Qt5 and Qt6)
  • Windows depuis Windows 2000 (y compris WinCE)
  • macOS (Cocoa, Carbon, GTK2, Qt4, Qt5, Qt6)

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Gemini arrive enfin sur les montres connectées Samsung avec One UI 8 Watch

Avec le lancement de la One UI 8 Watch , Samsung se prépare à proposer des montres connectées Gemini , l'IA de Google qui remplacera l'actuel Google Assistant. Mais nous ne parlons pas ici uniquement d’un assistant vocal : la nouveauté est bien plus intéressante. Une analyse des fichiers APK divulgués révèle comment Gemini pourra se connecter de manière transparente aux applications , gérer les tâches quotidiennes et automatiser les commandes. Ce système, appelé Gemini Actions , vous permettra d'effectuer des actions telles que : - Déplacer un rendez-vous dans le calendrier ; - Résumer le dernier email reçu ; - Vérifiez la météo dans une ville spécifique. En bref, des fonctions pratiques et concrètes, conçues pour la vraie vie. Et les touches attentionnées pour une utilisation quotidienne ne manquent pas : il y aura une option pour couper la voix de Gemini d'un simple toucher sur l'écran, utile à la salle de sport ou dans les lieux publics. La mise à jour ne concerne pas seulement les fonctionnalités : l'interface bénéficiera également d'un joli peaufinage. Avec One UI 8 Watch, nous verrons des icônes repensées , plus cohérentes avec le style général du système. Les nouveaux éléments graphiques suivent un schéma en squircle , c'est-à-dire un carré aux coins arrondis, accompagné d'un cadre blanc bien défini . Ce détail améliore le contraste, même si certains utilisateurs peuvent le trouver esthétiquement peu attrayant. Une icône en particulier se démarque parmi les autres : celle de Gemini , déjà visible sur certaines smartwatches mais toujours liée à Google Assistant. Il convient de préciser que, même si l'icône est déjà présente, les fonctionnalités de l'IA ne sont pas encore actives , mais ce n'est qu'une question de temps avant que l'intégration ne soit complète, comme déjà mentionné dans la première partie de l'article. Ce n’est pas la première fois que Samsung est en avance sur ses intégrations logicielles. Et cette fois encore, avec la One UI 8 Watch , elle pourrait être la première à sortir Gemini sur des montres connectées. Le choix de sauter One UI 7 Watch et de passer directement à la version 8 semble être une décision stratégique pour s'aligner sur la nouvelle direction de l'intelligence artificielle. Samsung travaille en étroite collaboration avec Google sur le front des montres intelligentes depuis des années, et le fait qu'une Galaxy Watch soit la première à recevoir des fonctionnalités d'IA ne devrait pas être une surprise. Pour le moment, les APK divulgués ne sont pas compatibles avec les anciens modèles , mais il est probable que les nouveaux appareils qui sortiront seront conçus pour profiter pleinement des nouvelles fonctionnalités offertes par Gemini. Et avec la prochaine conférence Google I/O 2025 qui approche à grands pas, nous n’aurons pas à attendre longtemps pour voir tout cela en action. (Lire la suite)
  •  

Kiro : Amazon plancherait sur un nouvel outil de génération de code assisté par IA

Si l’on en croit des documents internes consultés par Business Insider, Amazon Web Services développerait un nouvel outil de génération de code assisté par IA, outil qui poterait le nom de code « Kiro ». Conçu pour générer du code en quasi temps réel grâce à des agents …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Kiro : Amazon plancherait sur un nouvel outil de génération de code assisté par IA est apparu en premier sur KultureGeek.

  •  

ChatGPT hallucine de plus en plus et OpenAI ne sait pas pourquoi

ChatGPT et d'autres systèmes d'IA commettent de plus en plus d'erreurs, même s'ils deviennent en réalité de plus en plus puissants, selon la conclusion intérimaire inquiétante des développeurs. Selon les tests internes d'OpenAI, le modèle phare GPT o3 hallucine sur un tiers de toutes les questions concernant les personnalités publiques - plus de deux fois plus souvent que son prédécesseur o1. Le modèle 04-mini, plus compact, est encore moins performant avec un taux d'erreur de 48 %. Pour les questions de connaissances plus générales dans le benchmark SimpleQA, les taux d'hallucinations augmentent considérablement jusqu'à 51 % pour o3 et même 79 % pour o4-mini. Ces chiffres sont particulièrement inquiétants car les modèles les plus récents annoncent en réalité des capacités logiques et de raisonnement améliorées. Une explication possible de ce phénomène réside dans le fonctionnement des nouveaux modèles de raisonnement. Contrairement aux systèmes plus anciens qui s’appuient principalement sur des probabilités statistiques, ces modèles tentent de décomposer des problèmes complexes en étapes logiques, de manière similaire à la façon dont les humains penseraient. Comme le rapporte le New York Times , c’est précisément ce processus de réflexion étape par étape qui pourrait devenir un problème. « Les technologies les plus récentes et les plus puissantes – les systèmes de raisonnement d’entreprises comme OpenAI, Google et la start-up chinoise DeepSeek – génèrent davantage d’erreurs, et non moins », explique le journal. À chaque étape de réflexion, le système pourrait introduire de nouvelles erreurs, qui deviendraient alors plus prononcées à mesure que le processus progresse. OpenAI elle-même déclare que des recherches supplémentaires sont nécessaires pour comprendre les causes exactes. « Les hallucinations ne sont pas intrinsèquement plus courantes dans les modèles de raisonnement, bien que nous travaillions activement à réduire les taux d'hallucinations plus élevés que nous avons observés dans o3 et o4-mini », a déclaré Gaby Raila, porte-parole d'OpenAI, au New York Times. Les conséquences de cette évolution sont de grande portée. Les systèmes d’IA sont de plus en plus utilisés dans des domaines tels que l’éducation, la santé et le gouvernement, des environnements où les erreurs peuvent avoir de graves conséquences. Il existe déjà des rapports d'avocats citant des décisions judiciaires inexistantes générées par ChatGPT. Ce phénomène n’est pas entièrement nouveau dans l’histoire de l’intelligence artificielle. Dès les années 1980, les chercheurs ont observé ce qu'on appelle « l'effet Eliza », du nom d'un ancien chatbot , dans lequel les gens avaient tendance à attribuer au système plus de compréhension qu'il n'en possédait réellement. Les problèmes d’hallucinations actuels pourraient être considérés comme une variante moderne de cet effet – à la différence près que les systèmes eux-mêmes « croient » désormais en savoir plus qu’ils n’en savent réellement. (Lire la suite)
  •  

ChatGPT propose un triplé : achats en ligne, recherche WhatsApp et sources multiples. Gratuit, pour tous !

ChatGPT est à nouveau mis à jour et cette fois-ci il le fait en grand : entre les achats en ligne , les sources visibles et une meilleure intégration sur WhatsApp , le chatbot OpenAI devient de plus en plus pratique à utiliser au quotidien. Les nouvelles fonctionnalités sont déjà en cours de déploiement et aucun abonnement n'est requis : elles sont accessibles à tous . Nous pouvons désormais également utiliser ChatGPT pour rechercher et comparer des produits . Nous écrivons simplement ce qui nous intéresse, et cela nous montre des résultats plus complets et plus compréhensibles, comme dans l'exemple ci-dessous. - Cartes visuelles avec images, noms, prix et avis. - Liens d'achat direct , pas de publicité ni d'affiliation. - Données provenant de sources multiples , non influencées par des sponsors ou des préférences. Toutes ces fonctionnalités sont disponibles même en étant déconnecté , donc tout le monde peut les utiliser. C'est un moyen rapide de se faire une idée avant un achat, sans passer d'un site à l'autre mais, comme toujours avec l'IA, il faut lui faire confiance , car les réponses seront toujours très sûres, mais cela ne veut pas dire qu'elles sont sans faille. Une autre nouveauté concerne la vérifiabilité des informations . Lorsque ChatGPT nous donne une réponse, il peut désormais également afficher plusieurs sources pour chaque partie du texte. Ce que cela signifie en pratique : les sources sont mises en évidence au sein de la réponse , et chaque donnée possède une référence précise , de sorte que nous pouvons immédiatement comprendre d'où vient chaque affirmation , et éventuellement aller en savoir plus sur le site concerné. Il s’agit d’un grand pas en avant pour ceux qui souhaitent vérifier des informations ou les utiliser dans des contextes où l’exactitude compte, tout en citant consciencieusement les sources . Mais si nous devions ouvrir le chapitre sur la légitimité des données utilisées pour former ChatGPT maintenant , nous n’en finirions jamais. Depuis l'année dernière, il est possible de discuter avec ChatGPT sur WhatsApp . Nous pouvons désormais envoyer un message au chatbot pour obtenir des réponses à jour et des résultats sportifs en direct. Pour paraphraser, la fonction de recherche Web aurait dû être intégrée à ChatGPT pour WhatsApp, alors qu'auparavant nous ne pouvions nous appuyer que sur la base de connaissances de ce modèle. Certainement un ajout utile, qui met une fois de plus la version WhatsApp de ChatGPT à égalité avec la version standard et relance le défi à Meta AI , qui vient de gagner sa première application . (Lire la suite)
  •  

ChatGPT de plus en plus accessible à tous : Deep Research est désormais également accessible à ceux qui ne paient pas, avec quelques limitations

OpenAI a décidé de rendre Deep Research accessible à un nombre beaucoup plus grand d'utilisateurs. Il s'agit d'une fonctionnalité intégrée à ChatGPT qui vous permet d'obtenir une analyse détaillée sous la forme de rapports bien structurés , utiles pour ceux qui souhaitent aborder des sujets complexes sans perdre de temps à rechercher eux-mêmes des informations. Jusqu'à présent, cette fonctionnalité était réservée uniquement aux abonnés, mais elle est désormais également disponible pour ceux qui utilisent ChatGPT gratuitement, grâce à une nouvelle version plus légère , conçue pour être moins coûteuse à gérer mais toujours efficace. Deep Research est conçu pour vous aider à collecter et à organiser des informations sur n'importe quel sujet. Il peut être utilisé pour préparer une thèse scientifique , analyser un marché ou évaluer des alternatives dans la vie quotidienne, comme choisir une nouvelle ville où déménager ou comprendre quelle routine de peau est la meilleure. Les exemples ne finissent jamais ! Le système utilise deux modèles différents, selon la version active : - o3 pour la version complète, disponible uniquement pour les utilisateurs payants - o4-mini pour la version light, accessible même à ceux qui ne paient pas Les deux modèles fournissent des réponses structurées , mais le modèle léger produit des textes plus courts. OpenAI garantit que la qualité reste élevée , avec des réponses toujours complètes et bien organisées. La disponibilité et les performances de Deep Research varient selon le type d'abonnement sur ChatGPT. Vous trouverez ci-dessous un aperçu clair : - Gratuit : 5 recherches/mois (version allégée uniquement) - Plus et Team : 10 recherches/mois (version complète) + 15 recherches/mois (version light) - Pro : 125 recherches/mois (version complète) + 125 recherches/mois (version allégée) - Entreprise : 10 recherches/mois (version complète uniquement) Une fois la limite de version complète atteinte, ChatGPT passe automatiquement à la version légère, sans plantage ni interruption. Une fois ceux-ci épuisés, il ne reste plus qu'à attendre le mois suivant, alors n'en abusez pas ! (Lire la suite)
  •  

Une station de radio de Sydney utilise une présentatrice IA depuis six mois sans le divulguer

Une station de radio de Sydney utilise une présentatrice générée par l'IA depuis environ six mois sans le divulguer – et n'y était pas légalement obligée. L'animatrice artificielle connue sous le nom de « Thy » est à l'antenne à 11 heures chaque jour de la semaine pour présenter quatre heures de hip-hop, mais à aucun moment pendant l'émission, ni nulle part sur le site Web d'ARN , l'utilisation de l'IA n'est divulguée. Après un premier interrogatoire de Stephanie Coombes dans la newsletter The Carpet , il a été révélé que la station avait utilisé ElevenLabs – une plateforme audio générative d'IA qui transforme le texte en parole – pour créer Thy, dont l'image et la voix ont été clonées à partir d'un véritable employé de l'équipe financière d'ARN. CADA n'est pas la première station de radio à utiliser une présentatrice générée par l'IA. Il y a deux ans, la radio numérique australienne Disrupt Radio a lancé sa propre présentatrice de nouvelles, Debbie Disrupt. Cependant, le fait qu'elle n'était pas une vraie personne était clairement indiqué dès le début. Et en 2023, une station de l'Oregon, aux États-Unis, a utilisé une présentatrice IA, inspirée d'une vraie présentatrice. (Lire la suite)
  •  

Meta élimine Apple Intelligence de toutes ses applications... sur iPhone !

Meta a désactivé les fonctionnalités Apple Intelligence sur Facebook, Instagram , WhatsApp et Threads . Cela signifie que lors de la mise en surbrillance du texte sur Instagram (par exemple), seul « Écrire avec l'IA » apparaît désormais , ce qui lance Meta AI et non plus les outils natifs d'Apple. En l'absence de commentaires officiels, la documentation des développeurs confirme que les fonctionnalités doivent être activées manuellement : il s'agit donc d'un choix délibéré de Meta , et non d'une limitation technique imposée par Cupertino. Précisons qu'à l'heure actuelle, Meta est le seul « grand acteur » que nous connaissons qui a imposé cette contrainte. Les outils Apple Intelligence resteront donc actifs sur d’autres applications tierces, mais il n’est pas exclu que d’autres suivent son exemple. Le résultat est une expérience fragmentée pour ceux qui possèdent un iPhone 15 Pro ou un iPhone 16 , les seuls smartphones compatibles (avec l' iPad Mini 2024 et quelques Mac ), ce qui n'appréciera pas Apple. Après tout, l’intelligence artificielle est un domaine dans lequel chaque grande entreprise technologique souhaite conserver les utilisateurs dans son propre écosystème , surtout maintenant que nous en sommes encore au début et que la fidélité est très importante. Le choix de Meta montre comment les « guerres de l’IA » deviennent la norme : chaque plateforme met en avant son propre assistant propriétaire, limitant l’interopérabilité là où c’est possible. Pour nous, utilisateurs, le défi sera de comprendre quel écosystème privilégier , car les fonctions, les abonnements ou les paywalls pourraient diverger de plus en plus, mais s'il y a une chose que ces premières années d'IA nous ont appris, c'est que les choses peuvent changer radicalement , comme dans le cas des images ChatGPT , d'un jour à l'autre. Et cela ne vous aide certainement pas à décider. (Lire la suite)
  •  

eBay utilise les données des clients pour la formation de l'IA

Depuis le lundi de Pâques, le 21 avril 2025, eBay a mis en place une politique de confidentialité mise à jour. La place de marché en ligne utilise désormais les données personnelles de ses utilisateurs pour former l’intelligence artificielle . Ce que beaucoup ne savent pas : la plateforme avait déjà informé les gens de cela par e-mail en mars - mais avec la note trompeuse « Vous n'avez rien d'autre à faire ». Cette formulation a conduit de nombreux utilisateurs à ne pas reconnaître l’importance du changement. En fait, la collecte de données comprend de nombreuses informations sensibles : noms, adresses, numéros de téléphone, dates de naissance, informations de paiement, détails de transaction et, dans certains cas, même des données d’identification et des selfies. Ce qui est particulièrement explosif, c’est qu’eBay ne se limite pas aux données que les utilisateurs laissent directement sur la plateforme. Conformément à la nouvelle politique de confidentialité, les informations provenant de sources externes seront également liées aux profils des utilisateurs. - Données en ligne accessibles au public - Informations provenant d'agences de crédit - Données des comptes de réseaux sociaux connectés (avec authentification unique) - Informations provenant d'autres fournisseurs d'informations eBay justifie cette collecte exhaustive de données par un « intérêt légitime » à améliorer ses services. L' agence de protection des consommateurs est toutefois critique à cet égard et a souligné les risques possibles. Les défenseurs des consommateurs mettent en garde contre les interprétations erronées des systèmes d’IA. Par exemple, si la faillite d'une personne portant le même nom qu'un utilisateur eBay est mentionnée en ligne, l'IA pourrait attribuer de manière incorrecte cette information au profil de l'utilisateur. Dans le pire des cas, des suspensions de compte ou d’autres restrictions peuvent survenir. (Lire la suite)
  •  

ChatGPT apprend à penser avec des images et à « agir » seul : o3 et o4-mini arrivent

La course aux modèles d'IA s'intensifie : OpenAI vient d'annoncer ses nouveaux modèles de raisonnement o3 et o4-mini , conçus pour réfléchir longuement avant de répondre. Il y a deux innovations notables : une plus grande aptitude à l'autonomie opérationnelle (qui les rend particulièrement adaptés aux fonctions agentiques) et la capacité à penser avec des images . Gemini , Grok , Meta AI , DeepSeek et Claude sont prévenus. OpenAI considère o3 comme son modèle de raisonnement le plus puissant à ce jour, surpassant les modèles précédents lors de tests mesurant les mathématiques, le codage, le raisonnement, les sciences et la compréhension visuelle. OpenAI o4-mini est un modèle plus petit optimisé pour un raisonnement rapide et rentable : selon OpenAI, il représente un compromis compétitif entre prix, vitesse et performances. o3 est particulièrement efficace dans les requêtes complexes qui nécessitent une analyse nuancée et dont les réponses peuvent ne pas être immédiatement évidentes, et fonctionne particulièrement bien dans les tâches visuelles telles que l'analyse d'images , de graphiques et de graphiques. En fait, nous le voyons exceller dans les tests SWE (qui évaluent la capacité à résoudre des problèmes de programmation dans GitHub), Aider Polyglot, MathVista et Humanity's Last Exam, pour n'en citer que quelques-uns. o4-mini a obtenu des résultats particulièrement bons aux tests AIME 2024 et 2025 (qui évaluent la capacité à résoudre des problèmes mathématiques), et a surpassé son prédécesseur sur des tâches non STEM et dans des domaines tels que la science des données. Pour donner quelques chiffres, dans le test SWE-bench (sans échafaudage personnalisé), o3 obtient un score de 69,1%, et o4-mini 68,1%, tandis que Claude 3.7 Sonnet a obtenu 62,3%. Mais les caractéristiques notables de ces modèles vont au-delà des chiffres. Tout d'abord, o3 et o4-mini sont les premiers modèles capables d'utiliser indépendamment tous les outils ChatGPT , tels que la navigation Web, Python, la compréhension et la génération d'images. OpenAI donne un exemple : si vous lui demandez quelle sera la consommation d'énergie dans une zone donnée cet été par rapport à l'année dernière, le modèle peut rechercher sur le Web les données nécessaires, écrire du code Python pour générer une prévision, créer un graphique ou une image et expliquer les facteurs clés derrière la prévision. L’autre nouveauté concerne la capacité de « penser » avec des images. Cela signifie que les utilisateurs peuvent télécharger des images sur ChatGPT, telles que des croquis ou des diagrammes à partir de fichiers PDF, et les modèles analyseront les images pendant leur phase de « chaîne de pensée » avant de répondre. Grâce à cette nouvelle capacité, les o3 et o4-mini peuvent interpréter des images floues et de mauvaise qualité et effectuer des tâches telles que le zoom ou la rotation des images pour mieux les comprendre (un peu comme nous l'avons vu lors du lancement de Gemini 2.0 ). De plus, les nouveaux modèles ont été évalués par le Safety Advisory Group (SAG) d’OpenAI et ne répondent pas au seuil de sécurité pour les capacités en biologie, chimie, cybersécurité ou IA. Le PDG d'OpenAI, Sam Altman, a déclaré que o3 et o4-mini pourraient être les derniers modèles de raisonnement indépendants avant le lancement de GPT-5, un modèle qui, comme GPT-4.1 l'a fait pour les modèles traditionnels, unifiera les modèles de raisonnement. À partir d'aujourd'hui, les modèles, ainsi qu'une variante de o4-mini appelée « o4-mini-high » qui passe plus de temps à fournir des réponses pour améliorer la fiabilité, sont disponibles pour les abonnés aux plans Pro (avec accès illimité), Plus et Team d'OpenAI (tous deux avec une limite de 150 requêtes par jour). Dans les semaines à venir, OpenAI annonce son intention de publier o3-pro , une version d'o3 qui utilise davantage de ressources informatiques pour produire ses réponses, exclusivement pour les abonnés ChatGPT Pro . En plus de ChatGPT, les trois modèles (o3, o4-mini et o4-mini-high) seront disponibles pour les développeurs via l'API Chat Completions et l'API Responses aux prix suivants : - o3 : 10 $ par million de jetons d'entrée (environ 750 000 mots) et 40 $ par million de jetons de sortie - o4-mini : 1,10 $ par million de jetons d'entrée et 4,40 $ par million de jetons de sortie. OpenAI lance également Codex CLI , un agent de programmation léger et open source qui s'exécute localement dans le terminal de l'utilisateur. Pour soutenir les premiers projets, il lance également une initiative d’un million de dollars. Le financement sera accordé en tranches de 25 000 $ sous forme de crédits API. (Lire la suite)
  •  

Il est désormais plus facile de trouver des images générées avec ChatGPT : voici les nouveautés

Une nouvelle fonctionnalité intéressante arrive sur ChatGPT. Le service d'IA populaire vient de disposer d'une nouvelle section dédiée aux images générées par l'IA générative. Au cours des dernières heures, OpenAI a en effet présenté une nouvelle section pour l'application ChatGPT, qui arrive également pour ceux qui utilisent le service sur la plate-forme de bureau . En effet, ChatGPT dispose d'une nouvelle section appelée Bibliothèque , qui rassemble toutes les images générées avec son intelligence artificielle. Cette nouvelle section se compose essentiellement d'une grille de toutes les images que nous avons générées au fil du temps avec le service OpenAI. Son but est de rassembler en un seul endroit toutes les images générées avec ChatGPT, même si elles proviennent de conversations différentes à des moments différents . Dans la section Bibliothèque, nous trouvons également un lien rapide pour commencer à générer des images. Dans l'application ChatGPT, nous le trouvons en bas, tandis que dans la version de bureau, nous le trouvons en haut à droite. Pour accéder à cette nouvelle section Bibliothèque, ouvrez simplement le menu latéral à gauche en le sélectionnant en haut de la liste, juste au-dessus des options d'accès à l'historique des conversations. La même chose se produit lors de l'utilisation de ChatGPT sur le bureau, avec la section Bibliothèque toujours présente dans le menu latéral. La nouvelle fonctionnalité que nous venons de voir est actuellement distribuée automatiquement à tout le monde et est également disponible pour les utilisateurs de Free ChatGPT. (Lire la suite)
  •  

L'IA dégrade la sécurité du code et divulgue trop de secrets d'identification

Je ne m'attendais pas à autre chose.
Et encore : l'article parle surtout de la gestion des secrets (clés d'API par exemple), mais ce n'est pas le seul problème, loin de là. Il n'y a pas un mot sur les autres mauvaises pratiques de développement très problématiques concernant la sécurité : mauvais échappement ou absence d'échappement, réutilisation/dépassements de buffers, non-contrôle des valeurs/nulls, mauvaise gestion des exceptions, fuite de données sensibles dans les logs...  tout un tas de bonnes pratiques à connaître pour la sécurité pour lesquelles on a aucune garantie que les IA respectent.
(Permalink)
  •  

Meta utilisera bientôt nos données pour entraîner son IA : voici ce que c'est et comment s'y opposer

Meta vient d'annoncer qu'elle est sur le point de commencer à former ses modèles d'IA sur les données des utilisateurs de ses applications, y compris dans l'Union européenne. La nouvelle n'est pas nouvelle : déjà lorsque Meta AI est arrivé sur WhatsApp , puis sur Instagram et Facebook (via Messenger), l'entreprise de Mark Zuckerberg avait couvert la situation en expliquant quelles données nous partagerions avec l'outil afin de l'utiliser. Maintenant, la confirmation vient tout simplement d'arriver. À partir de cette semaine, les utilisateurs de Meta commenceront à recevoir des communications dans l'application ou par e-mail sur les données collectées, pourquoi et comment se désinscrire. Sur https://www.facebook.com/privacy/policy , vous trouverez la nouvelle politique de confidentialité mise à jour au 7 avril 2025 et dont les modifications entreront en vigueur à partir du 27 mai 2025. Cela signifie que certaines de nos données seront utilisées pour former ses grands modèles linguistiques. Pour résumer, voici les données que Meta va collecter pour entraîner Meta AI : - WhatsApp : seuls les messages que nous échangeons avec Meta AI ou partageons avec elle sont utilisés - Instagram et Facebook : Cela dépend du contenu. Comme avec WhatsApp, les messages privés ne sont pas utilisés pour former les modèles, mais les conversations avec Meta AI le sont. Le contenu que nous partageons publiquement sur Instagram et Facebook peut plutôt être utilisé pour former l’IA L'année dernière, Meta a bloqué l'arrivée de son IA en Europe pour cette même raison (en raison de l'intervention de la Commission irlandaise de protection des données), et a maintenant reçu le feu vert du Comité européen de la protection des données. Meta réitère que les données des comptes publics des personnes de moins de 18 ans dans l’UE ne sont pas utilisées à des fins de formation. Meta explique qu'elle forme son IA pour l'aider à créer des modèles qui reflètent les régions où ils sont utilisés. Ce processus permet à Meta AI de « comprendre les nuances et complexités incroyables et diverses qui composent les communautés européennes », des dialectes aux connaissances hyperlocales en passant par différents types de sarcasme. La fonctionnalité deviendra encore plus importante à mesure que les modèles deviendront plus avancés , avec des capacités multimodales couvrant le texte, la voix, la vidéo et les images. Ce processus a déjà eu lieu aux États-Unis et en Grande-Bretagne , ainsi que dans tous les autres pays où Meta AI a déjà été lancé. Meta explique également comment ils font essentiellement la même chose que Google et OpenAI ont déjà fait (et continuent de faire) . Il existe deux manières de refuser le partage de vos données avec Meta AI : ne l'utilisez pas et remplissez ce formulaire https://www.facebook.com/help/contact/712876720715583 (vous devez vous connecter à Facebook) pour demander la suppression des données . Entendre que l’IA apprend à partir de nos données n’est jamais agréable. Mais est-ce vraiment une nouvelle ou est-ce si sérieux ? Commençons par le passé : l'année dernière , Meta a admis avoir formé Meta AI avec toutes les données, textes et images que les utilisateurs adultes avaient partagés publiquement sur Facebook depuis 2007. Ainsi, au moins jusqu’en 2024, tout contenu que nous publions sur Facebook a été digéré par Meta AI. C’est ce qui a été reconnu, mais nous savons que l’IA a un énorme besoin de données et au moins jusqu’à récemment, toute entreprise comme OpenAI ou Google a parcouru le Web à la recherche de contenu qui leur permettrait d’améliorer leurs modèles (et de se plaindre ensuite si quelqu’un d’autre faisait de même). Non pas que la démarche de Meta soit agréable, mais la seule façon dont nous disposons pour nous défendre contre ce phénomène est de ne pas utiliser ces outils, ou du moins de les utiliser de manière responsable, conscients de leurs limites et de leur fonctionnement. Et c'est pourquoi l'IA sur appareil (à la fois Apple Intelligence mais surtout des outils comme LM Studio) ou l'IA « éthique » comme Claude (qui n'est malheureusement pas sans défauts dans ce sens non plus) sont de plus en plus importantes. (Lire la suite)
  •  

Bienvenue à GPT-4.1 : voici comment le nouveau modèle d'IA surpasse son prédécesseur

OpenAI vient de dévoiler GPT-4.1 , son nouveau modèle d'intelligence artificielle. Il s’agit d’une nouvelle étape importante pour la célèbre entreprise qui développe l’intelligence artificielle générative. Le nouveau modèle GPT-4.1 diffère de son prédécesseur à plusieurs égards. Sans mâcher ses mots, OpenAI l’a qualifié de meilleur que GPT-4o « dans toutes les dimensions ». Comme illustré lors de la présentation qui a eu lieu en streaming , le nouveau modèle GPT-4.1 surpasse son prédécesseur dans plusieurs contextes. En commençant par la puissance brute, ce nouveau modèle peut traiter jusqu'à un million de jetons de contexte , c'est-à-dire du texte, des images ou des vidéos inclus dans une invite. Une avancée significative si l’on considère que GPT-4o est capable de traiter jusqu’à 128 000 jetons. Avec ce nouveau modèle arrivent GPT-4.1 Mini , un dérivé dédié aux développeurs, et GPT-4.1 Nano , un modèle encore plus léger qu'OpenAI définit comme « le plus petit, le plus rapide et le moins cher » présenté jusqu'à présent. Le nouveau modèle présenté par OpenAI promet également d'être 26 % plus efficace que son prédécesseur, un aspect des modèles d'IA qui devient de plus en plus intéressant dans le paysage. Ce nouveau modèle devrait progressivement remplacer le GPT-4 , lancé il y a deux ans. En regardant encore plus loin, GPT-5 devrait arriver dans « quelques mois » comme le rapporte OpenAI lui-même. Le nouveau GPT-4.1 est déjà disponible pour les développeurs, mais sa date de sortie au public n'a pas encore été annoncée. kA-P9ood-cE (Lire la suite)
  •  

ChatGPT peut désormais se souvenir de ce que vous lui dites, mais il existe des limites

ChatGPT vient de lancer une nouvelle fonctionnalité qui lui permet de mémoriser tous les chats que nous avons échangés avec lui : Historique des chats de référence. Cette nouvelle fonctionnalité rejoint les Mémoires enregistrées actuelles , dont elle diffère sur plusieurs points importants, notamment le fait qu'elle a une capacité illimitée , qu'elle n'est disponible que pour les utilisateurs payants et, du moins pour l'instant, qu'elle n'est pas disponible ici. Le chatbot d'OpenAI a la capacité de mémoriser des informations spécifiques sur les utilisateurs, qui peuvent être des préférences (par exemple, des goûts alimentaires, sportifs ou musicaux) ou des détails sur leur vie. L'historique des discussions de référence fonctionne différemment, dans la mesure où il permet à ChatGPT de se référer à nos conversations passées pour rappeler les « informations utiles » que nous avons partagées. OpenAI explique que le chatbot l'utilise pour en savoir plus sur nos intérêts et nos préférences, contribuant ainsi à rendre les futures discussions plus personnalisées et pertinentes. Une fonctionnalité similaire à celle introduite par Gemini en février 2025 dans Saved Information . Il y a quelques éléments à prendre en compte : L’historique des discussions de référence présente certaines similitudes avec les instructions personnalisées de ChatGPT , dans la mesure où le chatbot est toujours capable d’ajouter de nouvelles informations, mais il est beaucoup plus dynamique que les souvenirs enregistrés. Cela signifie que l'historique des discussions de référence continue de modifier les informations des discussions, dont il ne conserve pas tous les détails. Si vous souhaitez que ChatGPT apprenne des informations spécifiques que vous souhaitez conserver pour toujours (comme la couleur de vos cheveux, si vous êtes végétalien ou si vous avez des enfants), vous devez les écrire dans vos souvenirs enregistrés. Il existe d'autres différences importantes avec les souvenirs enregistrés : contrairement à eux, l'historique des discussions de référence dispose d' une mémoire infinie . Il n'y a aucune limite à ce que ChatGPT peut apprendre sur nous (les souvenirs enregistrés ont une certaine limite). Les utilisateurs ont cependant beaucoup moins de contrôle sur l'historique des discussions de référence : il n'y a aucun moyen de spécifier ce qu'il faut retenir, et pour savoir ce dont ChatGPT se souvient, vous devez demander. À l'inverse, vous pouvez lui dire d'oublier quelque chose lié à une conversation passée (un ami avec qui nous ne sommes plus, par exemple, ou si nous avons changé de ville). À ce propos, il est également possible de supprimer un chat spécifique auquel ChatGPT fait référence – gardez simplement à l’esprit que cela peut prendre quelques jours au chatbot pour supprimer ces souvenirs. Un dernier point concerne la confidentialité : si nous ne voulons pas qu'OpenAI entraîne ChatGPT sur nos souvenirs, nous devons désactiver le paramètre Améliorer le modèle pour tout le monde . Pour ce faire, cliquez sur notre icône de profil (à partir d'un site Web par exemple), sélectionnez Paramètres puis Contrôles des données . Ici, nous cliquons sur l'élément à côté de Améliorer le modèle pour tous et le définissons sur Désactiver. Pour activer ou désactiver l'historique des discussions de référence , vous devez plutôt, toujours à partir des Paramètres, cliquer sur Personnalisation et activer l'historique des discussions de référence (nous imaginons qu'il s'appellera Historique des discussions de référence , mais nous ne l'avons pas encore). Remarque : ceux qui ont activé les souvenirs enregistrés, toujours sur la même page de personnalisations, auront l'historique de discussion de référence activé par défaut. Si les souvenirs enregistrés sont désactivés, l'historique des discussions de référence devra être activé manuellement. Nous arrivons maintenant aux limites de l'historique des discussions de référence . Comme nous l’avons dit, il n’est pas possible de définir en détail ce que l’outil retiendra de nous. De plus, la fonctionnalité est actuellement réservée aux utilisateurs payants (plans Plus et Pro), et bien qu'elle ait été lancée à l'échelle mondiale, elle n'est pas disponible dans l'Espace économique européen (EEE), ainsi qu'au Royaume-Uni, en Suisse, en Norvège, en Islande et au Liechtenstein. Les utilisateurs Team, Enterprise et Education y auront accès « dans quelques semaines ». (Lire la suite)
  •  

Facebook pousse son modèle d'IA Llama 4 vers la droite et souhaite présenter « les deux côtés »

Dans un article de blog consacré à la sortie de Llama 4, le modèle d'IA à pondération ouverte de Meta, l'entreprise affirme clairement que les préjugés constituent un problème qu'elle tente de résoudre. Cependant, contrairement à de nombreuses recherches démontrant que les systèmes d'IA sont plus susceptibles de discriminer les minorités en fonction de leur origine, de leur sexe et de leur nationalité, Meta s'inquiète spécifiquement du penchant politique de gauche de Llama 4. « Il est bien connu que tous les grands masters en droit ont connu des problèmes de préjugés ; ils ont notamment toujours penché à gauche sur les sujets politiques et sociaux débattus », a déclaré Meta sur son blog . « Cela est dû au type de données d'entraînement disponibles sur Internet. » Meta énumère ensuite quelques « améliorations » dans Llama 4, notamment le fait que le modèle refusera désormais moins souvent d'engager les utilisateurs qui posent des questions sur des sujets politiques et sociaux en général, qu'il « est considérablement plus équilibré avec les invites auxquelles il refuse de répondre », et compare favorablement son manque de « forte tendance politique » à Grok, le LLM de xAI qu'Elon Musk promeut continuellement comme une alternative non-woke, « basée » sur des produits comparables d'OpenAI, Google et Anthropic. Si Meta attribue ce biais de gauche aux données de formation, la question la plus importante est de savoir ce que contiennent les données de formation, que Meta ne veut pas partager. Mark Zuckerberg pousse son entreprise et son modèle d'IA vers la droite, d'abord parce qu'il séduit l'administration actuelle, puis parce qu'il se voit en concurrence avec un Elon Musk de plus en plus extrême et à droite. Les systèmes d'IA sont biaisés et ont un impact concret sur la vie des gens, car ils autorisent et renforcent des technologies et des politiques plus populaires auprès des autoritaires et des conservateurs. La plupart des technologies de vision par ordinateur servent en fin de compte à la surveillance , les algorithmes de condamnation discriminant les personnes noires , et l'un des principaux moteurs des images, vidéos et audios générés par l'IA est la diffusion non consensuelle de femmes . Le blog pourrait expliquer ce que Meta fait pour atténuer ces préjudices, mais il ne le fait pas, car pour l'instant, cela ne correspond pas aux positions politiques de Meta et de Zuckerberg. (Lire la suite)
  •