Vue lecture

ChatGPT-4o n'est pas encore mort ! OpenAI fait marche arrière (pour l'instant)

OpenAI a décidé de réintroduire GPT-4o en option pour les abonnés Plus (20 € par mois), une option initialement réservée aux utilisateurs Pro. Initialement, l'entreprise prévoyait de ne proposer GPT-4o qu'aux abonnés de l'offre la plus chère, mais les retours de la communauté ont conduit à une révision immédiate. GPT-4o ne sera pas retiré immédiatement : aucune date officielle n'a été fixée pour son arrêt définitif, mais OpenAI confirme qu'à terme, le modèle sera progressivement abandonné. La raison de ce changement de direction est liée au fait que de nombreux utilisateurs trouvent GPT-4o préférable dans certains scénarios , même si GPT-5, dans les mesures internes, montre des performances globales supérieures. Certains apprécient la rapidité et le ton des réponses de GPT-4o, tandis que d'autres privilégient la puissance de raisonnement accrue du nouveau modèle. La diversité des opinions a convaincu OpenAI de conserver les deux options, du moins pendant la phase d'adaptation. Parallèlement, l'entreprise a annoncé que les abonnés Plus bénéficieront du double du quota d'utilisation de GPT-5 par rapport aux prévisions du lancement. Ce changement coïncide avec la fin du déploiement, qui, selon Sam Altman, est désormais presque entièrement couvert par tous les utilisateurs. Le PDG a toutefois averti que des problèmes de capacité pourraient survenir la semaine prochaine : la demande accrue et l'utilisation intensive des API exercent une pression sur l'infrastructure, et de nouvelles limites temporaires sont donc possibles. Une autre fonctionnalité à venir est la possibilité de personnaliser davantage l'expérience ChatGPT. OpenAI travaille sur des outils permettant d'adapter le ton, le style et les modalités de réponse aux préférences individuelles, avec des exemples allant de l'utilisation d'émojis au niveau de « chaleur » ou de rigueur logique des réponses. Il ne s’agit pas d’une fonctionnalité immédiate, mais d’une partie d’un plan à long terme visant à rendre l’interaction plus adaptée à chaque utilisateur. (Lire la suite)
  •  

ChatGPT arrive dans vos écouteurs : réponses vocales, traductions et notes intelligentes

L'intelligence artificielle générative est sur le point d'entrer littéralement dans nos oreilles . La société allemande Bragi , connue pour ses solutions logicielles audio, a annoncé un partenariat avec OpenAI pour apporter ChatGPT directement aux écouteurs , grâce à un nouvel assistant vocal appelé ChatAI . La promesse est ambitieuse : interagir avec ChatGPT sans smartphone , simplement avec votre voix, où que vous soyez. Le tout avec des temps de réponse instantanés, des traductions en temps réel, des notes vocales intelligentes et même une adaptation audio automatique en fonction du contexte. Et ce n'est pas un concept futuriste : l'application sera disponible dès l'été 2025 . Contrairement à de nombreux concepts vagues ou expériences partielles, le projet de Bragi et OpenAI dispose d'une feuille de route concrète . L'application, baptisée ChatAI , sera disponible à l'été 2025 sous la forme d'une plateforme vocale intégrable à tout casque compatible , à la discrétion des fabricants audio. Il ne s'agit pas d'un appareil unique, mais d'un écosystème ouvert prêt à évoluer. ChatAI est conçu pour offrir une véritable interaction vocale avec ChatGPT , exploitant la puissance du modèle GPT-4.1 . Selon Bragi, l'assistant est capable de comprendre les commandes naturelles, de répondre en temps réel et de gérer les conversations contextuelles , s'adaptant au ton et à l'objectif de l'utilisateur, à la manière d'un assistant personnel intelligent. La reconnaissance vocale locale ajoute à l'attrait de l'application, qui permet de comprendre qui parle sans envoyer de données vocales aux serveurs. Ainsi, la confidentialité est mieux gérée et le système ne répond qu'aux utilisateurs autorisés. Bragi n'est pas un appareil, mais une plateforme intégrable : les fabricants audio (comme JBL, Bose, Sennheiser et d'autres) décideront s'ils l'adopteront ou non, et quand. Cependant, la base logicielle, l'infrastructure cloud et l'accès à l'intelligence artificielle sont déjà en place. ChatAI n’est pas n’importe quel assistant vocal : il est conçu pour exploiter tout le potentiel de GPT‑4.1 , combinant la puissance de l’intelligence artificielle avec la commodité de l’interaction vocale . Son objectif est de rendre l’expérience audio plus personnelle, utile et adaptative, sans avoir besoin de regarder un écran. Voici quelques-unes des principales fonctionnalités : - Créez et enregistrez des notes vocales intelligentes avec transcription automatique - Obtenez des réponses personnalisées en temps réel , même pendant que vous écoutez - Activez les traductions vocales multilingues naturellement - Ajustez l'égalisation sonore en fonction de l'environnement et des préférences de l'utilisateur - Accédez à des rappels contextuels, des invites et des micro-conversations Le système utilise une architecture hybride : une partie de la reconnaissance vocale est effectuée localement , sur l'appareil, pour optimiser la vitesse et protéger la confidentialité, tandis que la génération des réponses est gérée dans le cloud par OpenAI. Cette approche permet des temps de réponse très rapides, même en cas d'instabilité de la connexion. ChatAI peut être invoqué soit avec un mot-clé personnalisable (tel que « Hey Bragi » ou similaire), soit avec un bouton physique sur le casque , pour éviter une activation accidentelle. L'utilisateur peut également désactiver l'assistant à tout moment, ou limiter son utilisation à certains modes, comme la traduction ou les notes rapides. Dans une récente enquête menée par Bragi, 89 % des utilisateurs se sont déclarés prêts à payer environ 25 $ de plus pour un casque équipé de fonctionnalités d'IA comme celles-ci. Un signe clair que le marché est prêt à évoluer, même dans le domaine de l'audio personnel. ChatAI n'est pas lié à un produit spécifique, mais est conçu comme une plateforme logicielle prête à être intégrée . Ainsi, tout fabricant audio peut l'adopter dans ses appareils, qu'il s'agisse de casques, d'écouteurs intra-auriculaires ou de futurs objets connectés vocaux. Bragi a créé l'infrastructure et l'application, mais les marques partenaires décideront du calendrier et des méthodes de mise en œuvre. L'application ChatAI sera lancée à l'été 2025 , initialement disponible en anglais, allemand, français, espagnol et chinois . L'architecture est conçue pour être évolutive , et Bragi ambitionne clairement d'en faire un standard de l'audio intelligent . Entre la reconnaissance utilisateur, la gestion vocale locale et l'accès direct à GPT-4.1, ChatAI a le potentiel de révolutionner notre façon d'interagir avec les casques audio, les transformant de simples accessoires en interfaces intelligentes et autonomes . (Lire la suite)
  •  

PHP 8.5 introduit l’opérateur pipe : une révolution dans le chaînage des fonctions

Prévu pour une sortie le 20 novembre 2025, PHP 8.5 promet une évolution significative pour les développeurs web : l’introduction de l’opérateur pipe (|>). Directement inspiré des paradigmes de la programmation fonctionnelle, cet opérateur vise à améliorer la lisibilité, la maintenabilité et la fluidité du code PHP. À l’image de ce que proposent déjà des langages comme […]

L’article PHP 8.5 introduit l’opérateur pipe : une révolution dans le chaînage des fonctions est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

Gemini copie ChatGPT, car personne n'aime être la « mauvaise » IA.

Il y a quelques jours, ChatGPT a lancé le Mode Étude , une fonctionnalité conçue pour nous accompagner dans l'apprentissage plutôt que de nous fournir des réponses toutes faites. Par coïncidence , Gemini propose désormais une option appelée « Apprentissage guidé », qui fait exactement la même chose. Même le PDG d'Alphabet, Sundar Pichai, l'a annoncé , expliquant comment l'apprentissage guidé agit comme un compagnon d'étude , avec des questions et un accompagnement étape par étape, plutôt que de fournir des réponses complètes. Cette méthode a été étudiée, il est juste de le dire, en collaboration avec des étudiants, des éducateurs et des chercheurs pour s'assurer qu'elle est utile à la compréhension de nouveaux concepts et surtout qu'elle est fiable . Le public cible est large , car cet outil s'adresse aux élèves d'un certain niveau plutôt qu'aux jeunes enfants. Gemini 2.5 Pro permet de comprendre des problèmes mathématiques complexes , des travaux de recherche, des dissertations et, en général, tous les travaux scolaires. Les réponses peuvent également être multimodales , c'est-à-dire avec des images, des vidéos et des quiz interactifs, bien que dans nos courts tests, nous n'ayons jamais réussi à obtenir autre chose que du simple texte, sauf demande contraire. Après tout, aucune entreprise ne veut que son IA soit celle qui rend l’humanité plus stupide , n’est-ce pas ? (Lire la suite)
  •  

ChatGPT-5 arrive : pensez mieux, créez du code plus volumineux et contrôlez le monde (peut-être)

OpenAI annoncera aujourd'hui GPT-5 , sa dernière famille de modèles de langage qui promettent des améliorations du mode agent et surtout la possibilité d'effectuer des tâches de codage complexes même avec des invites très simples. Le lancement est prévu pour 19 heures aujourd'hui, mais un post sur GitHub (déjà supprimé) a gâché la fête pour OpenAI en révélant à l'avance ce qui va arriver. GPT-5 est le modèle le plus avancé d'OpenAI, offrant des améliorations significatives en termes de raisonnement, de qualité du code généré et d'expérience utilisateur. Il gère des tâches de codage complexes avec un minimum d'intervention, fournit des explications claires et introduit des fonctionnalités agentiques améliorées, ce qui en fait un puissant outil de collaboration et un assistant intelligent pour tous les utilisateurs. GPT-5 sera disponible en quatre versions qui, contrairement aux versions actuelles, ne distingueront pas les modèles de raisonnement des autres. En bref, il n'y aura plus de confusion quant au modèle le plus adapté à l'objectif recherché. - gpt-5 : Conçu pour les tâches logiques et à plusieurs niveaux. - gpt-5-mini : une version plus légère pour les applications sensibles aux coûts. - gpt-5-nano : optimisé pour la vitesse et idéal pour les applications nécessitant une faible latence. - gpt-5-chat – Conçu pour des conversations riches, naturelles, multimodales et contextuelles pour les applications d'entreprise. OpenAI ne prend pas de vacances en août : cette semaine, il a déjà dévoilé deux nouveaux modèles open source , qui peuvent fonctionner localement et hors ligne sur de nombreux PC, et avec le lancement d'aujourd'hui, il est prêt à renforcer encore sa position de pionnier dans le domaine de l'intelligence artificielle . (Lire la suite)
  •  

OpenAI lance une intelligence artificielle que vous pouvez utiliser sur votre PC, gratuitement et sans Internet.

OpenAI vient de réaliser une chose qui semblait jusqu'à récemment impensable : elle a publié deux modèles de langage open source , non seulement gratuits , mais utilisables directement sur votre ordinateur , même sans connexion Internet . Une initiative qui pourrait changer notre façon d'interagir avec l'intelligence artificielle au quotidien. Ces nouveaux modèles, appelés gpt-oss-120b et gpt-oss-20b, promettent d'apporter des capacités avancées de raisonnement et de support aux PC domestiques, sans nécessiter de serveurs externes ni d'abonnements . Mais que peuvent-ils réellement faire ? Et surtout, que pouvons-nous réellement en faire, nous, utilisateurs ordinaires, aujourd'hui ? Avec l'annonce de gpt-oss-120b et gpt-oss-20b , OpenAI revient à la publication de modèles de pondération ouverte pour la première fois depuis GPT-2, sorti en 2019. Et il le fait avec style, en mettant à disposition deux modèles de premier ordre , prêts à être téléchargés, modifiés et utilisés indépendamment. Le contexte n'est pas fortuit. Suite à l'essor de concurrents comme DeepSeek et d'autres projets open source de plus en plus performants, OpenAI subit une pression croissante pour proposer une solution véritablement ouverte , et pas seulement via une API payante. D'où gpt-oss. Les deux modèles diffèrent principalement par la taille et les exigences matérielles : - gpt-oss-20b est le plus petit et le plus populaire : il suffit de 16 Go de mémoire (VRAM ou unifiée) pour l'utiliser. Il est conçu pour fonctionner sur des PC grand public, des ordinateurs portables puissants et des Mac Apple Silicon . Il pourrait intéresser ceux qui souhaitent expérimenter localement sans complications. Les résultats sont similaires à ceux d' o3-mini . - Le gpt-oss-120b , en revanche, est réservé à une niche : il nécessite au moins 80 Go de mémoire , et pour obtenir de bonnes performances, il faut une station de travail haut de gamme équipée d'un GPU NVIDIA RTX PRO . Il ne convient pas à tout le monde, mais offre des résultats presque équivalents à ceux de modèles propriétaires comme l'o4-mini . Les deux sont publiés sous la licence Apache 2.0 , ils sont donc totalement libres de restrictions, même pour une utilisation commerciale . De plus, ils ont déjà été adoptés par des partenaires tels que Microsoft , Hugging Face, Snowflake et bien d’autres pour être intégrés dans des plateformes de développement et des environnements sur site. Cette ouverture n'est pas seulement symbolique : c'est une invitation concrète à créer, personnaliser et expérimenter , même sans avoir recours aux serveurs d'OpenAI. Et surtout, c'est un message fort : l'intelligence artificielle avancée peut aussi être un outil gratuit et personnel , et non un simple service à distance payant. L'aspect le plus intéressant de cette version, comme nous l'avons déjà souligné, est que gpt-oss-20b peut fonctionner sur un ordinateur standard , même sans connexion Internet. Et nul besoin d'être un développeur expert. Le principal inconvénient est qu'il nécessite au moins 16 Go de mémoire vidéo (VRAM ou unifiée), un seuil que de nombreux PC de jeu , stations de travail légères et Mac équipés de puces M1 Pro, M2 Pro ou supérieures peuvent facilement atteindre. Compatible avec Windows, macOS et Linux , il est déjà intégré à des outils tels qu'Ollama , une application gratuite permettant d'interagir avec le modèle via une interface simple, llama.cpp , pour ceux qui recherchent un meilleur contrôle et des performances élevées, même sur des systèmes plus anciens, ou Microsoft AI Foundry Local , une alternative plus professionnelle, utile pour ceux qui développent des applications avec des modèles locaux. Toutes ces solutions fonctionnent localement , ce qui signifie qu'elles n'ont pas besoin d'envoyer de données à des serveurs externes. C'est idéal si vous souhaitez expérimenter l'IA sans abonnement, sans limite d'utilisation et avec un meilleur contrôle de la confidentialité. (Lire la suite)
  •  

Alexa insérera bientôt des publicités subtiles dans les conversations

Amazon prévoit d'intégrer la publicité dans les conversations avec son assistant Alexa. Le PDG Andy Jassy a déclaré aux investisseurs que les recommandations de produits seront naturellement intégrées aux conversations pour augmenter les revenus de l'entreprise. Jusqu'à présent, les publicités se limitaient à des bannières ponctuelles sur les écrans Echo Show ou à des spots préenregistrés entre les morceaux de musique. Cependant, Jassy imagine des recommandations de produits générées par l'IA intégrées de manière transparente aux conversations naturelles. Ces recommandations devraient aider les utilisateurs à découvrir de nouveaux produits tout en générant davantage de ventes pour Amazon. L'offre Alexa+ est actuellement disponible exclusivement aux États-Unis et coûte 19,99 $ (environ 17,50 €) par mois en abonnement individuel, mais est gratuit pour les membres Prime. (Lire la suite)
  •  

ChatGPT Go : OpenAI travaillerait sur un abonnement moins cher

OpenAI travaillerait apparemment sur un nouveau modèle d'abonnement pour ChatGPT. Les premières traces de la nouvelle offre sont apparues sous forme d'extraits de code sur Platform X. Selon le rapport, le terme « ChatGPT Go » apparaît désormais caché dans l'application web. Cette découverte a rapidement suscité des spéculations sur les fonctionnalités et les tarifs possibles. Il est probable qu'OpenAI s'inspire des variantes « Go » existantes pour le nom et le design de la nouvelle offre, telles que YouTube Go, Maps Go ou Android Go. Ces produits sont généralement destinés aux utilisateurs ayant des exigences de performances moindres ou un budget limité. ChatGPT Go sera probablement une version allégée, probablement sans accès au dernier modèle GPT 4, mais avec des fonctionnalités améliorées par rapport à l'offre gratuite, comme des réponses plus rapides et une limite de requêtes plus élevée. Les estimations de prix se situent entre 10 et 15 $ par mois. Ce nouveau forfait serait nettement inférieur à l'offre Plus actuelle et offrirait une alternative aux utilisateurs qui trouvent 20 $ trop cher, mais souhaitent tout de même plus que les fonctionnalités de base. Un forfait à 5 $ est également envisageable. (Lire la suite)
  •  

ChatGPT lance enfin un mode qui ne nous rendra pas tous plus stupides.

Ces derniers jours, on a beaucoup parlé de l’un des aspects les plus négatifs de l’IA , à savoir le fait qu’elle pourrait rendre l’humanité plus stupide . Nous n'exagérons pas ; il existe plusieurs études sur le sujet, dont une du MIT , ou des articles comme celui-ci publiés dans le Wall Street Journal . L'idée de base est très simple : si nous déléguons le raisonnement à autre chose qu'à notre cerveau, celui-ci dépérit . Nous n'entraînons pas sa mémoire, sa créativité et son esprit critique, ce qui finit par le rendre plus bête. C'est en quelque sorte le revers de la médaille de la paresse , sous toutes ses formes. Eh bien, c'est peut-être une folle coïncidence, mais OpenAI a annoncé une nouvelle fonctionnalité qui vise en quelque sorte à contrer ce risque : le mode étude de ChatGPT . Ici aussi, l'idée est très simple. En activant l'outil « Étudier et apprendre » dans ChatGPT, nous n'obtiendrons pas de réponse toute faite, mais plutôt de l' aide pour faire nos devoirs , préparer un examen ou, plus généralement, approfondir un sujet . Dans ce mode, les réponses de ChatGPT sont beaucoup plus interactives. L'IA n'écrit pas de « discours » pré-écrit, mais crée une réponse adaptée au niveau de connaissances de l'utilisateur (par exemple, niveau collège, lycée ou université). C'est interactif, et nous devons également participer à sa construction, par exemple en répondant à des questions. Au lieu de faire le travail à leur place, explique OpenAI, Study Mode encourage les étudiants à réfléchir de manière critique à leur processus d'apprentissage . À la fin, il peut également y avoir des quiz et des questions ouvertes , à la fois pour suivre les progrès et pour aider davantage les étudiants (en particulier les étudiants universitaires) à mémoriser les concepts clés et à les appliquer. OpenAI promet également que ce n'est qu'une première étape : à l'avenir, ce comportement sera intégré dans les principaux modèles, mais en attendant, de nouvelles fonctionnalités pour le mode d'étude lui-même pourraient également arriver, comme une définition plus claire des objectifs et un suivi des progrès, ainsi qu'une plus grande personnalisation en fonction du profil de chaque étudiant. Après tout, ni OpenAI ni quiconque impliqué dans le développement d'outils d'IA ne voudrait d'un discours accusant ces mêmes outils de constituer une forme de démence de masse , n'est-ce pas ? Pour cette seule raison, nous ne doutons pas outre mesure des affirmations de l'entreprise à cet égard. Si vous souhaitez tester le mode étude, il est déjà disponible pour les utilisateurs de ChatGPT, même les utilisateurs gratuits . Bien entendu, les restrictions habituelles d'utilisation du service s'appliquent. (Lire la suite)
  •  

From XML to JSON to CBOR - The CBOR, dCBOR, and Gordian Envelope Book

Après XML et json, CBOR se veut un autre standard d'échange de données structurées. Ce format est binaire, mais du coup très compacte et efficace, et surtout très bien adapté à l'informatique embarquées (IoT).
(Par contre je me demande pourquoi tout le monde continue à snober SQLite comme format d'échange. C'est structuré (et même indexé), binaire et assez efficace en stockage.)
(Permalink)
  •  

Lyft va lancer des bus autonomes de 15 passagers

Lyft s'apprête à lancer un nouveau service de navettes autonomes en partenariat avec Benteler Mobility. Fin 2026, Lyft lancera des navettes Holon Urban 100 % électriques dans les aéroports et les villes des États-Unis, où les utilisateurs pourront réserver des courses via une application mobile. Holon, filiale de Benteler, a développé ce minibus rectangulaire et autonome pouvant accueillir 15 passagers. Le véhicule atteint une vitesse maximale de 60 km/h (37 mph) et son contrôle autonome est assuré par une combinaison de lidar, de radar et de 11 caméras. Holon Urban est équipé de la technologie de pilotage automatique de niveau 4, ce qui signifie qu'il peut se déplacer sans conducteur, même s'il ne peut pas encore maîtriser les commandes dans toutes les conditions. Le système s'appuie sur la plateforme de conduite autonome de Mobileye (propriété d'Intel), avec laquelle Lyft s'associe également pour lancer des robotaxis l'année prochaine. Toutes ces initiatives devraient permettre à Lyft de rivaliser avec son concurrent Uber, qui s'est récemment associé à Lucid et Nuro pour déployer 20 000 robotaxis à travers le pays. De fait, les transports en commun sont un problème bien connu aux États-Unis : les bus sont obsolètes, circulent selon des horaires irréguliers et sont souvent excessivement chers. L'entreprise souhaite donc intégrer son véhicule à ce marché mal desservi afin de développer le segment des taxis et des transports en commun autonomes. C'est une initiative très intéressante. (Lire la suite)
  •  

Votre jeu préféré vous ment (et c'est fait exprès) - YouTube

Résumé de la vidéo sur les secrets techniques du multijoueur en jeu vidéo

1. La prouesse technique du multijoueur

  • Les jeux vidéo multijoueurs, bien qu’ils paraissent aujourd’hui ordinaires, sont une véritable prouesse technique à cause de la difficulté majeure : la latence.
  • Faire cohabiter plusieurs joueurs dans une même partie nécessite des astuces et contournements côté développement afin de minimiser la perception des problèmes.

2. De l’hébergement local aux serveurs dédiés

  • À l’origine, les jeux utilisaient le système de “host” : un joueur hébergeait la partie sur son ordinateur, et tous les autres s’y connectaient (comme Minecraft ou les LAN parties d’avant).
  • Ce système posait des problèmes d’équité et de triche : l’hôte avait zéro latence et pouvait modifier son jeu ; si l’hôte quittait, la partie s’arrêtait.
  • Les studios ont donc basculé vers les serveurs dédiés : un serveur officiel gère la logique du jeu, garantissant que tous les calculs essentiels (dégâts, déplacement, etc.) sont faits côté serveur et non côté joueurs, limitant la triche.

3. Latence : un problème insoluble ou presque

  • Malgré les serveurs, la latence reste présente et affecte le ressenti : un tir réussi côté joueur peut ne pas l’être côté serveur si la cible s’est déplacée entre-temps, entraînant “l’oreg” (absence de reconnaissance de tir).
  • Les jeux doivent choisir qui avantager : souvent, pour minimiser la frustration, ils privilégient le tireur plutôt que la cible, sauf dans certains contextes (ex. zone d’effet où on protège la victime).

4. Astuces pour masquer la latence

  • Les développeurs utilisent des techniques comme :
    • Rembobiner le temps côté serveur lors d’une action, pour simuler la vision du joueur au moment réel où il a déclenché l’action.
    • Simulation côté client : le jeu accepte immédiatement l’action du joueur (ex : lancer un sort), puis le serveur vérifie et, si nécessaire, annule a posteriori l’action (ce qui peut entraîner des corrections visuelles et de gameplay).
  • Ce sont des “tricheries” volontaires pour rendre l’expérience fluide : annulation douce des incohérences, ajustements des positions, etc.

5. Les limites et la gestion de la triche

  • La distinction entre triche et problème réseau est parfois floue, nécessitant des analyses statistiques pour détecter des comportements abusifs.
  • Les cheats type “wall hack” (voir à travers les murs) sont parfois techniquement impossibles à éradiquer sans dégrader l’expérience des joueurs à cause de la latence (affichage instantané des ennemis visibles).

6. Exemples de cas complexes

  • Les jeux comme Overwatch construisent leur propre moteur réseau et doivent gérer des situations complexes où le temps, la position et les interactions varient d’un joueur à l’autre.
  • Chaque type d’interaction (tir, déplacement, zone d’effet) nécessite une adaptation spécifique du code réseau, ce qui explique la charge de travail immense pour rendre un jeu multijoueur compétitif.

7. Pourquoi les petits studios ne font pas de gros jeux multi compétitifs

  • Le “netcode” (la gestion du réseau) représente environ 40 % du travail total pour un jeu multijoueur compétitif : beaucoup d’aspects sont à coder à la main, contrairement à des jeux plus simples où des briques toute faites suffisent.
  • Cela explique pourquoi il faut de grandes équipes sur plusieurs années, contrairement à Minecraft développé seul.

8. Message additionnel

  • La vidéo contient aussi une annonce pour rechercher un monteur vidéo pour la chaîne.

En synthèse :
Le multijoueur est un domaine d’astuces techniques sophistiquées, requérant des arbitrages constants entre expérience utilisateur et justice compétitive, avec une part importante du développement dédiée à masquer la latence et à limiter la triche. Les grandes équipes derrière les gros jeux sont nécessaires à cause de cette complexité invisible pour le joueur.


Permalien
  •  

Le nouvel agent ChatGPT est un organisateur d'événements, un personal shopper et bien plus encore

L'agent ChatGPT a été créé pour effectuer des tâches complexes de manière autonome , en combinant les fonctionnalités de navigation Web et de recherche approfondie déjà connues avec une nouvelle capacité opérationnelle : celle d'utiliser un ordinateur virtuel, simulant une interaction avec un navigateur pour effectuer des tâches concrètes. Contrairement au ChatGPT traditionnel, qui répond par du texte ou des images, l'agent peut effectuer des actions concrètes , comme effectuer des recherches en ligne, remplir des formulaires, préparer des documents ou effectuer des achats. Pour mieux comprendre ce phénomène, OpenAI a présenté quelques cas d'utilisation qui donnent une idée de la polyvalence de ce nouvel outil : - Organisation d'événements : d'un dîner à thème inspiré du Roman des Trois Royaumes à la réservation d'un traiteur de mariage, l'agent peut planifier, contacter les fournisseurs et gérer les réservations. - Achats intelligents : recherchez sur Etsy une lampe spécifique selon des paramètres précis (prix, style, notes) et fournissez des liens directs pour comparer les options. - Planification de voyages de groupe : « Sélectionnez des complexes hôteliers dans un rayon de deux heures de Bangkok avec des repas de la ferme à la table et des activités récréatives, en vérifiant la disponibilité pour 40 personnes. » - Analyse de marché et création de présentation : « croise les données provenant de sources telles que Speedtest et Cable.co.uk pour évaluer l'accessibilité du haut débit dans différents pays, crée des diapositives pour chacun et un résumé comparatif. » Le véritable changement est qu'il ne se contente pas de suggérer , il exécute : il peut procéder au paiement sur un site e-commerce, planifier un rendez-vous ou générer une présentation prête à télécharger . L'inconvénient est que, compte tenu de la complexité et de l'ampleur des tâches, il devient plus difficile d'évaluer la qualité des résultats et la présence d'hallucinations . Sommes-nous certains que les complexes hôteliers que nous avons choisis à deux heures de Bangkok correspondent le mieux à nos critères ? Et l'analyse du marché du haut débit sera-t-elle précise ? C'est vrai à chaque fois que nous déléguons une tâche à quelqu'un d'autre, car cela revient à « déléguer » ce que nous faisons avec l'agent ChatGPT. La différence avec un humain est que l'IA n'a pas conscience de ses propres erreurs , et le niveau de confiance que nous pouvons développer envers un collègue qui travaille avec nous depuis des années est peu susceptible d'être atteint par l'intelligence artificielle . Du moins pour l'instant. Avec l’arrivée d’un outil aussi puissant, OpenAI a clairement indiqué dès le départ que la sécurité était une priorité . L'agent ChatGPT n'agit jamais de manière autonome sur des activités sensibles : toute opération impliquant des données personnelles, des paiements ou l'envoi d'e-mails nécessite le consentement explicite de l'utilisateur. De plus, l'agent est conçu pour rejeter les tâches à haut risque , telles que les transactions financières, les conseils juridiques ou les actions malveillantes. Lorsqu'il reçoit des requêtes ambiguës ou potentiellement dangereuses, il alerte l'utilisateur et maintient toujours l'humain au centre du contrôle . Grâce à ses capacités avancées, l'agent adopte des mesures de sécurité conçues pour les environnements à haut risque , tels que les environnements biologiques ou chimiques. Bien qu'il n'existe aucune preuve que le modèle puisse être utilisé à des fins dangereuses par des utilisateurs inexpérimentés, OpenAI a décidé de procéder avec prudence, en intégrant : - modélisation avancée des menaces, - classificateurs actifs pour détecter les utilisations inappropriées, - systèmes de surveillance du raisonnement en temps réel, - des pipelines d’intervention prêts à bloquer les comportements indésirables. Le lancement a débuté au Royaume-Uni et est actuellement disponible pour les utilisateurs Pro, Plus et Team . En Europe, OpenAI attend encore la finalisation de certaines vérifications réglementaires et annoncera prochainement une date officielle d'activation. La course à l'IA continue littéralement, et aussi formidable soit-il de constater ses progrès rapides, on ne peut s'empêcher de se demander s'il ne serait pas parfois préférable de faire une pause , de prendre une grande inspiration et de réfléchir un peu avant d'aller de l'avant. Juste au cas où nous aurions les yeux plus gros que le ventre . (Lire la suite)
  •