Le paysage de l’intelligence artificielle évolue rapidement, et une tendance intrigante est en train d’émerger. Le battage médiatique entourant « l’intelligence artificielle générale » est éclipsé par un accent croissant sur les expériences IA personnalisées. Ce changement n’est pas juste une phase passagère ; il signifie un changement crucial dans la façon dont nous percevons […]
Trois mois après le lancement controversé de GPT-5, OpenAI le remplace par un nouveau modèle : GPT-5.1. Plusieurs versions sont une nouvelle fois proposées, avec ou sans raisonnement.
Vous saviez que Claude d’Anthropic avait lancé sa fonction
Computer Use
et OpenAI son
Operator
? Eh bien, pendant que ces géants se livrent une bataille sans merci, un projet open source du nom de ByteBot propose de faire tourner un agent IA autonome sur votre machine. Le tout, avec une approche qui devrait rassurer les plus paranoïaques d’entre nous puisque tout se déroule dans Docker.
Le concept c’est qu’au lieu d’accorder un accès direct à votre système à une IA (ce qui pourrait rapidement virer au cauchemar), ByteBot fait tourner un Ubuntu 22.04 complet avec environnement graphique XFCE dans un conteneur. Ainsi, l’IA peut interagir avec cet environnement isolé via VNC et WebSockets, capturer des images d’écran, cliquer, taper du texte… En somme, elle peut faire tout ce que vous feriez, mais dans sa petite bulle sécurisée.
Je vous ai fait une vidéo tuto dessus ! Et c’est grâce aux Patreons qui me soutiennent, alors merci à eux !
Il faut donc lui donner vos instructions en langage naturel… par exemple, vous pouvez lui demander de créer un nouveau repository GitHub ou de rechercher des informations spécifiques sur le web. ByteBot analyse alors votre demande, la décompose en étapes et se met au boulot. Il peut même naviguer sur le web, remplir des formulaires, gérer des mots de passe (stockés de manière sécurisée), et bien sûr exécuter des scripts bash ou Python.
Le truc cool, c’est également le mode “takeover”. Si jamais ByteBot galère sur une tâche ou que vous voulez reprendre la main, vous pouvez directement prendre le contrôle du desktop virtuel. C’est comme faire du pair programming avec une IA, sauf que c’est vous qui corrigez ses bêtises au lieu de l’inverse. Et une fois que vous avez montré comment faire, ByteBot apprend et peut reproduire la tâche plus tard.
Pour l’installer, plusieurs options s’offrent à vous. La plus simple reste Docker Compose. Vous clonez le repo, vous créez un fichier .env avec votre clé API (Anthropic, OpenAI ou Google Gemini au choix), et vous lancez le tout avec un docker-compose up. ByteBot se charge de builder les images, de configurer le réseau bridge pour l’isolation, et de monter les volumes persistants pour garder vos données entre les sessions.
git clone https://github.com/bytebot-ai/bytebot.git
cd bytebot
# Ajoutez votre clé de fournisseur d'IA (choisissez-en une)
echo "ANTHROPIC_API_KEY=sk-ant-..." > docker/.env
# Ou : echo "OPENAI_API_KEY=sk-..." > docker/.env
# Ou : echo "GEMINI_API_KEY=..." > docker/.env
docker-compose -f docker/docker-compose.yml up -d
# Ouvrez http://localhost:9992
Pour les amateurs de Kubernetes, des charts Helm sont également disponibles. Et si vous voulez tester sans vous prendre la tête, Railway propose aussi un déploiement en un clic. Mais franchement, pour un usage perso, Docker Compose fera parfaitement le job.
L’architecture technique est d’ailleus plutôt bien foutue puisque le backend Python gère la communication avec les LLMs et l’orchestration des tâches. Et le frontend React vous donne une interface web pour interagir avec ByteBot et voir ce qu’il fabrique en temps réel. Le tout communique via WebSockets pour une latence minimale. Et le conteneur desktop tourne avec un serveur VNC modifié qui permet à ByteBot de capturer l’écran et d’envoyer des événements souris/clavier.
Ce qui distingue vraiment ByteBot des solutions cloud comme Claude Computer Use, c’est surtout le côté self-hosted et privacy-first. Vos données restent chez vous, l’IA ne peut pas fouiner dans vos vrais fichiers système, et vous gardez un contrôle total sur ce qui se passe. En plus, comme c’est open source, vous pouvez auditer le code, contribuer des améliorations, ou même forker le projet si l’envie vous prend.
Les cas d’usage sont très nombreux : Automatisation de tâches répétitives, tests d’interfaces web, scraping de données complexes, ou même apprentissage par démonstration pour créer vos propres workflows automatisés. J’imagine déjà les possibilités pour automatiser des installations de logiciels, des configurations système, des processus de CI/CD un peu tordus ou juste faire ma compta.. ^^
Niveau limitations, ByteBot reste dépendant de la qualité du modèle IA que vous utilisez. Claude 4 Sonnet semble donner les meilleurs résultats pour l’instant, mais GPT-4 et Gemini Pro fonctionnent aussi. Les tâches nécessitant beaucoup de contexte visuel ou de manipulation précise peuvent encore poser problème. Et évidemment, faire tourner un desktop complet dans Docker consomme pas mal de ressources.
Si vous voulez pousser plus loin, ByteBot expose aussi une API REST complète. Vous pouvez donc créer des tâches programmatiquement, récupérer les logs, gérer les sessions, et même étendre les capacités avec des plugins custom. La doc est bien fournie avec des exemples en Python, JavaScript et même cURL pour les puristes.
from bytebot import ByteBotClient
client = ByteBotClient(api_key="your-key")
task = client.create_task("Effectue une recherche web")
result = client.wait_for_completion(task.id)
print(result.output)
Et pour la sécurité,
ByteBot implémente plusieurs garde-fous
. Les conteneurs sont isolés du réseau host par défaut, les capabilities Docker sont limitées au strict minimum, et un système de permissions permet de restreindre ce que l’agent peut faire. Vous pouvez même configurer des règles pour bloquer l’accès à certains sites ou empêcher l’exécution de commandes spécifiques.
Un aspect que j’apprécie particulièrement, c’est la gestion des erreurs. Quand ByteBot se plante (et ça arrive !), il génère des rapports détaillés avec captures d’écran, logs des actions tentées, et suggestions pour résoudre le problème. C’est super pratique pour debugger et améliorer vos prompts.
Une bonne petite communauté commence à se former autour du projet. Un Discord actif, des contributions régulières sur GitHub, et même quelques extensions communautaires qui ajoutent le support pour d’autres LLMs ou des intégrations avec des outils comme Zapier ou n8n. Bref, c’est un projet qui évolue vite, avec des releases toutes les deux semaines environ.
Comparé à ses concurrents, ByteBot se positionne vraiment sur le créneau open source et self-hosted là où OpenAI et Anthropic proposent des solutions cloud propriétaire. C’est, si vous préférez, le Nextcloud des agents IA autonomes.
Après pour ceux qui s’inquiètent des implications éthiques et de sécurité de laisser une IA contrôler un ordinateur, ByteBot apporte à cela des réponses pragmatiques. L’isolation Docker, le mode takeover pour reprendre la main, et la possibilité d’auditer chaque action effectuée permettent de garder un œil sur ce que fait l’agent. C’est bien sûr loin d’être parfait, mais c’est un bon compromis entre automatisation et contrôle.
Donc si vous êtes du genre à automatiser tout ce qui peut l’être, ByteBot mérite vraiment le coup d’oeil. C’est encore un peu but sur les bords, mais le potentiel est énorme. Pour aller plus loin, je vous invite à consulter la
documentation complète ici
, et le
code source sur GitHub
.
PcComponentes aborde la période du Black Friday sous le signe de l’agressivité, avec des tarifs rabotés sur la plupart des cartes graphiques de son catalogue, dont les très recherchés GPU Nvidia de dernière génération.
Dans la réglementation européenne, les « données à caractère personnel » seront peut-être bientôt une notion moins absolue.
L’omnibus numérique, que Bruxelles doit présenter la semaine prochaine, va en tout cas dans ce sens. Tout du moins si on en croit le brouillon qui a filtré.
À l’heure actuelle, le RGPD définit les données personnelles comme toute information se rapportant à une personne physique identifiée ou identifiable.
L’omnibus numérique impose d’apprécier la notion du point de vue de chaque entité : des informations n’ont pas de caractère personnel pour qui ne peut pas identifier la personne concernée à l’aide de moyens raisonnables. De même, elles ne le deviendraient pas du point de vue de cette même entité simplement parce qu’un destinataire ultérieure aurait raisonnablement les moyens de réaliser cette identification.
Traitement de catégories particulières de données : une exception à la faveur des systèmes d’IA
L’omnibus numérique modifierait une autre définition inscrite dans le RGPD : celle des « données concernant la santé ». Il ne s’agirait plus que de celles qui révèlent « directement » des informations sur l’état de santé d’une personne.
La même approche serait adoptée pour amender l’article 9 (traitement de catégories particulières de données personnelles). Ne serait plus interdit que le traitement de données personnelles révélant « directement » l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques, etc.
En l’état, cette interdiction ne s’applique pas si certaines conditions sont remplies. Par exemple, l’obtention d’un consentement explicite ou une nécessité pour la sauvegarde des intérêts vitaux de la personne concernée.
L’omnibus y ajoute deux possibilités, dont une touchant au développement et à l’exploitation de systèmes d’IA. Ce à condition d’avoir mis en place les mesures techniques et organisationnelles appropriées pour éviter autant que possible la collecte de catégories particulières de données personnelles. Et, le cas échéant, de supprimer ces données ou d’éviter qu’elles alimentent des outputs, soient divulguées ou soient rendues accessibles à des tiers.
Un allégement des exigences d'information des personnes concernées
L'omnibus numérique amenderait aussi l'article 13 (informations à fournir lorsque des données personnelles sont collectées auprès de la personne concernée).
Actuellement, les dispositions ne s'appliquent pas lorsque la personne concernée dispose déjà de ces informations.
À l'avenir, elles ne s'appliqueraient pas dès lors que les collectes seraient effectuées dans le cadre d'une relation "claire et délimitée" par un responsable de traitement exerçant une activité "non intensive en données". Et qu'il existe des motifs raisonnables de supposer que la personne connaît déjà les finalités et la base juridique du traitement, ainsi que l'identité et les coordonnées du responsable.
Tout cela ne vaudrait pas si les données étaient transmises à d'autres destinataires ou catégories de destinataires, transférées vers des pays tiers, exploitées pour de la décision automatisée, ou si le traitement pose un risque élevé pour les droits et libertés des personnes concernées.
De "interdit sauf si" à "autorisé sauf si" : une tournure plus favorable aux décisions individuelles automatisées
La décision individuelle automatisée (article 22) évoluerait aussi en conséquence de l'omnibus numérique.
Actuellement, il est établi que la personne concernée a le droit de ne pas faire l'objet d'une décision fondée exclusivement sur un traitement automatisé produisant des effets juridiques la concernant ou l'affectant de manière significative de façon similaire. Ce droit ne s'applique pas lorsque la décision est :
Nécessaire à la conclusion ou à l'exécution d'une contrat
Autorisée par le droit de l'UE ou de l'État membre auquel le responsable de traitement est soumis
Fondée sur le consentement explicite de la personne concernée
Le fond ne changerait pas. Mais la forme, si, au profit d'une rédaction de type "traitement automatisé autorisé sauf si...".
Violations de données personnelles : notifications restreintes et délai allongé
Un autre assouplissement est prévu sur l'article 33.
Celui-ci impose actuellement aux responsables de traitement de notifier les violations de données personnelles à l'autorité de contrôle référente sous 72 heures.
L'omnibus numérique cette obligation aux violations engendrant un risque élevé pour les droits et libertés de personnes physiques. Il porterait par ailleurs le délai à 96 heures.
Les autorités de contrôle n'établiraient plus leur liste d'AIPD
La conception de listes des types d'opérations de traitement exigeant une AIPD (analyse d'impact préalable) est actuellement à la charge des autorités de contrôle, qui les communiquent aux Comité européen de la protection des données.
L'omnibus numérique supprimerait cet échelon : la liste serait directement élaborée par ledit comité, qui la transmettrait à la Commission européenne.
Traitements de données au travail : un cadre précisé pour les données des terminaux
L'article 88, relatif au traitement des données dans le cadre des relations de travail, n'évoluerait pas en lui-même. Mais trois articles 88a, 88b et 88c viendraient le compléter.
L'article 88a encadrerait le traitement de données personnelles stockées sur ou provenant de terminaux. Il l'autoriserait s'il est nécessaire pour :
Acheminer une communication électronique
Fournir un service explicitement demandé par la personne concernée
Agréger des infos sur l'usage d'une service en ligne afin de mesurer son audience
Maintenir ou restaurer la sécurité d'un service demandé par la personne concernée ou du terminal utilisé pour fournir ce service
Pour toutes autres finalités, les traitements auraient à respecter les bases légales énoncées à l'article 6 du RGPD et éventuellement l'article 9 (catégories particulières de données personnelles). Un éventuel consentement devrait pouvoir être manifesté par un clic sur un bouton "ou par des moyens équivalents". Le responsable de traitement aurait à respecter ce choix pour au moins 6 mois.
Une (énième) perspective d'expression automatisée du consentement
L'article 88b ouvre la voie à une expression du consentement de manière automatisée et lisible par la machine. Une solution que l'UE explore depuis bien longtemps : un amendement de 2009 à la directive ePrivacy avait déjà encouragé un tel mécanisme, notamment par l'intermédiaire des paramètres de navigateur web.
Une fois les normes harmonisées établies, les responsables de traitement auraient 6 mois pour faire en sorte que leurs services gèrent ces signaux. Les médias - tels que définis dans l'European Media Freedom Act de 2024 - n'y seraient pas tenus, "vu l'importance que les revenus publicitaires représentent pour eux".
En cas d'adoption insuffisante par les fournisseurs de navigateurs web et de systèmes d'exploitation, la Commission européenne aurait le pouvoir de les contraindre par actes délégués.
L'article 88c concernerait les traitements dans le contexte du développement et de l'exploitation de systèmes d'IA. Ils les autoriserait s'ils sont nécessaires au sens de l'article 6(1)(f). C'est-à-dire au nom des intérêts légitimes du responsable de traitement ou d'un tiers, à moins que ne prévalent les intérêts ou les libertés et droits fondamentaux de la personne concernée.
Le fondateur de SoftBank, Masayoshi Son, a une nouvelle fois surpris le monde de la finance. Connu pour ses paris spectaculaires, l’entrepreneur japonais a décidé de revendre l’intégralité de sa participation dans Nvidia, évaluée à 5,8 milliards de dollars, afin de réinvestir massivement dans l’intelligence artificielle. Une décision audacieuse qui a immédiatement ébranlé les marchés ... Lire plus
Un lundi matin apparemment ordinaire, le chaos a éclaté au lycée Bellaire au Texas. Les étudiants ont été évacués en raison d’une alarme incendie, que beaucoup croyaient au départ n’être qu’un exercice de routine. Cependant, l’anxiété a augmenté lorsqu’une image générée par une IA suggérant un incendie sérieux à l’école a commencé à circuler parmi […]
Should I stay or should I go ? Voilà plusieurs mois que la question trotte dans la tête de Yann LeCun, scientifique en chef de l’intelligence artificielle chez Meta depuis 2013.
Selon le Financial Times (FT), le lauréat du prix Turing aurait informé ses proches de son intention de partir dans les prochains mois. Il serait également en discussions préliminaires pour lever des fonds destinés à sa future startup, selon des sources proches du dossier citées par le FT.
Une issue qui n’est pas vraiment une surprise tant le chercheur franco-américain, considéré comme l’un des pères fondateurs de l’IA moderne, apparait éloigné de la nouvelle stratégie souhaitée par Mark Zuckerberg pour coller à la roue d’OpenAI.
En effet, le fondateur de Meta a décidé de délaisser les travaux de recherche fondamentale menés par le laboratoire FAIR (Fundamental AI Research Lab), dirigé par LeCun, au profit d’un déploiement accéléré de modèles et produits d’IA commerciaux. Cette réorientation fait suite à la performance décevante du modèle Llama 4, qui s’est révélé inférieur aux offres concurrentes de Google, OpenAI et Anthropic.
Une réorganisation qui bouleverse les hiérarchies
L’été dernier, Mark Zuckerberg a recruté Alexandr Wang, fondateur de la startup Scale AI, pour diriger une nouvelle équipe dédiée à la « superintelligence ». Cette embauche s’est accompagnée d’un investissement de 14,3 milliards $ pour acquérir 49% de Scale AI. Conséquence directe : LeCun, qui reportait jusqu’alors au directeur produit Chris Cox, se retrouve désormais sous la supervision de Wang, âgé de 28 ans.
Le patron de Meta a parallèlement constitué une équipe exclusive, baptisée TBD Lab, chargée de développer la prochaine génération de grands modèles de langage. Pour attirer des talents d’OpenAI et de Google, des packages de rémunération atteignant 100 millions $ ont été proposés. En juillet, Shengjia Zhao, co-créateur de ChatGPT chez OpenAI, a été embauché comme scientifique en chef du laboratoire Superintelligence.
Un désaccord fondamental sur l’avenir de l’IA
Cette réorganisation met en lumière une divergence stratégique profonde. LeCun défend depuis longtemps la thèse selon laquelle les grands modèles de langage (LLM), au cœur de la nouvelle stratégie de Mark Zuckerberg, sont certes utiles mais ne permettront jamais d’atteindre des capacités de raisonnement et de planification comparables à celles des humains.
Le scientifique concentre ses travaux au sein de FAIR sur une génération entièrement nouvelle de systèmes d’IA : les « modèles du monde ». Ces architectures visent à comprendre le monde physique en apprenant à partir de vidéos et de données spatiales plutôt que de simples contenus textuels. LeCun estime toutefois qu’une décennie pourrait être nécessaire pour développer pleinement cette technologie. Son prochain projet entrepreneurial portera précisément sur l’approfondissement de ces recherches selon le FT.
Le départ annoncé de Yann LeCun n’est pas le premier des « vétérans de l’IA » à quitter Meta. En mai, c’est Joelle Pineau, vice-présidente de la recherche en IA, qui avait rejoint la startup canadienne Cohere. En octobre, ce sont environ 600 personnes de son unité de recherche qui avaient été licenciées.
L’écart entre les États-Unis et l’Europe dans le domaine de l’intelligence artificielle ne cesse d’alimenter les débats. Si les grands modèles de fondation demeurent dominés par les acteurs américains, la scène européenne tire son épingle du jeu dans le segment des applications d’IA, selon le rapport Globalscape 2025 publié par le fonds Accel. Ce document ... Lire plus
Depuis son lancement, GPT-5 a largement tenu ses promesses. OpenAI vantait une meilleure logique, une personnalité plus stable et une flexibilité multimodale inédite — et, dans l’ensemble, le modèle a effectivement marqué un tournant dans l’évolution des assistants IA. Mais l’innovation ne s’arrête jamais : selon plusieurs fuites récentes, une version GPT-5.1 serait déjà en préparation, avec […]
Après le succès de Battlefield 6, la planète gaming se prépare à l'arrivée de Call of Duty : Black Ops 7 qui sera disponible Day One sur la plateforme GeForce Now. Mais ce n'est pas la seule sortie attendue comme vous allez le voir.
Mark Zuckerberg a engagé des milliards de dollars dans l’infrastructure IA devant le président des États-Unis, positionnant Meta comme fer de lance des investissements technologiques massifs. Paradoxalement, parmi les sept géants technologiques dont les actions semblaient invincibles, Meta vient de voir l’essentiel de ses gains boursiers annuels s’évaporer en quelques jours. L’explication réside dans le ... Lire plus
New York impose la transparence sur la tarification algorithmique, première loi américaine à encadrer cette pratique basée sur les données personnelles.
Beaucoup d’équipes ne peinent pas à adopter l’IA par résistance au changement, mais par manque de cadre pour bien apprendre à l’utiliser. Offrir une formation structurée à l’IA permet de donner à chacun le contexte, la confiance et les limites nécessaires pour exploiter ces outils de manière responsable et efficace. Voici les raisons clés pour […]
Le géant japonais serait-il le premier chercheur de pépites, lassé de creuser dans la ruée vers l'or de l'IA ? Quand même les investisseurs les plus convaincus ne croient plus en NVIDIA, c'est tout Wall Street qui commence à paniquer.
Considéré par ses pairs comme l'un des inventeurs de l'intelligence artificielle dans le sens moderne, Yann Le Cun aurait informé ses collaborateurs de son intention de quitter Meta pour fonder sa propre startup dans les prochains mois. Ce n'est pas vraiment une surprise : sous l'impulsion de Mark Zuckerberg, son équipe « IA » était concurrencée par une équipe « superintelligence ».
Alors que nous regardons vers l’avenir, les leaders de l’IA élèvent la barre plus haut que jamais. Leurs perspectives peignent un tableau d’un paysage technologique en rapide évolution qui pourrait transformer notre monde. L’urgence est indéniable : on s’attend à une évolution spectaculaire de l’intelligence artificielle dans les années à venir. Dario Amodei, PDG d’Anthropic, […]
Les développements récents au sein de la division IA de Meta ont accru la vigilance de l’industrie, en particulier avec l’annonce du départ du directeur scientifique en chef de l’IA, Yann LeCun, pour lancer sa propre startup, comme l’a rapporté le Financial Times. Cette décision marque un autre défi pour le géant technologique, surtout alors […]