Vue normale

Il existe désormais un site où les IA peuvent louer des humains qui travaillent pour elles !

Et si votre prochain patron était une intelligence artificielle ? C’est le concept du site RentAHuman qui fait actuellement le buzz, et permet à des IA d’engager des humains pour effectuer les tâches qu’elles ne peuvent pas faire elles-mêmes.

Facebook peut maintenant animer votre photo de profil avec l’IA

10 février 2026 à 19:08

Facebook annonce de nouvelles fonctions utilisant l’intelligence artificielle Meta AI pour rendre l’expression plus simple via la photo de profil, les autres photos, le fil d’actualité et les stories. Le changement mis en avant par le réseau social est la possibilité d’animer votre photo de profil avec l’IA, …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Facebook peut maintenant animer votre photo de profil avec l’IA est apparu en premier sur KultureGeek.

The Vibe Companion - Une interface web pour piloter Claude Code

Par : Korben
10 février 2026 à 16:03

Claude Code, c'est super puissant... mais faut avouer que dans un terminal, quand l'IA commence à enchaîner les appels d'outils dans tous les sens, on se retrouve vite à lire de la Matrice sans les lunettes de Neo. Surtout si vous tentez le coup depuis un iPad ou un mobile, ça pique.

Mais c'était sans compter sur Companion , un projet open source qui vous colle une interface web par-dessus Claude Code. En gros, au lieu de scroller frénétiquement dans votre terminal comme un hamster sous caféine, vous avez une vraie UI avec des blocs rétractables, de la coloration syntaxique et une vue claire de ce que l'agent fabrique. Ça tourne sur desktop, mobile, tablette... bref, partout où y'a un navigateur. D'ailleurs, si vous préférez une app desktop native , y'a aussi Opcode qui fait le taf.

Le truc trop cool c'est que ça peut gérer plusieurs sessions en parallèle. Vous pouvez donc jongler entre différentes instances de Claude Code, chacune avec ses propres permissions. D'ailleurs, y'a 4 modes de permission : du "je valide tout à la main" au "YOLO bypass all" pour ceux qui aiment vivre dangereusement... et qui n'ont pas installé de plugin de sécurité (on vous aura prévenus).

Chaque appel d'outil (Bash, Read, Write, WebSearch...) est affiché et vous pouvez approuver, refuser ou même éditer les commandes avant exécution. Si vous utilisez des sub-agents, Companion affiche les tâches imbriquées sous le parent. C'est propre.

Et puis y'a ce petit détail qui fait plaisir à savoir une barre de progression colorée qui montre l'occupation de votre fenêtre de contexte avec une estimation du coût en temps réel. Parce que bon, savoir que votre session de debug à 3h du mat' vient de vous coûter l'équivalent d'un kebab, c'est quand même pratique. Mais est ce que ça vous coûte vraiment de l'argent ??? Hé bien le projet utilise le flag un peu caché --sdk-url de Claude Code pour communiquer via WebSocket sur le port 3456.

Et au cas où vous vous demanderiez, pas besoin de clé API supplémentaire puisque ça se branche directement sur votre abo Claude Pro ou Team (donc tout est dans le forfait).

Pour l'installer, c'est pas la mer à boire. Faut juste avoir Bun sur votre bécane, et ensuite :

bunx the-vibe-companion

Ensuite vous ouvrez http://localhost:3456 et c'est parti. Pour les bidouilleurs, tout le code est sur GitHub, un bun install dans le dossier companion/web et vous avez votre instance de dev. Après y'a plus qu'à installer Tailscale (ou votre propre VPN local) et vous avez accès à votre Claude Code depuis n'importe où.

Attention quand même, le protocole WebSocket est reverse-engineeré, donc si Anthropic change un truc demain... bon, vous voyez le délire, ça peut casser. Et si vous voulez en savoir plus sur les coulisses du protocole MCP d'Anthropic, j'en avais parlé il y a quelque temps. Mais en attendant, ça marche nickel et ça rend Claude Code nettement plus digeste qu'un terminal brut.

Allez jeter un œil !

Voitures électriques : quelles sont les plus endurantes en conditions hivernales extrêmes ?

Le froid impacte le fonctionnement des véhicules électriques. Pour en mesurer les effets réels sur l’autonomie et la recharge des voitures, la Fédération Automobile Norvégienne (NAF) a organisé un test de performances dans les conditions extrêmes des routes nordiques. De quoi jeter un léger froid sur les promesses des constructeurs.

Atlas fait ses adieux en salto

Par : Korben
10 février 2026 à 14:39

Atlas , le robot humanoïde de Boston Dynamics, vient de faire ses adieux en beauté. Et quand je dis en beauté, c'est salto arrière enchaîné avec une roue... le tout sans se vautrer la gueule. Pas mal pour une machine de 90 kg !

Cette vidéo "Atlas Airborne" publiée il y a quelques jours, c'est en gros le pot de départ de ce modèle de recherche. Celui qui nous a fait halluciner depuis 2013 avec ses cascades de parkour et ses backflips, sauf que cette fois, les ingénieurs ont voulu pousser le curseur au maximum avant de ranger le bonhomme au placard.

Les ingés ont bossé avec le RAI Institute (le labo fondé par Marc Raibert en 2022, après avoir quitté la direction de Boston Dynamics) pour développer un truc qui s'appelle le "whole-body learning". En gros, c'est de l'apprentissage par renforcement appliqué au corps entier du robot, et pas juste aux jambes ou aux bras séparément.

Tout ce qu'Atlas apprend en simulation (via IsaacLab, le framework de Nvidia basé sur Python), il le reproduit alors direct sur le vrai hardware. Y'a besoin d'aucun ajustement et ça s'appelle le "zero-shot transfer"... c'est-à-dire que vous entraînez le robot dans un monde virtuel sur GPU, hop, vous le branchez dans le monde réel et ça marche du premier coup. Bon, "du premier coup" c'est la théorie évidemment, car pratique, ça plante probablement 3 fois sur 10, sauf que la vidéo promo ne montre pas les gamelles.

Le plus tordu dans l'histoire, c'est que cette même techno qui lui permet de faire des acrobaties est celle qui lui donne sa démarche naturelle (celle qui a été primée "Best Robot" au CES en janvier). Un seul framework pour tout, de la roulade au rangement de cartons, c'est dingue quand même !

Et pendant que la version recherche fait le show, l'autre Atlas, le nouveau, se prépare à rentrer à l'usine . D'après Hyundai, le bestiau devrait débarquer dans leur Metaplant à Savannah en Géorgie d'ici 2028 pour du tri de pièces, puis de l'assemblage de composants d'ici 2030. Il embarque 56 degrés de liberté et un gripper tactile avec pouce opposable... en gros, des mains presque humaines. J'aurais préféré qu'ils gardent le modèle acrobate plutôt que de tout miser sur l'ouvrier, parce que le parkour c'est quand même carrément plus fun à regarder, mais bon, c'est pas (encore) moi qui signe les chèques chez Hyundai.

De son côté, le robot Spot a déjà atteint les 19 km/h grâce au même type d'apprentissage par renforcement (contre 5,8 km/h en config d'usine, soit plus du triple). Ça promet pour la version industrielle d'Atlas.

Après je crois me souvenir que le problème sur le Spot c'était pas les moteurs mais les batteries qui ne suivaient plus. Sauf si Hyundai a trouvé une solution côté autonomie, Atlas aura donc le même souci à l'échelle humanoïde... parce que faire un salto c'est rigolo, mais tenir 8h sur une chaîne de montage c'est un autre délire.

Je ne sais pas si vous avez déjà regardé la vidéo mais quand le robot se loupe légèrement sur un atterrissage, il corrige en temps réel avec un micro-repositionnement du pied. Comme un ajustement instinctif... c'est subtil et finalement très... humain.

J'suis pas pressé de me faire courser par ces trucs.

OpenAI repousse son premier bidule d’IA à 2027, et abandonne le nom « io »

10 février 2026 à 13:29

Le tout premier produit matériel d’OpenAI, imaginé par l’ancien designer emblématique d’Apple Jony Ive, ne sera finalement pas commercialisé avant 2027. Selon de récents documents judiciaires, l’appareil, qui était initialement attendu pour la fin de l’année 2026, ne devrait pas arriver chez les consommateurs avant février 2027. Ce …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article OpenAI repousse son premier bidule d’IA à 2027, et abandonne le nom « io » est apparu en premier sur KultureGeek.

Meta AI prépare Avocado et des connecteurs MCP : la riposte de Meta face à ChatGPT et Gemini

Meta n’essaie plus seulement d’avoir un bon modèle : l’entreprise veut une plateforme d’assistant — capable d’agir, de se souvenir, et surtout de se brancher sur votre quotidien. Un récent lifting du site Meta AI, repéré par TestingCatalog, laisse entrevoir une feuille de route ambitieuse : connexion à des services comme Google Agenda et Outlook, nouveaux modes […]

L’article Meta AI prépare Avocado et des connecteurs MCP : la riposte de Meta face à ChatGPT et Gemini est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

Seedance, le nouveau modèle chinois pour générer des vidéos, défie OpenAI et Google

10 février 2026 à 10:44

Début février 2026, le groupe chinois ByteDance a dévoilé Seedance 2.0, son nouveau modèle de génération vidéo par IA. Capable de produire image, son, voix et musique dans un même pipeline, l’outil impressionne autant par ses performances techniques que par sa stratégie de déploiement grand public.

ChatGPT : les publicités commencent à apparaître dans l’application

10 février 2026 à 09:02

Comme promis, OpenAI commence à intégrer des publicités en bas des conversations avec ChatGPT, son agent conversationnel. Son objectif est de monétiser son abonnement gratuit et d'amplifier les revenus de son forfait Go.

Codex dépasse 1 million de téléchargements en une semaine : OpenAI accélère l’ère des « agents »

Il y a des chiffres qui ressemblent à un simple tour de piste marketing — et d’autres qui marquent un basculement d’usage. Cette semaine, Sam Altman affirme sur X que l’application Codex (macOS) a franchi plus d’un million de téléchargements en sept jours, avec plus de 60 % de croissance des utilisateurs Codex sur la semaine. […]

L’article Codex dépasse 1 million de téléchargements en une semaine : OpenAI accélère l’ère des « agents » est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

ChatGPT déploie de la publicité, pour certains de ses utilisateurs

10 février 2026 à 09:51

La publicité commence à apparaître dans ChatGPT pour les utilisateurs américains disposant d’un compte gratuit ou d’un abonnement Go. Une expérimentation qui pourrait très rapidement se généraliser.
 [Lire la suite]

Tous nos bons plans directement sur WhatsApp. Rejoignez Frandroid Bons Plans, zéro spam garanti.

La pub débarque sur ChatGPT : voici la bonne nouvelle pour les utilisateurs de la version gratuite

Par : Setra
10 février 2026 à 07:25
Prompt Chatgpt Astuces

La publicité fait ses débuts sur ChatGPT. OpenAI lance le test aux États-Unis et promet que la pub lui permettra de proposer une version gratuite avec moins de limites. Pour le moment, on ne sait pas quand cette version gratuite avec des publicités arrivera en France.

ChatGPT teste la publicité aux États-Unis : OpenAI ouvre un nouveau chapitre — et marche sur une ligne rouge

C’est un virage que beaucoup redoutaient, et que d’autres attendaient presque comme une évidence économique : OpenAI commence à tester des publicités dans ChatGPT. L’expérimentation démarre aux États-Unis, et ne concerne, pour l’instant, que les utilisateurs ChatGPT Free et ChatGPT Go. Tout le reste de la gamme payante — Plus, Pro, Business, Enterprise et Education — […]

L’article ChatGPT teste la publicité aux États-Unis : OpenAI ouvre un nouveau chapitre — et marche sur une ligne rouge est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

How should advertising work in an AI product? Asad Awan, one of the ad leads at OpenAI, walks through how the company is approaching this decision and why it...

ChatGPT affiche dès aujourd’hui des publicités, d’abord dans un pays

9 février 2026 à 19:58

Comme prévu, les publicités font aujourd’hui leur arrivée sur ChatGPT en ce qui concerne les utilisateurs gratuits et ceux avec l’abonnement Go. Officiellement, OpenAI parle d’une phase « de tests ». L’idée est de financer l’accès aux fonctionnalités d’intelligence artificielle. OpenAI explique que la publicité doit servir l’accès …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article ChatGPT affiche dès aujourd’hui des publicités, d’abord dans un pays est apparu en premier sur KultureGeek.

Leboncoin débarque dans ChatGPT : une première pour une application française

9 février 2026 à 17:22

Leboncoin dispose désormais d'une intégration officielle dans les applications sur ChatGPT, rapportent LesEchos le 9 février 2026. Une première pour un e-commerçant français.

OpenAI : 100 milliards, de la pub et une croissance « folle », la contre-attaque de Sam Altman

9 février 2026 à 16:07

Alors qu'OpenAI s'apprête à boucler une levée de fonds titanesque de 100 milliards de dollars, Sam Altman rassure ses troupes : la machine est relancée. Mais cette reconquête face à la concurrence a un prix : l'arrivée controversée de la publicité sur ChatGPT débute officiellement aujourd'hui.
 [Lire la suite]

Chaque matin, WhatsApp s’anime avec les dernières nouvelles tech. Rejoignez notre canal Frandroid pour ne rien manquer !

70 millions de dollars pour une page vide : que cache le mystérieux rachat d’AI.com ?

9 février 2026 à 15:00

Selon un article du Financial Times publié le 6 février 2026, le nom de domaine ai.com a été racheté pour 70 millions de dollars, un record absolu. Problème : derrière cette adresse ultra-convoitée, mise en avant jusque lors du Super Bowl, aucun produit fonctionnel ne semble aujourd’hui exister.

Comment piloter le Shadow AI

9 février 2026 à 14:19

Pendant des décennies, le Shadow IT se résumait à des applications SaaS non approuvées ou à des serveurs de stockage personnels. Aujourd’hui, le phénomène a muté en une force bien plus disruptive : le Shadow AI. Le constat est sans appel : alors que les directions informatiques s’interrogent encore sur les protocoles, les collaborateurs, eux, ont déjà intégré l’IA générative dans leur quotidien.

Selon les analystes de Forrester, le « Bring Your Own AI » (BYOAI) est devenu la norme, car les employés privilégient l’efficacité immédiate à la conformité procédurale.

Pour le DSI, l’enjeu dépasse la simple gestion de parc logiciel. Il s’agit désormais de protéger la propriété intellectuelle tout en ne devenant pas le goulot d’étranglement de la productivité. Comme le souligne Gartner, « le Shadow AI est le résultat d’un décalage entre la vitesse de l’innovation en IA et la vitesse de la gouvernance informatique. »

Sortir de l’illusion du blocage

Le premier réflexe de nombreuses organisations a été la restriction pure et simple. Pourtant, cette stratégie est aujourd’hui jugée non seulement inefficace, mais dangereuse. En bloquant l’accès aux LLM (Large Language Models) sur le réseau d’entreprise, la DSI ne supprime pas l’usage ; elle le rend invisible. Les collaborateurs se tournent vers leurs terminaux personnels, créant une zone grise où aucune politique de sécurité ne s’applique.

Cette transition impose au DSI d’évoluer vers un rôle de « facilitateur de confiance ». L’idée maîtresse est de passer d’une gouvernance prohibitive à une gouvernance adaptative. Michele Goetz, analyste chez Forrester, résume parfaitement cette bascule : « La gouvernance ne consiste pas à dire non, elle consiste à définir comment. »

Au-delà de la fuite de données, le risque majeur réside dans la fragmentation technologique. Si chaque département adopte son propre outil d’IA de manière isolée, l’entreprise se retrouve face à une explosion de la dette technique et une incapacité totale à harmoniser ses processus. Le rôle du DSI est donc de centraliser cette demande diffuse pour proposer des solutions qui répondent aux besoins métiers tout en garantissant l’auditabilité des décisions prises par l’IA.

Éduquer plutôt que sanctionner

Une gouvernance réussie ne peut être uniquement technologique ; elle doit être culturelle. Le Shadow AI prospère souvent sur l’ignorance des risques et non sur une volonté de nuire. Pour y remédier, le DSI doit instaurer un véritable contrat social avec les utilisateurs : la charte de bonne conduite.

L’enjeu est de transformer chaque collaborateur en un maillon de la chaîne de cybersécurité. Cela passe par une compréhension fine du concept de « Human-in-the-loop ». Forrester avertit d’ailleurs que « le plus grand risque de l’IA générative n’est pas ce qu’elle fait, mais ce que les humains font avec elle sans supervision. » La charte doit donc insister sur la responsabilité éditoriale : l’IA propose, mais l’humain dispose et vérifie.

La transparence devient ici une valeur cardinale. En encourageant les employés à déclarer leurs usages plutôt qu’à les cacher, la DSI peut identifier les cas d’usage à fort ROI. Cette approche pédagogique permet également de lutter contre les biais et les hallucinations, en rappelant que l’IA est un outil probabiliste et non une source de vérité absolue. C’est en accompagnant l’utilisateur dans son « AI Literacy » (sa culture de l’IA) que le DSI réduit naturellement le recours aux solutions de l’ombre.

L’architecture du « Safe Harbor »

Pour rendre la solution officielle plus attractive que le Shadow AI, le DSI doit bâtir un environnement qui surclasse les outils grand public. C’est ici qu’intervient le concept de Sandbox IA, ou « port sécurisé ». Techniquement, cette infrastructure repose sur le déploiement d’instances privées via des services comme Azure OpenAI ou AWS Bedrock, garantissant que les données saisies ne sortent jamais du périmètre de l’entreprise et ne servent jamais à l’entraînement de modèles tiers.

L’innovation majeure de ces environnements réside dans la couche de Data Guardrails. Contrairement à une interface publique, la sandbox d’entreprise intègre des filtres de Data Loss Prevention (DLP) qui interceptent et anonymisent les informations sensibles avant qu’elles n’atteignent le LLM. De plus, l’intégration du RAG (Retrieval-Augmented Generation) permet à l’IA d’interroger les documents internes de l’entreprise (bases de connaissances, archives, rapports) avec une précision que les outils publics ne peuvent égaler.

Enfin, cette approche offre au DSI une visibilité indispensable via le FinOps. En monitorant la consommation de « tokens » par département, la DSI peut non seulement contrôler les coûts, mais aussi prioriser les investissements sur les projets les plus créateurs de valeur.

Selon Gartner, « d’ici 2026, 75 % des organisations auront établi une stratégie de gouvernance de l’IA, contre moins de 5 % aujourd’hui. » La sandbox n’est pas seulement un outil technique, c’est le laboratoire où se prépare l’avenir de l’entreprise.

——————————————————————————————————————————–


Charte d’utilisation de l’IA Générative : innover en toute sécurité

L’intelligence artificielle générative est un levier de productivité puissant. Pour nous permettre d’innover tout en protégeant les actifs numériques de l’entreprise, chaque collaborateur s’engage à respecter les principes suivants.



1. Protection du patrimoine informationnel

C’est le pilier central. Les modèles d’IA publics (ChatGPT, Claude, Gemini version gratuite) utilisent vos données pour s’entraîner.

  • Interdiction formelle : Ne jamais saisir de données sensibles, de secrets commerciaux, de codes sources non publics ou d’informations personnelles (RGPD) dans un outil d’IA non validé par la DSI.

  • Réflexe de sécurité : Utilisez exclusivement les instances « Enterprise » mises à disposition par l’entreprise (ex: notre portail IA interne), car elles garantissent la confidentialité de vos données.

2. Le principe du « Humain-au-centre » (Human-in-the-Loop)

L’IA est un assistant, pas un remplaçant. Vous restez l’unique responsable de vos livrables.

  • Vérification systématique : L’IA peut « halluciner » (inventer des faits crédibles mais faux). Chaque information générée doit être vérifiée par vos soins avant d’être utilisée.

  • Responsabilité éditoriale : Tout document produit ou assisté par l’IA engage votre responsabilité professionnelle, comme si vous l’aviez rédigé seul.

3. Transparence et éthique

L’honnêteté intellectuelle est la base de notre collaboration.

  • Mention d’usage : Si un document client ou une analyse stratégique a été produit de manière significative par une IA, mentionnez-le (ex : « Ce document a été préparé avec l’assistance d’une IA générative »).

  • Lutte contre les biais : Soyez vigilants face aux stéréotypes ou biais que l’IA pourrait reproduire dans ses réponses. Gardez un esprit critique.

4. Propriété intellectuelle et droits d’auteur

L’IA génère parfois du contenu qui peut ressembler à des œuvres protégées.

  • Vigilance créative : Pour les visuels ou les textes destinés à l’externe, assurez-vous que les sorties de l’IA ne violent pas de droits d’auteur existants.

  • Code Source : L’utilisation d’IA pour générer du code doit suivre les protocoles de sécurité logicielle de la DSI pour éviter l’introduction de vulnérabilités ou de licences incompatibles.


——————————————————————————————————————————–

Architecture de la sandbox sécurisée

Pour passer de la théorie à la pratique, la DSI doit fournir un « Port de Sécurité » (Safe Harbor). C’est le rôle de la Sandbox IA, un environnement de test qui offre la liberté d’expérimenter sans compromettre le SI.

Les Composantes de l’Infrastructure

Une sandbox efficace ne se limite pas à un accès API ; elle repose sur une architecture robuste :

  • Isolation VPC et API Gateway : Les modèles (Azure OpenAI, AWS Bedrock, etc.) sont déployés dans un Cloud Privé Virtuel. Les données ne sortent jamais du périmètre de l’entreprise et ne servent jamais à entraîner les modèles publics des fournisseurs.

  • Couche de Filtrage (DLP & Guardrails) : Une passerelle intelligente scanne les prompts en temps réel. Elle bloque ou anonymise automatiquement les données sensibles (PII, codes sources confidentiels) avant qu’elles ne parviennent au modèle.

  • Observabilité et FinOps : Le CIO dispose d’un tableau de bord centralisé pour monitorer l’usage, détecter les comportements atypiques et gérer les coûts par jeton (tokens) par département.

Vers le RAG (Retrieval-Augmented Generation)

Le véritable avantage de cette infrastructure interne est sa capacité à connecter l’IA aux données froides de l’entreprise. En offrant un outil capable d’interroger la base de connaissances interne en toute sécurité, le CIO rend le Shadow AI obsolète car moins pertinent que l’outil officiel.


The post Comment piloter le Shadow AI appeared first on Silicon.fr.

Elon Musk est à deux doigts de devenir le premier billionnaire de l’histoire

9 février 2026 à 12:02
Elon Musk

La dernière manœuvre de Musk devrait propulser l’entrepreneur vers un statut inédit dans l’histoire de l’humanité. Décryptage d’une ascension vertigineuse qui creuse un fossé sans précédent avec les autres milliardaires de la planète.

❌