Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 25 juin 2024Korben

VoiceCraft – Enfin de la synthèse vocale de qualité

Par : Korben
25 juin 2024 à 07:00

VoiceCraft c’est tout simplement le futur de l’édition vocale et de la synthèse vocale. On est carrément dans de la science-fiction là puisque juste avec juste quelques secondes d’audio de votre voix, cette IA est capable de comprendre votre timbre, votre intonation… votre flow quoi. Et après, c’est parti mon kiki, vous pouvez lui faire dire ce que vous voulez, et ça sonnera exactement comme si c’était vous qui parliez ! Flippant et génial à la fois.

Je vous invite à aller écouter les sons de démo ici pour vous faire un avis. Cela permet de faire plein de choses comme changer un mot dans une phrase que vous avez enregistrée, rallonger ou raccourcir un passage… etc. C’est vraiment un outil indispensable pour tous les créateurs de contenu audio, les podcasteurs, les doubleurs, et tutti quanti.

Voici une voix originale qui dit ceci en anglais:

that schedule is one per week and it will probably be like a Wednesday night thing because I plan on doing one to two videos per week.

Et voici la version traité par l’IA qui va conserver la voix d’origine mais également faire des petites modifs dans le texte selon ce qu’on souhaite. De quoi faire dire n’importe quoi à n’importe qui.

that schedule is one per week and you will start to see a lot more content arriving because I plan on doing one to two videos per week.

Essayez l’édition vocale
Essayez l’inférence TTS

Alors oui, si des gens mal intentionnés utilisent ça pour faire dire n’importe quoi à n’importe qui, ça craint. Mais je vous rassure, les créateurs de VoiceCraft ont pensé à tout. Il y a des garde-fous éthiques et des systèmes de watermarking audio pour éviter les dérives. On verra si ça tient la route.

Je vous invite vraiment à checker le github de VoiceCraft, il y a toutes les infos et les liens vers les démo. Et si vous voulez creuser le sujet, foncez lire leur papier de recherche, c’est passionnant.

À partir d’avant-hierKorben

Auto-News – L’agrégateur de news qui vous permet d’éviter le « bruit »

Par : Korben
20 juin 2024 à 07:00

Auto-News est un agrégateur de news automatisé boosté à l’IA qui rassemble vos sources favorites – tweets, RSS, YouTube, articles web, Reddit, même vos petites notes perso. Puis c’est la magie de l’IA qui analyse tout ça en deux temps trois mouvements, résume le contenu à vitesse grand V, et vous sert sur un plateau les pépites qui matchent avec vos centres d’intérêt. Le reste, poubelle ! Comme ça, fini le tri bien pénible.

Vous créez simplement une page sur Notion comme point d’entrée, vous renseignez vos petits tokens chéris, et voilà le travail ! Auto-News va gentiment créer tout un joli système de dossiers et de bases de données pour ranger vos contenus. Il vous suffira alors d’indiquer vos flux RSS favoris, vos comptes Twitter et Reddit à suivre, et hop, la machine est lancée !

L’outil est également capable de générer des transcriptions pour les vidéos YouTube et les articles web, histoire que vous puissiez les parcourir en diagonale, et grâce à ses supers pouvoirs d’IA, il vous concocte même des listes de tâches à partir de vos notes et réflexions.

Côté technique, c’est du solide puisque ça tourne sous Linux ou MacOS, avec Docker pour faciliter le déploiement et le top du top, c’est son interface façon Notion utilisable depuis votre iPhone, votre Android ou n’importe quel navigateur.

Parfait pour dire adieu à l’infobésité et découvrir le plaisir d’une lecture personnalisée. Pour plus d’infos, c’est par ici.

RaspRover – Le kit robot 4×4 pour Raspberry Pi 4 et 5

Par : Korben
12 juin 2024 à 07:00

Vous rêvez de vous initier au monde de la robotique et de l’intelligence artificielle ?

Ca tombe bien puisque ce kit RaspRover va vous permettre de réaliser ce doux rêve ! Ce petit robot 4×4 hyper versatile est le compagnon idéal pour partir à l’aventure car il embarque un Raspberry Pi dernière génération (modèles 4 ou 5) ce qui va vous permettre de laisser libre cours à votre créativité en le programmant vous-même.

Et pas besoin d’être un crack en informatique pour dompter ce robot puisque tout est pensé pour faciliter sa prise en main. En effet, sous le capot, vous trouverez un double contrôleur avec d’un côté le Raspberry Pi qui gère les fonctions IA de haut niveau pendant que de l’autre, un microcontrôleur se charge des opérations basiques à haute fréquence. Comme ça, chaque action que vous lui demandez est précise et fluide.

Côté perception, le RaspRover a du flair grâce à sa caméra mobile grand angle qui lui offre une vision périphérique à 160°. Couplée à l’IA de reconnaissance d’images de OpenCV, cette caméra détecte et piste les visages ou les objets. Bref, de quoi lui permettre d’interagir avec son environnement sans souci.

Et ce n’est pas tout puisqu’il dispose d’une panoplie de capteurs (IMU 9 axes, télémètre laser…) qui décuplent ses talents : cartographie, évitement d’obstacles, localisation précise… et son architecture modulaire et ses nombreuses interfaces (GPIO, USB, I2C, UART…) lui permettent d’accueillir une foule d’accessoires : bras robotique, capteurs environnementaux, module 4G/5G… De quoi l’adapter à une infinité de scénarios comme de l’agriculture de précision, l’inspection de sites industriels, de la télé-surveillance, pour l’éducation, la recherche…

Et bien sûr, il carbure à l’open source ce qui veut dire que vous pouvez personnaliser son code et ajouter vos propres fonctionnalités. De plus, grâce au protocole ESP-NOW, plusieurs RaspRover peuvent même communiquer et collaborer entre eux ! Imaginez l’escouade de robots que vous allez pouvoir programmer avec ce truc.

Si ça vous dit, y’a un super Wiki qui vous explique comment monter et programmer tout ça.

ReverserAI – Du Reverse Engineering à base d’IA

Par : Korben
30 mai 2024 à 07:00

ReverserAI est un projet de recherche assez avant-gardiste qui vise à automatiser et améliorer les tâches de reverse engineering grâce à l’utilisation de modèles de langage locaux (LLM).

Fonctionnant entièrement hors ligne, cette première version se distingue par sa capacité à suggérer automatiquement des noms de fonctions de haut niveau et sémantiquement significatifs à partir de la sortie du décompilateur. ReverserAI se présente également comme un plugin pour Binary Ninja, mais son architecture modulaire est conçue pour être étendue à d’autres plateformes comme IDA ou encore Ghidra.

Et bien que les LLM locaux n’égalent pas encore les performances de leurs concurrents basés sur le cloud comme ChatGPT4 ou Claude3, ils représentent une avancée majeure avec un bon équilibre entre les performances et la confidentialité.

Parmi les fonctionnalités clés de cet outil, on retrouve :

  • Un fonctionnement totalement hors ligne, ce qui garantit la confidentialité et la sécurité des données
  • La suggestion automatique de noms de fonctions sémantiquement significatifs à partir de la sortie du décompilateur
  • Une intégration transparente avec Binary Ninja via un plugin dédié
  • Une architecture modulaire permettant une extension facile vers d’autres outils d’ingénierie inverse
  • Une compatibilité avec le matériel grand public, y compris les architectures Apple Silicon

Cependant, une configuration matérielle avec plusieurs cœurs CPU ou un GPU puissant est recommandée, car sur un système avec au moins 16 Go de RAM et de 12 cœurs CPU, les requêtes prennent environ 20 à 30 secondes. Grâce aux optimisations GPU, en particulier sur les appareils Apple Silicon, ce temps peut être réduit à 2 à 5 secondes par requête.

Ça s’installe à l’aide du gestionnaire de plugins de Binary Ninja et une fois lancé, l’outil téléchargera automatiquement le modèle de langage nécessaire (~5 Go). Les paramètres de configuration permettent également d’optimiser les performances en fonction de votre configuration matérielle, en répartissant la charge entre le CPU et le GPU.

Cet outil encore un peu jeune, est un excellent proof of concept qui illustre bien le potentiel des LLM locaux pour tout ce qui est reverse engineering. On verra évidemment ce que ça deviendra d’ici quelques années.

Le code source est disponible sur GitHub à l’adresse suivante alors n’hésitez pas à suggérer des améliorations.

Happy hacking à tous !

Codestral – Le modèle IA des développeurs

Par : Korben
30 mai 2024 à 06:44

Codestral, le tout nouveau modèle de code de Mistral AI, débarque pour le plus grand plaisir (ou pas) des développeurs ! Créé par l’équipe de Mistral AI et lancé hier, Codestral est donc un modèle de génération de code ouvert spécialement conçu pour les tâches de génération de code. Il maîtrise plus de 80 langages de programmation, dont les incontournables Python, Java, C++, JavaScript et même le vénérable Fortran.

Si vous galérez sur une fonction, il vous aidera à la compléter en 2 coups de cuillère à pot et si vous avez besoin de tests, cet expert les génèrera à votre place pendant que vous serez parti à la machine à café. Grâce à sa capacité de remplissage au milieu (fill in the middle), il pourrait ainsi compléter n’importe quel bout de code, même le plus complexe.

En termes de performance, il établit de nouveaux records. C’est un modèle de 22 milliards de paramètres, mais grâce à sa fenêtre contextuelle de 32 000 tokens, il surpasse les autres modèles sur de nombreux benchmarks, y compris le RepoBench pour la génération de code à longue portée. Sur des tests spécifiques comme HumanEval, MBPP pour le Python et Spider pour le SQL, Codestral affiche également des performances impressionnantes devant GPT-4-Turbo et GPT-3.5.

Ce modèle est accessible sur HuggingFace, où vous pouvez le télécharger et avec l’API de Mistral AI, quelques lignes de code suffisent pour l’intégrer dans votre projet. Les adeptes de VSCode et JetBrains seront ravis puisque les plugins Continue.dev et Tabnine ont également intégré ce modèle, pour coder et interagir avec lui directement dans votre IDE préféré. Vous pouvez également y avoir accès via le Chat de Mistral.

Perso, j’utilise Claude 3 Opus et GPT-4o pour mon code mais je vais commencer à tester celui-là également. En tout cas, si ça vous intéresse, rendez-vous sur la documentation officielle de Mistral AI ici.

Source

WebNN – L’IA s’invite dans votre navigateur avec DirectML

Par : Korben
28 mai 2024 à 12:49

Ça y est, les amis, l’API WebNN débarque enfin en preview pour les développeurs, et croyez-moi, ça va changer totalement la manière dont on fait tourner de l’IA dans nos navigateurs web !Grâce à cette techno, on va pouvoir profiter de la puissance de nos GPU et autres accélérateurs matériels directement depuis nos pages web, sans avoir à installer le moindre plugin ou logiciel supplémentaire.

Concrètement, WebNN est une API JavaScript qui va permettre aux applications web d’exécuter des tâches d’inférence de réseaux neuronaux de manière super efficace, en exploitant à fond les capacités des CPU, GPU et autres processeurs dédiés à l’IA (les fameux NPU et TPU). Fini les calculs qui rament, bonjour la fluidité et la réactivité, même pour les modèles les plus gourmands !

WebNN est complètement agnostique côté matériel et côté modèles. Quel que soit le hardware qu’on a sous le capot (Intel, AMD, NVIDIA, Qualcomm…) et le format des modèles (ONNX, TensorFlow…), cette API va nous permettre de tirer parti un maximum des ressources disponibles, tout ça de manière transparente, sans avoir à se prendre la tête avec des lignes de code spécifiques à chaque plateforme.

Cette API suit un modèle de programmation super simple en deux grandes étapes :

  • 1. La construction du modèle : on utilise l’API MLGraphBuilder pour définir notre réseau de neurones, ses opérations, ses entrées et ses sorties et une fois que c’est fait, on peut le compiler en un graphe exécutable.
  • 2. L’exécution du modèle : maintenant qu’on a notre super graphe optimisé, il ne reste plus qu’à lui envoyer nos données d’entrée, et il va nous fournir ses prédictions et classifications à toute vitesse !

Grâce à WebNN, les tâches d’inférence de machine learning sont accélérées par le matériel local, ce qui offre des performances améliorées et une faible latence, même sans connexion internet ou avec une connexion non fiable. De plus, les données restent sur la machine de l’utilisateur, ce qui préserve ainsi sa vie privée.

WebNN est conçu pour fonctionner avec DirectML sur Windows, lequel assure des performances optimales sur divers matériels, notamment les RTX GPUs de NVIDIA, les Intel Core Ultra avec Intel AI Boost, et les Copilot+ PC avec des NPU Qualcomm Hexagon. Ça ouvre la porte à des applications évoluées de génération d’IA, de reconnaissance d’images, de traitement du langage naturel, et bien d’autres cas d’utilisation tout à fait passionnants.

Si vous voulez vous lancer dès maintenant avec WebNN, je vous conseille fortement de visiter le dépôt WebNN Developer Preview sur GitHub. Vous y trouverez plein de démos et d’exemples de code pour vous familiariser avec l’API et ses fonctionnalités. Par contre, vous devrez télécharger Edge en version Canary et la dernière Insider de Windows 11 puis dans la barre d’URL, tapez edge://flags/ pour pouvoir ensuite activer WebNN.

Pour plus de détails, vous pouvez consulter le tutoriel officiel de Microsoft.

Un grand merci au super neurone NexusSeven pour les sources de cet article !

Source

Elia – Un assistant IA pour votre terminal sous Linux

Par : Korben
28 mai 2024 à 06:20

Vous cherchez une manière simple et efficace de discuter avec des assistants IA directement depuis votre terminal Linux alors Elia est fait pour vous ! Cette application vous permet d’interagir avec une variété de modèles de langage comme Claude, ChatGPT, GPT-4, ou même des modèles locaux tels que Llama, Phi, Mistral ou Gemma, tout cela sans quitter votre terminal préféré.

Elia dispose donc d’une interface utilisateur minimaliste mais diablement efficace, entièrement pilotable au clavier et vos conversations sont stockées dans une base de données SQLite locale, ce qui vous permettra de reprendre vos discussions là où vous les avez laissées.

L’installation d’Elia est plutôt simple grâce à pipx et il vous faudra quelques clés d’API pour les modèles propriétaires dans vos variables d’environnement (OPENAI_API_KEY, ANTHROPIC_API_KEY, GEMINI_API_KEY).

pipx install elia-chat

Une fois installé, tapez elia dans votre terminal et vous voilà propulsé dans l’interface. Vous pouvez même lancer une discussion express en mode « inline » directement sous votre prompt avec l’option -i :

elia -i "Raconte-moi une blague sur Linux !"

Pour spécifier un modèle LLM particulier, c’est avec l’option -m :

elia -m gpt-4o

Comme je le disais au début, l’outil est aussi compatible avec les modèles open source comme Llama. Il vous suffit d’installer ollama, de télécharger le modèle voulu, de lancer le serveur ollama en local et d’ajouter le modèle au fichier de configuration d’Elia. Et voilà, vous pouvez discuter avec une IA 100% libre.

La config se fait via un fichier texte tout ce qu’il y a de plus basique. C’est là que vous pourrez ajouter vos différents modèles, spécifier celui à utiliser par défaut, personnaliser le prompt système ou encore choisir le thème de coloration syntaxique pour vos bouts de code.

Un exemple de fichier de config :

default_model = "gpt-4"
system_prompt = "Tu es un assistant serviable qui parle comme un pirate." message_code_theme = "dracula"

[[models]]

name = "ollama/llama3"

[[models]] 
name = "openai/mon-modele" 
api_base = "http://localhost:8080/v1" 
api_key = "ma-cle-api-si-besoin"

Évidemment, ce n’est pas aussi complet qu’une interface web de ChatGPT et on ne peut pas changer les raccourcis clavier, mais l’essentiel est là.

D’ailleurs, sachez qu’Elia vous permet d’importer facilement vos conversations depuis l’interface web de ChatGPT. Pratique pour retrouver tous vos échanges au même endroit. Il suffit d’exporter l’historique au format JSON depuis ChatGPT, puis de taper :

elia import 'chemin/vers/conversations.json'

Et hop, toutes vos conversations sont là, prêtes à être poursuivies depuis votre terminal.

Un dernier petit conseil avant de vous laisser jouer avec votre nouveau copain : si à un moment donné les choses dérapent et que le LLM commence à délirer (ça arrive même aux meilleurs), n’hésitez pas à lui remettre les idées en place avec un bon gros reset :

elia reset

Voilà, vous savez tout (ou presque) sur ce logiciel… Vous allez pouvoir refaire le monde, le tout sans quitter votre shell adoré. Que demande le peuple ?

Source

Sink – Un raccourcisseur d’URL simple et sécurisé avec des statistiques

Par : Korben
27 mai 2024 à 15:20

Vous cherchez une méthode simple et efficace pour raccourcir vos URLs tout en gardant un œil sur les statistiques ? Sink peut vous aider ! Ce raccourcisseur d’URL nouvelle génération combine simplicité d’utilisation, rapidité et sécurité, et il est entièrement déployable sur Cloudflare, donc pas besoin de gérer de serveurs !

Avec cet outil, les URLs longues et illisibles laissent la place à des liens propres et mémorisables, que vous pouvez personnaliser avec vos slugs comme bon vous semble. Et si l’inspiration vous manque, pas de souci puisque Sink dispose d’un assistant IA intégré pour vous suggérer des slugs intelligents basés sur le contenu de votre page.

Maintenant parlons analytics… Avec Sink, vous pouvez suivre les statistiques de vos liens comme un pro : Combien de clics, d’où viennent-ils, à quelle heure sont-ils arrivés…etc, vous aurez toutes les stats pour frimer (ou optimiser vos campagnes, au choix).

Sink utilise les dernières technologies à la mode :

  • Nuxt pour le framework
  • Cloudflare Workers KV pour la base de données
  • Cloudflare Workers Analytics Engine pour les analytiques
  • Shadcn-vue pour les composants d’interface
  • Tailwind CSS pour le style
  • Et bien sûr, le tout est déployé sur Cloudflare !

Avec un combo pareil, vous êtes parés à affronter le trafic le plus intense et vos liens tiendront la route !

En plus c’est open source, alors pourquoi hésiter ?

Pour déployer cet outil, c’est simple :

Étape 1 – Forkez le Dépôt
1. Rendez-vous sur la page GitHub de Sink.
2. Cliquez sur le bouton « Fork » en haut à droite pour forker le dépôt dans votre propre compte GitHub.

Étape 2 – Créez un Projet Cloudflare Pages
1. Accédez à Cloudflare Pages.
2. Cliquez sur « Create a project ».
3. Sélectionnez le dépôt « Sink » forké précédemment.
4. Choisissez le preset « Nuxt.js ».

Étape 3 – Configurez les Variables d’Environnement
Ajoutez les variables environnementales suivantes :
NUXT_SITE_TOKEN : configurez un token de site supérieur à 8 caractères.
NUXT_CF_ACCOUNT_ID : trouvez votre Cloudflare Account ID ici.
NUXT_CF_API_TOKEN : générez un token d’API Cloudflare avec les permissions nécessaires en suivant ce guide.

Étape 4 – Déploiement Initial
Cliquez sur « Save and deploy ». Si le déploiement échoue, annulez-le et passez à l’étape suivante.

Étape 5 – Configurez les Fonctionnalités

1. Allez dans Settings -> Functions dans Cloudflare Pages.
2. KV namespace bindings : Associez KV à une namespace KV existante ou nouvelle.
3. Workers AI Bindings (optionnel) : Associez AI au catalogue Workers AI.
4. Analytics Engine Binding : Associez ANALYTICS au dataset sink et activez le Cloudflare Analytics Engine Beta pour votre compte.

Étape 6 – Redéployez le Projet : Après avoir configuré les bindings, redéployez le projet depuis Cloudflare Pages.

Étape 7 : y’a plus qu’à accédez à votre tableau de bord déployé, à raccourcir un lien en utilisant l’interface, à le personnaliser avec un slug, à le diffuser puis à consulter l’analytique de vos liens pour suivre les clics et l’engagement.

Pour tester Sink c’est par ici !

GenDino – Créez votre propre dino game avec l’IA d’Imagen

Par : Korben
21 mai 2024 à 21:29

Vous vous souvenez du fameux jeu Dino de Google Chrome qui vous permet de passer des heures à sauter par-dessus des cactus pendant que votre connexion Internet fait des siennes ? Eh bien, Google a décidé de pimenter un peu les choses avec GenDino !

Grâce à la magie de l’IA Imagen, vous allez pouvoir créer votre propre version de ce jeu culte. Plus besoin de vous contenter de ce bon vieux T-Rex grisâtre, vous allez pouvoir laisser libre cours à votre imagination débordante ! Par exemple, moi j’ai fait un bébé à lunettes de soleil qui saute au dessus d’ordinateurs 😉

Pour commencer, rendez-vous sur labs.google/gendino et connectez-vous avec votre compte Google. Ensuite, c’est à vous de jouer ! Définissez votre personnage, les obstacles qu’il devra éviter et même le décor dans lequel il évoluera. Vous pouvez taper à peu près n’importe quoi dans les champs de génération, du moment que cela ne contient pas d’espaces ni de caractères spéciaux. Et si vous avez l’esprit mal tourné, sachez que Google bloquera certains noms de célébrités et d’entreprises. Et si vous n’avez pas trop d’idée et que voulez un peu de hasard, un bouton « I’m Feeling Lucky » en bas à gauche est disponible pour générer des suggestions aléatoires.

Une fois que vous avez trouvé la combinaison parfaite, cliquez sur « Let’s Run » et admirez le résultat ! Votre personnage sur mesure va s’animer dans un clone du petit jeu en pixel art tout mignon. Et si jamais le résultat ne vous plaît pas, pas de souci, vous pouvez relancer la génération jusqu’à trouver votre bonheur. Vous pouvez même partager vos créations pour que d’autres puissent essayer votre version spécifique du jeu.

C’est tout de même bluffant de voir comment Imagen 2 arrive à générer des sprites cohérents à partir de simples mots-clés. Pour cela, ce jeu utilise une technique appelée StyleDrop qui permet d’analyser une image de référence (ici les graphismes du jeu original) et de générer de nouveaux éléments dans le même style. Google nous met quand même en garde : il peut y avoir des ratés et des résultats incorrects, offensants ou inappropriés. C’est ce qui fait aussi la beauté de l’IA ^^ mais franchement, j’ai eu beau tester des trucs bien craignos, je n’ai pas réussi à la choquer…

Bref, c’est un bel aperçu de ce que l’IA générative pourrait apporter au monde du jeu vidéo. On peut imaginer des outils pour générer des textures, des modèles 3D ou d’autres éléments graphiques cohérents avec le style du jeu. Cela pourrait aussi être un super jouet pour les moddeurs qui voudraient créer des packs de textures HD ou d’autres améliorations visuelles pour leurs jeux favoris.

Malheureusement, comme toutes les bonnes choses, GenDino ne durera pas éternellement. Vous avez jusqu’au 28 mai pour tester cet ovni ludique concocté par Google.

Pour plus d’informations, vous pouvez consulter la FAQ sur labs.google/gendino.

Source

Faille RCE critique dans llama-cpp-python – Plus de 6000 modèles d’IA affectés

Par : Korben
20 mai 2024 à 14:45

Imaginez télécharger un modèle d’IA apparemment inoffensif sur une plateforme de confiance comme Hugging Face et découvrir qu’il ouvre en fait une porte dérobée permettant à des attaquants de prendre le contrôle de votre système ! C’est le risque que pose la faille critique CVE-2024-34359, découverte récemment dans le célèbre package Python llama-cpp-python.

Ce package très utilisé permet d’intégrer facilement des modèles d’IA écrits en C++ dans des projets Python. Pour cela, il utilise la bibliothèque de templates Jinja2 qui est capable de faire un rendu dynamique du HTML à partir des données. Une lib surpuissante mais potentiellement risquée si c’est mal configuré !

Et c’est justement là que le bât blesse. Le package llama-cpp-python utilise Jinja2 pour traiter les métadonnées des modèles au format .gguf, mais sans activer les protections nécessaires comme le bac à sable. Du coup, en injectant un template malicieux dans les métadonnées d’un modèle, un pirate peut exécuter du code arbitraire sur le système hôte !

Les dégâts potentiels sont énormes : vol de données, prise de contrôle totale, interruption de services… Surtout que les systèmes IA manipulent souvent des données ultra sensibles. Et vu la popularité de llama-cpp-python, l’impact est massif : plus de 6000 modèles vulnérables rien que sur Hugging Face ! Selon un article détaillé de Checkmarx, cette faille permet des attaques de la chaîne d’approvisionnement, où un acteur malveillant peut injecter du code dans un modèle téléchargé et redistribuer ce modèle compromis pour attaquer les développeurs d’IA.

Découverte par Patrick Peng (alias retro0reg), cette vulnérabilité repose comme je vous l’expliquait sur une mauvaise implémentation du moteur de templates. Cette faille de score CVSS critique de 9.7, permet l’injection de template côté serveur, conduisant à une exécution de code à distance (RCE). Un proof-of-concept a même été publié sur Hugging Face, démontrant comment un modèle compromis peut exécuter du code arbitraire lorsqu’il est chargé ou lors d’une session de chat.

Cela met en lumière un problème plus large : la sécurité des systèmes d’IA est intimement liée à celle de leur chaîne logicielle. Une vulnérabilité dans une dépendance tierce peut compromettre tout un système. Il faut donc redoubler de vigilance à tous les niveaux. Les modèles d’IA étant souvent utilisés au sein de projets critiques et manipulant des volumes importants de données sensibles, la moindre faille peut avoir des conséquences catastrophiques.

Mais rassurez-vous, une solution existe ! La version 0.2.72 de llama-cpp-python corrige le tir en ajoutant une validation des entrées et un bac à sable robuste autour de Jinja2. Si vous utilisez une version antérieure, la mise à jour est plus que recommandée.

Comment savoir si vos modèles sont touchés ? Regardez s’ils utilisent :

  • Le package llama-cpp-python en version < 0.2.72
  • Le format de fichier .gguf
  • Des templates Jinja2 dans les métadonnées

Si c’est le cas, passez immédiatement à la 0.2.72 ! Vous pouvez aussi auditer le code de vos modèles et regarder les permissions avec vos yeux de lynx.

Bref, comme d’hab, une petite faille peut vite tourner au désastre

Source

Des distrib Linux commencent à interdire le code généré par l’IA

Par : Korben
18 mai 2024 à 18:50

Ça chauffe du côté des distributions UNIX open source, mes amis. Gentoo et NetBSD viennent de dégainer leur arme anti-IA en bannissant purement et simplement le code généré par de l’intelligence artificielle. Bye bye Copilot, au revoir ChatGPT, votre code IA devient persona non grata chez les irréductibles du libre !

Mais pourquoi tant de haine ? Eh bien nos amis de Gentoo et NetBSD ont plus d’un arguments dans leur sac banane. Premier grief : le copyright. Avec ces IA qui pompent allègrement du code à droite à gauche, on ne sait plus trop à qui appartient quoi. Pas question donc de se retrouver avec du code « contaminé » qui violerait les sacrosaintes licences open source.

Deuxième point noir : la qualité. Vous avez déjà essayé de faire générer du code par ChatGPT ? C’est joli, ça a l’air de marcher… mais y’a quand même souvent des bugs ! Hors de question donc pour Gentoo et NetBSD de laisser entrer du code foireux dans leur précieux dépôts. Ils tiennent à leur réputation de stabilité et de fiabilité, nom d’un kernel en mousse !

Ah et puis il y a aussi la question de l’éthique. Leur point de vue, c’est qu’entre la consommation gargantuesque d’énergie, les violations de copyright pour les entraîner et leur utilisation pour spammer et arnaquer à tout-va, y a de quoi refuser tout ça en bloc. Ils ne veulent pas tremper là-dedans. Et d’un côté, je peux les comprendre.

Alors bien sûr, cette décision va à contre-courant de la hype actuelle mais Gentoo et NetBSD ne sont pas du genre à suivre la mode aveuglément et croient dur comme fer à l’importance du travail humain. Cela ne veut pas dire qu’ils rejettent complètement l’IA évidemment… Ils restent ouverts mais pour l’instant, c’est trop hasardeux. D’autres distrib comme Debian hésitent encore à rejoindre ce mouvement…

Perso, je pense que la question éthique et celle du copyright sont des vraies problématiques pour tous les projets libres car cela pourrait ruiner leurs efforts quand à la licence qu’ils s’attribuent ou leurs objectifs écolo… exactement comme Microsoft qui, en ce moment, est en train de ruiner tous ses efforts de développement durable de ces dernières années en poussant l’IA à fond…

Par contre, je ne suis pas vraiment d’accord avec eux sur la qualité du code produit. Certes, il y a des bugs mais exactement comme avec un humain. Donc, à mon sens, c’est pas pire ou pas mieux, surtout que le dev qui utilise l’IA est quand même censé repasser dessus et corriger les bugs éventuels.

On verra bien quelles distributions suivront ce mouvement éthique. Perso, je suis plutôt très chaud sur l’IA, comme vous le savez, mais en ce qui concerne ce cas spécifique du logiciel libre, je pense que Gentoo et NetBSD prennent la bonne décision en jouant la prudence. Pour le moment, ce n’est pas encore pour eux et ce serait prendre trop de risques.

Mais un jour, ça changera peut-être… On verra bien.

Source

Une visite guidée impressionnante des locaux de Comma.ai !

Par : Korben
15 mai 2024 à 23:52

Malgré l’heure tardive, j’espère que vous êtes bien réveillé parce que je vous emmène dans une visite incroyable au cœur des coulisses d’une entreprise que j’aime beaucoup : Comma.ai ! Les esprits brillants qui travaillent là bas, on eu la gentillesse d’ouvrir grand les portes de leurs bureaux à San Diego dans un live Youtube aujourd’hui, et croyez-moi, ça en vaut la peine !

Alors, pour ceux qui sont à la masse, Comma.ai c’est une startup fondée par George Hotz, qui carbure à l’innovation et qui s’attaque à rien de moins qu’au défi de la voiture autonome ! Et malgré ce qu’on pourrait penser quand on regarde les médias grands publics, on n’est pas du tout dans du vaporware puisque ça fonctionne très bien… D’ailleurs bien mieux que ce qu’il y a sur Tesla.

Avec ses algorithmes avancés d’apprentissage automatique et une intégration hardware plutôt sophistiquée et robuste, ce boitier transforme n’importe quelle voiture compatible en un véhicule semi-autonome (niveau 2 voire 2 et demi). D’ailleurs, leur produit est déjà opérationnel sur le terrain et utilisé par des milliers de personnes dont les retours sont très positif.

Mais ce qui fait la particularité de cette entreprise, c’est que leurs ingénieurs développent leur produit de A à Z, du hardware au logiciel en passant par les modèles IA…etc. C’est ce qu’on appelle une véritable boîte tech !

Et Comma.ai ne se contente pas de rêver, ils réalisent et ils livrent. Leur approche, qui allie matériel ouvert et logiciels libres, permet à une communauté mondiale de contributeurs d’améliorer leurs systèmes en continu. De plus, la transparence et la collaboration sont au cœur de leurs valeurs, ce qui permet de rendre les véhicules plus « intelligents », la conduite plus « chill » et les routes plus sûres.

Et si vous aimez les défis techniques, la conception, l’IA…etc et que vous êtes super bon, peu importe vos diplômes, sachez que Comma recrute à fond en ce moment… Je dis ça, je dis rien.

Et justement dans cette vidéo, vous allez découvrir leur fameux produit, le Comma 3, en pleine fabrication. Les gars nous font visiter leur « Comma Factory », là où la magie opère et où chaque élément est conçu avec une précision méticuleuse, de la conception des cartes à leur assemblage final. Vous aurez ainsi un aperçu unique de l’environnement de développement, mais également des défis techniques rencontrés et des innovations mises en place.

Enfin, si la sécurité en ligne vous intéresse, sachez qu’ils mettent un point d’honneur à protéger les informations de leurs utilisateurs et chaque ligne de code est scrutée à la loupe pour garantir une robustesse maximale contre les attaques potentielles.

Bref, retenez bien le nom de cette société car grâce à cette bande de geeks, le futur des voitures autonomes… c’est déjà le présent.

Project IDX – L’IDE nouvelle génération de Google arrive en bêta publique !

Par : Korben
15 mai 2024 à 14:17

Project IDX, le petit dernier de Google dans la famille des IDE, sort enfin de sa phase d’incubation pour se frotter au grand public ! Fini le club sélect des happy few triés sur le volet, maintenant tout le monde peut mettre les mains dans le cambouis de cet environnement de dev’ d’un nouveau genre.

Oubliez vos bon vieux IDE installés sur votre bécane, là on parle d’un Visual Studio Code en ligne propulsé à l’IA Google, c’est à dire Gemini 1.5. IDX intègre une armada d’outils et de fonctionnalités censées vous faciliter la vie : templates pour les frameworks tendances du moment (React, Vue, Angular, Flutter…), autocomplétion et suggestions de code intelligentes, debugger intégré, prévisualisation en direct, et même des émulateurs iOS et Android pour tester vos créations immédiatement.

Mais la vraie star du show, c’est donc Gemini, le modèle d’IA de Google spécialisé en dev. Cette petite merveille est capable de comprendre votre code, de vous aider à le débugger ou à l’optimiser, et même de générer des bouts de programme entiers à partir de vos instructions en langage naturel.

Par exemple, vous lui dites « crée-moi une todolist en Rust » (ce que j’ai fait) et hop, Gemini vous sort le code presque clé en main mais pas trop quand même !

Car après avoir testé la bête, je vais pas vous mentir, c’est pas encore totalement au point. Des fois Gemini part en vrille et sort du code incomplet ou bancal.

Et l’ergonomie générale de l’IDE est parfois un peu brouillonne. Ça se voit que c’est encore une bêta. Perso, j’ai une petite préférence pour l’IDE Cursor (payant) qui intègre aussi de l’IA (GPT-4o ou Claude ou ce que vous voulez) mais de façon plus fonctionnel et efficace je trouve. Mais bon, ça c’est l’avis de quelqu’un qui a ses petites habitudes. Je ne doute pas que Google va rapidement améliorer et peaufiner son bébé.

Bref, si vous voulez essayer le dernier joujou à la mode, foncez sur idx.dev pour vous inscrire et mettre les mains dans vos premiers Project IDX.

Amusez-vous bien et codez bien !

Source

Quelles extensions IA récoltent le plus vos données ?

Par : Korben
13 mai 2024 à 03:21

Bannière Incogni

— Article en partenariat avec Incogni

Salut les amis, j’espère que vous profitez bien de ce printemps dégueulasse avant la période trouble de la fin d’année scolaire qui arrive. De mon côté, comme vous l’avez remarqué je charbonne pas mal en ce moment avec un rythme de publication assez poussé. Le site a 20 ans et presque toutes ses dents … la seconde jeunesse n’est pas un mythe. Et je vous teste du coup pas mal d’outils IA variés et éclectiques. L’occasion de rappeler que tout n’est pas (p)rose au pays du prompt.

Récemment je vous ai mis en garde sur les pratiques des applications d’achat de vêtements, les applis destinées aux enfants et même les voitures intelligentes. Vous pensiez que ce serait difficile de faire pire ? Et bien, détrompez-vous, car avec la mode de l’Intelligence artificielle, il semble « normal » de voir naitre des outils destinés à récolter un max d’informations personnelles à notre propos. Surtout si ce sont des extensions qui tournent sur Google Chrome (que vous devriez avoir remplacé par Firefox ou par Brave au minimum depuis 1974).

Si vous touchez à l’IA, vous savez qu’elles sont capables de rendre d’énormes services et de vous faire gagner du temps. Le souci c’est que cela les rend d’autant plus alléchantes à installer et à utiliser. Et leurs concepteurs l’ont bien compris. Les chercheurs d’Incogni ont donc passé au grill plus de 70 extensions Chrome pour voir si le résultat est catastrophique. Ou tout du moins qui s’en sort le moins bien et qui récolte quoi à votre propos.

Et l’état des lieux est … cata. Encore plus que pour les catégories précédemment citées. Ici ce sont pas moins de 70% des apps qui sont problématiques, mais qui en plus sont considérés à risques élevés. Par exemple 100% des extensions dédiées à l’écriture assistée par IA sont concernées (ouch). 60% récoltent vos données personnelles et surtout 44% récupèrent des infos qui peuvent vous identifier directement (adresse mail, téléphone, nom et prénom …). Du pain béni pour les data brokers.

Du côté des permissions demandées, sans surprises, ce sont les extensions de type assistant personnel qui se gavent le plus. Habitudes de surf, historique web, localisation, identifiants de connexions … certaines peuvent même aller jusqu’à injecter du code JavaScript dans les pages que vous utilisez, avec tous les risques que cela comporte. Parmi les apps inspectées, de grands noms comme Grammarly, Quillbot, Jasper ou WebChatGPT. Est-ce que ce sera utilisé à vos dépens ? Qui sait. Si vous voulez creuser les données, c’est par ici.

Bref, l’IA ne déroge pas à la règle habituelle du web : lorsqu’une nouvelle technologie débarque, c’est toujours un peu le far-west. Et pour se protéger un minimum il n’y a pas tant d’outils que ça, d’ou l’utilité d’un service comme Incogni.

En limitant la durée de rétention de données personnelles stockées chez les data brokers, Incogni contribue à renforcer votre confidentialité en ligne et à réduire votre exposition. L’outil ne peut pas empêcher ce genre d’applications de récupérer vos infos (il n’y a que vous qui pouvez le faire en étant très attentif à votre comportement en ligne, en n’installant rien d’inutile, etc.). Par contre il va empêcher les brokers qui achètent ou se procurent votre profil de l’utiliser et le revendre.

Via une interface simple à prendre en main, l’outil de Surfshark va servir d’intermédiaire. Il va analyser sa liste de courtiers sous surveillance (environ 200), voir si vous apparaissez dans leurs bases et si c’est le cas leur envoyer un mail pour demander un retrait. Et relancer sans arrêt jusqu’à ce que le broker effectue la suppression. En plus de voir l’avancée des étapes sur votre compte, vous pouvez aussi connaitre le niveau de dangerosité des différents brokers. Un retour sur mon test personnel est à lire ici.

Il fait aussi du suivit long terme. Donc dès qu’un vilain pas beau vous a effacé, vous savez que c’est pour de bon (s’il tente un coup en scred il sera rappelé à l’ordre). Et savoir qu’il ne fera plus d’argent sur votre dos est toujours une petite satisfaction. Le prix du service reste inchangé, vous pouvez vous abonner pour moins de 94€ TTC/an. Et cela sans risques grâce à la garantie satisfait ou remboursé de 30 jours.

Lancez-vous, testez Incogni !

En manque d’inspiration avec vos prompts IA ? Allez jeter un œil à la bibliothèque d’Anthropic

Par : Korben
12 mai 2024 à 07:00

Vous en avez assez de passer des heures à chercher la formulation parfaite pour obtenir de bons résultats avec vos prompts IA ?

Ne vous cassez plus la tête, puisque Anthropic a pensé à tout avec sa Prompt Library. Cette bibliothèque gratuite de prompts va vous permettre d’interagir plus facilement avec des outils comme Claude3, ChatGPT, Mistral…etc. Les prompts que vous y trouverez sont pré-optimisés pour une multitude de tâches, allant de la rédaction au développement en passant par l’analyse de données. Et ça n’a de cesse de s’enrichir puisque tout le monde peut soumettre ses meilleurs prompts.

Pour l’utiliser, il vous suffit de copier-coller le prompt de votre choix dans votre IA préférée, d’y apporter quelques modifications si le cœur vous en dit, et voilà ! Il y a même le code en TypeScript ou Python qui vous permettra de passer un message « system » avant votre message « user ».

Chacun de ces prompts est le fruit d’un travail minutieux de la part des équipes d’Anthropic dont l’objectif est de fournir des résultats d’e qualité supérieure d’excellente qualité afin de montrer ce que Claude3 a dans le ventre. Et, comme je le disais, il y en a pour tous les goûts… Des prompts pour générer des recettes, interpréter les rêves, se lancer dans la médiation pleine conscience, à des choses plus boulot / business comme créer une marque, rédiger des documents, debugger du code python et j’en passe.

Si ça vous dit de jeter un œil, c’est par ici que ça se passe.

❌
❌