Vue normale

Reçu aujourd’hui — 14 octobre 2025

Google déploie Nano Banana : l’IA d’édition d’images arrive dans Lens, Search, Photos et NotebookLM

Google continue d’étendre les capacités de son écosystème d’IA générative avec Nano Banana, un modèle d’édition et de génération d’images issu de la famille Gemini 2.5 Flash. Après avoir été testé plus tôt cette année dans l’AI Studio destiné aux développeurs, Nano Banana quitte la phase expérimentale pour s’intégrer directement à plusieurs produits grand public, dont […]

L’article Google déploie Nano Banana : l’IA d’édition d’images arrive dans Lens, Search, Photos et NotebookLM est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

💾

Video Overviews will now use one of the six new visual styles: Watercolor, Papercraft, Anime, Whiteboard, Retro Print and Heritage.Try now at: https://notebo...
Reçu avant avant-hier

L'API qui manquait à Ollama pour concurrencer ChatGPT est enfin là !!

Par :Korben
26 septembre 2025 à 16:40

Ce qui est super relou avec les IA qu’on peut utiliser en local, genre avec Ollama, c’est que si on lui demande des infos un peu trop récente, ça nous sort des vieux chiffres de 2023 avec la confiance d’un vendeur de voitures d’occasion. Bon bah ça, c’est fini puisqu’ Ollama vient de sortir une API de recherche web qui permet enfin à vos modèles locaux d’accéder à des infos fraîches dispo sur le net.

Woohoo \o/ !

Baptisée Ollama Web Search, cette API REST permet donc à vos modèles de faire des recherches sur le web en temps réel comme ça plus besoin de se contenter des données d’entraînement figées dans le temps. Selon la doc officielle , l’API fournit “les dernières informations du web pour réduire les hallucinations et améliorer la précision”. En gros, votre IA locale devient aussi à jour que ChatGPT, mais sans envoyer vos données perso à OpenAI.

Les modèles compatibles avec cette nouvelle fonctionnalité incluent qwen3, LLama, gpt-oss (la version open source d’OpenAI), deepseek-v3.1, et plein d’autres. Et d’après les premiers tests de la communauté , qwen3 et gpt-oss sont même plutôt doués pour exploiter cette fonctionnalité. Le modèle comprend qu’il lui manque une info, fait sa recherche, analyse les résultats et nous sort une réponse documentée !

C’est trop incrrrr ! Vous allez pouvoir booster vos scripts / bots / outils d’IA locale pour qu’ils puissent surveiller des choses dispo en ligne, les comparer, générer des résumés à partir de sites web, fact checker ou compléter des infos…etc.

Mais alors comment s’en servir ? Bon, on est vendredi soir et j’ai la flemme de tourner un tuto vidéo, donc même si je risque de détailler tout ça bientôt à mes Patreons d’amour , voici quand même quelques explications.

D’abord, il faut créer une clé API Ollama . La doc explique que vous avez un essai gratuit généreux pour commencer, mais s’il vous en faut plus, il faudra prendre un petit abonnement Ollama Cloud

Une fois votre clé en poche, exportez-la dans votre environnement comme ceci :

export OLLAMA_API_KEY="votre_clé_ici"

Le plus simple ensuite pour tester, c’est avec curl :

curl https://ollama.com/api/web_search \ --header "Authorization: Bearer $OLLAMA_API_KEY" \ -d '{ "query": "dernières vulnérabilités CVE janvier 2025" }'

Mais bon, soyons honnêtes, on va plutôt utiliser Python car c’est quand même plus cool ;-) . Voici donc un exemple de script basique qui compare une réponse avec et sans recherche web :

import ollama
from ollama import chat, web_search, web_fetch

model = "qwen3:4b"

# 1. Sans recherche web
response_classic = chat( # pas ollama.chat
 model=model,
 messages=[{
 "role": "user",
 "content": "Quelles sont les features de React 19?"
 }]
)
print("Sans recherche web:", response_classic.message.content[:500]) # .message.content

# 2. Avec recherche web
search_results = web_search("React 19 features dernières nouveautés")
print("Résultats:", search_results)

# 3. Avec outils
available_tools = {'web_search': web_search, 'web_fetch': web_fetch}
messages = [{
 "role": "user",
 "content": "Utilise la recherche web pour me dire les dernières features de React 19"
}]

response_with_tools = chat(
 model=model,
 messages=messages,
 tools=[web_search, web_fetch],
 think=True
)

# Accès aux tool_calls
if response_with_tools.message.tool_calls:
 for tool_call in response_with_tools.message.tool_calls:
 function_to_call = available_tools.get(tool_call.function.name)
 if function_to_call:
 args = tool_call.function.arguments
 result = function_to_call(**args)
 print(f"Outil utilisé: {tool_call.function.name}")
 print(f"Résultat: {str(result)[:500]}...")

print("Réponse finale:", response_with_tools.message.content)

Les performances varient ensuite selon les modèles. Qwen3:4b est parfait pour du temps réel avec environ 85 tokens/seconde. GPT-OSS:120b est plus lent mais donne des résultats de qualité idéaux pour de la production. Pour du dev local, je vous recommande qwen3:8b, c’est le bon compromis entre vitesse et intelligence.

Le truc cool, c’est que vous pouvez maintenant créer des agents spécialisés. Genre un agent DevOps qui surveille les CVE de vos dépendances, un agent Marketing qui analyse les tendances de votre secteur, ou un agent Support qui maintient une base de connaissances à jour.

Voici un exemple :

import ollama
from ollama import chat, web_search

class SecurityAgent:
 def __init__(self):
 self.model = "qwen3:4b"

 def check_vulnerabilities(self, technologies):
 rapport = "🛡️ RAPPORT SÉCURITÉ\n\n"

 for tech in technologies:
 # Recherche directe des CVE récentes
 results = web_search(f"{tech} CVE vulnerabilities 2025 critical")

 # Demande au modèle d'analyser
 response = chat(
 model=self.model,
 messages=[{
 "role": "user",
 "content": f"Résume les vulnérabilités critiques de {tech}: {results}"
 }]
 )

 rapport += f"### {tech}\n{response.message.content}\n\n"

 return rapport

# Utilisation
agent = SecurityAgent()
rapport = agent.check_vulnerabilities(["Node.js", "PostgreSQL", "Docker"])
print(rapport)

Maintenant, pour optimiser un peu tout ça et ne pas flamber votre quota API, voici quelques astuces assez classiques… D’abord, mettez en cache les résultats. Ensuite, soyez spécifique dans vos requêtes. Par exemple “React hooks” va chercher plein de trucs inutiles, alors que “React 19 nouveaux hooks useActionState” sera plus efficace.

On peut vraiment réduire la quantité de requêtes en étant malin sur le prompt engineering. Par exemple, au lieu de laisser le modèle chercher tout seul, guidez-le : “Vérifie uniquement sur la doc officielle de React” plutôt que “Cherche des infos sur React”.

Et comme Ollama supporte MCP Server, Cline, Codex et Goose, c’est royal car vous pouvez aussi brancher votre assistant IA directement dans votre IDE, Slack, ou Discord. Hé oui, vous allez enfin pouvoir coder un bot Discord qui va fact-checker automatiquement les affirmations douteuses et foireuses de vos collègues. Le rêve !

Pour aller plus loin, vous pouvez aussi combiner la recherche web avec le fetching de pages spécifiques. L’API web_fetch permet ainsi de récupérer le contenu d’une URL précise. Pratique pour analyser en profondeur une doc ou un article :

from ollama import web_search, web_fetch, chat

# 1. Recherche d'articles pertinents
search_results = web_search("React 19 vs Vue 3 comparison 2025")
top_url = search_results.results[0]['url'] # ou .url selon le type
print(f"📰 Article trouvé: {search_results.results[0]['title']}")

# 2. Récupération du contenu complet de la page
page_content = web_fetch(top_url)
print(f"📄 {len(page_content.content)} caractères récupérés")

# 3. Analyse approfondie du contenu
response = chat(
 model="qwen3:4b", # ou "gpt-oss" si disponible
 messages=[{
 "role": "user",
 "content": f"""
 Analyse cette comparaison technique:
 {page_content.content[:4000]}

 Donne-moi:
 1. Les points clés de chaque framework
 2. Le gagnant selon l'article
 3. Les cas d'usage recommandés
 """
 }]
)

print(f"\n🔍 Analyse:\n{response.message.content}")

Alors bien sûr, des fois la recherche retournera des trucs pas pertinents, surtout si votre requête est vague et de son côté, le modèle peut aussi mal interpréter les résultats s’il est trop petit. Mais bon, comparé à une IA qui vous sort que Windows 11 n’existe pas encore, on a fait quand même pas mal de chemin, vous ne trouvez pas ??

J’espère qu’à terme, Ollama ajoutera aussi le support de sources personnalisées car ce serait vraiment cool de pouvoir indexer par exemple sa propre doc ou ses propres emails pour y faire des recherches… Mais bon, en attendant cette nouvelle API permet enfin de contrebalancer ce problème des modèles pas à jour en terme de connaissances, et ça c’est déjà énorme !

A vous de jouer maintenant !

Source

Garuda Linux : chroot + luks

Par :fred
23 septembre 2025 à 17:05
Lorsque le système Garuda Linux ne démarre plus correctement (problème de GRUB, kernel corrompu, initramfs endommagé, etc.), l’une des solutions les plus efficaces est d’utiliser un Live USB pour accéder à vos partitions et corriger le système via un chroot. Monter un chroot d’une partition chiffrée avec LUKS depuis un Live USB Garuda Linux Si, […]

OpenAI corrige la faille zéro-clic ShadowLeak dans Deep Research

19 septembre 2025 à 11:22
OpenAI corrige ShadowLeak, faille zéro-clic de Deep Research exploitant un simple email pour exfiltrer des données sensibles....

Trois secrets méconnus sur le capitaine Price de Call of Duty

13 septembre 2025 à 20:00

Personnage emblématique de la franchise Call of Duty, le capitaine John Price traverse les époques avec sa moustache broussailleuse et son accent rocailleux. Malgré sa présence constante dans la série Modern Warfare, nombreux sont les aspects de ce soldat du SAS qui demeurent dans l’ombre. Entre héritage historique et inspirations réelles, découvrons ensemble les facettes ... Lire plus

L'article Trois secrets méconnus sur le capitaine Price de Call of Duty est apparu en premier sur Fredzone.

Booster la recherche sous Jellyfin avec Meilisearch

Par :Aerya
14 septembre 2025 à 08:17

La recherche de Jellyfin fonctionne bien mais on peut la booster en termes de vitesse et de precision. Par exemple utile quand on commence à indexer des 100aines de To de contenus ou qu’on fait des fautes dans les noms de contenus, acteurs etc.

Meilisearch est un moteur de recherche ultra-rapide qui s’intègre sans effort dans des applications, sites Web et flux de travail.

Pour le coupler à Jellyfin il existe le projet JellySearch mais là je présente l’installation séparée de Meilisearch et l’utilisation du plugin d’arnesacnussem.


Pour commencer il faut installer Meilisearch. La master_key est une clé à définir soi-même.

services:
  meilisearch:
    image: getmeili/meilisearch:latest
    container_name: jellyfin-meilisearch 
    restart: always
    stdin_open: true
    tty: true
    ports:
      - 7700:7700
    environment:
      - MEILI_MASTER_KEY=xpQvJwcLTxsdnx0P7oJMZ1f3LwIUcF
    volumes:
      - /home/aerya/docker/jellyfin-meilisearch:/meili_data
    labels:
      - com.centurylinklabs.watchtower.enable=true

On se rend ensuite sur la WebUI pour y entre la master_key en confirmation d’installation

jellyfin meilisearch1

Puis on installe le plugin sous Jellyfin

https://raw.githubusercontent.com/arnesacnussem/jellyfin-plugin-meilisearch/refs/heads/master/manifest.json

Après reboot on peut le configurer avec l’URL de Meilisearch, la master_key. Tout en haut, cliquer sur Connect et s’assurer que meilisearchOk passe bien en true, ce qui confirme la bonne connexion.

jellyfin meilisearch2

Et on utilise la recherche classique de Jellyfin, qui est plus complète et rapide.

Loading

Over 100,000 ChatGPT Conversations Exposed Via Google Search: Privacy Concerns Surface

7 août 2025 à 18:00
A recent discovery revealed that more than 100,000 ChatGPT conversations were accessible through a simple Google search, sparking serious privacy concerns. The issue was first reported by Digital Digging, which found that users could access shared chat links just by entering specific search queries. These chats included exchanges between users and the AI that, in some cases, may have contained sensitive personal information.The incident drew swift attention from the public […]

Aeryth : Intégrer une AppImage dans un paquet et le bureau

15 juillet 2025 à 14:35

Convertir proprement une AppImage en paquet ? Aeryth le fait en une commande : ce script Bash GPL v3 emballe votre AppImage en .deb ou .tar.zst, ajoute icône et lanceur, et s’installe/désinstalle via apt ou pacman.

Pourquoi Aeryth ?

Le format AppImage simplifie la distribution d’applications Linux, mais pose deux soucis :

  1. Intégration bureau (menus, icônes) absente au sein de l'environnement.
  2. Mises à jour invisibles pour le gestionnaire de paquets.

Aeryth règle ces points : il transforme toute AppImage en véritable paquet Debian (.deb) ou Arch (.tar.zst) prêt à être executé, et offre des options d'intégration d'un AppImage complet ou extrait au sein du paquet. 🤝

La documentation est très explicite sur le dépôt git sur GitLab, l'outil peut être au choix totalement ou partiellement interactif, ou 100% CLI utilisable des arguments et intégrable. 🙂

Il est en outre pensé multi-platforme, avec une gestion chroot et deboostrap pour pouvoir générer des paquets deb ou archlinux sur les deux familles de distributions, il est même possible de forcer le chroot pour ne pas devoir "polluer" la distribution actuellement utilisée même si elle peut générer nativement les paquets.

Il est pensé pour s'adapter à des utilisateurs néophytes ou confirmés. 😉


Fonctions principales

Fonction Description
Double cible Génère un paquet .deb ou .tar.zst
Multilingue Interface interactive : FR · EN · ES · IT · DE
Respect FHS Copie l’AppImage sous /opt/<app>/, wrapper dans /usr/bin
Licence GPL v3

Installation rapide

git clone https://gitlab.com/pepinature/aeryth.git
cd aeryth
chmod +x aeryth.sh

Feuille de route

  • Détection automatique des nouvelles versions AppImage.
  • CI : tests sur Debian 12, Ubuntu 24.04, Arch stable.

Ressources


Commentaires : voir le flux Atom ouvrir dans le navigateur

❌