Vue lecture

Bloom Filters by Example

L'une des explications les plus simples de ce qu'est un "bloom filter" que j'ai pu trouver.

Contexte : Un "bloom filter" est une structure de données qui permet de vérifier si une donnée fait partie d'un ensemble ou non. Elle a des caractéristiques particulières qui peuvent être intéressantes :
- elle est très compacte en mémoire (vous avez besoin de peu de mémoire pour savoir si une donnée fait partie d'un ensemble puisque vous n'avez pas à stocker cet ensemble en entier).
- elle est très rapide (plus rapide que de rechercher une donnée dans l'ensemble en question)
- elle protège les données (vous pouvez donner un "bloom filter" à quelqu'un pour qu'il vérifie si une donnée fait partie d'un ensemble sans lui donner cet ensemble).
- c'est une structure probabiliste : Si elle vous dit que la donnée n'appartient pas à l'ensemble, c'est une certitude. Si elle vous dit qu'elle appartient à l'ensemble, c'est très probablement le cas (mais pas à 100%).

En choisissant la taille du filtre de bloom et les fonctions de hashage en fonction de la taille des données, on peut choisir cette probabilité de faux positif.
(Permalink)
  •  

SoundCloud met à jour sa politique d'IA en termes de service après le tollé

La semaine dernière, SoundCloud a été accusé d'avoir modifié ses conditions d'utilisation afin de permettre l'utilisation du contenu mis en ligne sur la plateforme comme données d'entraînement pour l'intelligence artificielle (IA). La plateforme de streaming a désormais mis à jour sa politique en matière d'IA dans ses conditions d'utilisation. Dans une lettre ouverte, son PDG, Eliah Seton, explique que le contenu des artistes restera intact et ne sera pas utilisé pour entraîner l'IA générative. « L'IA doit soutenir les artistes, et non les remplacer », a écrit Seton dans sa lettre ouverte. « Face à l'évolution rapide du paysage, s'il existe une opportunité de tirer parti de l'IA générative au profit de nos artistes, nous pouvons la leur offrir avec leur consentement explicite, grâce à un mécanisme d'adhésion. Nous ne savons pas ce que nous ignorons, et nous avons la responsabilité de leur offrir les opportunités, les choix et le contrôle nécessaires pour poursuivre leur parcours créatif. Nous prenons l'engagement formel que toute utilisation de l'IA sur SoundCloud sera fondée sur le consentement, la transparence et le contrôle des artistes. » Dans sa lettre, Seton a ajouté que SoundCloud a mis à jour ses conditions de service en février 2024 pour clarifier comment il utilise l'IA pour améliorer les recommandations, la recherche, les listes de lecture, le marquage du contenu et les outils de prévention de la fraude de la plateforme. "Notre utilisation de l'IA est axée sur la découverte, aidant les fans à trouver de nouvelles musiques et à accompagner les artistes dans leur développement, en commençant par leurs premiers fans. Plus généralement, nous utilisons l'IA pour identifier les talents émergents, personnaliser l'expérience sur la plateforme et offrir un service client en temps réel, tout cela au nom du soutien aux artistes et de l'engagement des vrais fans". (Lire la suite)
  •  

SuperClaude - Le framework qui transforme Claude Code en machine de guerre

Si vous utilisez Claude Code, le nouvel assistant de programmation d’Anthropic qui vit directement dans votre terminal, vous allez kiffer ce que je vais vous montrer aujourd’hui. Y’a un développeur nommé Anton Knoery (NomenAK sur GitHub) qui vient de sortir SuperClaude, un framework de configuration qui transforme Claude Code en véritable machine de guerre pour les développeurs.

Attention, ce n’est pas encore un outil avec 150 dépendances Node.js à la con qui va foutre le bordel dans votre système. Non non, SuperClaude c’est de la pure configuration, zéro code, zéro dépendance externe. Le truc s’installe tranquillement dans votre dossier ~/.claude/ et améliore discrètement les capacités de Claude Code dans tous vos projets.

  •  

Meta AI peut désormais résumer les messages WhatsApp : qu'en est-il de la confidentialité ?

WhatsApp vient d'annoncer une grosse mise à jour concernant Meta AI , le chatbot intégré à toutes ses applications, qui est désormais capable de résumer tous les messages non lus dans un chat privé ou de groupe. Grâce à la fonctionnalité Résumés des messages , Meta AI résumera de manière privée et rapide les messages non lus dans une discussion, afin que vous puissiez rapidement avoir une idée de ce qui s'est passé en votre absence. Après tout, quelque chose comme ça n'est certainement pas une nouveauté absolue, si même Google Assistant sur Android Auto le fait depuis un certain temps, mais compte tenu de toute la controverse qui a surgi concernant le « forçage » de Meta AI dans WhatsApp, il vaut la peine de bien comprendre les plans de Meta. La société de Zuckberberg assure que Message Summaries utilise une technologie de traitement privée , qui permet à Meta AI de créer ces résumés sans que Meta ou WhatsApp ne puissent jamais accéder à nos messages privés ; ou même aux résumés générés par l' IA . De plus, aucun autre participant au chat ne pourra voir les résumés générés par l'IA, mais seul l'utilisateur qui les a demandés pourra les lire. Du point de vue de la confidentialité , cela ne semble poser aucun problème, mais ceux qui souhaitent se familiariser avec cette technologie trouveront plus de détails techniques dans cet article sur le blog officiel de l'entreprise. Les résumés de messages sont déjà déployés auprès des utilisateurs anglophones aux États-Unis , mais Meta « espère » (littéralement) apporter la fonctionnalité à d’autres langues et pays dans le courant de 2025. Ce ne sera probablement pas aussi facile en Europe à cause du RGPD, ce qui est certainement une bonne chose et la raison pour laquelle même Meta n’est pas sûr de pouvoir le faire de sitôt. Notez que les fonctions utilisant ce traitement privé, comme les résumés de messages, sont facultatives et désactivées par défaut . Au moins, cette fois, Meta ne cherche à imposer quoi que ce soit à qui que ce soit : les utilisateurs devront choisir cette option dans les paramètres et pourront la désactiver à tout moment. De plus, et c'est une très bonne idée , il est également possible de choisir quels chats peuvent ou non utiliser les fonctions de l'IA, de sorte que, même si nous décidons de les utiliser, toutes nos conversations ne seront pas incluses, protégeant ainsi davantage une confidentialité qui était déjà censée être protégée dès le départ. (Lire la suite)
  •  

Common Lisp ces deux dernières années: un monstre de l'évolution parmi nous

Le langage Common Lisp n’est pas un dinosaure éteint. À l’instar de certains requins, c’est une bestiole qui n’a cessé d’évoluer pour devenir un prédateur redoutable aujourd’hui. C’est un langage qui éclate l’auteur du journal à l’origine de cette dépêche, dzecniv, au quotidien depuis des années, avec lequel il déploie certains services facilement (venant de Python, il apprécie le déploiement), alors il a de nouveau rédigé un petit récapitulatif de ce qui s’est passé dans cet écosystème ces deux dernières années.

Vous prendrez garde à ne pas conclure que les bibliothèques et projets qui sont présentés ici sont les seuls de leur domaine, ni que tous les nouveaux projets sont listés, ni qu’il s’agit d’un aperçu complet de l’écosystème.

Sommaire

(NdM: dans la suite, l'auteur du journal à l’origine de la dépêche s'exprime à la première personne)

Pour avoir un aperçu plus global de l'écosystème, veuillez faire une petite recherche sur GitHub, surveillez reddit/r/lisp et reddit/r/common_lisp, utilisez un moteur de recherche, ou commencez par jeter un coup d’œil sur la liste awesome-cl.

Il me tient à cœur de faire cette liste, car de l’extérieur on ne se rend pas forcément compte à quel point, certes, le langage et l’écosystème sont stables, mais qu’ils évoluent également.

S’il fallait en choisir trois, je mettrais ces travaux en avant :

  1. je suis impressionné par tout ce qui se passe autour de l’implémentation SBCL (et des travaux en cours sur ECL et ClozureCL)
  2. j’adore l’éditeur Lem, et suis également impressionné par tous les modules qu’il comporte déjà, par la qualité de sa base de code et par la facilité avec laquelle on peut l’explorer, ce qui est aussi rendu facile par l’interactivité du langage
  3. plusieurs outils pour écrire et exécuter des scripts plus rapidement que d’habitude émergent, et sont nécessaires à mon avis.

Bonne découverte.

Opus Modus v3

Hacker News est passé de Racket à Common Lisp (SBCL)

C’est une nouvelle plutôt cool pour nous les publicitaires pro du langage. HN a été développé avec le dialecte de Lisp Arc, initialement implémenté avec Racket, et pour des questions de performance ils l’ont ré-implémenté en Common Lisp, avec SBCL.

Pour plus de contexte : Paul Graham (avec Robert Morris) crée Viaweb en 1995, le premier fournisseur d’applications en ligne (pour garder la terminologie de Wikipédia, page Paul Graham), développé en Common Lisp, avec l’implémentation CLisp. Cette implémentation existe toujours et est légèrement développée, mais il est généralement conseillé d’utiliser SBCL (qui colle mieux au standard, qui est plus performante, qui donne plus d’indications de typage pendant le développement, etc.). “PG” vend Viaweb à Yahoo en 1998 (pour ce qui devient Yahoo! Store), et fonde l’incubateur de start-ups YCombinator. PG n’était pas satisfait par Common Lisp, au tout au moins (là, je n’ai pas les sources) voulait un dialecte plus succinct, qui permette d’écrire des applications web de manière plus compacte. Il ébauche un dialecte de Lisp, appelé Arc, et l’implémente avec Racket (MzScheme à l’époque). Le site de Hacker News (géré par YCombinator) fut donc écrit en Arc avec cette première implémentation.

Le responsable (ou un des responsables) du portage vers SBCL et modérateur d’Hacker News, dang, explique :

[Clarc, l’implémentation en Common Lisp] est beaucoup plus rapide et permet de faire tourner HN sur plusieurs cœurs. Ça a été un travail de fond de quelques années, principalement parce que je ne trouve pas le temps pour travailler dessus.

Les sources du site d’HN ne seront pas publiées pour ne pas dévoiler de multiples mécanismes anti-spam et anti-abus (les séparer du code source serait « beaucoup de travail »), mais les sources de Clarc pourraient l’être, avec un peu plus d’efforts pour les séparer du code d’HN.

https://lisp-journey.gitlab.io/blog/hacker-news-now-runs-on-top-of-common-lisp/

C’est quoi Common Lisp ?

C’est un langage multi-paradigmes, et selon les implémentations, comme avec SBCL : compilation en code machine très performant, typage graduel, très interactif :

  • débogueur interactif, permet de corriger une fonction, de la re-compiler et de reprendre l’exécution depuis la fonction boguée, sans devoir tout relancer de zéro (démo youtube)
  • ne perd pas l’état du programme en cours quand on travaille avec un bon éditeur
  • permet même de contrôler comment des instances sont mises à jour lorsque la définition d’une classe change (pas forcément utile pour le quotidien on est d’accord, encore que, quand on sait le faire on en tire parti, mais c’est pensé pour les systèmes à longue durée de vie, qu’on peut patcher pendant qu’ils tournent),
  • un REPL avec beaucoup de fonctionnalités (ne redémarre jamais, on peut installer des bibliothèques depuis le REPL), extrêmement utile et satisfaisant en tant que développeur (j’en ai toujours un d’ouvert),
  • on compile fonction par fonction avec un raccourci clavier, SBCL nous donne beaucoup de warnings et d’erreurs de typage instantanément (et pour du Haskell intégré dans Common Lisp, cf. Coalton ci-dessous).

Définir une fonction :

(defun hello ()
  (print "hello!"))

;; Appeler la fonction:
(hello)

Compiler la fonction :

  • soit C-c C-c depuis tout bon éditeur, sans quitter le programme, sans redémarrer quoi que ce soit,
  • soit C-c C-k depuis l’éditeur, pour re-compiler le fichier,
  • soit sbcl --load hello.lisp depuis la ligne de commande (ce qu’on va donc faire rarement, seulement de temps en temps pour vérifier que ça passe, pour construire un binaire, pour déployer depuis les sources…)

Liens :

La communauté

Elle est active, il y a des évènements IRL réguliers dans quelques villes, l’European Lisp Symposium chaque année…

On peut voir les chiffres de la communauté reddit/r/common_lisp (plus petite que le plus général “lisp”),

La communauté est présente sur reddit, Discord (lien: https://discord.gg/hhk46CE), IRC, Mastodon, LinkedIn…

Documentation

On a la chance d’avoir de très bons livres sur CL, mais historiquement peu de doc en ligne. Ça évolue.

Les spécifications du langage ont été portées vers des sites beaucoup plus sympas à l’utilisation que le site de référence, comme le Common Lisp Community Spec, site également publié sous licence libre,

Le Common Lisp Cookbook reçoit un bon nombre de contributions. On peut le trouver en EPUB : https://github.com/LispCookbook/cl-cookbook/releases/tag/2025-01-09

Le livre PAIP est maintenant disponible en ligne : https://norvig.github.io/paip-lisp/#/

J’ai sorti un nouveau site sur le développement web en Common Lisp : https://web-apps-in-lisp.github.io/index.html

FreeCodeCamp a publié un cours “complet” sur Youtube : https://www.reddit.com/r/Common_Lisp/comments/1i1e766/lisp_programming_language_full_course_for/

cf. d’autres vidéos sympas ici : https://www.cliki.net/Lisp%20Videos

J’ai sorti neuf vidéos (1h22) pour expliquer CLOS, le système objet : https://lisp-journey.gitlab.io/blog/clos-tutorial-in-9-videos-1h22min--read-the-sources-of-hunchentoot-and-kandria/

Les implémentations

Il s’en passe des choses.

SBCL

SBCL a toujours des sorties mensuelles : https://www.sbcl.org/news.html

SBCL s’est vue dotée d’un nouveau GC.

Entre autres choses, rapidement :

  • appeler SBCL comme une bibliothèque partagée depuis C ou Python, avec sbcl-librarian (par les mêmes personnes derrière Coalton) (recette sur le Cookbook),
  • compilation croisée pour Android
  • support pour Haiku
  • « memory allocation arenas » pour arm64
  • améliorations du module sb-simd
  • SBCL est porté pour la Nintendo Switch, pour les besoins du jeu Kandria (cf plus bas)
  • installation facile sur Windows avec Chocolatey (non officiel)
  • ou des builds quotidiens pour MSYS2

ABCL - CL pour Java

ABCL a sorti des nouvelles versions :

Et Clojure ? Je ne connais qu’à peine (ça reste du Java, ça reste gourmand en ressources, le REPL est moins riche en fonctionnalités, le langage ne donne pas d’erreurs de type à la compilation avec un C-c C-c), donc je peux juste citer d’autres lispers. cf. :

CCL, LispWorks, Allegro, ECL, CLASP, SICL, LCL, Alisp, Medley

Ces implémentations sont actives.

ECL a un module pour WASM, en cours de développement mais qui permet déjà de lancer Maxima, un logiciel de calcul formel, dans un navigateur.

Breaking news: ECL vient d'être accepté par NLNet pour justement travailler sur ce module.

Pour info, on peut également utiliser Maxima via SageMath, avec KDE Cantor, avec l'interface graphique wxMaxima, sur Android, dans un "notebook" Jupyter, via Emacs avec le paquet "maxima-mode", et on peut faciliter son utilisation depuis un REPL Common Lisp et avec maxima-interface.

CLASP, pour interfacer CL et C++ nativement, est toujours développé par une start-up en bio technologies :

SICL est peut-être le futur de Common Lisp. C’est une nouvelle implémentation, modulaire. Des bouts sont déjà utilisés dans d’autres implémentations.

Medley est la ré-incarnation de la Medley Interlisp Lisp Machine. Je ne l’ai pas connue, trop jeune. On peut la tester via un navigateur.

LCL pour Lua Common Lisp est une nouvelle implémentation, Alisp est une nouvelle implémentation en cours de développement (en C).

Industrie, offres d’emplois

Il y a peu d’offres, publiques en tout cas, on voit des opportunités passer de manière moins formelle sur les réseaux. Mais il y en a (cf. le lien original, par ex. une offre pour 3E à Bruxelles).

Et oui, certaines entreprises utilisent toujours Common Lisp, et certaines entreprises choisissent de leur plein gré ce langage comme base de leurs nouveaux produits. On le voit surtout dans le domaine de l’informatique quantique, et toujours pour une certaine forme d’IA. Mais des boîtes plus classiques peuvent en tirer parti. On voit des logiciels de management de projet (Planisware, cocorico c’est une boîte française, développé avec l’implémentation Allegro), du développement web, des bots internet…

Quelques exemples :

et des usages, moins dans l’actualité :

Projets cools

Éditeurs

Éditeurs pour Lisp : https://lispcookbook.github.io/cl-cookbook/editor-support.html (il y en a d’autres qu’Emacs, mais essayez donc !)

Lem : https://lem-project.github.io/

Construit en CL, il est donc extensible à la volée en Lisp, comme Emacs. Contient un client LSP qui fonctionne pour de nombreux autres langages, et des modes syntaxiques plus classiques pour nombre d’autres.

Quelques fonctionnalités de Lem :

  • mode vim et Emacs
  • interface Git interactive (opérations classiques, rebase interactive (sans les actions “edit” ou “reword”))
  • navigateur de fichiers
  • panneau de navigation
  • terminal via libvterm
  • curseurs multiples
  • pour le terminal (ncurses) et le bureau (SDL2), et une version “cloud” pour édition collaborative en chantier.
  • Tetris (en mode graphique)

Lem filer

Nouveau projet : Neomacs https://github.com/neomacs-project/neomacs basé sur Electron

Coalton : comme Haskell, pour Common Lisp

En les citant, Coalton c’est :

the implementation of a static type system beyond Haskell 95. Full multiparameter type classes, functional dependencies, some persistent data structures, type-oriented optimization (including specialization and monomorphization). All integrated and native to CL without external tools.

C’est une bibliothèque logicielle qu’on installe comme n’importe quelle autre, mais qui fournit un autre langage pour écrire des programmes typés statiquement, tout en s’interfaçant de manière native avec son langage hôte.

Coalton est développé à l’origine pour des boîtes dans l’informatique quantique. Cf le compilateur quilc.

Ce n’est donc pas un jouet. Et si les développeurs ne font pas un tonnerre de tous les diables pour montrer leur travail incroyable, c’est qu’ils bossent ;) (mais ils répondront au FUD sur HN).

Les gestionnaires de bibliothèques

Depuis au moins 10 ans, le « package manager » qui rend de fidèles services est Quicklisp. Il sort des distributions de bibliothèques, qui ont été vérifiées pour charger correctement. La dernière en date était en octobre :

Et oui, elle date un peu. Plusieurs explications à cela, à lire et discuter par ailleurs.

Aujourd’hui, de nouveaux outils émergent:

Développement de jeux

Le meilleur exemple dans ce domaine est Kandria, qui est sorti sur Steam :

  • https://kandria.com/
  • retours d’expérience (anglais): où oui, Common Lisp (ici SBCL) est assez performant pour faire tourner un jeu, y compris sur la Nintendo Switch, à condition de surveiller la création d'objets en mémoire.

Son auteur augmente maintenant son moteur de jeu pour la 3D. On peut le suivre et voir une démo sur Mastodon.

On trouvera d’autres ressources, par exemple :

Une fonctionnalité incroyablement utile pour les développeurs, est qu’on peut développer son jeu pendant qu’il tourne. Compiler une fonction avec C-c C-c, et voir le jeu changer. Sans tout relancer de zéro à chaque fois.

La communauté organise 2 fois par an des « Lisp Game Jam ». Où tous les dialectes de Lisp sont permis ;)

Interfaces graphiques

C’est un large sujet, et de multiples bibliothèques existent, plus ou moins faciles à prendre en main, plus ou moins portables, etc. Mais voyez la capture d’écran d’Opus Modus en introduction : c’est bien un logiciel graphique multi-plateformes. Dans ce cas, développé avec LispWorks. Par ailleurs, LispWorks possède un “runtime” pour Android et iOs.

Je vais vous laisser voir awesome-cl ou l’article original.

Le web, les web views, Electron

Le web en Common Lisp c’est faisable (et je le fais), on a pas mal de bibliothèques pour divers besoins, on a quelques “frameworks”, minimalistes. Il faut être prêt à mettre les mains dans le cambouis, à mieux connaître le web que lorsqu’on utilise des “frameworks” de haut niveau qui ont beaucoup de couches d’abstraction. Ceci dit, la malléabilité du langage, sa performance, son multi-threading, ses excellents outils de développement, ses fonctionnalités avancées, son déploiement facile… font que certaines choses compliquées dans un autre langage, ou qui nécessiteront une bibliothèque, se font en quelques lignes de manière native.

Ce qui me plaît, c’est la stabilité du langage et de l’écosystème, l’efficience des programmes (de l’ordre de C ou Java, une comparaison parmi d'autres, retours à trouver dans ses articles postérieurs et sur HN), et encore et toujours l’interactivité pendant le développement, le fait que le serveur de développement ne redémarre jamais, ne me fait pas attendre et reste réactif, et comme je disais plus haut le déploiement d’applications, facile : je peux générer un binaire de mon appli web, comprenant tous les fichiers statiques (templates HTML, le JavaScript, etc), le copier sur mon serveur, et c’est tout. Ou le vendre et ne pas devoir accompagner mon client pendant l’installation.

C’est ce que dit aussi l’auteur de Screenshotbot (projet open-source d’automatisation de prise de captures d’écran). Quand sa concurrence fait installer ses solutions via npm, il livre un petit binaire qui fait tout. Et j’ai bien dit petit, donc ±10Mo pour le projet et toutes ses dépendances, car il utilise LispWorks, qui permet d’enlever le code mort de l’image finale, alors que SBCL ne permet pas (encore ?) cela et les binaires pèsent ±30Mo compressés, 80Mo non compressés. Néanmoins, un binaire (compressé) de 30Mo (c’est le cas pour une application à moi qui inclue une douzaine de dépendances) contient le débogueur, le compilateur… ce qui permet de se connecter à une application pendant qu’elle tourne et de charger du code à la volée. On peut s’en servir pour observer ce qu’il se passe autant que pour faire des mises à jour. Au choix ! Mais oui, on peut garder les bonnes pratiques de l’industrie.

Pour démarrer sur le sujet :

Comme outils moins classiques, on a CLOG (CL Omnificient GUI), qui permet le développement d’applications web un peu comme une interface graphique, avec une grande interactivité pendant le développement (via websockets).

CLOG

L’infatigable lisper @mmontone se lance dans mold-desktop, un desktop pour le web, en suivant les principes de « moldable software ».

mold-desktop

Enfin, un article pour présenter les trois « web views » pour Common Lisp: webview, webui, Electron. On peut délivrer une application multi-plateformes écrite avec les technologies du web.

Une application web lancée en local dans un navigateur, avec webview

Scripting

En Common Lisp peut lancer un programme depuis les sources, ou bien générer un exécutable.

Mais, par défaut, l’un ou l’autre sont un peu lourds à l’usage et ne satisfont pas vraiment le développeur pressé qui souhaite lancer un petit script écrit en Lisp. C’est aussi un peu pour cela qu’on reste tant dans le REPL, où toute procédure une fois définie est instantanément appelable. On n’a pas véritablement besoin de passer par le terminal.

Mais des projets élargissent les possibilités.

kiln: « Infrastructure for scripting in Common Lisp to make Lisp scripting efficient and ergonomic » - soit, pouvoir appeler du Lisp depuis le shell de manière légère.

unix-in-lisp - il paraît fou ce projet : on “monte” les utilitaires Unix dans son image Lisp.

CIEL Is an Extended Lisp (discussion HN) - 100% Common Lisp, « batteries included »

  • une collection de bibliothèques pour rendre CL plus utile au quotidien aujourd’hui : inclue des bibliothèques pour le JSON, le web, le CSV, les expressions régulières…
  • un moyen de lancer des scripts au démarrage rapide et sans étape de “build”, avec toutes les bibliothèques à disposition.

Vidéos

Voici une petite sélection.

Des démos d’applications :

Apprendre :

De l’European Lisp Symposium 2024 :

Conclusion

C’était un compte-rendu écourté qui vous aura, je l’espère, donné envie d’en voir plus.

En Common Lisp on s’éclate ET on délivre du logiciel, ce qui n’est pas donné à tout le monde ;)

Commentaires : voir le flux Atom ouvrir dans le navigateur

  •  

Un juge fédéral décide qu'il est légal de former des modèles d'IA sur des livres protégés par le droit d'auteur à condition qu'ils aient été achetés

Selon le Wall Street Journal, un juge fédéral a jugé que l'utilisation de livres par la startup Anthropic pour entraîner ses modèles d'intelligence artificielle était légale dans certaines circonstances, une décision qui pourrait avoir de vastes implications pour l'IA et la propriété intellectuelle. Dans le détail, le juge William Alsup du district nord de Californie a statué lundi que l'utilisation par Anthropic de livres protégés par le droit d'auteur pour entraîner ses modèles d'IA était légale au regard du droit d'auteur américain si elle les avait achetés. Cette décision devrait contribuer à façonner les futurs litiges contre les entreprises d'IA, selon des experts juridiques. « Le tribunal traite l'IA comme un apprentissage humain à partir de matériel protégé par le droit d'auteur », a déclaré Christina Frohock, professeure de rédaction juridique à la faculté de droit de l'Université de Miami. « C'est un usage équitable si vous et moi prenons un livre, le lisons et développons nos propres réflexions », et le tribunal a tiré la même conclusion concernant les systèmes d'IA, a-t-elle ajouté. (Lire la suite)
  •  

Le robotaxi de Tesla roule enfin ... mais avec des limitations

Tesla a finalement lancé son service de robotaxi à Austin, au Texas, le 22 juin 2025. Mais cette étape très attendue comporte d'importantes limitations. Chaque véhicule autonome sera équipé d'un employé Tesla sur le siège passager. Ces « moniteurs de sécurité » disposent de boutons d'urgence permettant d'arrêter le véhicule si nécessaire, en plus de téléopérateurs qui le contrôlent à distance. Selon Electrek , ce nouveau service est bien loin de la promesse initiale de Tesla selon laquelle tous les véhicules produits depuis 2016 seraient à terme entièrement autonomes. Il s'agit en réalité du système public de conduite entièrement autonome (FSD) de Tesla , le conducteur étant simplement transféré sur le siège passager. Cela démontre clairement que Tesla est loin derrière des concurrents comme Waymo dans le développement de la technologie de conduite autonome. Le service est également soumis à de nombreuses autres restrictions. Les courses ne peuvent être commandées qu'entre 6 h et minuit, et uniquement dans une zone géographique restreinte d'Austin, excluant les aéroports et certaines zones du centre-ville animé. En cas de mauvais temps, le service est limité, voire annulé. Elon Musk a souligné que Tesla était « extrêmement paranoïaque » quant à la sécurité de ses robotaxis à Austin. Le service d'Austin évitera donc les intersections difficiles et ne transportera pas de personnes de moins de 18 ans. Au lancement, seules une vingtaine de Tesla Model Y équipées d'une version spéciale du logiciel FSD seront en service. Les courses seront proposées au tarif forfaitaire de 4,20 $ (environ 3,65 €). Dans un premier temps, seules des personnes sélectionnées, invitées par Tesla, auront accès au service, principalement des investisseurs de Tesla et des sympathisants connus de l'entreprise sur les réseaux sociaux. Certains experts voient le lancement du robotaxi comme un coup de pub. Tesla tente simplement de se vanter d'avoir lancé son robotaxi à temps, en juin, alors qu'il s'agit en réalité du système de navigation par satellite (FSD) de Tesla, un système traditionnel où le conducteur observe depuis le siège passager. Ce lancement intervient à un moment crucial pour Tesla et son PDG, Elon Musk . Le service de robotaxi pourrait aider l'entreprise à améliorer ses perspectives commerciales, après avoir essuyé de vives critiques concernant l'implication d'Elon Musk dans l'administration Trump. Les résultats du premier trimestre de Tesla ont été inférieurs aux attentes, avec un bénéfice en baisse de 71 %. (Lire la suite)
  •  

Apple réécrit ses services cloud en Swift : +40 % de performances vs Java

Apple poursuit son virage technologique en interne. Le géant californien a récemment annoncé, via Swift.org, avoir réécrit l’un de ses services cloud critiques — le système de surveillance de mots de passe (Password Monitoring) — en Swift, son propre langage de programmation. Résultat : une hausse spectaculaire de 40 % des performances par rapport à l’ancienne version […]

L’article Apple réécrit ses services cloud en Swift : +40 % de performances vs Java est apparu en premier sur BlogNT : le Blog des Nouvelles Technologies.

  •  

Midjourney V1 donne vie aux images fixes

La célèbre startup d'IA Midjourney a officiellement présenté son premier modèle vidéo, baptisé V1. Cette nouvelle fonctionnalité permet aux utilisateurs de transformer des images téléchargées ou générées par Midjourney en courtes vidéos. L'entreprise mise sur une approche simple : d'un simple clic sur le bouton « Animer », des images fixes classiques sont transformées en clips vidéo de cinq secondes. La particularité de V1 réside dans sa simplicité d'utilisation. Les utilisateurs peuvent choisir entre l'animation automatique et le contrôle manuel, ce dernier permettant de définir des mouvements spécifiques via des instructions textuelles. Deux modes de mouvement sont également disponibles : « Low Motion » est adapté aux scènes fixes avec un minimum de mouvements, tandis que « High Motion » crée des animations plus dynamiques où la caméra et les objets sont en mouvement, avec toutefois un risque accru d'erreurs visuelles. Uj54-l523oE Comme le rapporte TechCrunch , V1 génère quatre vidéos différentes de cinq secondes à chaque exécution. Celles-ci peuvent ensuite être prolongées jusqu'à quatre fois de quatre secondes chacune, créant ainsi des clips d'une durée maximale de 21 secondes. Midjourney se positionne ainsi en concurrence directe avec des générateurs vidéo IA reconnus tels que Sora d'OpenAI, Firefly d'Adobe et Veo 3 de Google. La tarification de Midjourney est transparente : la génération vidéo coûte environ huit fois plus cher que la création d'une seule image. L'accès le plus abordable se fait via l'abonnement Basic à dix dollars (environ 8,70 €) par mois. Les utilisateurs des forfaits Pro, plus onéreux, à 60 $ (environ 52 €) et Mega à 120 $ (environ 104 €) bénéficient d'une génération vidéo illimitée en mode « Relax », plus lent. Il est à noter que V1 ne prend pas actuellement en charge la génération audio, une fonctionnalité déjà proposée par certains concurrents. Des fonctionnalités de montage avancées pour les transitions ou les séquences de scènes sont également absentes. Cependant, Midjourney souligne que ce n'est qu'un début et que de futures mises à jour apporteront de nouvelles fonctionnalités. (Lire la suite)
  •  

OpenAI a gagné 10 milliards de dollars en un an

Selon les dernières données, OpenAI, initialement une organisation à but non lucratif, a déjà atteint 10 milliards de dollars de chiffre d'affaires annuel et vise 125 milliards de dollars d'ici 2029. Cette croissance a été obtenue en très peu de temps, en grande partie grâce à la diffusion rapide de ChatGPT. Cet outil est activement utilisé dans divers domaines, y compris là où l'IA était auparavant considérée comme inefficace. Aujourd'hui, OpenAI compte environ 500 millions d'utilisateurs actifs par semaine et environ 3 millions d'entreprises clientes dans le monde. Avec de tels indicateurs, l'entreprise a depuis longtemps dépassé le stade de simple laboratoire de recherche. Ses principales sources de revenus sont les abonnements ChatGPT, les solutions d'entreprise et éducatives, et l'accès aux API. Cela témoigne de l'utilisation généralisée de cette technologie, tant auprès des particuliers que dans le monde des affaires. Atteindre ce niveau en moins de trois ans est une véritable réussite, surtout si l'on considère les investissements massifs de l'entreprise dans le recrutement, la formation et le lancement de nouveaux produits. L'objectif de 125 milliards d'ici 2029 paraît ambitieux, mais compte tenu de la dynamique actuelle, il paraît tout à fait réaliste. Pourtant, aujourd'hui, les chatbots sont utilisés pratiquement partout et font partie intégrante des entreprises et de la vie quotidienne. Et plus l'IA s'intègre à nos vies, plus les grandes entreprises comme OpenAI gagneront de l'argent. (Lire la suite)
  •