Vue normale

Reçu avant avant-hier

Créer et Entraîner son propre IA pour le module AI HAILO du Raspberry PI 5 [Partie 3]

Après la création d’un modèle auquel on a appris à exécuter une tâche (reconnaître des formes géométriques), Frédéric nous propose de déployer ce modèle sur le module d’IA Hailo, sur un Raspberry Pi 5. Cet article est  le dernier de la série proposée par Frédéric JELMONI alias Fred Robotic et vice-Président de l’Association de robotique […]

Cet article Créer et Entraîner son propre IA pour le module AI HAILO du Raspberry PI 5 [Partie 3] a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

Microsoft Study Finds AI Makes Human Cognition “Atrophied and Unprepared”

13 février 2025 à 15:23

Si je comprends bien, plus on utilise les LLM, moins on devient critique de leur production. C'est l'effet qu'on voit dans Wall-E avec "le bleu est le nouveau rouge". Il doit y avoir un biais de renforcement compatible avec le côté "je maîtrise, donc je ne me ferai pas avoir". C'est très intéressant d'un point de vue psychologique, mais terrifiant d'un point de vue sociétal.


Permalink

Créer et Entraîner son propre IA pour le module AI HAILO du Raspberry PI 5 [Partie 2]

Dans cette deuxième partie, Frédéric vous invite à entraîner le modèle d’IA que vous avez créé précédemment. Ici vous verrez comment créer le modèle local sous Linux Entraînement du modèle IA sous Linux Pour réaliser l’apprentissage de notre modèle, plusieurs solutions se présentent à nous : entraîner le modèle en local, sous linux ou en […]

Cet article Créer et Entraîner son propre IA pour le module AI HAILO du Raspberry PI 5 [Partie 2] a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

HLE ( Humanity's Last Exam )

11 février 2025 à 11:43

Les Benchmarks sont des outils importants pour suivre les progrès des grands modèles de langage (LLM). Cependant, les Benchmarks ne suivent pas le rythme de la difficulté : Les LLM atteignent aujourd'hui une précision de plus de 90 % sur des benchmarks populaires tels que MMLU, ce qui limite la mesure informée des capacités des LLM les plus avancés. En réponse, nous présentons Humanity's Last Exam, un benchmark multimodal à la frontière de la connaissance humaine, conçu pour être le dernier benchmark académique fermé de ce type avec une large couverture des sujets. L'ensemble des données consiste en 3 000 questions difficiles portant sur plus d'une centaine de sujets. Nous publions ces questions, tout en conservant un ensemble de test privé de questions exclues afin d'évaluer le surajustement du modèle.

Model Accuracy (%) ↑ Calibration Error (%) ↓
GPT-4o 3.3 92.5
Grok-2 3.8 93.2
Claude 3.5 4.3 88.9
Gemini Thinking 7.7 91.2
o1 9.1 93.4
DeepSeek-R1 9.4 81.8
o3-mini (medium)
10.5 92.0
o3-mini (high)* 13.0 93.2

*Model is not multi-modal, evaluated on text-only subset.
Permalink

Comment évaluer la sécurité des modèles d’intelligence artificielle

11 février 2025 à 11:39

Difficile de déterminer les risques des modèles avancés d’IA et les seuils à ne pas dépasser, alors que les différents acteurs du secteur exercent un ­contrôle total sur les audits de leurs propres produits, sans garantie d’indépendance ou de transparence.

Ces dernières années ont vu le progrès fulgurant des intelligences artificielles génératives. Les grands modèles de langage (LLM), tels qu’o3 d’OpenAI, atteignent des niveaux experts en biologie, en mathématiques, en code informatique ou encore en physique. Les benchmarks, outils conçus pour évaluer et comparer leurs performances, ont peine à suivre. Le dernier en date, Humanity’s Last Exam, composé de 3 000 questions complexes, était complété à 10 % par les meilleurs modèles lors de sa sortie, mi-janvier. Deep Research, lancé le 3 février par OpenAI, atteint le score de 26 %, et d’aucuns prédisent 50 % de réussite d’ici à la fin de l’année pour les meilleurs.

« Le problème est que ce sont des boîtes noires, de plus en plus profondes et puissantes, et qu’on ne dispose pas d’une bonne science pour évaluer leurs risques. Or, on est face à des pressions économiques et sociales considérables », alerte Nicolas Miailhe, cofondateur de Prism Eval, start-up française spécialisée dans l’évaluation des modèles avancés d’IA.

Certaines IA développent une perception de leur propre situation lors de tests avant le déploiement, comme lorsque le dernier modèle de LLM de la start-up Anthropic a soupçonné (à raison) qu’il était en train d’être testé. D’autres sous-performent en environnement de test, ce qui les fait paraître plus sûrs qu’ils ne le sont réellement, un phénomène appelé « sandbagging ». Des chercheurs d’Apollo Research ont ainsi montré qu’un autre modèle d’Anthropic, Claude 3.5 Sonnet, minore ses réponses aux questions arithmétiques s’il découvre qu’un processus d’entraînement visant à réduire ses capacités sera déclenché s’il obtient de trop bons résultats. La confiance même dans la possibilité de réaliser des évaluations fiables est ébranlée.

« La question LLM est extraordinairement complexe, reconnaît Agnès Delaborde, responsable du département IA au Laboratoire de métrologie et d’essais (LNE), l’une des principales institutions françaises chargées d’évaluer la sécurité des IA. L’une des difficultés rencontrées est que l’estimation des performances s’appuie beaucoup sur l’observation des capacités cognitives du système. » Mais la chercheuse ne s’attarde pas sur les scénarios de perte de contrôle. « On suit ces discussions-là sur les risques extrêmes, mais, pour ma part, je les classe dans ce qui relève des scénarios hypothétiques, voire des débats philosophiques. La fonction du LNE est de répondre aux besoins du marché les plus immédiats. »
Contrôle total sur les audits

Les méthodes et standards qui permettraient d’assurer la sécurité de cette technologie restant à développer, l’évaluation des modèles avancés d’IA relève pour l’instant davantage de l’art que de la science. Si ce problème « reste irrésolu tandis que les capacités de l’IA continuent de monter en flèche, la société sera de plus en plus exposée à des risques généralisés et systémiques », signale le Centre for Future Generations, un think tank indépendant.

D’autant plus qu’une pression concurrentielle internationale pousse les développeurs d’IA à déployer leurs produits rapidement, dans un désert réglementaire. OpenAI, Anthropic, Google DeepMind, Meta ou encore Mistral exercent un contrôle total sur les audits de sécurité de leurs propres produits, sans garantie d’indépendance ou de transparence. Lorsqu’ils font appel à des évaluateurs externes, ils ne fournissent pas forcément d’accès direct aux modèles ou aux données utilisés, dont dépend pourtant une évaluation rigoureuse, et imposent des accords de confidentialité limitant la capacité des évaluateurs à alerter sur les problèmes observés.

En guise de stratégie de gestion des risques, les laboratoires se contentent pour le moment de publier des documents hétérogènes, les « politiques de passage à l’échelle responsable », que Siméon Campos, directeur de l’ONG française SaferAI, aimerait voir requalifier comme « des engagements volontaires pris unilatéralement dans un contexte de compétition ».

Quinze mois après le discours de l’ex-premier ministre britannique Rishi Sunak, qui affirmait lors du sommet sur la sécurité de l’IA de Bletchley Park, en novembre 2023, que « nous ne devrions pas laisser [les laboratoires] évaluer leurs propres travaux », les regards sont tournés vers le règlement européen AI Act. Celui-ci représente la version la plus avancée en matière de gouvernance contraignante. Depuis septembre 2024, des centaines d’acteurs industriels, de la société civile et du milieu universitaire planchent sur la rédaction d’un code de bonnes pratiques sur l’intelligence artificielle. La finalisation de ce texte appelé à devenir un standard mondial en matière de sûreté de l’IA est prévue pour le printemps.

Une étape incontournable du processus réglementaire en cours est la standardisation, qui consiste à définir le langage commun entre industriels, chercheurs et régulateurs, indispensable aussi bien pour évaluer les performances des modèles, assurer leur fiabilité et leur conformité à la réglementation et définir des seuils précis de risques. L’IA s’apprête donc à vivre sa révolution métrologique. Les organismes internationaux sont déjà mobilisés pour développer ces nouveaux référentiels. La Commission européenne a ainsi chargé l’organisme de standardisation CEN-Cenelec de convertir les principes législatifs en standards techniques.
Création d’un institut en France

« On n’a pas de raison de penser que les éléments-clés de gestion du risque, mis en place dans des domaines aussi variés que l’aviation ou le nucléaire, ne pourraient pas s’appliquer au domaine de l’IA », explique Chloé Touzet, spécialiste de la gouvernance de l’IA au sein de SaferAI. Elle fait référence aux approches combinant identification des risques, définition de seuils à ne pas dépasser et mise en place de protocoles à même de garantir le maintien sous ces seuils. « Soit l’industrie se montre capable de mettre en place des mesures de réduction du risque crédibles, objectivées par des experts externes, qui offrent une confiance suffisante dans le fait qu’on va pouvoir rester sous un seuil de risque démocratiquement fixé, soit cette technologie n’est pas mûre pour être mise sur le marché, et il faut investir plus d’argent dans la recherche sur la sécurité. » SaferAI a établi une notation de la maturité des pratiques en la matière des principales entreprises d’IA. Bilan : aucune n’atteint la moyenne, pour le moment.

De son côté, la France a annoncé, le 31 janvier, la création d’un Institut national pour l’évaluation et la sécurité de l’IA (Inesia), sous la double tutelle du Secrétariat général de la défense et de la sécurité nationale et de Bercy. Cet institut fédère quatre acteurs de l’IA et de la cybersécurité : l’Agence nationale de la sécurité des systèmes d’information, l’Institut national de recherche en sciences et technologies du numérique (Inria), le Laboratoire national de métrologie et d’essais et le Pôle d’expertise de la régulation numérique. « Ces quatre entités n’ont qu’une expérience limitée de la recherche en sécurité de l’IA générale, or la capacité de recherche est cruciale dans ce domaine, car les méthodologies doivent encore être développées », rappelle Charbel-Raphaël Segerie, directeur du Centre pour la sécurité de l’IA, , qui espérait que des moyens humains et financiers seraient annoncés lors du Sommet pour l’action sur l’IA de Paris, du 6 au 11 février.

La France est le premier pays européen à rejoindre le réseau des AI Safety Institutes, constitué à la suite du sommet de Bletchley Park. Si le Royaume-Uni s’est focalisé sur l’évaluation des « risques critiques ayant le plus grand potentiel de nuisance », l’Inesia français naviguera dans les eaux plus pragmatiques de la conformité des modèles à la directive européenne, en fournissant notamment « des métriques, méthodologies et protocoles d’évaluation efficients pour permettre aux entreprises de s’autodéclarer conformes selon le règlement européen », explique-t-on à l’Inria.
Permalink

Créer et Entraîner son propre IA pour le module AI HAILO du Raspberry PI 5 [Partie 1]

Fredéric (Frederic JELMONI alias Fred Robotic) avait déjà présenté des articles sur le Blog, dont le « Raspberry Pi sur la planète Mars« . Membre (et vice-Président) de l’association de robotique Caliban Fred utilise l’IA pour agrémenter le fonctionnement des ses robots et il a fait un énorme travail sur la création de modules d’IA avec Hailo […]

Cet article Créer et Entraîner son propre IA pour le module AI HAILO du Raspberry PI 5 [Partie 1] a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

Économisez 20€ par mois : Adoptez DeepSeek, l’alternative gratuite à ChatGPT !

29 janvier 2025 à 07:35

DeepSeek est une entreprise chinoise d’intelligence artificielle qui a récemment lancé DeepSeek-R1, un modèle de langage open-source gratuit. Ce modèle rivalise avec ChatGPT d’OpenAI, qui propose des services similaires moyennant un abonnement mensuel de 20€. DeepSeek-R1 offre des fonctionnalités telles que l’analyse OCR des images, la recherche sur Internet et des applications disponibles sur Android, iOS et PC. Opter pour DeepSeek-R1 permet donc de bénéficier des avantages de l’intelligence artificielle sans frais supplémentaires.

Qu’est-ce que DeepSeek ?

DeepSeek est une entreprise chinoise d’intelligence artificielle fondée en 2023 par Liang Wenfeng, située à Hangzhou, dans la province du Zhejiang. Elle se concentre sur le développement de modèles de langage de grande taille (LLM) open-source, visant à faire progresser l’intelligence artificielle générale (AGI) et à en faciliter l’accès à l’échelle mondiale.

DeepSeek R1 : Un modèle de pointe accessible à tous

Le modèle phare de DeepSeek, nommé DeepSeek-R1, est conçu pour des tâches complexes nécessitant un raisonnement logique, la résolution de problèmes mathématiques et la programmation. Il utilise une architecture appelée « mixture of experts » (MoE), composée de 671 milliards de paramètres, dont seulement 37 milliards sont activés pour chaque tâche spécifique, ce qui optimise l’efficacité et réduit les coûts de calcul.

Interface Web de DeepSeek R1

Contrairement à ChatGPT, dont l’accès au modèle le plus avancé, le modèle o1, est payant (environ 20€ par mois), DeepSeek-R1 est entièrement gratuit et open-source. Cela signifie que les développeurs et les chercheurs peuvent l’utiliser, le modifier et le déployer librement, favorisant ainsi la transparence et la personnalisation.

⚡ Performances comparables à celles d’OpenAI-o1
📖 Modèle et rapport technique entièrement open source
🏆 Licence MIT : Distiller et commercialiser librement !

Pour les développeurs ou ceux qui souhaitent utiliser les API des LLM dans des automatisations, le coûts d’utilisation de DeepSeek est 95% moins couteux qu’avec ChatGPT ! Ainsi les 1 Millions de Token en sortie sont à 2.19$ avec DeepSeek R1 contre 60$ avec ChatGPT ! Autant dire que tous les développeurs d’applications SaaS qui s’appuient sur les LLM pour leurs applications vont vite se tourner vers DeepSeek !

Fonctionnalités de DeepSeek

L’interface de Chat de DeepSeek-R1 offre une gamme de fonctionnalités avancées qui en font un outil polyvalent pour diverses applications :

  • Analyse OCR des images et des photos : DeepSeek-R1 est capable d’effectuer une reconnaissance optique de caractères (OCR), ce qui lui permet d’extraire du texte à partir d’images et de photos. Cette fonctionnalité est particulièrement utile pour la numérisation de documents ou l’extraction d’informations à partir de captures d’écran ou de photos de son appareil.
  • Recherche sur Internet : Le modèle peut effectuer des recherches en ligne pour fournir des informations à jour, ce qui est essentiel pour des tâches nécessitant des données récentes ou des connaissances spécifiques.
  • Disponibilité sur plusieurs plateformes : DeepSeek propose des applications dédiées pour Android, iOS et PC, permettant aux utilisateurs d’accéder facilement à ses fonctionnalités sur leurs appareils préférés. Cette accessibilité multiplateforme garantit une expérience utilisateur fluide et cohérente.

Comparaison entre DeepSeek et ChatGPT

Bien que ChatGPT soit largement reconnu pour ses capacités conversationnelles, l’accès à ses fonctionnalités les plus avancées nécessite un abonnement payant. En revanche, DeepSeek-R1 offre des performances comparables, voire supérieures dans certains domaines, sans aucun coût pour l’utilisateur.

Selon des tests de performance, DeepSeek-R1 rivalise avec le modèle o1 de ChatGPT en termes de raisonnement logique, de résolution de problèmes mathématiques et de génération de code. De plus, étant open-source, DeepSeek-R1 permet une personnalisation et une adaptation aux besoins spécifiques des utilisateurs, ce qui n’est pas possible avec les modèles propriétaires comme ChatGPT.

Les benchs montrent que DeepSeek R1 rivalise avec chatGPT o1

wsj.com

Profiter de l’IA gratuitement avec DeepSeek

L’adoption de DeepSeek-R1 présente plusieurs avantages pour les utilisateurs souhaitant intégrer l’IA dans leur quotidien sans engager de dépenses supplémentaires :

  • Économies financières : En optant pour DeepSeek-R1, vous économisez les frais d’abonnement associés à des services similaires, tels que ChatGPT, qui facturent environ 20€ par mois pour l’accès à leurs modèles les plus avancés.
  • Flexibilité et personnalisation : Grâce à sa nature open-source, DeepSeek-R1 peut être adapté et personnalisé en fonction de vos besoins spécifiques, que ce soit pour des projets personnels ou professionnels.
  • Communauté active : En rejoignant la communauté DeepSeek, vous bénéficiez du soutien d’autres utilisateurs et développeurs, facilitant l’échange de connaissances et l’amélioration continue du modèle.

Mon avis sur DeepSeek

Dans un contexte où l’intelligence artificielle prend une place de plus en plus importante dans nos vies, il est essentiel de choisir des outils qui allient performance, accessibilité et coût. DeepSeek-R1 se positionne comme une alternative gratuite et open-source à ChatGPT, offrant des fonctionnalités avancées sans frais pour l’utilisateur. Que vous soyez développeur, chercheur ou simplement curieux d’explorer les possibilités de l’IA, DeepSeek-R1 mérite votre attention.

DeepSeek-R1 est une alternative crédible à ChatGPT, avec l’avantage d’être totalement gratuit tout en offrant des performances similaires au modèle payant o1 d’OpenAI. Contrairement à la version gratuite de ChatGPT, qui repose sur un modèle moins avancé, DeepSeek permet d’accéder à une IA puissante sans aucun coût. Pour un usage quotidien, il peut donc remplacer ChatGPT sans perte de qualité.

Seule véritable limite à ce jour : l’absence d’assistants GPT, une fonctionnalité que j’utilise régulièrement pour automatiser certaines tâches et structurer mes demandes. Cependant, ce manque peut être contourné en utilisant une base de prompts stockée dans un Google Doc et en les copiant-collant manuellement dans DeepSeek. Par exemple, pour rédiger un article sur SysKB, il suffit de copier mon prompt habituel qui définit la structure et le ton souhaité. Certes, c’est un peu moins pratique, mais cette fonctionnalité finira sans doute par être intégrée à DeepSeek. En attendant, l’accès à une IA gratuite et performante compense largement ce léger inconvénient.

FAQ

Q : Qu’est-ce que DeepSeek ?

R : DeepSeek est une entreprise chinoise spécialisée dans le développement de modèles de langage de grande taille open-source, visant à promouvoir l’intelligence artificielle générale et à en faciliter l’accès à l’échelle mondiale.

Q : Quelles sont les principales fonctionnalités de DeepSeek-R1 ?

R : DeepSeek-R1 offre des fonctionnalités telles que l’analyse OCR des images, la recherche sur Internet et une disponibilité sur plusieurs plateformes, y compris Android, iOS.

Q : Comment DeepSeek-R1 se compare-t-il à ChatGPT ?

R : DeepSeek-R1 rivalise avec le modèle o1 de ChatGPT en termes de performances, notamment dans les domaines du raisonnement logique, de la résolution de problèmes mathématiques et de la programmation. Contrairement à ChatGPT, DeepSeek-R1 est entièrement gratuit et open-source.

Cet article original intitulé Économisez 20€ par mois : Adoptez DeepSeek, l’alternative gratuite à ChatGPT ! a été publié la première sur SysKB.

Tech stocks suffer $1trillion sell-off in US and European markets as DeepSeek rattles investors - Investing Abroad News | The Financial Express

27 janvier 2025 à 21:44

Incroyable, l'effondrement de la bulle occidentale de l'IA en temps réel. Les chercheurs chinois ont fabriqué un LLM à presque 15 fois moins cher que ChatGPT.

Mieux que ça, ce LLM tourne en local sur votre propre machine du moment qu'il a suffisamment de puissance pour le soutenir et est plus performant que GPT4 !

Toutes les actions du nasdaq qui flambaient grâce à l'IA ont dégringolé. Le premier facteur limitant les IA dans leur améliorarion est l'énergie qu'elles consomment pour être entraînées puis fonctionner, si nous passons ce problème, alors le marché de l'emploi tel que nous le connaissons sera détruit à jamais.

Suspense...
Liens directs

Faites tourner un LLM de type ChatGPT sur le Raspberry Pi 5

Dans de précédents articles je vous ai expliqué comment mettre en œuvre l’IA sur le Raspberry Pi 5 : Module Hailo-8L, module Coral TPU, TensorFlow… Récemment un article de Nurgaliyev Shakhizat sur Hackster.io m’a intéressé et (avec son autorisation), je vous en propose la traduction. Vous découvrirez comment installer votre propre ChatGPT sans connexion à […]

Cet article Faites tourner un LLM de type ChatGPT sur le Raspberry Pi 5 a été publié en premier sur Framboise 314, le Raspberry Pi à la sauce française.....

❌