Vue lecture

Hugging Face ajoute des options européennes pour l’inférence

Et de quatre, comme le nombre de fournisseurs d’inférence européens sur Hugging Face.

Nebius AI (Pays-Bas) était entré dans la boucle en février. Nscale (Royaume-Uni), en mai. Les voilà rejoints par Public AI (Suisse)*… et par Scaleway.

Ces fournisseurs – ainsi qu’une dizaine d’autres – sont intégrés à plusieurs niveaux dans l’écosystème Hugging Face :

  • Widget d’inférence sur les pages des modèles
  • Playground
  • Pages de datasets (conversion text-to-SQL)
  • SDK Python et JavaScript
  • API REST

Le client OpenAI (Python) est une autre option d’accès, mais uniquement pour la saisie semi-automatique de texte.

Scaleway & Cie pour le prototypage, les hyperscalers pour la prod

Par défaut, Hugging Face dirige chaque requête vers le fournisseur approprié et gère la facturation ; pour le moment sans prendre de commission (il a un temps évoqué la possibilité de nouer des accords de partage de revenus). On peut toutefois préférer définir ses fournisseurs en renseignant des clés d’API.

Les comptes Hugging Face gratuits incluent 0,10 $ de crédits par mois, sans possibilité de consommer au-delà. Les comptes PRO donnent droit à 2 $ de crédits et débloquent la facturation à la consommation. Pour les forfaits entreprise, c’est 2 $ de crédits par siège. On est donc sur un usage de prototypage, d’ailleurs axé inférence CPU (AWS, Google et Microsoft interviennent sur la partie déploiement).

Côté Scaleway, on a fait la passerelle le service Generative APIs. À la clé, une sélection d’une dizaine de modèles, dont des Qwen, des Llama, un Gemma, un DeepSeek et gpt-oss-120b.

Fournisseur Saisie semi-automatique (LLM) Saisie semi-automatique (VLM) Extraction de caractéristiques Text-to-image Text-to-video Speech-to-text
Cerebras ?
Cohere ? ?
Fal AI ? ? ?
Featherless AI ? ?
Fireworks ? ?
Groq ? ?
HF Inference ? ? ? ? ?
Hyperbolic ? ?
Nebius ? ? ? ?
Novita ? ? ?
Nscale ? ? ?
Public AI ?
Replicate ? ? ?
SambaNova ? ?
Scaleway ? ?
Together AI ? ? ?

À consulter en complément :

Le projet souverain DNS4EU se concrétise… avec du Scaleway dedans
MLPerf : la quête de benchmarks IA représentatifs
SLM ou LLM ? Pour les systèmes agentiques, NVIDIA a choisi son parti
CyberSOCEval : un banc de test en analyse cyber pour les LLM

* Organisation à but non lucratif qui promeut les travaux de développeurs de modèles publics comme la Swiss AI Initiative, AI Singapore, AI Sweden et le Barcelona Supercomputing Centre

Illustration © Adrian Grosu – Shutterstock

The post Hugging Face ajoute des options européennes pour l’inférence appeared first on Silicon.fr.

  •  

Hugging Face ajoute des options européennes pour l’inférence

Et de quatre, comme le nombre de fournisseurs d’inférence européens sur Hugging Face.

Nebius AI (Pays-Bas) était entré dans la boucle en février. Nscale (Royaume-Uni), en mai. Les voilà rejoints par Public AI (Suisse)*… et par Scaleway.

Ces fournisseurs – ainsi qu’une dizaine d’autres – sont intégrés à plusieurs niveaux dans l’écosystème Hugging Face :

  • Widget d’inférence sur les pages des modèles
  • Playground
  • Pages de datasets (conversion text-to-SQL)
  • SDK Python et JavaScript
  • API REST

Le client OpenAI (Python) est une autre option d’accès, mais uniquement pour la saisie semi-automatique de texte.

Scaleway & Cie pour le prototypage, les hyperscalers pour la prod

Par défaut, Hugging Face dirige chaque requête vers le fournisseur approprié et gère la facturation ; pour le moment sans prendre de commission (il a un temps évoqué la possibilité de nouer des accords de partage de revenus). On peut toutefois préférer définir ses fournisseurs en renseignant des clés d’API.

Les comptes Hugging Face gratuits incluent 0,10 $ de crédits par mois, sans possibilité de consommer au-delà. Les comptes PRO donnent droit à 2 $ de crédits et débloquent la facturation à la consommation. Pour les forfaits entreprise, c’est 2 $ de crédits par siège. On est donc sur un usage de prototypage, d’ailleurs axé inférence CPU (AWS, Google et Microsoft interviennent sur la partie déploiement).

Côté Scaleway, on a fait la passerelle le service Generative APIs. À la clé, une sélection d’une dizaine de modèles, dont des Qwen, des Llama, un Gemma, un DeepSeek et gpt-oss-120b.

Fournisseur Saisie semi-automatique (LLM) Saisie semi-automatique (VLM) Extraction de caractéristiques Text-to-image Text-to-video Speech-to-text
Cerebras ?
Cohere ? ?
Fal AI ? ? ?
Featherless AI ? ?
Fireworks ? ?
Groq ? ?
HF Inference ? ? ? ? ?
Hyperbolic ? ?
Nebius ? ? ? ?
Novita ? ? ?
Nscale ? ? ?
Public AI ?
Replicate ? ? ?
SambaNova ? ?
Scaleway ? ?
Together AI ? ? ?

À consulter en complément :

Le projet souverain DNS4EU se concrétise… avec du Scaleway dedans
MLPerf : la quête de benchmarks IA représentatifs
SLM ou LLM ? Pour les systèmes agentiques, NVIDIA a choisi son parti
CyberSOCEval : un banc de test en analyse cyber pour les LLM

* Organisation à but non lucratif qui promeut les travaux de développeurs de modèles publics comme la Swiss AI Initiative, AI Singapore, AI Sweden et le Barcelona Supercomputing Centre

Illustration © Adrian Grosu – Shutterstock

The post Hugging Face ajoute des options européennes pour l’inférence appeared first on Silicon.fr.

  •  

Panne de serveur

Avant-hier matin, mercredi 13 août, suite à une mise à jour vers Ubuntu 22 de mon serveur, j'ai eu la mauvaise surprise de ne pas le voir redémarrer...

Subissant en plus un rhume carabiné, je me suis un peu décomposé en voyant mes systèmes de supervision m'alerter lorsque la vingtaine …


Permalink
  •  

Panne de serveur

Avant-hier matin, mercredi 13 août, suite à une mise à jour vers Ubuntu 22 de mon serveur, j'ai eu la mauvaise surprise de ne pas le voir redémarrer...

Subissant en plus un rhume carabiné, je me suis un peu décomposé en voyant mes systèmes de supervision m'alerter lorsque la vingtaine …


Permalink
  •