Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

OpenAI signe un partenariat inédit avec PwC : 100 000 consultants vont utiliser ChatGPT !

OpenAI, la célèbre entreprise à l’origine de ChatGPT, vient de franchir une étape importante dans le déploiement de son outil d’intelligence artificielle. En effet, la société a signé un partenariat sans précédent avec PwC ( le géant du conseil et de l’audit) qui va permettre à 100 000 de ses employés d’accéder à la version entreprise ... Lire plus

Le son des images #IA

Des chercheurs de l’Université du Michigan ont mis au point une technique absolument dingue qui permet de générer des spectrogrammes ayant l’allure d’images capables de produire des sons qui leur correspondent lorsqu’ils sont écoutés. Ils appellent cela des « images qui sonnent ».

Leur approche est simple et fonctionne sans entraînement spécifique. Elle s’appuie sur des modèles de diffusion text-to-image et text-to-spectrogram pré-entraînés, opérant dans un espace latent partagé. Durant le processus de génération, les deux modèles « débruitent » des latents partagés de manière simultanée, guidés par deux textes décrivant l’image et le son désirés.

Le résultat est bluffant ! Ça donne des spectrogrammes qui, vus comme des images, ressemblent à un château avec des tours, et écoutés comme des sons, font entendre des cloches. Ou des tigres dont les rayures cachent les motifs sonores de leurs rugissements.

Pour évaluer leur bidouille, les chercheurs ont utilisé des métriques quantitatives comme CLIP et CLAP, ainsi que des études de perception humaine. Leur méthode dépasse les approches alternatives et génère des échantillons qui collent finement aux prompts textuels dans les deux modalités. Ils montrent aussi que coloriser les spectrogrammes donne des images plus agréables à l’œil, tout en préservant l’audio.

Cette prouesse révèle qu’il existe une intersection entre la distribution des images et celle des spectrogrammes audio et en dépit de leurs différences, ils partagent des caractéristiques bas niveau comme les contours, les courbes et les coins. Cela permet de composer de façon inattendue des éléments visuels ET acoustiques, comme une ligne qui marque à la fois l’attaque d’un son de cloche et le contour d’un clocher.

Les auteurs y voient une avancée pour la génération multimodale par composition et une nouvelle forme d’expression artistique audio-visuelle. Une sorte de stéganographie qui cacherait des images dans une piste son, dévoilées uniquement lorsqu’elles sont transformées en spectrogramme.

Pour recréer cette méthode chez vous, il « suffit » d’aller sur le Github du projet et de suivre les instructions techniques.

Source

Google intègre l’IA générative dans la recherche et les publicités !

Google a annoncé mercredi dernier une série de mises à jour majeures de son moteur de recherche ainsi que de ses publicités, qui intègrent l’intelligence artificielle générative. Ces changements visent en réalité à rendre les résultats de recherche plus pertinents et les annonces plus efficaces. Mais cela, tout en offrant de nouvelles fonctionnalités aux utilisateurs ... Lire plus

L'article Google intègre l’IA générative dans la recherche et les publicités ! est apparu en premier sur Fredzone.

TikTok mise désormais sur l’IA générative pour booster son activité publicitaire…

TikTok vient d’annoncer son intention de se tourner vers l’intelligence artificielle générative pour révolutionner son modèle publicitaire. Alors que la plateforme continue de gagner en popularité avec plus d’un milliard d’utilisateurs actifs chaque mois, elle cherche désormais à tirer parti des dernières avancées technologiques. Le but est d’offrir aux annonceurs des outils toujours plus performants ... Lire plus

L'article TikTok mise désormais sur l’IA générative pour booster son activité publicitaire… est apparu en premier sur Fredzone.
❌