Vue normale

À partir d’avant-hierShaarlist

Terraria hits over 60 million sales with Terraria 1.4.5 shaping up to be another big update | GamingOnLinux

2 novembre 2024 à 17:45
Magnifique ! Terraria a dépassé les 60 millions d'exemplaires vendus. Et une nouvelle mise à jour arrive !
C'est fou de se dire que les développeurs continuent à publier des mises à jour à ce jeu 13 ans après sa sortie.
C'est un jeu que tout joueur doit avoir dans sa bibliothèque... même si dans mon cœur StarBound l'a dépassé.
(PS: Je regrette qu'il n'y ait plus de mises à jour de StarBound.)
(Permalink)

OpenCV: Cascade Classifier

27 octobre 2024 à 21:20

La détection d'objets à l'aide de classificateurs en cascade basés sur les caractéristiques Haar est une méthode efficace de détection d'objets proposée par Paul Viola et Michael Jones dans leur article intitulé "Rapid Object Detection using a Boosted Cascade of Simple Features" (Détection rapide d'objets à l'aide d'une cascade renforcée de caractéristiques simples) en 2001. Il s'agit d'une approche basée sur l'apprentissage automatique dans laquelle une fonction en cascade est entraînée à partir d'un grand nombre d'images positives et négatives. Elle est ensuite utilisée pour détecter des objets dans d'autres images.

Nous travaillerons ici sur la détection des visages. Au départ, l'algorithme a besoin d'un grand nombre d'images positives (images de visages) et d'images négatives (images sans visages) pour entraîner le classificateur. Nous devons ensuite en extraire les caractéristiques. Pour ce faire, nous utilisons les caractéristiques Haar présentées dans l'image ci-dessous. Elles sont comparables à notre noyau convolutif. Chaque caractéristique est une valeur unique obtenue en soustrayant la somme des pixels situés sous le rectangle blanc de la somme des pixels situés sous le rectangle noir.

caractéristiques_haar.jpg
image

Maintenant, toutes les tailles et tous les emplacements possibles de chaque noyau sont utilisés pour calculer un grand nombre de caractéristiques. (Imaginez la quantité de calculs nécessaires ? Même une fenêtre 24x24 produit plus de 160000 caractéristiques). Pour chaque calcul de caractéristique, nous devons trouver la somme des pixels situés sous les rectangles blancs et noirs. Pour résoudre ce problème, ils ont introduit l'image intégrale. Quelle que soit la taille de votre image, elle réduit les calculs pour un pixel donné à une opération impliquant seulement quatre pixels. C'est bien, non ? Cela rend les choses très rapides.

Mais parmi toutes les caractéristiques que nous avons calculées, la plupart ne sont pas pertinentes.

Prenons par exemple l'image ci-dessous. La rangée du haut montre deux bonnes caractéristiques. La première caractéristique sélectionnée semble se concentrer sur la propriété selon laquelle la région des yeux est souvent plus foncée que la région du nez et des joues.

La deuxième caractéristique sélectionnée s'appuie sur la propriété selon laquelle les yeux sont plus foncés que l'arête du nez. Mais les mêmes fenêtres appliquées aux joues ou à tout autre endroit ne sont pas pertinentes. Alors, comment sélectionner les meilleures caractéristiques parmi plus de 160000 ? C'est possible grâce à Adaboost.


Permalien

Note: migrer des utilisateur Mysql/MariaDB d'un serveur à un autre

24 août 2023 à 07:15

mysql -u<user> -p<password> -h<host> -e"select concat('show grants for ','\'',user,'\'@\'',host,'\'') from mysql.user" > user_list_with_header.txt
sed '1d' user_list_with_header.txt > ./user.txt
while read user; do mysql -u<user> -p<password> -h<host> -e"$user" > user_grant.txt; sed '1d' user_grant.txt >> user_privileges.txt; echo "flush privileges" >> user_privileges.txt; done < user.txt
awk '{print $0";"}' user_privileges.txt >user_privileges_final.sql
rm user.txt user_list_with_header.txt user_grant.txt user_privileges.txt


Permalien

GitHub - LizardByte/Sunshine: Self-hosted game stream host for Moonlight.

26 octobre 2024 à 10:47
Je cherchais de quoi jouer aux jeux de mon PC sur ma télé (via un boitier Android), en streaming.
SteamLink sait en principe faire ça, mais ça n'avait pas marché chez moi (j'avais l'audio et les contrôle, mais pas la vidéo).
On m'avait conseillé Parsec, mais le serveur ne fonctionne que sous Windows et MacOS.

D'autres personnes m'ont recommandé Sunshine et Moonlight. Ça marche à la perfection 👌‍:
- j'installe le serveur Sunshine sur mon PC Linux (et j'ouvre les ports nécessaires).
- j'installe le client Moonlight sur le boiter Android relié à ma TV.

Et voilà, je peux directement jouer à mes jeux PC sur ma télé, avec ma manette. Moonlight peut même me lancer Steam en mode BigPicture.
C'est très simple à mettre en place, ça ne nécessite aucun compte sur internet.

- Serveur Sunshine : https://github.com/LizardByte/Sunshine/releases/latest (voir les instructions d'installation : https://github.com/LizardByte/Sunshine/blob/master/docs/getting_started.md). Ils fournissent un .deb alors c'est vite installé.
- Client Moonlight pour Android : https://play.google.com/store/apps/details?id=com.limelight
(Permalink)

Face aux grands studios du jeu vidéo, les recettes gagnantes des indépendants

24 octobre 2024 à 11:22
Alors j'aime d'amour les studios indés, vraiment, mais là ça me met un peu mal à l'aise. Bodycam a donc compté pour son succès sur :
- des assets tout faits du market Unreal.
- l'hyper-réalisme de l'Unreal Engine 5.
- une bonne grosse campagne de marketing.

Alors je suis content de leur succès, mais.... bof la méthode, non ?
Je préfère ceux qui misent sur l'inventivité, l'originalité des idées (Chants of Sennaar, Baba is you, Superhot, Ynglet...)

Avocat du diable : C'est bien de voir un petit studio - avec aussi "peu" de moyens (150 000€) - jouer sur le terrain des très gros studios (l'hyper-réalisme).
(Permalink)

Revente de jeux vidéo dématérialisés : la Cour de cassation tranche définitivement en faveur de Valve

24 octobre 2024 à 10:58
Et crotte 🙁 la revente de jeux vidéos d'occasion (dématérialisés) n'est donc pas permise (au grand bénéfice des plateformes qui - elles - ne se gêneront pas pour nous retirer des jeux qu'on a payés, sans la moindre conséquence pour elles).

Lu sur le net : « if buying isn’t owning, then piracy isn’t stealing »
Il faudrait que je m'en fasse un t-shirt.
(Permalink)

The Pentagon Wants to Use AI to Create Deepfake Internet Users

21 octobre 2024 à 22:10

17.10.2024

Le Pentagone veut utiliser l'IA pour créer de faux internautes

Le ministère de la défense veut se doter d'une technologie qui lui permette de créer des personnages en ligne impossibles à distinguer des personnes réelles.

Le commandement secret des opérations spéciales des États-Unis recherche des entreprises pour l'aider à créer de faux internautes si convaincants que ni les humains ni les ordinateurs ne pourront les détecter, selon un document d'appel d'offres examiné par The Intercept.

Le plan, mentionné dans une nouvelle liste de 76 pages de souhaits du Commandement des opérations spéciales conjointes (JSOC) du ministère de la défense, décrit les technologies avancées souhaitées pour les efforts militaires clandestins les plus élitaires du pays. "Les forces d'opérations spéciales (SOF) sont intéressées par les technologies qui peuvent générer des personnalités en ligne convaincantes à utiliser sur les plateformes de médias sociaux, les sites de réseautage social et d'autres contenus en ligne", peut-on lire dans le document.

Le document précise que le JSOC souhaite pouvoir créer des profils d'utilisateurs en ligne qui "semblent être un individu unique, reconnaissable comme humain, mais qui n'existe pas dans le monde réel", avec pour chacun d'eux des "expressions multiples" et des "photos de qualité d'identification gouvernementale".

Outre les images fixes de personnes fictives, le document précise que "la solution doit inclure des images faciales et d'arrière-plan, des vidéos faciales et d'arrière-plan, ainsi que des couches audio", et le JSOC espère pouvoir générer des "vidéos de selfie" à partir de ces personnes fabriquées de toutes pièces. Ces vidéos ne comporteront pas que de fausses personnes : Chaque deepfake selfie sera accompagné d'un arrière-plan simulé correspondant, "afin de créer un environnement virtuel indétectable par les algorithmes des médias sociaux".

Ces dernières années, le Pentagone a déjà été pris en flagrant délit d'utilisation de faux utilisateurs de médias sociaux pour servir ses intérêts. En 2022, Meta et Twitter ont supprimé un réseau de propagande utilisant de faux comptes gérés par l'U.S. Central Command, dont certains avec des photos de profil générées avec des méthodes similaires à celles décrites par le JSOC. En 2024, une enquête de Reuters a révélé une campagne du Commandement des opérations spéciales utilisant de faux utilisateurs de médias sociaux et visant à saper la confiance des étrangers dans le vaccin Covid de la Chine.

L'année dernière, le commandement des opérations spéciales, ou SOCOM, a exprimé son intérêt pour l'utilisation de vidéos "deepfakes", un terme général désignant des données audiovisuelles synthétisées censées être impossibles à distinguer d'un enregistrement authentique, dans le cadre d'"opérations d'influence, de déception numérique, de perturbation de la communication et de campagnes de désinformation".

Ces images sont générées à l'aide de diverses techniques d'apprentissage automatique, généralement à l'aide de logiciels qui ont été "entraînés" à reconnaître et à recréer des caractéristiques humaines en analysant une base de données massive de visages et de corps. La liste de souhaits du SOCOM de cette année indique un intérêt pour un logiciel similaire à StyleGAN, un outil publié par Nvidia en 2019 qui a alimenté le site Web mondialement populaire "Cette personne n'existe pas". Moins d'un an après le lancement de StyleGAN, Facebook a déclaré avoir supprimé un réseau de comptes qui utilisaient la technologie pour créer de fausses photos de profil.

Depuis lors, les chercheurs du secteur universitaire et du secteur privé se sont engagés dans une course entre de nouveaux moyens de créer des deepfakes indétectables et de nouveaux moyens de les détecter. De nombreux services publics exigent désormais une détection de la vivacité pour déjouer les photos d'identité truquées, en demandant aux candidats humains de télécharger une vidéo selfie pour prouver qu'ils sont une personne réelle - un obstacle que le SOCOM pourrait être intéressé à déjouer.

La liste indique que les troupes d'opérations spéciales "utiliseront cette capacité pour recueillir des informations sur les forums publics en ligne", sans autre explication sur l'utilisation de ces utilisateurs artificiels de l'internet.

Cette liste plus détaillée montre que les États-Unis utilisent exactement les mêmes technologies et techniques que celles qu'ils condamnent lorsqu'elles sont utilisées par des ennemis géopolitiques. Les responsables de la sécurité nationale décrivent depuis longtemps l'utilisation de "deepfakes" soutenue par les États comme une menace urgente, à condition qu'elle soit le fait d'un autre pays.

En septembre dernier, une déclaration commune de la NSA, du FBI et de la CISA avertissait que "les médias synthétiques, tels que les "deepfakes", représentent un défi croissant pour tous les utilisateurs de la technologie et des communications modernes". La prolifération mondiale de la technologie des deepfakes y est décrite comme un "risque majeur" pour 2023. Dans une note d'information adressée aux journalistes cette année, les responsables du renseignement américain ont averti que la capacité des adversaires étrangers à diffuser des "contenus générés par l'IA" sans être détectés - exactement la capacité que le Pentagone recherche actuellement - représente un "accélérateur d'influence malveillante" de la part de pays comme la Russie, la Chine et l'Iran. Au début de l'année, la Defense Innovation Unit du Pentagone a sollicité l'aide du secteur privé pour lutter contre les "deepfakes" avec un air alarmiste : "Cette technologie est de plus en plus courante et crédible, ce qui représente une menace importante pour le ministère de la défense, d'autant plus que les adversaires des États-Unis utilisent les deepfakes à des fins de tromperie, de fraude, de désinformation et d'autres activités malveillantes. Un document publié en avril par l'Institut d'études stratégiques de l'armée américaine fait état de préoccupations similaires : "Les experts s'attendent à ce que l'utilisation malveillante de l'IA, y compris la création de fausses vidéos pour semer la désinformation afin de polariser les sociétés et d'approfondir les griefs, se développe au cours de la prochaine décennie.

"Il n'y a pas d'autres cas d'utilisation légitime que la tromperie.

L'utilisation offensive de cette technologie par les États-Unis stimulerait naturellement sa prolifération et la normaliserait en tant qu'outil pour tous les gouvernements. "Ce qui est remarquable à propos de cette technologie, c'est qu'elle est purement trompeuse", a déclaré Heidy Khlaaf, responsable scientifique de l'IA à l'AI Now Institute. "Il n'y a pas d'autres utilisations légitimes que la tromperie, et il est inquiétant de voir l'armée américaine se lancer dans l'utilisation d'une technologie contre laquelle elle a elle-même mis en garde. Cela ne fera qu'encourager d'autres armées ou adversaires à faire de même, conduisant à une société où il est de plus en plus difficile d'établir la vérité de la fiction et brouillant la sphère géopolitique".

La Russie et la Chine ont été prises en flagrant délit d'utilisation de vidéos truquées et d'avatars d'utilisateurs dans le cadre de leurs efforts de propagande en ligne, ce qui a incité le département d'État à annoncer en janvier un "cadre de lutte contre la manipulation de l'information par des États étrangers". "La manipulation de l'information et l'ingérence étrangère constituent une menace pour la sécurité nationale des États-Unis, de leurs alliés et de leurs partenaires", indique un communiqué de presse du département d'État. "Les gouvernements autoritaires utilisent la manipulation de l'information pour déchirer le tissu des sociétés libres et démocratiques.

L'intérêt du SOCOM pour les "deepfakes" s'inscrit dans le cadre d'une tension fondamentale au sein du gouvernement américain, a déclaré Daniel Byman, professeur d'études de sécurité à l'université de Georgetown et membre du Conseil consultatif sur la sécurité internationale du département d'État. "Une grande partie du gouvernement américain a tout intérêt à ce que le public croie que le gouvernement diffuse systématiquement des informations véridiques (en toute connaissance de cause) et qu'il ne trompe pas délibérément les gens", explique-t-il, alors que d'autres branches sont chargées de la tromperie. "Il est donc légitime de craindre que les États-Unis soient perçus comme hypocrites", a ajouté M. Byman. "Je m'inquiète également de l'impact sur la confiance des citoyens dans le gouvernement : certains segments de la population américaine deviendront-ils plus méfiants à l'égard des informations émanant du gouvernement ?


Permalien
❌
❌