Encore un truc qui me semble une super super mauvaise idée : Faire ré-écrire par une IA ce que vous avez écrit dans un chat. Sans votre consentement.
Le prétexte : éviter les phrases et mots choquants (comme d'habitude "c'est pour protéger les enfants !")
Pourquoi c'est une pente glissante ? Parce que :
1) cela va faire entrer dans les habitudes de faire déformer votre discours par les IA (1️⃣).
2) le critère de ce qui est "acceptable" est très (très) variable.
3) le curseur de la censure va descendre (Je rappelle qu'aux USA, Trump a pondu des lois pour considérer l'anti-capitalisme et l'anti-christianisme comme "anti-américain". Donc des lois pour empêcher la critique du capitalisme et des chrétiens.)
On se dirige doucement vers les manières de la dictature chinoise où vous êtes puni·e·s pour tout ce qui porte atteinte à l'«harmonie sociale».
( 1️⃣ Des utilisateurs de GMail ont déjà constaté la reformulation de certains mails par l'IA, sans le consentement de l'expéditeur. )
J'ajoute qu'il n'y aura aucune règle propre dans ces systèmes, vous ne ferez que subir l'arbitraire. (D'autant plus avec une IA qui n'a pas un fonctionnement déterministe.)
Je voudrais raconter une anecdote : Le jeu vidéo Borderlands 3 est littéralement *rempli* d'insultes, d'injures et de jurons (Exemple: "Putain de sa race, sa mère la pute!"). Quand j'ai voulu entrer dans le jeu avec mon pseudo "sebsauvage" il a été refusé. Trop violent. Parce qu'il contient le mot "sauvage" (qui n'est pas en soi une insulte). C'est absurde.
(
Permalink)