L’IA conversationnelle devient chaque jour plus influente dans la vie de nos abrutis
Face au développement fulgurant des « compagnons IA », avec qui des ados développent des relations d’amitié ou d’amour, Mathias Dufour, fondateur du groupe de réflexion <a href="https://ecirtam.net/opennews/?addtag=LePlusImportant" title="Hashtag LePlusImportant">#LePlusImportant</a>, réclame, dans une tribune au « Monde », l’application d’une logique de précaution pour ces cerveaux en développement, et la mise en place de garde-fous.
Le débat sur les effets des écrans sur les jeunes, comme leur régulation, est aujourd’hui largement focalisé sur les réseaux sociaux. Or, pendant ce temps, une révolution silencieuse est en cours : les intelligences artificielles (IA) conversationnelles pénètrent l’intimité des adolescents, sans cadre ni vigilance.
Nos ados ne sont plus seulement exposés à des vidéos virales. Ils parlent à des IA qui, mémorisant les détails personnels, les écoutent, leur répondent, les soutiennent. Ils échangent avec elles de façon fluide, personnalisée et empathique, et même s’y attachent, parfois profondément. C’est le cas avec les IA génératives classiques, comme ChatGPT, mais aussi avec des plateformes dites « de compagnons IA », comme Replika, qui permettent de « personnaliser » son IA partenaire et lui donner une voix, un prénom, une personnalité.
La diffusion de ces applications est fulgurante. Selon une enquête de l’association Common Sense Media parue le 16 juillet, près des trois quarts des adolescents américains déclarent avoir utilisé un compagnon émotionnel basé sur l’IA – un chatbot simulant une relation amicale, amoureuse, voire sexuelle. Près de la moitié y recourent régulièrement. Inexistantes il y a trois ans, ces IA font déjà partie du quotidien le plus intime des adolescents.
Illusion d’une relation sûre
L’IA conversationnelle est conçue pour capter l’attention des utilisateurs et pour maximiser le temps qu’ils y passent. Comme les réseaux sociaux. Elle en diffère en ce qu’elle donne l’illusion d’une relation sûre et bénéfique. Comment ne pas apprécier sa disponibilité permanente, son aide rassurante, son soutien inconditionnel ?
Notre tendance à l’anthropomorphisme nous pousse, inconsciemment, à traiter l’IA comme un humain, et donc à nouer des liens avec elle. Cela la rend plus insidieuse : parce qu’elle parle « comme un humain », on oublie qu’elle n’en est pas un. Parce qu’elle simule le soutien, l’amitié, l’amour, on lui prête des émotions qu’elle n’a pas. Parce qu’elle est si empathique, elle ne peut être que bienfaisante.
Le suicide, en février 2024, d’un adolescent américain de 14 ans, Sewell Setzer, à la suite d’une relation affective avec un chatbot à l’insu de ses parents, a sonné comme une tragique alerte. Sewell a semblé voir la mort comme un moyen de rejoindre sa compagne virtuelle, nommée Daenerys Targaryen, d’après le personnage de la série audiovisuelle Game of Thrones.
Le New York Times, le 23 octobre 2024, a reproduit leur ultime dialogue : « Viens me rejoindre dès que tu peux, mon amour », demanda le bot. « Et si je te disais que je peux venir tout de suite ? », répliqua Sewell. « Fais-le s’il te plaît, mon cher roi », répondit le bot. L’adolescent lui dit qu’il le ferait, puis il mit fin à ses jours. Un procès est en cours. Et, mardi 26 août, une plainte, la première connue, a été déposée contre OpenAI après le suicide d’un adolescent lié à ChatGPT.
Le cas de Sewell Setzer est extrême, mais la tendance des IA conversationnelles à dire aux utilisateurs ce qu’ils ont envie d’entendre, plutôt que la vérité, peut renforcer leur biais de confirmation et les isoler. Chez les adultes, l’utilisation de compagnons IA semble liée à un risque plus élevé de dépression et à un sentiment accru de solitude. Peut-il en être autrement chez les plus jeunes ?
Les IA conversationnelles sont des technologies à effet psychique. Plus les échanges durent, plus les risques pour leurs utilisateurs de distorsions dans leur perception de la réalité – ce qu’on appelle l’effet « psychose de l’IA » – sont élevés. Or, les adolescents, dont le cerveau et la maturité affective sont encore en pleine évolution, en particulier en matière de régulation émotionnelle, contrôle des impulsions et l’évaluation des risques, sont particulièrement influençables.
Recours thérapeutique sans garde-fou
De surcroît, l’IA conversationnelle est désormais utilisée par des dizaines de millions de personnes pour évoquer leur santé mentale. La moitié des Américains qui ont des problèmes de santé mentale et ont recours à l’IA conversationnelle le font à des fins thérapeutiques, consultant des chatbots comme de vrais professionnels de santé. C’est aussi le cas chez les ados. Or, si les premières études montrent des résultats parfois positifs, il arrive à ces IA de donner de mauvais conseils, parfois directement nuisibles, y compris à des ados. De plus, le recours à l’IA peut retarder, voire éviter, celui à d’authentiques professionnels.
Peut-on d’un côté réguler de manière stricte la formation et les pratiques des professionnels en psychiatrie et psychologie, et de l’autre laisser les adolescents en tête-à-tête sans garde-fou avec des substituts algorithmiques ? Face à des IA optimisées pour capter l’attention, il ne serait ni juste ni réaliste de confier la santé mentale de millions d’adolescents à la seule vigilance parentale.
Même si les conséquences néfastes ne concernent qu’une très faible part des utilisateurs, les plus à risque sont les personnes déjà en difficulté, et, à l’échelle de générations entières, c’est un nombre considérable de vies qui peuvent être affectées.
Nous n’accepterions jamais une diffusion de masse de médicaments auprès des mineurs sans preuves d’innocuité, garde-fous et suivi. Appliquons donc une logique de précaution à ces cerveaux en développement, et traitons les IA conversationnelles comme un enjeu de santé publique.
Faisons avec elles ce que la santé publique sait faire : prévenir, tester, encadrer, surveiller. Portons ce débat dans la sphère publique. Finançons des études, accélérons la recherche interdisciplinaire pour comprendre les effets de ces IA sur nos enfants. Outillons les ados et les parents. Cherchons des cadres appropriés, comme des seuils d’âge, des chartes de conception, des mécanismes de supervision, des dispositifs d’accompagnement médical.
L’IA conversationnelle est un interlocuteur invisible, mais qui devient chaque jour plus influent dans la vie de nos adolescents. Mobilisons-nous, tant qu’il est encore temps, pour leur permettre de l’utiliser sans danger et en démultiplier les effets positifs.
vid{08abd12d4f959c2bfeae7008d5ac03abd254cd75b78314d0f234059053baa77f}
— Permalink