Les outils d'intelligence artificielle, tel l'emblématique ChatGPT, ne sont pas bons pour poser un diagnostic, avance une étude publiée lundi, alors que l'intérêt médical des IA est scruté de près à travers le monde.
Publiée dans Nature Medicine, cette étude, réalisée auprès de 1.300 personnes au Royaume-Uni, montre que plusieurs modèles d'IA - ChatGPT, Llama (Meta) ou Command R+ - ne font pas mieux qu'une simple recherche en ligne quand un patient s'interroge sur ses symptômes.
"Il y a un emballement autour des IA, mais elles ne sont tout simplement pas prêtes à remplacer un médecin", estime, dans un communiqué, Rebecca Payne, chercheuse à l'Université d'Oxford et co-auteure de l'étude.
Le tribunal correctionnel de Paris a relaxé lundi l'Assistance publique-Hôpitaux de Paris (AP-HP), jugée pour "homicide involontaire" après la mort de Micheline Myrtil aux urgences de l'hôpital Lariboisière en 2018, tout en reconnaissant une "faute de négligence" de l'institution.
Le tribunal a estimé que la responsabilité pénale de l'AP-HP ne pouvait être engagée faute de "lien de causalité certain" entre les défaillances constatées et le décès de la patiente.
La juridiction a pourtant dressé un constat particulièrement sévère de l'organisation du service cette nuit-là.