Vue normale

Reçu aujourd’hui — 10 octobre 2025

Non divulgué, mal maîtrisé : Deloitte tancé pour son usage de l’IA générative

10 octobre 2025 à 09:58

Du lanceur d’alerte à la commission d’enquête parlementaire, Deloitte connaît une période tumultueuse en Australie.

Il lui est reproché son recours à l’IA générative dans le cadre d’une mission de conseil pour le ministère de l’Emploi et des Relations du travail. D’une part, parce qu’il ne l’a pas divulgué. De l’autre, parce que cette IA (GPT-4o) a inventé des sources et des précédents judiciaires.

La mission, réalisée entre fin 2024 et mi-2025, a abouti à un rapport de 237 pages. Sujet : le TCF (Targeted Compliance Framework). Ce système implémenté en 2018 automatise l’évaluation de la situation des demandeurs d’emploi… et l’attribution éventuelle de pénalités financières. Deloitte constate, dans les grandes lignes, que l’algorithme sous-jacent, en plus de manquer de transparence, est démesurément punitif.

Le rapport initial était daté du 4 juillet. Une version mise à jour a été publiée le 26 septembre. Le contenu principal n’a pas changé, mais les citations problématiques ont disparu. Et Deloite a précisé, en annexe, avoir utilisé de l’IA

Deloitte avait d’abord évoqué un « problème de transcription »

Un chercheur de l’université de Sydney avait levé le lièvre au mois d’août. Il avait remarqué que le rapport attribuait à certains de ses collègues des œuvres qu’ils n’avaient pas produites. Par la suite, on avait découvert, entre autres, une référence à une décision de justice inexistante, dans le cadre d’un litige entre le gouvernement australien et une citoyenne sur le système dit robodebt (évaluation et recouvrement automatisé des dettes).

Un accord semble avoir été trouvé avec Deloitte pour le remboursement d’environ 100 000 dollars australiens sur les 440 000 qu’a coûté la mission.

La sénatrice écologiste Barbara Pocock* estime qu’il conviendrait de restituer l’intégralité de la somme. Elle le justifie notamment par les agissements de Deloitte une fois l’affaire mise au jour. D’un côté, le cabinet a d’abord expliqué au ministère de l’Emploi qu’il s’agissait d’un « problème de transcription ». De l’autre, il a pris contact avec le ministère des Finances en affirmant que les commanditaires du rapport étaient au courant de l’usage de l’IA. Ce que les intéressés ont demandé en audition au Sénat.

How we ‘fess up when we mess up shows who we are. Pay it all back Deloitte. And apologise. Give yrsrlf some procurement teeth Labor: the capability to ban for poor behaviour, commensurate with the misdemeanour, up to 5 yrs. pic.twitter.com/BAnrek1Uz5

— Barbara Pocock (@BarbaraPocock) October 9, 2025

Murray Watt, ministre de l’Emploi lorsque fut signé le contrat avec Deloitte, évoque un « acte clairement inadmissible ». Il regrette l’absence d’excuses, y compris auprès des personnes auxquelles l’IA a faussement attribué certaines œuvres.

Dans ce contexte, le ministère des Finances a décider de mieux encadrer les futurs contrats avec tout consultant. Tout usage potentiel d’IA devra être explicité, en identifiant outils et finalités.

* Les Verts sont la troisième force politique au Sénat australien, avec 10 sièges contre 29 pour le Parti travailliste et 27 pour la coalition d’opposition.

Illustration générée par IA

The post Non divulgué, mal maîtrisé : Deloitte tancé pour son usage de l’IA générative appeared first on Silicon.fr.

❌