Le CDJ a constaté que Ventures Media avait enfreint gravement la déontologie en diffusant des contenus générés par IA, signés par de faux profils de journalistes
Le Conseil de déontologie journalistique (CDJ) vient de rendre sa décision dans le dossier d’autosaisine relatif à Ventures Media. Comme révélé par une enquête de VRT nws, les sites des différents magazines du groupe avaient publié dans le cadre d’un test, pendant plusieurs mois et en dehors de tout contrôle de ses rédactions, des contenus générés par l’intelligence artificielle, signés par des journalistes dont les profils avaient été créés de toutes pièces. Après examen, le CDJ – qui se prononce ainsi pour la première fois sur le recours à l’intelligence artificielle générative dans l’information – a conclu à une grave infraction à la déontologie journalistique, principalement sur les devoirs de responsabilité sociale, vérification, liberté rédactionnelle, indépendance, méthodes loyales et interdiction de plagiat.
Lors de sa seconde réunion plénière de mars, le CDJ a examiné son premier dossier « IA », soit une autosaisine décidée à la suite des révélations de la VRT concernant des contenus publiés sur les sites de Ventures Media, générés entièrement par l’intelligence artificielle et présentés comme des contenus journalistiques. Après auditions, le CDJ a constaté, premièrement, que ce faisant, l’éditeur avait négligé le respect élémentaire du principe d’indépendance en privant les rédactions de toute information utile et de possibilité d’intervention sur ces contenus. Le Conseil rappelle à cet égard que la liberté rédactionnelle et les choix qui en découlent sont du ressort seul des rédactions, qu’ils s’exercent en toute autonomie, responsabilité et sans ingérence, d’où qu’elle vienne, en ce compris des éditeurs et qu’en conséquence, ces derniers doivent consulter leur rédaction sur toute question de nature à modifier fondamentalement la ligne éditoriale ou l’organisation des rédactions.
Le Conseil a considéré, deuxièmement, qu’en faisant passer des contenus produits par un outil technologique, non contrôlés (non vérifiés, recoupés ou traités) par la rédaction, pour des contenus résultant d’un travail rédactionnel, l’éditeur avait non seulement trompé gravement le public sur la nature et la valeur exactes de ces contenus, mais également porté atteinte à la crédibilité et à la fiabilité du travail de ses rédactions ainsi qu’à l’image de la profession. Le CDJ souligne que signaler en commentaire que l’intelligence artificielle avait servi à fabriquer ces contenus – comme l’éditeur l’a fait peu après les révélations de VRT nws (avant finalement de les supprimer) –, ne suffisait pas à rencontrer les impératifs de responsabilité sociale inhérente à la profession : les contenus produits par l’IA non relus, non validés par la rédaction ne peuvent en aucun cas rencontrer les critères d’une information journalistique et a fortiori d’une information de qualité déontologique.
Troisièmement, le CDJ a relevé que l’utilisation de faux profils présentés comme journalistiques (utilisation de photos issues de l’IA ; création de profils professionnels fictifs mais suffisamment pointus et crédibles) induisait le public en erreur, tant sur l’existence réelle de ces auteurs que sur l’origine et la qualité de l’information prétendument signée par eux. Il a estimé qu’il s’agissait là d’une méthode particulièrement malhonnête et déloyale vis-à-vis du public et de la profession en ce qu’elle portait préjudice à la crédibilité même du travail journalistique, et à l’intégrité de toute la fonction.
Le CDJ a par ailleurs constaté qu’à la suite des révélations de VRT nws, l’éditeur avait décidé de procéder à la suppression pure et simple des contenus et des faux profils. Notant que ces contenus avaient été présentés comme journalistiques pour le public et qu’ils avaient donc pu être considérés par ce dernier comme résultant d’un travail de la rédaction, il estime qu’il aurait fallu, d’une part, que la décision de cette suppression relève de l’exercice de la liberté éditoriale des rédactions, d’autre part, que celles-ci veillent à informer le public, en toute transparence, sur les raisons les ayant poussées à procéder de la sorte.
En marge de sa décision, le CDJ rappelle aux médias et aux journalistes qu’il en va de l’intelligence artificielle comme des autres outils dont ils disposent : leur utilisation intervient dans le cadre d’un traitement journalistique, sur lequel les journalistes doivent garder le contrôle. Cette utilisation doit se conformer aux principes de déontologie, particulièrement en matière de responsabilité sociale (préambule du Code), vérification (art. 1), liberté rédactionnelle (art. 9), indépendance (art. 11), mention des sources (art. 1), méthodes loyales (art. 17) et interdiction de plagiat (art. 19). Il recommande aux rédactions de veiller à informer en toute transparence leurs publics des dispositions internes réglant leur usage et leurs pratiques en la matière. Pour autant que nécessaire, le Conseil souligne aussi que le recours à de faux profils présentés comme journalistiques est prohibé.

