Directives éthiques et juridiques pour les contenus générés par IA : le mandat chinois de 2025
La Chine franchit une étape décisive vers la transparence de l’IA. Dès le 1er septembre 2025, tout contenu généré par intelligence artificielle devra obligatoirement porter un label clair et visible. Cette réglementation vise à permettre aux utilisateurs d’identifier immédiatement si un contenu relève d’un algorithme plutôt que d’un humain — un changement fondamental dans la confiance accordée à l’information numérique.

Nouvelles règles d’étiquetage applicables dès 2025
Le 14 mars 2025, l’Administration du cyberespace chinoise, le ministère de l’Industrie et de l’Informatique, ainsi que les agences de sécurité publique et de radiodiffusion, ont dévoilé conjointement le « Règlement sur l’étiquetage des contenus IA », qui sera applicable dès le 1er septembre. Deux types de labels sont prévus : un label visible (une marque apparente sur le texte ou l’image) et un filigrane caché intégré dans les métadonnées du contenu.
Pourquoi est-ce un tournant ?
L’objectif principal est de renforcer la transparence et de lutter contre la désinformation, notamment contre les deepfakes et la manipulation de l'information. Les labels visibles signaleront tout contenu non authentique, tandis que les métadonnées permettront de retracer la provenance des contenus et de faciliter la surveillance.
Normes et responsabilités
Le « Guide de bonnes pratiques en cybersécurité » précise les normes relatives à l’utilisation des métadonnées. Par ailleurs, des mesures adoptées en 2023 exigent déjà l’enregistrement et l’évaluation des systèmes IA selon les valeurs fondamentales du pays. Trois nouveaux standards nationaux entreront en vigueur en novembre 2025, élevant encore les exigences de conformité en matière d'IA.
Obligations pour les plateformes
Les grandes plateformes (TikTok, Weibo, Baidu…) devront appliquer strictement ces nouvelles règles. Il sera également exigé que les utilisateurs confirment eux-mêmes si leur contenu a été généré par IA. Les plateformes devront effectuer des analyses des métadonnées, garantir le maintien du label et archiver les contenus pendant au moins six mois.
Critiques et questions ouvertes
Certains craignent que ces normes limitent la liberté créative. L’efficacité des mécanismes de vérification et l’impact sur l’innovation numérique font débat parmi les experts.
Implications mondiales
L’initiative chinoise façonne déjà la discussion internationale sur la gouvernance de l’IA. Des démarches similaires sont en cours dans l’Union européenne (AI Act) et au Canada (projet de loi C-27). L’Occident cherche désormais à établir une approche commune.
Conclusion
La Chine entend renforcer la transparence, limiter la désinformation et clarifier la responsabilité liée aux contenus générés par IA. Le vrai défi est de trouver le bon équilibre entre régulation et innovation.
📌 Pensez-vous que cette mesure va renforcer la confiance, ou s’agit-il d’un nouveau moyen de contrôle ?
✍ Thornike • 25 juin 2025