Le ministre sud-africain des Communications, Solly Malatsi, a retiré le projet de politique nationale sur l'intelligence artificielle suite à la révélation de sources fictives dans ses références, probablement générées par des outils d'IA. Les erreurs ont affecté trois des six piliers de la politique, entraînant des enquêtes internes et des engagements en matière de responsabilité. M. Malatsi a décrit cette lacune comme une preuve essentielle de la nécessité d'une surveillance humaine renforcée dans l'utilisation de l'IA.
Le ministre des Communications, Solly Malatsi, a annoncé le retrait du projet de politique nationale sur l'intelligence artificielle après avoir confirmé que sa liste de références incluait diverses sources fictives. « Suite aux révélations selon lesquelles le projet de politique nationale sur l'intelligence artificielle publié pour consultation publique contient diverses sources fictives dans sa liste de références, nous avons lancé des questions internes qui ont maintenant confirmé que tel était le cas », a déclaré M. Malatsi dans un communiqué de presse.
Le ministère a identifié les citations générées par l'IA et incluses sans vérification appropriée comme l'explication la plus plausible. Un exemple concernait une citation de « Müller Schmidt 2024 » dans l'European Journal of Law and Technology pour soutenir la catégorisation de l'IA à haut risque et les cadres de souveraineté des données, bien que le document n'existe pas. Ces problèmes ont affecté trois piliers : le développement des capacités et des talents, la transformation économique et la gouvernance responsable, couvrant plus d'un tiers du document.
En réponse, le ministère des Communications et des Technologies numériques a interrompu les commentaires publics et s'est engagé à gérer les conséquences. « Il y aura une gestion des conséquences pour les personnes responsables de la rédaction et de l'assurance qualité », a déclaré M. Malatsi, ajoutant que l'affaire est traitée avec la gravité qu'elle mérite.
M. Malatsi a souligné l'ironie de la situation, notant : « En fait, cette lacune inacceptable prouve pourquoi une surveillance humaine vigilante sur l'utilisation de l'intelligence artificielle est essentielle. » Le responsable de la politique, Dumisani Sondlo, avait précédemment décrit le processus de développement lors de la conférence GovTech 2025 comme « un acte de reconnaissance du fait que nous n'en savons pas assez ».