gguy / Shutterstock
Nouveautés + tendances

Enquête du Guardian : GPT-5.2 utilise Grokipedia comme source

Kim Muntinga
26/1/2026
Traduction : traduction automatique

Une enquête du Guardian révèle que GPT-5.2 a utilisé Grokipedia comme source dans plusieurs cas. Cette découverte met en lumière un problème central de l'IA moderne : la difficile ligne de démarcation entre les informations vérifiées et les connaissances synthétiques.

Le fait qu'un grand modèle de langage comme GPT-5.2 reprenne du contenu non filtré d'une encyclopédie générée par une IA a longtemps été considéré comme un risque théorique. C'est désormais une réalité, du moins en partie. The Guardian a révélé que le modèle s'inspire à plusieurs reprises de Grokipedia d'Elon Musk. Une source très controversée depuis son lancement en raison de biais politiques, d'un manque de transparence et d'erreurs factuelles.

La révélation soulève des questions centrales sur la qualité des données, la neutralité des systèmes d'IA et l'efficacité de leurs mécanismes de sécurité et de contrôle.

Ce que le Guardian a découvert

Dans ses essais, le Guardian a constaté que GPT-5.2 a eu recours à neuf reprises à du contenu de Grokipedia de Musk, sur plus d'une douzaine de requêtes aux thématiques très variées.

Ce fut particulièrement le cas pour des thèmes moins proéminents, comme les détails sur les organisations liées à l'État iranien - notamment les salaires de la milice Basij ou la propriété de la fondation Mostazafan. Des détails biographiques sur l'historien britannique Sir Richard Evans, qui a témoigné en tant qu'expert dans le procès en diffamation contre le négationniste David Irving, ont également été repris de Grokipedia, bien que certaines de ces informations soient prouvées fausses.

L'IA a même parfois donné la priorité au contenu de Grokipedia sur les encyclopédies établies, même si celles-ci fournissaient des informations contradictoires ou plus précises. Cela va à l'encontre de l'engagement de longue date d'OpenAI de fournir des réponses basées sur des sources vérifiées et fiables, et rend le problème d'autant plus grave.

Selon les recherches du Guardian, GPT-5.2 n'est pas le seul à utiliser Grokipedia. Le modèle linguistique d'Anthropic, Claude, a également trouvé des preuves d'une utilisation de Grokipedia comme source, par exemple pour des requêtes sur des thèmes techniques ou spécialisés comme la production de pétrole ou sur des thèmes de niche comme les ales écossaises.

Pourquoi Grokipedia est problématique en tant que source

Elon Musk a présenté Grokipedia en octobre 2025 comme une réponse générée par l'IA à Wikipedia : avec l'objectif déclaré d'équilibrer les prétendues «tendances de gauche» de l'encyclopédie en ligne classique. Les critiques considèrent toutefois Grokipedia plutôt comme un contrepoids avec des biais politiques clairement identifiables, par exemple avec une tendance à la narration de droite.

  • Nouveautés + tendances

    "Grokipedia" - Elon Musk lance un concurrent de Wikipedia

    par Samuel Buchmann

Le problème crucial est plus profond : Grokipedia est presque exclusivement généré par le modèle d'IA de Musk, Grok, sans édition ouverte par une communauté. Tous les contenus sont donc générés dans les mêmes conditions algorithmiques, sans contrôle indépendant, sans assurance qualité collaborative, sans corrections éditoriales transparentes.

Lorsqu'un grand modèle de langage comme GPT-5.2 cite du contenu d'une autre plateforme d'IA, un effet de rétroaction se produit : «Garbage in, Garbage out». Les erreurs ou les fausses représentations peuvent se renforcer mutuellement, gagner en crédibilité et se glisser presque à l'insu de tous dans les réponses d'autres systèmes d'IA.

Le danger supérieur : le LLM Grooming

Au-delà de ce mécanisme technique, le Guardian pointe toutefois un risque encore plus important : le phénomène du «LLM Grooming». Ce terme désigne l'injection ciblée de tels contenus dans le paysage de l'information publique, avec l'intention d'influencer à long terme la base de connaissances des modèles linguistiques.

A la différence de la rétroaction involontaire, il s'agit ici d'une intention stratégique : en atterrissant systématiquement sur le Web, le matériel généré par l'IA peut apparaître plus tard dans les résultats de recherche ou les encyclopédies et être considéré comme une source légitime par des modèles comme GPT-5.2. L'écosystème de l'information se déplace ainsi progressivement des faits vérifiés par l'homme vers des contenus synthétiques générés par l'IA et repris par d'autres IA. C'est précisément ce mécanisme que le Guardian met en évidence dans le cas de Grokipedia.

Comment OpenAI réagit

OpenAI souligne que GPT-5.2 est conçu pour puiser dans un large éventail de sources disponibles publiquement. Des filtres de sécurité sont censés empêcher l'apparition de liens ou de contenus à fort potentiel de nuisance. Cependant, des découvertes récentes montrent que ces filtres ne sont pas systématiquement efficaces lorsque des sources générées par l'IA, comme Grokipedia, sont impliquées.

Pour OpenAI, cette révélation est un moment critique : elle pose la question de savoir si les modèles linguistiques modernes sont suffisamment capables de distinguer les informations d'origine humaine de celles qui proviennent exclusivement de cycles générés par l'IA.

Photo d’en-tête : gguy / Shutterstock

Cet article plaît à 4 personne(s)


User Avatar
User Avatar

Mes intérêts sont variés, j'aime simplement profiter de la vie. Toujours à l'affût de l'actualité dans le domaine des fléchettes, des jeux, des films et des séries.


Logiciels
Suivez les thèmes et restez informé dans les domaines qui vous intéressent.

Nouveautés + tendances

Du nouvel iPhone à la résurrection de la mode des années 80. La rédaction fait le tri.

Tout afficher

4 commentaires

Avatar
later