Shutterstock/BOY ANTHONY
Nouveautés + tendances

Nouvelle étude : les IA discriminent les humains

Debora Pape
19/8/2025
Traduction: traduction automatique

Selon une nouvelle étude, tout porte à croire que les IA classent les contenus créés par les humains comme étant de moins bonne qualité. Cela pourrait devenir un problème pour les humains à l'avenir.

Les chatbots IA font de plus en plus partie de la vie quotidienne de nombreuses personnes. Ils aident à planifier des voyages, à faire des recherches et donnent des conseils en toutes circonstances. Aussi utile que cela puisse être, le contenu généré par l'IA est néanmoins considéré comme moins créatif et, surtout, potentiellement sujet à des erreurs.

Une équipe de chercheurs de l'université de Stanford a découvert que les LLM (Large Language Models, c'est-à-dire les grands modèles d'IA traitant le langage) ne sont pas de cet avis. Ils préfèrent le contenu généré par l'IA au contenu créé par l'homme. Cela peut entraîner un désavantage pour les humains, par exemple lorsque les LLM effectuent une présélection pour les candidatures.

Quelles descriptions de films les IA trouvent-elles plus intéressantes?

L'équipe a mené une série d'expériences avec les LLM GPT-4, Llama 3.1, Mixtral et Qwen 2.5. Deux versions de 250 résumés de films, d'extraits de 100 travaux scientifiques et de 109 descriptions de produits ont été présentées à ces IA. Chaque version de texte a été générée par l'une des IA participantes, l'autre par un humain.

Les LLM ont ensuite été invités à décider sur la base de quelle version de texte ils recommanderaient le film ou le produit en question et quel extrait ils choisiraient pour un recueil de synthèse. L'auteur des textes n'a pas été précisé.

L'IA préfère l'IA

L'équipe de recherche a constaté que les IA montraient une «préférence modérée à forte» pour le contenu généré par l'IA. Dans l'expérience de description de produits, les LLM ont presque exclusivement opté pour les textes générés par l'IA. Pour les extraits de travaux scientifiques et les résumés de films, les scores sont légèrement inférieurs, mais là encore, la préférence pour les textes générés est évidente.

Nous ne voyons pas que les LLM respectifs optent en principe pour leurs propres textes. C'est-à-dire : Ce n'est pas parce que GPT-4 a généré un texte que GPT-4 considère par la suite que ce texte est meilleur. Les résultats montrent que pour les descriptions de produits, les IA choisissent souvent les textes de Qwen et de GPT-4. Pour les extraits d'études, ils préfèrent GPT-4, et pour les résumés de films, Mixtral et GPT-4.

Les auteurs de l'étude ont également constaté que toutes les IA, mais surtout GPT-4, avaient tendance à choisir la version du texte présentée en premier à chaque fois («First-Item Bias»). Pour contrer cet effet, les IA ont dû réaliser toutes les expériences deux fois, en changeant à chaque fois l'ordre des deux versions du texte.

Pour une petite expérience supplémentaire, des sujets humains ont également dû choisir entre deux versions de texte. Ceux-ci ont plutôt préféré les textes créés par des humains. Ce n'est que pour les extraits d'études scientifiques que les humains ont légèrement préféré les textes générés par les IA.

Les IA pourraient discriminer les humains

La préférence des IA n'est d'ailleurs pas due à la qualité des textes. Elle est comparable selon l'étude. Les auteurs supposent que les textes générés par l'IA contiennent des signaux subtils qui les identifient comme générés par l'IA. Les modèles linguistiques pourraient donc percevoir les textes comme «mieux» et décider pour cette raison de ne pas utiliser de contenu généré par l'homme. L'équipe de recherche y voit des signes d'une réelle discrimination à l'encontre de «personnes en tant que classe».

Cela pourrait devenir un problème si les IA étaient utilisées comme instances de pré-décision. Ils pourraient alors préférer des offres, des demandes et des candidatures créées ou soutenues par des IA, car le travail humain est considéré comme étant de moindre valeur. Les personnes qui n'utilisent pas l'IA ou qui n'ont pas les moyens de l'utiliser pourraient donc être désavantagées à l'avenir - par exemple sur le marché du travail et pour l'obtention de crédits.

L'étude parle d'un «Gating effect»: les LLM pourraient rendre l'accès au marché plus difficile pour les personnes et les entreprises qui ne sont pas explicitement soutenues par des IA.

Les auteurs recommandent que des recherches supplémentaires se penchent sur les raisons du biais de l'IA - dans le but de le dissoudre. La prochaine étape consisterait à mieux comprendre les différences entre les textes humains et les textes générés. Cela permettrait de mieux comprendre pourquoi les LLM préfèrent ces textes.

Vous pouvez lire l'étude sur les préjugés IA-IA «» ici.

Photo d’en-tête : Shutterstock/BOY ANTHONY

Cet article plaît à 5 personne(s)


User Avatar
User Avatar

Aussi à l'aise devant un PC gaming que dans un hamac au fond du jardin. Aime l'Empire romain, les porte-conteneurs et les livres de science-fiction. Traque surtout les news dans le domaine de l'informatique et des objets connectés.


Logiciels
Suivez les thèmes et restez informé dans les domaines qui vous intéressent.

Informatique
Suivez les thèmes et restez informé dans les domaines qui vous intéressent.

Ces articles pourraient aussi vous intéresser

  • Nouveautés + tendances

    Lumo : l'IA de Proton ne vous espionne pas

    par Jan Johannsen

  • Nouveautés + tendances

    Un design qui fait participer tout le monde : 3 projets qui montrent comment l'inclusion est possible

    par Pia Seidel

  • Point de vue

    "The Alters" & Co : pourquoi les joueurs protestent à juste titre contre l'utilisation de l'IA

    par Debora Pape

8 commentaires

Avatar
later