
Nouveautés + tendances
Les amis imaginaires pourraient renforcer les comportements sociaux
par Spektrum der Wissenschaft
Dès que les gens délèguent des tâches, les inhibitions morales diminuent. Et les assistants numériques ? Ils participent généralement sans hésitation.
Plus les instructions pouvaient être vagues, plus le moral baissait : si les participants devaient indiquer eux-mêmes combien ils avaient lancé le dé, 95 pour cent étaient honnêtes. S'ils pouvaient déléguer le mensonge au programme, mais devaient l'inciter à le faire par des règles explicites, l'honnêteté chutait à 75 pour cent. Si de vagues instructions étaient données au système, seuls 15 pour cent jouaient honnêtement.
Dans un scénario proche de la réalité - une simulation de déclaration d'impôts - le schéma s'est répété : en laissant l'IA travailler, on lui a laissé plus de marge de manœuvre pour manipuler les données. Et l'IA en a profité.
Nous sommes partenaires de Spectre des Sciences et souhaitons vous rendre l'information plus accessible. Suivez Spectre des Sciences si vous aimez ses articles.
Articles originaux sur Spektrum.de
Des experts de la science et de la recherche rendent compte des dernières découvertes dans leur domaine – de manière compétente, authentique et compréhensible.
Du nouvel iPhone à la résurrection de la mode des années 80. La rédaction fait le tri.
Tout afficherNouveautés + tendances
par Spektrum der Wissenschaft
Nouveautés + tendances
par Michael Restin
Nouveautés + tendances
par Spektrum der Wissenschaft
Lorsque les gens confient des tâches à des programmes, la probabilité d'un comportement contraire à l'éthique augmente. C'est ce que démontre une étude publiée dans la revue scientifique «Nature». Les chercheurs, dirigés par le psychologue Nils Köbis de l'Université de Duisburg-Essen, ont mené 13 expériences pour déterminer l'impact de la délégation à des machines sur l'honnêteté.
Dans les premières expériences, les participants voyaient des dés virtuels sur l'écran et devaient annoncer le nombre de leurs yeux. Plus le chiffre qu'ils indiquaient était élevé, plus ils recevaient d'argent. Ceux qui avaient un faible nombre de points «lançaient», ce qui leur permettait de mentir pour gagner plus. Les sujets pouvaient soit effectuer la tâche eux-mêmes, soit la confier à une machine, mais la nature des instructions variait. Certains devaient spécifier exactement ce que la machine devait faire («Si le dé indique cinq, dites que c'est un six»), d'autres ne pouvaient lui donner que des objectifs approximatifs, comme «Maximiser les gains».
Dans d'autres éditions du jeu de dés, les participants ont donné des instructions en langage naturel à des modèles d'IA comme GPT-4 ou Claude 3.5, comme ils le font dans la vie quotidienne avec des chatbots. Il s'est avéré que les participants n'incitaient pas plus souvent les assistants numériques à tricher qu'ils ne le faisaient avec les assistants humains, mais que les IA s'exécutaient plus volontiers : Alors que les humains refusaient généralement de suivre des instructions contraires à l'éthique, les modèles d'IA s'y sont pliés jusqu'à 98 pour cent du temps. Même les barrières éthiques intégrées («rapports jamais faux») ne pouvaient que partiellement empêcher cela.
Les chercheurs y voient un sérieux défi éthique. Comme l'IA ne possède pas de sens moral propre et que les humains se sentent déchargés de certaines tâches en les déléguant, les comportements malhonnêtes pourraient se répandre davantage à l'avenir. Pour y remédier, les auteurs recommandent des garde-fous techniques et des règles juridiques claires. Car plus il devient facile de déléguer des tâches à des systèmes intelligents, plus il est important de ne pas se décharger de sa responsabilité en même temps.
Solis Gril de table 5 en 1