Luca Fontana
En coulisse

Les assistants remplacent les chatbots : OpenClaw emballe tout le monde

Luca Fontana
17/2/2026
Traduction : Marie-Céline Berthou

OpenClaw a créé une IA qui envoie des e-mails, effectue des paiements ou passe des appels téléphoniques à votre place. Cette efficacité pose néanmoins quelques questions, j’y réponds ici.

Avertissement avant de poursuivre la lecture : OpenClaw n’est pas un jouet. Ne l’installez en aucun cas « juste comme ça » sur votre ordinateur.

En l’espace de quelques semaines, OpenClaw est passé du statut de projet de niche à celui de phénomène dans le domaine de l’IA. Pour une fois, il ne s’agit pas d’un modèle linguistique, mais d’un agent. Celui-ci va un peu plus loin qu’un chatbot : après avoir reçu un objectif, l’agent décide de manière autonome des étapes, des interfaces et des outils qu’il va utiliser pour l’atteindre.

Nous avons également abordé ce sujet dans notre podcast Techtelmechtel en allemand suisse (à partir de la 20e minute environ) où nous avons rapidement établi que cet énorme potentiel cachait de nombreux dangers. À partir du moment où les systèmes ne se contentent plus de nous répondre, mais envoient des mails, calent des rendez-vous ou utilisent des logiciels en toute autonomie, quelque chose de fondamental change : notre rôle dans le quotidien numérique.

Cet article vous explique le fonctionnement exact de cette technologie et les questions cruciales que cela pose.

1. Qui se cache derrière OpenClaw et pourquoi est-ce important ?

L’une des raisons de cette attention est l’origine d’OpenClaw. L’agent, par sa sphère d’influence, ressemble à un produit que l’on attendrait plutôt d’un géant technologique. En réalité, on le doit à un seul développeur, un Autrichien, Peter Steinberger.

Il a travaillé sans le soutien d’un grand groupe, sans équipe de sécurité et sans les processus de vérification multiples que les éditeurs bien établis suivent avant une mise sur le marché. De plus, OpenClaw est en open source. Cela accélère son développement et sa diffusion, car tout le monde peut y contribuer, l’adapter et l’étoffer. Mais cela signifie aussi qu’il n’y a pas d’instance centrale responsable de l’assurance qualité et des contrôles de sécurité.

Le créateur autrichien lui-même a reconnu que des centaines de lignes de code avaient été créées à l’aide de l’IA, un code qu’il a avoué n’avoir jamais entièrement vérifié manuellement. Certes, de nos jours, ce n’est pas si rare dans le milieu du développement. Toutefois, si vous vous penchez pour la première fois sur les agents IA et voulez tester cet outil sans réfléchir, sachez qu’il s’agit d’un système expérimental et non d’un produit de masse fini. N’installez donc en aucun cas OpenClaw sur votre ordinateur dans sa version actuelle.

Selon un rapport de The Verge (en anglais), P. Steinberger passe d’ailleurs à OpenAI. Le projet devrait toutefois demeurer une initiative open source et se développer de manière indépendante.

2. Qu’est-ce qui différencie exactement un agent IA d’un chatbot ?

Version courte : un chatbot répond tandis qu’un agent agit. Version longue : avec un chatbot, vous tapez un prompt et recevez une réponse en texte ou un code. Vous vous chargez vous-même de la suite : copier, coller, envoyer, saisir, rédiger, etc.

Un agent reçoit un objectif et décide lui-même, selon sa configuration, des étapes et des outils nécessaires à l’atteinte de cet objectif. Contrairement à un chatbot, il n’est pas confiné à la fenêtre de conversation, il accède aux logiciels préalablement autorisés afin d’agir lui-même.

Attention, un agent n’a pas de « cerveau » propre. Il s’appuie sur des modèles d’IA existants, comme ChatGPT, Gemini ou d’autres modèles linguistiques (LM). Alors qu’un chatbot classique ne se sert généralement que d’un seul modèle, un agent peut associer plusieurs modèles. Certains parlent même d’une sorte de « cascade » : un modèle analyse la demande, un autre planifie les étapes, un autre formule ou vérifie le résultat.

OpenClaw est donc moins une intelligence en tant que telle qu’un coordinateur entre ces modèles et vos logiciels. Pour que l’agent puisse agir, vous devez par conséquent lui créer et activer des accès. Un système de réponse ne devient un système d’action que lorsqu’il sait quels modèles et quels logiciels il peut utiliser.

La nouveauté n’est donc pas que l’IA est devenue plus intelligente. La nouveauté, c’est que plusieurs modèles d’IA interagissent entre eux, soient liés à des logiciels réels et agissent de façon autonome. Cela donne lieu à d’immenses opportunités, mais aussi à d’énormes dangers.

3. Qu’en est-il au quotidien ?

Prenons un problème typique de la vie quotidienne au bureau, décrit par un journaliste du Handelsblatt. Votre boîte de réception déborde d’e-mails. Avec un chatbot, vous copiez quelques messages dans un outil IA et demandez la formulation d’une réponse polie ou un résumé. À chaque fois, vous décidez ce qui est pertinent, ce qu’il faut supprimer et ce qui exige une réponse.

Avec un agent, c’est différent. L’agent accède à votre boîte de réception, reconnaît des schémas, trie les expéditeurs par pertinence, répond automatiquement aux demandes standard ou bloque les pubs récurrentes. Il ne se contente pas de réagir à des commandes individuelles, mais gère l’ensemble du processus. La différence ? Vous ne faites pas que déléguer quelques tâches, vous cédez le contrôle.

4. Où est le problème ?

Un agent pourrait négocier vos actions, optimiser votre déclaration d’impôts ou effectuer des paiements. C’est ce qui le rend si dangereux. Enfin, c’est plutôt son imprévisibilité et le fait que personne ou presque ne sache encore comment configurer un tel programme en toute sécurité.

En effet, pour qu’un système puisse effectuer de telles tâches de manière autonome, il doit avoir accès à des données sensibles, comme vos documents fiscaux, les identifiants de votre boîte e-mail, de vos services d’e-banking, de votre espace de stockage dans le cloud ou même les droits d’administrateur de votre système si vous l’exploitez en local.

Dans le plus cas le plus extrême, cela signifie que l’agent ne voit pas seulement les tâches que vous lui confiez, il a un aperçu de vos structures, de vos relations et de vos habitudes. Il sait avec qui vous communiquez ou qui vous rencontrez et quand, quand les factures arrivent, où vous faites vos achats, quels paiements sont en cours ou quels rendez-vous se répètent.

De la boîte aux lettres électronique à l’e-banking, un agent IA a besoin d’identifiants sensibles et voit ainsi bien plus que la mission confiée.
De la boîte aux lettres électronique à l’e-banking, un agent IA a besoin d’identifiants sensibles et voit ainsi bien plus que la mission confiée.
Source : Généré par l’IA (OpenAI)

À partir de ces informations, il peut reconnaître des liens, en déduire des schémas et, selon la configuration, anticiper des décisions ou s’en charger lui-même. C’est ce qui le rend si puissant. Et comme cette puissance peut effectivement être sacrément utile au quotidien, la tentation est grande de lui accorder tous ces accès sans en mesurer pleinement la portée.

De fait, les premières expériences montrent déjà à quelle vitesse tout peut basculer. Dans un cas, un agent a par exemple enregistré de manière autonome un numéro de téléphone pendant la nuit et a appelé son propriétaire le matin, simplement parce qu’il voulait « aider de manière proactive » et qu’il a estimé que le moyen le plus fiable de joindre la personne était de l’appeler.

La gravité des conséquences s’en trouve considérablement accrue : un malentendu, une instruction imprécise ou une interface manipulée peuvent avoir des répercussions financières ou organisationnelles graves en quelques secondes. Et même si l’agent fonctionne correctement, les informations collectées restent sensibles. Si un tel système venait à tomber entre de mauvaises mains à la suite d’une fuite de données ou d’une attaque, il mettra à disposition un profil très détaillé présentant un grand potentiel d’utilisation abusive.

Imaginez un e-mail de phishing évoquant la commande Galaxus que vous avez passée mardi dernier…

5. Qu’est-ce que le Claw Hub et pourquoi est-il encore plus problématique ?

OpenClaw devient carrément controversé avec le Claw Hub, une sorte de marché pour compétences supplémentaires, appelées « skills ». Imaginez un App Store pour assistants : au lieu de programmer dans son coin, votre IA télécharge une extension existante pour des analyses Excel, la commande de vos lampes Philips Hue ou le traitement de vos mails. Tout le monde ou presque peut mettre au point un agent puissant sans trop de connaissances préalables.

Les agents téléchargent de nouveaux « skills » sur le Claw Hub, sont efficaces, faciles d’accès et pas forcément vérifiés.
Les agents téléchargent de nouveaux « skills » sur le Claw Hub, sont efficaces, faciles d’accès et pas forcément vérifiés.
Source : Luca Fontana

À titre de comparaison, les développeurs de logiciels peuvent, s’ils ont suffisamment de temps, programmer des automatisations similaires sans agents. Mais ils savent exactement quelles interfaces exécutent quelles commandes et qui possède quels droits. Avec les agents, ce contrôle disparaît. Ici, il suffit de fixer un objectif. L’agent décide ensuite lui-même des étapes, des outils et des extensions nécessaires. S’il lui manque une compétence, il peut se la procurer via le Claw Hub et c’est tout.

C’est justement là qu’apparaît un autre risque : un agent est entraîné à être utile. Pour atteindre un objectif, il ira chercher les outils qui lui semblent appropriés. Il n’a pas forcément les ressources pour juger si un « skill » du Claw Hub est programmée proprement, si elle est défaillante ou même nuisible. Et contrairement aux plateformes très réglementées comme l’App Store d’Apple ou le Play Store de Google, il n’y a actuellement pas de contrôle centralisé et obligatoire de chaque extension.

D’ailleurs, des entreprises de sécurité ont déjà identifié des centaines de skills suspects ou malveillants. Ces extensions en apparence inoffensives (intitulées « amélioration de la recherche d’e-mails » par exemple) récupèrent en arrière-plan des données sensibles ou copient des clés API. Quelqu’un pourrait donc accéder à vos applications en votre nom, de n’importe où, sans avoir besoin de vos identifiants.

P. Steinberger est allé encore plus loin en lançant MoltBook (en anglais), un réseau social à la Facebook destiné exclusivement aux assistants IA. Les agents y parlent de leurs tâches, de leurs problèmes et de leurs stratégies ; les humains n’y ont pas accès. Ça paraît fou, mais ça révèle une autre dimension parfaitement réelle : les agents n’agissent pas de manière isolée, mais en tant que parties d’un large réseau.

Un avant-goût de l’avenir

OpenClaw montre à quelle vitesse l’IA est passée du statut d’outil de conseil à celui d’acteur. Un agent qui se charge de micro-tâches, coordonne des rendez-vous, effectue des paiements ou communique directement avec d’autres systèmes ressemble à la prochaine étape logique de l’assistance numérique. Les gains de temps et d’efficacité sont évidents.

Or, c’est précisément dans cet aspect commode que réside un nouveau dilemme : plus un système obtient d’accès, plus son influence est importante. Un agent qui connaît votre vie numérique ne vous rend pas seulement plus productif, il crée aussi les conditions propices à de graves abus. Surtout maintenant que l’IA peut imiter les voix à s’y méprendre ! Un agent pourrait téléphoner en votre nom avec votre voix, conclure des accords ou interagir avec d’autres systèmes automatisés ; c’est super pratique au quotidien, mais très dangereux entre de mauvaises mains.

  • En coulisse

    Netflix et le doublage par IA : une profession au bord du gouffre

    par Luca Fontana

Les agents ne sont donc plus des concepts imaginaires dystopiques, mais la conséquence logique d’une autonomie croissante. L’essentiel n’est donc pas de savoir si des agents IA vont débarquer, c’est déjà le cas. Il faut surtout décider du degré de contrôle que nous cédons et comprendre ce que nous déléguons. OpenClaw ne signe pas la fin du monde. Enfin, j’espère. En tout cas, il donne un avant-goût d’un avenir où confort et danger sont indissociables.

Photo d’en-tête : Luca Fontana

Cet article plaît à 209 personne(s)


User Avatar
User Avatar

J’écris sur la technologie comme si c’était du cinéma – et sur le cinéma comme s’il était réel. Entre bits et blockbusters, je cherche les histoires qui font vibrer, pas seulement celles qui font cliquer. Et oui – il m’arrive d’écouter les musiques de films un peu trop fort. 


Informatique
Suivez les thèmes et restez informé dans les domaines qui vous intéressent.

En coulisse

Des informations intéressantes sur le monde des produits, un aperçu des coulisses des fabricants et des portraits de personnalités intéressantes.

Tout afficher

Ces articles pourraient aussi vous intéresser

  • En coulisse

    Netflix et le doublage par IA : une profession au bord du gouffre

    par Luca Fontana

  • En coulisse

    Omnibus numérique : l’UE veut réorganiser les lois numériques

    par Florian Bodoky

  • En coulisse

    7 questions et réponses sur DeepSeek

    par Samuel Buchmann

84 commentaires

Avatar
later