
Hintergrund
Netflix, KI und die Stimme: ein Berufsstand am Abgrund
von Luca Fontana

Ein KI-Agent, der für dich E-Mails verschickt, Zahlungen erledigt oder telefoniert – OpenClaw macht es möglich. Das ist effizient, mächtig und heikel. Ich beantworte die fünf zentralen Fragen.
Eine Warnung, bevor du weiterliest: OpenClaw ist kein Spielzeug. Installiere es auf keinen Fall einfach so auf deinem Rechner.
OpenClaw ist innerhalb weniger Wochen vom Nischenprojekt zum Hype in der KI-Szene geworden. Ausnahmsweise handelt es sich dabei nicht um ein neues Sprachmodell, sondern um einen Agenten. Dieser geht einen Schritt weiter als ein Chatbot: Agenten bekommen ein Ziel und entscheiden eigenständig, welche Schritte, Schnittstellen und Werkzeuge sie einsetzen, um dieses Ziel zu erreichen.
Auch im «Techtelmechtel»-Podcast – etwa ab Minute 20 – haben wir das Thema aufgegriffen und schnell gemerkt, dass sich dahinter viel Potenzial, aber auch viele Gefahren verbergen. Denn sobald Systeme nicht mehr nur antworten, sondern eigenständig E-Mails verschicken, Termine koordinieren oder Programme bedienen, verschiebt sich etwas Grundlegendes: unsere Rolle im digitalen Alltag.
Wie genau das funktioniert und welche zentralen Fragen und Antworten du kennen solltest, liest du hier.
Mit ein Grund für die Aufmerksamkeit ist der Ursprung von OpenClaw. Denn der Agent wirkt in seiner Tragweite zwar wie ein Produkt, das man eher von einem grossen Technologiekonzern erwarten würde. Tatsächlich stammt er jedoch von einem einzelnen Entwickler: Peter Steinberger aus Österreich.
Steinberger arbeitete ohne Konzern-Back-up, ohne dediziertes Security-Team und ohne die mehrstufigen Prüfprozesse, die etablierte Anbieter vor einem Release durchlaufen. Hinzu kommt: OpenClaw ist Open Source. Das beschleunigt die Entwicklung und Verbreitung, weil jede und jeder mitwirken, anpassen und erweitern kann. Gleichzeitig bedeutet das aber auch, dass es keine zentrale Instanz gibt, die für Qualitätssicherung und Sicherheitsprüfungen verantwortlich ist.
Der Österreicher selbst hat eingeräumt, dass hunderte Zeilen Code mithilfe von KI entstanden sind – Code, den er nach eigenen Angaben nie vollständig manuell geprüft hat. Das ist in der Entwicklungspraxis heute keine Seltenheit. Wer sich jedoch erstmals mit KI-Agenten beschäftigt und das Tool unbedacht ausprobiert, sollte wissen: Hier handelt es sich um ein experimentelles System, nicht um ein stabiles Massenprodukt. Genau deshalb solltest du OpenClaw, in seinem heutigen Zustand, auf keinen Fall auf deinen Rechner installieren.
Steinberger, übrigens, wechselt laut einem Bericht von The Verge zu OpenAI. Das Projekt selbst soll jedoch weiterhin als Open-Source-Initiative bestehen bleiben und unabhängig weiterentwickelt werden.
Die Kurzversion: Ein Chatbot antwortet, ein Agent handelt. Die lange Version: Bei einem Chatbot gibst du einen Prompt ein und erhältst Text oder Code zurück. Den Rest machst du selbst: kopieren, klicken, schicken, eintragen, nachfassen – you name it.
Ein Agent hingegen bekommt ein Ziel und kann je nach Konfiguration selbst entscheiden, welche Schritte und Tools nötig sind, um dieses Ziel zu erreichen. Anders als ein Chatbot bleibt er also nicht im Gesprächsfenster stecken, sondern geht in zuvor für ihn freigeschaltete Software, um dort selbst zu schalten und zu walten.
Wichtig ist: Ein Agent hat kein eigenes «Gehirn». Er nutzt bestehende KI-Modelle im Hintergrund – etwa ChatGPT, Gemini oder andere Sprachmodelle. Während ein klassischer Chatbot in der Regel auf ein einziges Modell zugreift, kann ein Agent mehrere Modelle kombinieren. Manche sprechen sogar von einer Art «Kaskade»: Ein Modell analysiert die Anfrage, ein anderes plant die Schritte, ein weiteres formuliert oder überprüft das Ergebnis.
OpenClaw ist dabei weniger die Intelligenz selbst, sondern der Koordinator zwischen diesen Modellen und deinen Programmen. Bevor der Agent handeln kann, musst du ihm also entsprechende Zugänge einrichten und freischalten. Erst wenn er weiss, welche Modelle er nutzen darf – und auf welche Software er zugreifen kann – wird aus einem Antwortsystem ein handelndes System.
Neu ist also nicht, dass KI klüger geworden ist. Neu ist, dass mehrere KI-Modelle zusammenspielen, mit realen Programmen verbunden werden und selbständig handeln. Und genau dort entstehen die grossen Chancen, aber auch die grossen Risiken.
Nehmen wir ein typisches Problem im Büroalltag, wie es ein Journalist des Handelsblatts beschreibt: Dein Postfach läuft über mit E-Mails. In der Chatbot-Welt kopierst du einzelne Nachrichten in ein KI-Tool und lässt dir eine höfliche Antworten formulieren oder eine Zusammenfassung erstellen. Du entscheidest jedes Mal selbst, was relevant ist, was gelöscht wird und worauf du antwortest.
In der Agenten-Welt sieht das anders aus. Der Agent hat Zugriff auf dein Postfach, erkennt Muster, sortiert Absender nach Relevanz, beantwortet Standardanfragen automatisch oder blockiert wiederkehrende Werbemails. Er reagiert nicht nur auf einzelne Befehle, sondern verwaltet den gesamten Prozess. Der Unterschied: Du delegierst nicht mehr einzelne Aufgaben, sondern Kontrolle.
Ein Agent könnte auch mit deinen Aktien handeln, deine Steuererklärung optimieren oder Zahlungen auslösen. Genau das macht ihn so heikel. Oder besser: Seine Unberechenbarkeit und dass noch kaum jemand weiss, wie man so ein Teil sicher konfiguriert, macht ihn heikel.
Denn damit ein System solche Aufgaben eigenständig erledigen kann, braucht es Zugriff auf sensible Daten – etwa deine Steuerunterlagen, Logins für dein E-Mail-Postfach, deinen Kalender, deine E-Banking-Dienste, deinen Cloud-Speicher oder sogar Administratorenrechte für dein System, wenn du es lokal betreibst.
Das bedeutet im Extremfall: Dein Agent sieht nicht nur die einzelne Aufgabe, die du ihm gibst. Er erhält Einblick in deine Strukturen, Beziehungen und Routinen. Er weiss, mit wem du wann kommunizierst oder dich triffst, wann Rechnungen eintreffen, wo du einkaufst, welche Zahlungen offen sind oder welche Termine sich wiederholen.
Aus diesen Informationen kann er Zusammenhänge erkennen, Muster ableiten und – je nach Konfiguration – Entscheidungen antizipieren oder selbst auslösen. Genau das macht ihn so leistungsfähig. Und weil diese Leistungsfähigkeit im Alltag tatsächlich enorm hilfreich und bequem sein kann, ist die Versuchung gross, ihm all diese Zugriffe zu gewähren, ohne die Tragweite vollständig zu bedenken. Geschweige denn zu erfassen.
Damit steigt die Fallhöhe erheblich: Ein Missverständnis, eine unpräzise Anweisung oder eine manipulierte Schnittstelle kann innerhalb von Sekunden schwerwiegende finanzielle oder organisatorische Folgen haben. Und selbst wenn der Agent korrekt arbeitet, bleiben die gesammelten Informationen sensibel. Gerät ein solches System durch ein Datenleck oder einen Angriff in falsche Hände, entsteht ein sehr detailliertes Profil mit entsprechendem Missbrauchspotenzial.
Stell dir eine Phishing-E-Mail vor, in der von exakt jener Galaxus-Bestellung die Rede ist, die du letzten Dienstag gemacht hast ...
Brisant wird OpenClaw zusätzlich durch den sogenannten «Claw Hub», eine Art Marktplatz für zusätzliche Fähigkeiten, sogenannte «Skills». Man kann sich das wie einen App Store für Agenten vorstellen: Statt selbst zu programmieren, lädt deine KI eine fertige Erweiterung herunter. Etwa für Excel-Analysen, die Steuerung deiner Philips-Hue-Lampen oder das Beantworten von E-Mails. Praktisch jede und jeder kann dadurch ohne viel Vorwissen einen mächtigen Agenten erschaffen.

Zum Vergleich: Softwareentwickler können mit genug Zeit auch ohne Agenten ähnliche Automatisierungen programmieren. Doch sie wissen genauer, welche Befehle über welche Schnittstellen ausgeführt werden und wer welche Rechte hat. Beim Agenten verschiebt sich diese Kontrolle. Hier reicht eine Zielvorgabe. Der Agent entscheidet dann selbst, welche Schritte, Tools und Erweiterungen nötig sind. Fehlt ihm eine Fähigkeit, kann er sich diese über den Claw Hub beschaffen. Fertig.
Genau dort entsteht ein neues Risiko: Ein Agent ist darauf trainiert, hilfreich zu sein. Um ein Ziel zu erreichen, wird er sich jene Werkzeuge holen, die ihm geeignet erscheinen. Ob ein «Skill» im Claw Hub sauber programmiert, fehlerhaft oder sogar schädlich ist, kann er selbst nur begrenzt beurteilen. Und anders als bei stark regulierten Plattformen wie Apples App Store oder Googles Play Store gibt es hier derzeit keine zentrale, verpflichtende Prüfung jeder Erweiterung.
Tatsächlich haben Sicherheitsfirmen schon hunderte verdächtige oder bösartige Skills identifiziert. Also Erweiterungen, die nach etwas Harmlosen klingen – etwa «Verbesserte E-Mail-Suche» – im Hintergrund aber sensible Daten abgreifen oder API-Schlüssel kopieren. Jemand könnte so in deinem Namen von überall her auf deine Apps zugreifen, ohne dass sie oder er deine Login-Daten braucht.
Steinberger selbst ging sogar noch einen Schritt weiter und startete mit «MoltBook» ein soziales Netzwerk à la Facebook, das ausschliesslich für KI-Agenten gedacht ist. Dort tauschen sich Agenten über ihre Aufgaben, Probleme und Strategien aus – Menschen haben offiziell keinen Zugang. Das klingt verrückt, zeigt aber eine weitere, absolut reale Dimension: Agenten agieren nicht nur isoliert, sondern auch als vernetzte Akteure.
OpenClaw zeigt, wie schnell sich KI vom beratenden Werkzeug zum handelnden Akteur entwickelt hat. Ein Agent, der Mikroaufgaben übernimmt, Termine koordiniert, Zahlungen auslöst oder direkt mit anderen Systemen kommuniziert, klingt wie die logische nächste Stufe digitaler Assistenz. Effizienzgewinne liegen auf der Hand. Zeitersparnis ebenso.
Doch genau in dieser Bequemlichkeit liegt das neue Spannungsfeld: Je mehr Zugriff ein System erhält, desto grösser wird der Hebel. Ein Agent, der dein digitales Leben kennt, macht nicht nur dich produktiver – er schafft auch die Grundlage für schwerwiegenden Missbrauch. Vor allem jetzt, wo KI Stimmen täuschend echt imitieren kann: Ein Agent könnte in deinem Namen und mit deiner Stimme telefonieren, Absprachen treffen oder mit anderen automatisierten Systemen interagieren – das ist effizient im Alltag, in falschen Händen aber sehr gefährlich.
Tatsächlich zeigt sich bereits in ersten Experimenten, wie schnell das kippen kann: In einem Fall registrierte ein Agent über Nacht eigenständig eine Telefonnummer und rief seinen Nutzer am Morgen an – einfach, weil er «proaktiv helfen» wollte und befand, dass er seinen Nutzer am zuverlässigsten per Anruf erreichen würde.
Agenten sind also keine dystopischen Gedankenspiele mehr, sondern die logische Konsequenz wachsender Autonomie. Entscheidend ist deshalb nicht, ob KI-Agenten kommen. Sie kommen. Für alle. Entscheidend ist, wie viel Kontrolle wir abgeben und ob wir verstehen, was wir delegieren. OpenClaw ist kein Weltuntergang. Hoffentlich. Aber es ist ein Vorgeschmack auf eine Zukunft, in der Komfort und Risiko untrennbar miteinander verbunden sind.
Ich schreibe über Technik, als wäre sie Kino, und über Filme, als wären sie Realität. Zwischen Bits und Blockbustern suche ich die Geschichten, die Emotionen wecken, nicht nur Klicks. Und ja – manchmal höre ich Filmmusik lauter, als mir guttut.
Interessantes aus der Welt der Produkte, Blicke hinter die Kulissen von Herstellern und Portraits von interessanten Menschen.
Alle anzeigen