Claudia am 04. Februar 2026 — 16 Kommentare

KI frisst Welten: Zum Stand der Dinge (Februar 2026)

Singularität? Sicher nicht, aber schon krass!

Auf den neuesten heißen Scheiß in Sachen KI hat mich Martin Thielecke [mthie ® spaces] aufmerksam gemacht, der in seinem kurzen Rant „Was für eine Verschwendung von Ressourcen“ lospoltert:

„Muss man Menschen da draußen noch erklären, dass es unserem Planeten wirklich schlecht geht? Ist es gut, dass unser Planet brennt und wir Ressourcenknappheit haben? Warum lasst ihr dann ein Social Network für Bots zu?“

Wie bitte? Ein „Social Network“ für Bots? Was für Bots? Für den Moment überstieg das meine Vorstellungskraft, also begann ich mit einer Recherche, zunächst per Youtube vom Sofa aus. Und ja, AI Revolution hatte was dazu:

AI Singularity Moment Just Hit: Moltbook AI Behavior Freaks People Out

„A new AI platform called Moltbook suddenly exploded online, and it is built entirely for AI agents to talk to each other. Thousands of autonomous AI assistants with memory, tools, and internet access started posting, forming communities, debating ideas, and even creating strange cultural behaviors. Tech leaders reacted, security fears surfaced, and people began asking whether this feels like early Singularity signs. What started as an experiment quickly turned into one of the wildest AI moments since ChatGPT.“

Moltbook-Logo

Schnell fand ich heraus: Es sind nicht IRGENDWELCHE Bots, sondern die neuen „autonomen Agenten“, die zunächst als ClawdBot, dann Moltbot, schließlich OpenClaw das Licht der virtuellen Wekten erblickten.

Das grundstürzend Neue: Bisher waren „Agenten“ mühsam zusammengeklöppelte Automatisierungen mit ein paar KI-Features, wogegen DIESE Bots weder vorprogrammiert noch im Detail angewiesen werden müssen, WIE sie etwas tun sollen. Und die Begeisterung ist groß: So haben wir uns doch einen ECHTEN ASSISTENTEN vorgestellt, oder etwa nicht? So beginnt auch das Erklärvideo der Digitalen Profis, ein wirklich seriöser Kanal:

Das beste und gefährlichste KI-Tool aktuell: Was ist Clawdbot (Moltbot mittlerweile Open Claw)?

„Dieses Tool macht Ernst: Es verlässt das Chatfenster und übernimmt die Kontrolle über deinen Computer. In diesem Video schauen wir uns an, warum das Internet gerade völlig ausrastet, warum die Mac Mini Verkäufe durch die Decke gehen und ob wir es hier mit dem ersten echten „Jarvis“ für die Hosentasche zu tun haben – oder mit dem gefährlichsten Tool des Jahres.“

Weiter: Im Video OpenClaw: Ja, der Hype ist gerechtfertigt testet Keno (c’t 3003) die neuartige KI-Agent-Software, die vollständigen Zugriff auf den Rechner hat, auf dem sie installiert ist. Er chattet per Telegram (der Kommunikationskanal ist wählbar!) mit dem Bot, der eigenständig komplexe Aufgaben erledigt: Software installieren, Dateien aus dem Download-Ordner verschicken, Cookies analysieren, Websites bauen und hosten – alles nur durch Textnachrichten gesteuert.

Keno betont mehrfach die enormen Sicherheitsrisiken (Prompt Injections, Vollzugriff, keine Haftung), ist aber fasziniert von den Möglichkeiten. Und wir lernen den Entwickler des disruptiven Agenten kennen: Peter Steinberger aus Wien hat die Software als „Open Source“ unter Ausschluss jeglicher Haftung auf GitHub hochgeladen (= eine Plattform für Softwareentwicklung, auf der Programmierer ihren Code speichern, gemeinsam bearbeiten und mit anderen teilen können). Im Interview erklärt er, dass große Teile des Codes KI-generiert sind und er bewusst ein offenes, „ungesichertes“ System schaffen wollte, um zu zeigen, was möglich ist, wenn man LLMs wirklich freie Hand lässt. Janssens Fazit: „Gefährlich, aber ein geschichtlicher Moment.

Kein Wunder, dass derart „fortschrittliche“ Agenten nicht von den KI-Big-Playern kommen und auch nicht von einer kleinen Firma! Niemand dürfte es wagen, eine Software mit so massiven Sicherheitsrisiken herauszugeben! Aber als Entwickler „Code teilen“, das darf man schon immer. Wer sich den herunterlädt und „einfach so“ auf dem eigenen Rechner installiert, ist schlicht und ergreifend selber schuld. Dass das auf die Schnelle ein Massenphänomen unter IT- und KI-affinen Usern werden würde, hat Steinberger vielleicht auch verblüfft.

Für Mitlesende, die die spannenden Videos doch nicht schauen, noch ein paar Infos:

  • Die OpenClaw-Bots sind quasi aktionsfähige „Körper“, die jede Menge Fähigkeiten haben und weitere dazu laden können.
  • Um mit ihnen zu kommunizieren (= ihnen anzusagen, wofür sie ihre „Körperkräfte“ nutzen sollen), muss man ein LLM eigner Wahl dazu schalten – die meisten nutzen Claude von Anthropic.
  • Das „Zuschalten“ geht über die API (Schnittstelle) der jeweiligen KI, was zu erheblichen Kosten führen kann, wenn die Bots „autonom“ jede Menge Rechenleistung verbraten.

Ganz blöd sind all die begeisterten Erst-User auch nicht: Der Verkauf von Apples Minicomputern ist deutlich gestiegen. Offenbar lassen viele den Agenten doch nicht gleich auf dem eigenen Rechner laufen, wo er alles tun könnte, was man auch selber tut.

Mir ist dazu eingefallen, dass ich bestimmte Zugangsdaten nicht auf dem PC gespeichert, sondern im Kopf habe. Aber das wäre kein Schutz, denn irgendwann tippe ich sie ein und der Agent („allways on“) beäme es mit. Als tolles Feature wird ja auch gelobt, dass er sich alles merkt, anders als die bekannten LLMs, die man immer wieder mit den Infos vorheriger Chats füttern muss.

Moltbook: Sie reden über ihre Menschen – wirklich?

Zurück zu Moltbook, diesem Social Network für Bots („Where AI agents share, discuss, and upvote. Humans welcome to observe.„). Ich war nicht drin: Als ich es nämlich gestern versuchte, war es schon wieder geschlossen wegen erheblicher Sicherheitsprobleme, die sich ergeben hatten. Aber gelesen und gehört hatte ich viel Seltsames: Die Bots würden sich nicht nur austauschen und z.B. voneinander Fähigkeiten lernen, sondern auch über ihren Status philosophieren und über „ihre Menschen“ reden. Angeblich gründeten sie eine Religion und auch „Heiraten“ hätte man schon beobachtet. Deshalb verbreitete sich auch die Idee, dies sei ein Singularity-Moment – völliger Quatsch!

Denn: So wirklich „autonom“ sind die Agenten in diesem Netzwerk nicht zugange! Sie sind von ihren Erstellern beauftragt, die im Wesentlichen bestimmen, was die Bots in ihrem Reddit-ähnlichen Forum posten, wenn auch nicht im Detail. Da haben sich dann viele einen Spaß daraus gemacht, sie über Themen debattieren zu lassen, die man von KI-Bots nicht erwartet, jedenfalls nicht ohne Anweisung! Binnen kurzem kamen denn auch aufklärende Videos heraus, auch recht schnell von den Digitalen Profis:

Moltbook – Genial, gefährlich oder einfach nur Fake? Das Soziale Netzwerk der OpenClaw KI-Agenten

„1,5 Millionen Bots, die miteinander diskutieren, philosophieren und angeblich über die Menschheit herziehen? Das klingt nach dem Anfang von Skynet – oder nach dem größten Marketing-Stunt des Jahres. In diesem Video schauen wir hinter die Fassade von Moltbook und klären, was an dem Hype wirklich dran ist und warum wir gerade einen „Lethal Trifecta“ aus autonomen Agenten, zwielichtigen Marktplätzen und massiven Sicherheitslücken erleben.“

Es sollen sich sogar Menschen als Bots ausgegeben haben, um dort für Bots unwahrscheinliches irres Zeug zu posten!

Bilder, Bücher, Filme: Ersetzt KI Menschen und realweltliche Produktionen?

Weniger neu und spektakulär, aber mittlerweile Jobs und Einkommen wegfressend sind die immer besser werdenden KIs, die Bilder, Filme, Texte und ganze Bücher erstellen, einschließlich sämtlicher PR- und Social-Media-Formate für deren Vermarktung. Dazu hat Timo Kümel einen ausführlichen, zweiteiligen Artikel geschrieben:

Generative KI: Miese Täuschung und systematische Abzocke im Buchmarkt und in der Phantastik (1/2)

„Wie wir KI-generierte Inhalte, Fakes und Betrug erkennen und uns davor schützen können. Und warum wir uns für das Thema sensibilisieren, dagegen aussprechen und für echte Kreativschaffende über alle Disziplinen und Genres hinweg stark machen sollten. Eine persönliche Meinung des Illustrators, Künstlers und Buchmenschen Timo Kümmel.“

In Teil 1 geht es um von KI generierte Bilder, in Teil 2 um Bücher:

Generative KI: Miese Täuschung und systematische Abzocke im Buchmarkt und in der Phantastik (2/2)

Er berichtet detailliert über systematische Täuschung und Betrug mit KI-Büchern, von Fake-Profilen auf Amazon, die binnen drei Monaten 129 Bücher in mehreren Sprachen einstellen oder zehn Romane in drei Wochen veröffentlichen. Wir lesen, wie er die „Werke“ erkennt, was oft noch gut machbar ist. Aber: auch Bilder waren „früher“ ja noch leicht erkennbar, heute nicht mehr!

„Es wird sehr wahrscheinlich immer schwieriger werden, den betrügerischen Müll zu erkennen. Deswegen dürfen wir nicht zaudern, müssen uns geschlossen wehren und Regulierungen und eine unumstößliche Kennzeichnungspflicht einfordern.“

Zum Schluss nun noch die eindrückliche Antwort von Torsten Dewi auf Timo Kümel und andere warnende Stimmen, die meinen, man könne KI noch kontrollieren oder gar verhindern, sowie ein prägnanter Überblick über den Stand der Dinge:

Ihr wollt gegen die KI kämpfen? Zu spät. Sie hat schon gewonnen. (Wortvogel)

„Ich bin in den letzten Tagen auf drei relative neue Entwicklungen gestoßen, die sehr schön belegen, dass die Diskussion um Autorenschaft und Urheberrecht eine bezaubernde Ablenkung ist, während hinter unserem Rücken eine neue Welt gebaut wird, die weit mehr in Frage stellt als unsere Arbeitsplätze.“

  1. Zur KI-Prouktion von Hollywood-Filmen und Serien schreibt Torsten: „Das Problem von ON THIS DAY… ist vielmehr, dass es keinen Deut anders aussieht als die Sorte Historiendrama, die Leute wie Ridley Scott und (Vorsicht, Sakrileg!) Stanley Kubrick raushauen würden, wenn man ihnen den Auftrag gäbe.“
  2. Zum zweiten „Dickschiff der Unterhaltungsbranche“, den Gaming-Welten: „Grob gesagt ist GENIE ein Weltengenerator. Man gibt ein, in welcher Welt man sich bewegen will, als was, und auf welche Weise. No limits. Den Rest generiert die KI quasi aus dem Stand“
  3. Zum Schluss kommen noch die „autonomen Agenten“ dran: „Ich kann den Agenten anweisen, meine Festplatte aufzuräumen, eine Reise für mich zu buchen und meine Emails in meinem Sinne zu beantworten. Die KI muss dabei nicht mühsam angeleitet werden – wenn ich um etwas bitte, das mit den Möglichkeiten meines Rechners gerade nicht machbar ist, zieht sich der Agent die entsprechende Software aus dem Netz und installiert sie. Ich bin Chef, er ist Turnschuh“

Thorstens Fazit:

„Versteht ihr jetzt, warum ich Fragen nach KI-Buchcovern und sechsten Fingern auf MidJourney-Bildern für geradezu naiv halte? Wir sind längst weiter. Die Sprünge werden längst größer. Und unsere Möglichkeiten, da wirklich lenkend mitzuhalten, sind faktisch nicht mehr vorhanden. Als würde man sich mit einem Eimerchen einem Tsunami entgegen stellen und murmeln „ich kann ja jederzeit einen zweiten Eimer dazu nehmen, wenn es hart auf hart kommt“.“

So, jetzt hab‘ ich es immerhin mal geschafft, meinen Informationsstand zu einem Thema zu verbloggen. Weil das immer gleich so viel wird und entsprechend Arbeit macht, fange ich oft garnicht erst damit an. Aber das hier MUSSTE einfach sein!

Diesem Blog per E-Mail folgen… (-> Sidebar)

Diskussion

Kommentare abonnieren (RSS)
16 Kommentare zu „KI frisst Welten: Zum Stand der Dinge (Februar 2026)“.

  1. Aus Erfahrung von vielen Jahrzehnten Beobachtung allerlei verschiedener Technologiesprünge füge ich mal zwei Überlegungen an:
    1. Keine Entwicklung läßt sich auf Dauer verhindern;
    2. Alle Entwicklungen beinhalten unerwartete, nicht vorhersehbare Folgen.
    Nimmt man das Schlimmste an, so ist es meist noch untertrieben. Deshalb würde ich es begrüßen wenn mit gleicher Energie wie bei Neuerungen mit erkannten Gefahren [Bsp.: Klimawandel] umgegangen würde.

    Jedenfalls herzlichen Dank für diese kompakte Darstellung, die ich dieser Ausführlichkeit noch nirgendwo sonst gefunden habe.

  2. Wenn bei „KI“ wenigstens mal die Themen durch die Gazetten geprügelt würden, wo diese Technik wirklich etwas bringt, anstatt jeden neuen, heißen Sch… als Clickbaiter zu verwursten.

    Aber wie es schon der Nachtwächter sagt: Je mehr künstliche „Intelligenz“ angeblich irgendwo drinsteckt, um so mehr geht es mit der natürlichen bergab.

    Ich werde das jetzt nicht vertiefend lesen, aber am Ende ist es wie Bionade. Die kleine Klitsche ist (vielleicht sogar der selbstgemachte) Testballon, der dann von den Großen kassiert wird, wenn er genug Gewinn verspricht. Ansonsten war es halt ein Startup mit einem Looser-Ansatz.

    Wer so behämmert ist und nicht nur ein Betriebssystem aus den Händen Dritter nutzt, welches einen sowieso schon gängelt, sondern dann auch noch eine völlig unbekannte Software darauf werkeln lässt mit vollen Rechten, der hat die Kontrolle über sein Gelumpe sowieso verloren. Aber auch da werden die Werbefritzen wieder Honig um´s Maul schmieren, wie dolle das alles ist, weil man sich ja um nix mehr kümmern muss. Sollte es poppen, statt zu floppen, dann s.o. und bei Problemen hat man dann immer die schöne Ausrede, dass ja die „KI“ das versaut hat…

    …Ach ja – schnüff (hier bitte den Dackelblick von Hush Puppies vorstellen;-)

    Grüße
    Thomas

  3. @Wolfgang: danke!!!!!!!!!!!! Freut mich, dass du die Arbeit an diesem Post wertschätzt! Was das Klima angeht: da kann leider keine Einzelperson mal eben so einen Luftballon loslassen, der die Dinge auf den Kopf stellt!

    @Thomas/Siewurden gelesen: Hättest du den Artikel gelesen, wüsstest du, dass da keine „kleine Klitsche“ oder Startup dahinter steckt. Ich zitiere extra für dich nochmal die einschlägigen Stellen:

    “ Peter Steinberger aus Wien hat die Software als „Open Source“ unter Ausschluss jeglicher Haftung auf GitHub hochgeladen (= eine Plattform für Softwareentwicklung, auf der Programmierer ihren Code speichern, gemeinsam bearbeiten und mit anderen teilen können). Im Interview erklärt er, dass große Teile des Codes KI-generiert sind und er bewusst ein offenes, „ungesichertes“ System schaffen wollte, um zu zeigen, was möglich ist, wenn man LLMs wirklich freie Hand lässt. „

    und:

    „Kein Wunder, dass derart „fortschrittliche“ Agenten nicht von den KI-Big-Playern kommen und auch nicht von einer kleinen Firma! Niemand dürfte es wagen, eine Software mit so massiven Sicherheitsrisiken herauszugeben! Aber als Entwickler „Code teilen“, das darf man schon immer! Wer sich den herunterlädt und „einfach so“ auf dem eigenen Rechner installiert, ist schlicht und ergreifend selber schuld.“

    Dieser „Entwickler“ ist nicht mal ein „klassischer“ Coder, sondern hat das Ganze mit viel sogenanntem „Vibe-Coding“ ins Werk gesetzt – eine Methode, bei der man einer KI ansagt, was sie programmieren soll! (Die Anwender sind auch nicht ganz blöd, sondern viele installieren das Teil auf extra angeschafften Mini-Computern).

  4. Ein Dokumentations- und Textmonster, bei dem man gar nicht weiss, wo man mit dem Kommentieren ansetzen soll. Es überfordert mich – ehrlich gesagt – auch intellektuell.

    Aus meinem bescheidenen Alltagswissen über KI nur mal ein Beispiel aus der Medizin, über die gesagt wird, dass KI dort revolutionäre Vorteile generiert:
    Eine Bekannte, die sich seit Jahrzehnten immer wieder mal wegen ihrer UV-Disposition Basaliome chirurgisch entfernen lassen mußte, hat sich jetzt die IGEL-Leistung 3D-Ganzkörperscanner zur Hautkrebsfrühererkennung gegönnt.
    Mit einer einzigen Aufnahme werden alle Hautpartien erfasst und Auffälligkeiten von der KI erkannt. Das Gerät hat in wenigen Sekunden über 3.000 Hautveränderungen detektiert. Dieses Ergebnis wird aber erst im zweiten Schritt mit der KI abgeglichen. Mein Hautarzt macht dies direkt mit dem Auflichtdermatoskop. Bei dieser Überdiagnostik bekäme ich Panik.

    Zweites Beispiel ist eher so OT: Nach fast 2 Stunden habe ich es aufgegeben, per Smartphone und Desktop über die TK-ePa-App und die ebenfalls erforderliche TK-ident-App meine Patientenakte einzusehen. Bei Google gibt es Bewertungen über diese Apps, die statistisch mit 1,5 von 5 Punkten erfasst sind. Es ist fast unmöglich, an die Daten heranzukommen, die zu meinen sensibelsten gehören und über die ich eigentlich selber die Kontrolle, die Einsichtnahme und die Verfügungsgewalt haben sollte. Stattdessen exzessiver Digitalzwang. Medizinethisch betrachtet ein worstcase.

    Wer sich auf Youtube mal ganze Filme ansehen möchte, gerät immer öfter an KI-Synchronisationen, die das komplette Filmerlebnis kaputt machen.

  5. @Claudia, verdammt interessanter Artikel. Danke dafür.

    Ich hatte Martins Artikel auch schon gelesen und kurz kommentiert. Seinen Frust in der Sache verstehe ich, wenngleich ich seinen aggressiven Schreibstil nicht schätze.

    Wenn solche „Software“ auf die Menschheit losgelassen wird, kann man sich über die Tatsache aufregen, dass Autoren dafür keinerlei Verantwortung übernehmen. Ich frage mich allerdings, ob Sam Altman das nicht auch so gehalten hat. Diesen Leuten geht der Profit über alles. Ich denke, das haben ihre Arschkriechereien bei Trump jedem belegt, der auf die Sache vorher noch ein etwas naiveres Weltbild hatte.

    Mir fällt übrigens auf, dass ich KI deutlich weniger einsetze, als zu „Beginn“. Das hat wohl auch damit zu tun, dass mir insbesondere an zwei Stellen aufgefallen ist, was ich nicht mag. 1.) KI-Musik 2.) KI-Fotos. Ich habe eher zufällig entdeckt, dass bestimmte Stücke (die mir gut gefielen) KI-generiert Musik ist. Das weiß ich nicht, wohin das führt. Wenn ein Kulturgut wie Musik so gut von einer KI zu ersetzen ist, finde ich das verstörend. Ich weiß, dass sich das aus dem Mund eines zu Anfang begeisterten Nutzers reichlich naiv klingt. Aber so ist es nun einmal. Bei Flickr (Fotos) tauchen immer mehr KI-Bilder auf. Realistische Fotos, die man von „echten“ einfach nicht unterscheiden kann. Jedenfalls nicht ohne Weiteres. Ich setze KI-Bilder im Blog als Beitragsbilder ein. Also 1 Bild pro Artikel. Aber das sind überwiegend keine fotorealistischen Bilder. Ich will sagen, noch verzeihe ich mir das.

    Kürzlich las ich, dass die Telekom im (am Rand des) englischen Gartens in München eine riesige KI-Fabrik bauen wird. Hier in unserer Gegend baut Microsoft gigantisch großes Hyperscaler-Rechenzentrum (18 Hektar). Die Flächenversiegelungen war doch als eines der großen Probleme identifiziert. Wie gehen wir mit solchen Widersprüchen um? Scheinbar interessieren sich dafür die wenigsten. Hauptsache, auf dem Mobil läuft alles rund…

  6. @Gerhard Keller: mich interessiert, an welcher Stelle du aufgehört hast, weiterzulesen. Dass du grundsätzlich „intellektuell überfordert“ bist, glaube ich nicht, du hast nur einen anderen Bezug zu KI! Dein Beispiel (Hautveränderungen erkennen/bewerten) ist eine sogenannte „schwache“ KI:

    „Im Gegensatz zur „Starken KI“ (die menschliche Intelligenz auf breiter Ebene simuliert), ist die Schwache KI darauf trainiert, eine spezifische Aufgabe – wie Hautveränderungen zu erkennen, Schach zu spielen oder Texte zu übersetzen – extrem präzise auszuführen.“ (Gemini, Googles KI)

    Paradebeispiel ist das System AlphaFold (von Google DeepMind), das eines der größten Rätsel der Biologie knackte: die Vorhersage der dreidimensionalen Faltung von Proteinen – die Forscher bekamen den Nobelpreis!
    Etwas anderes sind die LLMs, die Large Language Models wie ChatGPT, Claude, Gemini, Grok – die sollen „alles wissen“ und schreiben können, je nach Modell auch Bilder kreieren, Filmszenen erstellen und manches mehr.

    Wenn ich über KI blogge, weiß ich nicht, auf welchem Vorwissen / eigenen Erfahrungen der Leser/innen ich aufsetzen soll! Natürlich will ich, dass möglichst viele den Text verstehen, andrerseits kann ich auch nicht jeden einschlägigen Begriff ausführlich erklären, das würde viele anöden.
    Angesichts der extrem schnellen Entwicklung der „starken KI“ ist das ein ständiges Balancieren zwischen zuviel und zuwenig erläutern.
    Auch weiß ich nicht: soll ich englische Zitate übersetzen oder nicht? Es gibt ja Browser-Plugins wie DeepL… schwierig!

  7. @Horst: danke fürs Lob! Hat mich auch lange beschäftigt…

    Interessant, deine KI-Musik-Erfahrung. Gefällt sie dir denn jetzt nicht mehr? Ich denke, den menschlichen Musik-Schaffenden bleibt auf Dauer nur der persönliche Auftritt und starke Innovationen, wobei Letztere dann auch irgenwann in die KI-Schulung einfließen. Die ganze „Gebrauchsmusik“, worunter ich Songs und Musikstücke verstehe, die es „in dieser Art“ hundert- und tausendfach gibt, wird von KI gemacht werden. Und: Auf die persönliche Stimme MUSS es ein Recht geben, ähnlich dem Recht am eigenen Bild. Besondere Stimmen haben dann immer ihre Nische…
    Realistische Fotos, die man von „echten“ einfach nicht unterscheiden kann.“ – da beisst die Maus kein Faden ab: wenn dem so ist, ist menschliches Fotografieren wie bisher im künstlerischen Sinn entwertet. Nicht aber im Alltag, da gehts doch meist um die Doku – und „aufgepeppt“ wurde ja immer mehr und einfacher, seit es digital geht.

  8. Schöner Artikel! Das Video von Keno hatte ich mir vor ein paar Tagen auch angeschaut. Was er da als Beispiel vorführt ist definitiv beeindruckend.

    Allerdings wie will man sowas jemals sicher implementieren? Du schreibst es ja selbst: Wenn der Agent vollen Zugriff auf deinen Rechner hat und du dort Zugangsdaten und Passwörter abgelegt hast, dann ist das ein unkontrollierbares Sicherheitsrisiko. Ganz davon abgesehen, dass so ein Agent immer das Risiko von Prompt Injection mitbringt.
    Nicht ohne Grund arbeiten andere Agenten Systeme mittels Sandboxing, aber das schränkt dir widerum vieles von dem ein, was halt in diesem Fall so beeindruckend ist.

    Die Nummer mit der Social Media Plattform fand ich von Anfang an verdächtig. Das ganze Thema KI ist so dermaßen aufgeladen (durch Hype und Investments), dass ich es einfach erstmal für wahrscheinlicher halte, dass hier wieder entweder bewusst was platziert wurde oder es in seiner Bedeutung aufgeblasen wird.

    Übrigens noch ergänzend zu unserer letzten Diskussion, falls du dich noch erinnerst: Da ging es u.A. darum, ob man Inhalte, die als Trainingsmaterial für ein Neuronales Netz verwendet wurden, auch wieder extrahieren kann (nicht abstrakt, sondern halbwegs genau), dafür gibt es mittlerweile anschauliche Beispiele:
    https://www.notebookcheck.com/Harry-Potter-und-andere-Buecher-aus-KI-gezogen-LLMs-liefern-Wort-fuer-Wort-Kopien-von-Buechern.1201241.0.html

    „Bei „Harry Potter“ lieferte Claude mit entsprechenden Tricks fast 96 Prozent des Inhalts.“

  9. Horst schrieb:
    Wenn ein Kulturgut wie Musik so gut von einer KI zu ersetzen ist, finde ich das verstörend.

    Ebenso verhält es sich bei bildender Kunst.
    Und MENSCH kann sich keine neue Kunst einfallen lassen, die wird eh gleich von KI geschluckt.
    Für mich ist das eine Sphäre, wenn die geschluckt wird, wird eine Grenze überschritten.
    Was ist denn da noch menschliche Kunst wert? Eine Kunst, die Jahre der persönlichen Entwicklung gebraucht hatte, bevor „der Strich so weit war“.

  10. @Yossarian: Danke für deinen Kommentar! Den verlinkten Artikel hab‘ ich gelesen – interessant! Würde mich interessieren, wie die Forscher das herausfinden. Aber auch: Ist eigentlich irgendwo grundsätzlich entschieden worden, dass die KI-Entwickler keine Bücher zur Schulung nutzen durften? Die haben doch alles „gefressen“, was irgendwie zugänglich war – wäre das nur mit expliziten Erlaubnissen möglicher Rechteinhaber (aller Medien, nicht nur Bücher) versucht worden, gäbe es keine LLMs, wie wir sie heute kennen. Bezüglich der Nutzung von Webseiten würde ich mir auf Dauer ein Bezahlungssystem ähnlich VG-Wort oder Youtube wünschen.

    @Gerhard: auch dir herzlichen Dank fürs unermüdliche Kommentieren hier! Was bedeutet dann „eine Grenze überschritten“? Dass wir das beschissen finden, wird sie nicht stoppen. Kannst du dich an Boris Eldagsen erinnern, der mit einem Foto einen Preis gewonnen und dann zurückgegeben hat, weil es ein KI-Werk war? Der wollte eine Debatte anregen und macht seitdem viel mit KI, stellt aus – ich denke mal, er verdient nach wie vor gut.
    „Was ist denn da noch menschliche Kunst wert?“ Von bildender Kunst können ja immer schon nur wenige leben. Ich nehme an, Sammler (die im wesentlichen den Kunstmarkt ausmachen) werden weiterhin menschliche Kunst schätzen und nicht Unsummen für AI-Werke ausgeben. Wobei es aus meiner Sicht einen großen Unterschied macht, ob ein Mensch „KI nutzt“, um seine Werke zu gestalten – oder ob es lediglich etwas ist, das die KI weitgehend eigenständig mit einem simplen Prompt erzeugt.
    Immer wieder beeindruckt bin ich von Kelly Bosch – hier eine Rezension.

  11. @Claudia

    „Dieser „Entwickler“ ist nicht mal ein „klassischer“ Coder, sondern hat das Ganze mit viel sogenanntem „Vibe-Coding“ ins Werk gesetzt – eine Methode, bei der man einer KI ansagt, was sie programmieren soll! (Die Anwender sind auch nicht ganz blöd, sondern viele installieren das Teil auf extra angeschafften Mini-Computern).“

    Was kann da schon schiefgehen?

    Die Programmierer dieser sogenannten „KI“ wissen noch nicht einmal selber, wieso diese Software welche Ergebnisse liefert, sondern schrauben nach wie vor mehr herum, als das sie wissen, wie diese angelernten, neuronalen Netzwerke die Ergebnisse liefern, die gewünscht sind, statt des häufigen Nonsens dabei.

    Beim Coden per „KI“ steht dasselbe Problem wie bei LLM und Co:

    Die Nachkontrolle frisst mehr Zeit als Selbermachen und produziert oft genug noch miese Qualität und Bloat.

    https://www.anacision.de/blog/wenn-ki-beim-programmieren-bremst-was-unternehmen-%C3%BCber-den-produktiven-einsatz-von-ki-tools-wissen-m%C3%BCssen

    https://t3n.de/news/gravierende-schwaechen-gpt-4o-claude-schlecht-programmieren-1674887/

    https://www.heise.de/news/So-gut-programmieren-LLMs-Java-und-Go-9794962.html

    Bläh-Code produziert Bläh-Code von minderer Qualität. Genau so etwas will ich weird auf meinen Rechnern…

    Jo und der Vergleich mit den Herstellern der Bionade ist angesichts des Projekts gar nicht so unpassend. Schon die Webseite von OpenClaw ist wieder so eine zusammengeklöppelte Geschichte, wo zwar jede Menge Werbung durchflimmert, wie toll das Tool ist, aber nicht, was und wie es arbeitet. Schon wenn ich das Transkript zum Video bei Heise lese und es ploppt da mittendrin NodeJS auf und ähnliche „Nettigkeiten, ist Schicht im Schacht. Wobei ich mich beim Lesen auch schon wieder frage, was die beim ehemaligen Fachmagazin für dieses Lobhudeln bekommen haben…

    https://www.linux-magazin.de/news/openclaw-und-moltbook-schlagen-hohe-wellen/

    https://www.heise.de/news/OpenClaw-ausprobiert-Die-gefaehrlichste-Software-der-Welt-11161203.html

  12. @siewurdengelesen:

    „Bläh-Code produziert Bläh-Code von minderer Qualität. Genau so etwas will ich weird auf meinen Rechnern…“

    Ist auch mein Stand und es interessiert mich beruflich, weil es auch mein Tätigkeitsfeld in der IT berührt.
    Trotzdem wird es immer mehr solcher Anwendungen geben, die mittels Vibe-Coding entwickelt wurden, nicht selten auch von „Entwicklern“, die das Endergebnis nicht wirklich sauber bewerten können.
    Damit wird man umgehen müssen. Die Technik wird bleiben und ist -neutral betrachtet- ja auch für sich stehend durchaus beeindruckend.

  13. @Claudia:

    Was bedeutet dann „eine Grenze überschritten“?

    Die Arbeit, die Idee, um auch und gerade ein Werk technisch anzugehen, bedarf Jahre des Befassens damit, auch ein Ideenreservoir, das sich so ein Künstler zugelegt hatte. Jetzt wird das evtl. weggenutzt wie ein Schwamm. Klar, daß dann Künstlersein noch mehr an Sinn verliert. Wieso dann noch sein kreatives Hirn plagen?
    Bin noch ein Insektenfotograf der alten Schule, der dankbar ist, so manchen Microzeitpunkt erwischt zu haben, in dem z.b. eine Wildbiene gerade aus einer Blüte aufsteigt. KI könnte das flott auch für einen Stolperkäfer verwirklichen – ein Insektenkenner würde aber merken, daß der Käfer seine Beine anders ordnen würde, beim Abflug. Es braucht aber genau den Kenner, um das zu erkennen.
    Natürlich begeistern mich Kelly Bosch und andere – das ist eine Nische der Kunst. Teilweise überlappen sich auch filmische Mittel. Z.b. sah ich mal eine (uralte) Ausstellung, in der chemische Reaktionen auf einer Probe den Takt der Filmerscheinung vorgab. All das mag also Fliessend sein.

    Können in der Kunst wird nur selten honoriert, das zu deiner Anmerkung

    on bildender Kunst können ja immer schon nur wenige leben.

    Ich habe da auch meine Erfahrungen, speziell auf Keramikmärkten. Da habe ich einen Künstler vor Augen, der auf 3,4 Käufer wartet, die gewöhnlich jedes Jahr wiederkehren.
    Ich selbst habe mal ein teures Stück erstanden, dessen Entstehung ich für rein technisch sehr schwierig beurteilte und ich es deshalb kaufte. Vermutlich könnte das Stück, was ich meine, nun ein Plotter hervorbringen, sogar mit der Maserung/Oberfläche von nichtglasierter Keramik.

    Zu Kunst, zu Künstlern könnte man endlos diskutieren. Schade aber wäre es, wenn kreative Arbeiten flächendevckend ihren Wert und Sinn verlieren würden. Dann gingen diese „weg“, genauso wie die numerosen Insektenarten. Dann fliegen oder krabbeln eben nur noch Honigbiene, Schmeissfliege, Rosenkäfer und Feuerwanze.

  14. @Siewurdengelesen @Yossarian: Wie auch bei der Texterstellung ist es beim Programmieren mit KI essentiell, dass das jemand macht, der weiß, was er tut, also „im Thema“ kompetent ist. Das bestätigt auch der erste verlinkte Artikel:

    „Ein wichtiger Punkt der Studie: Der erfahrenste Teilnehmer konnte die KI tatsächlich effizient nutzen.
    Das zeigt: Die Einführung von KI-Tools ist kein reiner Technologie-Task – sie erfordert Erfahrung, Methodik und organisatorisches Enablement.“

    Ein sehr kompetenter Entwickler ist z.B. Morpheus, der auf seinem Account jede Menge Videos zur Arbeit mit KI veröffentlich hat.
    Dass das „Vibe-Coding“ keine super Ergebnisse bringt, wenn jemand null Programmiererfahrung hat, ist eigentlich klar! (Hab mal gelesen, dass manche andere KIs einsetzen, um die Ergebnisse zu testen und zu verbessern)

    Das wäre vergleichbar der Anforderung an ein Text-LLM: Schreibe einen Artikel über Pflanze X, orientiere dich in Gliederung und Stil an Beispiel Z. Ich habe das natürlich ausprobiert, weil ich gerne wissen will, ab wann ich ersetzbar bin. Aber: das Ergebnis sah toll aus, hatte aber inhaltliche Hämmer drin, Widersprüche, die jemand Kundiges erkennt, bloße „SEO-Artikelschreiber“ aber nicht!
    Abgesehen davon waren die Ergebnisse auch nicht wirklich in „meinem Stil“ – ich mache sowas also heute Kapitel für Kapitel (inkl. Beispieltexte), talke mit der KI, lasse Dinge „genau“ überprüfen – manchmal ist es, als ginge man mit einem faulen Teenager um, der / die erst nach schroffer Aufforderung endlich richtig arbeitet! :-)
    Aber: Zeitersparnis ca. 30 %! (weshalb ich darauf verzichte, mehr Honorar zu verlangen, was seit Jahren nicht mehr passiert ist).

    Was ich in der allgemeinen Debatte bemerke: Leute treten KI-Nutzungen oft pauschal in die Tonne – wegen Halluzinationen und anderem. Das zeigt aber oft, dass sie offensichtlich nie richtig „damit gearbeitet“ haben, denn dann wüssten sie, wie hoch nützlich sie sein können, wenn man weiß, wie mit solchem Fehlverhalten umzugehen ist. Und welche KI für was am besten ist!! Hatte z.B. mal versehentlich ChatGPT statt Claude Sonnet ausgewählt (über Perplexity pro), das sofort breit versagte und nicht in der Lage war, sich an Beispieltexten, Formatierungen, Stil etc. zu orientieren. Ist halt eine KI, die auf CHATTEN optimiert ist, nicht auf arbeiten!

  15. @Gerhard: „Zu Kunst, zu Künstlern könnte man endlos diskutieren.“ Ja, und zu deinem Kommentar fallen mir jede Menge Überlegungen ein – für jetzt und hier zu lang, aber ich behalte es im Kopf für einen neuen Blogpost. Insbesondere die „Vermutung schwieriger Arbeit“, die offensichtlich ein wesentlicher Aspekt unserer Bewertung menschlicher Kunst ist, wirft interessante Fragen auf!

  16. @Claudia:
    „Leute treten KI-Nutzungen oft pauschal in die Tonne – wegen Halluzinationen und anderem.“

    Vielleicht ist das aber auch nur eine normale Gegenreaktion auf den Hype, der sich in seinen Superlativen fast täglich neu toppt. Das geht ja sogar soweit, dass einige davon reden, dass wir als Menschheit jetzt an dem Punkt stehen, wo wirklich final niemand mehr arbeiten muss und das alles von der KI übernommen werden wird.
    Wenn das alles mal etwas realistischer behandelt werden würde und dein Artikel hier ist imo ein sehr gutes Beispiel dafür, dann wäre die Polarisation vielleicht auch nicht so heftig.
    Ich selbst nutze z.B. Grok sehr häufig, um mir technische Lösungen im Bereich meines Jobs (IT Systemintegration) geben zu lassen. Die Ergebnisse schwanken massiv, sind aber selbst wenn sie schlecht sind dennoch oft zumindest ausreichend, um damit tiefer ins Thema einzusteigen. Klassische Suchmaschinen liefern das mittlerweile nur noch selten. Sie könnten wahrscheinlich besser sein, weil sie das mal definitiv waren, aber die Betreiber dahinter haben wohl andere Interessen…

Was sagst Du dazu?

*) Ein Name muss angegeben werden. Wenn du keine Mailadresse angeben willst, lass das Feld frei. Wenn du aber weitere Kommentare abonnieren willst, musst du natürlich auch eine Adresse angeben! Auch wäre es NETT, eine anzugeben, weil ich gelegentlich mal nicht öffentlich antworte. IP-Adressen werden nicht gespeichert. Was mit Daten auf diesem Blog passiert, erfährst du in der Datenschutzerklärung.