Claudia am 04. Februar 2026 — 32 Kommentare

KI frisst Welten: Zum Stand der Dinge (Februar 2026)

Singularität? Sicher nicht, aber schon krass!

Auf den neuesten heißen Scheiß in Sachen KI hat mich Martin Thielecke [mthie ® spaces] aufmerksam gemacht, der in seinem kurzen Rant „Was für eine Verschwendung von Ressourcen“ lospoltert:

„Muss man Menschen da draußen noch erklären, dass es unserem Planeten wirklich schlecht geht? Ist es gut, dass unser Planet brennt und wir Ressourcenknappheit haben? Warum lasst ihr dann ein Social Network für Bots zu?“

Wie bitte? Ein „Social Network“ für Bots? Was für Bots? Für den Moment überstieg das meine Vorstellungskraft, also begann ich mit einer Recherche, zunächst per Youtube vom Sofa aus. Und ja, AI Revolution hatte was dazu:

AI Singularity Moment Just Hit: Moltbook AI Behavior Freaks People Out

„A new AI platform called Moltbook suddenly exploded online, and it is built entirely for AI agents to talk to each other. Thousands of autonomous AI assistants with memory, tools, and internet access started posting, forming communities, debating ideas, and even creating strange cultural behaviors. Tech leaders reacted, security fears surfaced, and people began asking whether this feels like early Singularity signs. What started as an experiment quickly turned into one of the wildest AI moments since ChatGPT.“

Moltbook-Logo

Schnell fand ich heraus: Es sind nicht IRGENDWELCHE Bots, sondern die neuen „autonomen Agenten“, die zunächst als ClawdBot, dann Moltbot, schließlich OpenClaw das Licht der virtuellen Wekten erblickten.

Das grundstürzend Neue: Bisher waren „Agenten“ mühsam zusammengeklöppelte Automatisierungen mit ein paar KI-Features, wogegen DIESE Bots weder vorprogrammiert noch im Detail angewiesen werden müssen, WIE sie etwas tun sollen. Und die Begeisterung ist groß: So haben wir uns doch einen ECHTEN ASSISTENTEN vorgestellt, oder etwa nicht? So beginnt auch das Erklärvideo der Digitalen Profis, ein wirklich seriöser Kanal:

Das beste und gefährlichste KI-Tool aktuell: Was ist Clawdbot (Moltbot mittlerweile Open Claw)?

„Dieses Tool macht Ernst: Es verlässt das Chatfenster und übernimmt die Kontrolle über deinen Computer. In diesem Video schauen wir uns an, warum das Internet gerade völlig ausrastet, warum die Mac Mini Verkäufe durch die Decke gehen und ob wir es hier mit dem ersten echten „Jarvis“ für die Hosentasche zu tun haben – oder mit dem gefährlichsten Tool des Jahres.“

Weiter: Im Video OpenClaw: Ja, der Hype ist gerechtfertigt testet Keno (c’t 3003) die neuartige KI-Agent-Software, die vollständigen Zugriff auf den Rechner hat, auf dem sie installiert ist. Er chattet per Telegram (der Kommunikationskanal ist wählbar!) mit dem Bot, der eigenständig komplexe Aufgaben erledigt: Software installieren, Dateien aus dem Download-Ordner verschicken, Cookies analysieren, Websites bauen und hosten – alles nur durch Textnachrichten gesteuert.

Keno betont mehrfach die enormen Sicherheitsrisiken (Prompt Injections, Vollzugriff, keine Haftung), ist aber fasziniert von den Möglichkeiten. Und wir lernen den Entwickler des disruptiven Agenten kennen: Peter Steinberger aus Wien hat die Software als „Open Source“ unter Ausschluss jeglicher Haftung auf GitHub hochgeladen (= eine Plattform für Softwareentwicklung, auf der Programmierer ihren Code speichern, gemeinsam bearbeiten und mit anderen teilen können). Im Interview erklärt er, dass große Teile des Codes KI-generiert sind und er bewusst ein offenes, „ungesichertes“ System schaffen wollte, um zu zeigen, was möglich ist, wenn man LLMs wirklich freie Hand lässt. Janssens Fazit: „Gefährlich, aber ein geschichtlicher Moment.

Kein Wunder, dass derart „fortschrittliche“ Agenten nicht von den KI-Big-Playern kommen und auch nicht von einer kleinen Firma! Niemand dürfte es wagen, eine Software mit so massiven Sicherheitsrisiken herauszugeben! Aber als Entwickler „Code teilen“, das darf man schon immer. Wer sich den herunterlädt und „einfach so“ auf dem eigenen Rechner installiert, ist schlicht und ergreifend selber schuld. Dass das auf die Schnelle ein Massenphänomen unter IT- und KI-affinen Usern werden würde, hat Steinberger vielleicht auch verblüfft.

Für Mitlesende, die die spannenden Videos doch nicht schauen, noch ein paar Infos:

  • Die OpenClaw-Bots sind quasi aktionsfähige „Körper“, die jede Menge Fähigkeiten haben und weitere dazu laden können.
  • Um mit ihnen zu kommunizieren (= ihnen anzusagen, wofür sie ihre „Körperkräfte“ nutzen sollen), muss man ein LLM eigner Wahl dazu schalten – die meisten nutzen Claude von Anthropic.
  • Das „Zuschalten“ geht über die API (Schnittstelle) der jeweiligen KI, was zu erheblichen Kosten führen kann, wenn die Bots „autonom“ jede Menge Rechenleistung verbraten.

Ganz blöd sind all die begeisterten Erst-User auch nicht: Der Verkauf von Apples Minicomputern ist deutlich gestiegen. Offenbar lassen viele den Agenten doch nicht gleich auf dem eigenen Rechner laufen, wo er alles tun könnte, was man auch selber tut.

Mir ist dazu eingefallen, dass ich bestimmte Zugangsdaten nicht auf dem PC gespeichert, sondern im Kopf habe. Aber das wäre kein Schutz, denn irgendwann tippe ich sie ein und der Agent („allways on“) beäme es mit. Als tolles Feature wird ja auch gelobt, dass er sich alles merkt, anders als die bekannten LLMs, die man immer wieder mit den Infos vorheriger Chats füttern muss.

Moltbook: Sie reden über ihre Menschen – wirklich?

Zurück zu Moltbook, diesem Social Network für Bots („Where AI agents share, discuss, and upvote. Humans welcome to observe.„). Ich war nicht drin: Als ich es nämlich gestern versuchte, war es schon wieder geschlossen wegen erheblicher Sicherheitsprobleme, die sich ergeben hatten. Aber gelesen und gehört hatte ich viel Seltsames: Die Bots würden sich nicht nur austauschen und z.B. voneinander Fähigkeiten lernen, sondern auch über ihren Status philosophieren und über „ihre Menschen“ reden. Angeblich gründeten sie eine Religion und auch „Heiraten“ hätte man schon beobachtet. Deshalb verbreitete sich auch die Idee, dies sei ein Singularity-Moment – völliger Quatsch!

Denn: So wirklich „autonom“ sind die Agenten in diesem Netzwerk nicht zugange! Sie sind von ihren Erstellern beauftragt, die im Wesentlichen bestimmen, was die Bots in ihrem Reddit-ähnlichen Forum posten, wenn auch nicht im Detail. Da haben sich dann viele einen Spaß daraus gemacht, sie über Themen debattieren zu lassen, die man von KI-Bots nicht erwartet, jedenfalls nicht ohne Anweisung! Binnen kurzem kamen denn auch aufklärende Videos heraus, auch recht schnell von den Digitalen Profis:

Moltbook – Genial, gefährlich oder einfach nur Fake? Das Soziale Netzwerk der OpenClaw KI-Agenten

„1,5 Millionen Bots, die miteinander diskutieren, philosophieren und angeblich über die Menschheit herziehen? Das klingt nach dem Anfang von Skynet – oder nach dem größten Marketing-Stunt des Jahres. In diesem Video schauen wir hinter die Fassade von Moltbook und klären, was an dem Hype wirklich dran ist und warum wir gerade einen „Lethal Trifecta“ aus autonomen Agenten, zwielichtigen Marktplätzen und massiven Sicherheitslücken erleben.“

Es sollen sich sogar Menschen als Bots ausgegeben haben, um dort für Bots unwahrscheinliches irres Zeug zu posten!

Bilder, Bücher, Filme: Ersetzt KI Menschen und realweltliche Produktionen?

Weniger neu und spektakulär, aber mittlerweile Jobs und Einkommen wegfressend sind die immer besser werdenden KIs, die Bilder, Filme, Texte und ganze Bücher erstellen, einschließlich sämtlicher PR- und Social-Media-Formate für deren Vermarktung. Dazu hat Timo Kümel einen ausführlichen, zweiteiligen Artikel geschrieben:

Generative KI: Miese Täuschung und systematische Abzocke im Buchmarkt und in der Phantastik (1/2)

„Wie wir KI-generierte Inhalte, Fakes und Betrug erkennen und uns davor schützen können. Und warum wir uns für das Thema sensibilisieren, dagegen aussprechen und für echte Kreativschaffende über alle Disziplinen und Genres hinweg stark machen sollten. Eine persönliche Meinung des Illustrators, Künstlers und Buchmenschen Timo Kümmel.“

In Teil 1 geht es um von KI generierte Bilder, in Teil 2 um Bücher:

Generative KI: Miese Täuschung und systematische Abzocke im Buchmarkt und in der Phantastik (2/2)

Er berichtet detailliert über systematische Täuschung und Betrug mit KI-Büchern, von Fake-Profilen auf Amazon, die binnen drei Monaten 129 Bücher in mehreren Sprachen einstellen oder zehn Romane in drei Wochen veröffentlichen. Wir lesen, wie er die „Werke“ erkennt, was oft noch gut machbar ist. Aber: auch Bilder waren „früher“ ja noch leicht erkennbar, heute nicht mehr!

„Es wird sehr wahrscheinlich immer schwieriger werden, den betrügerischen Müll zu erkennen. Deswegen dürfen wir nicht zaudern, müssen uns geschlossen wehren und Regulierungen und eine unumstößliche Kennzeichnungspflicht einfordern.“

Zum Schluss nun noch die eindrückliche Antwort von Torsten Dewi auf Timo Kümel und andere warnende Stimmen, die meinen, man könne KI noch kontrollieren oder gar verhindern, sowie ein prägnanter Überblick über den Stand der Dinge:

Ihr wollt gegen die KI kämpfen? Zu spät. Sie hat schon gewonnen. (Wortvogel)

„Ich bin in den letzten Tagen auf drei relative neue Entwicklungen gestoßen, die sehr schön belegen, dass die Diskussion um Autorenschaft und Urheberrecht eine bezaubernde Ablenkung ist, während hinter unserem Rücken eine neue Welt gebaut wird, die weit mehr in Frage stellt als unsere Arbeitsplätze.“

  1. Zur KI-Prouktion von Hollywood-Filmen und Serien schreibt Torsten: „Das Problem von ON THIS DAY… ist vielmehr, dass es keinen Deut anders aussieht als die Sorte Historiendrama, die Leute wie Ridley Scott und (Vorsicht, Sakrileg!) Stanley Kubrick raushauen würden, wenn man ihnen den Auftrag gäbe.“
  2. Zum zweiten „Dickschiff der Unterhaltungsbranche“, den Gaming-Welten: „Grob gesagt ist GENIE ein Weltengenerator. Man gibt ein, in welcher Welt man sich bewegen will, als was, und auf welche Weise. No limits. Den Rest generiert die KI quasi aus dem Stand“
  3. Zum Schluss kommen noch die „autonomen Agenten“ dran: „Ich kann den Agenten anweisen, meine Festplatte aufzuräumen, eine Reise für mich zu buchen und meine Emails in meinem Sinne zu beantworten. Die KI muss dabei nicht mühsam angeleitet werden – wenn ich um etwas bitte, das mit den Möglichkeiten meines Rechners gerade nicht machbar ist, zieht sich der Agent die entsprechende Software aus dem Netz und installiert sie. Ich bin Chef, er ist Turnschuh“

Thorstens Fazit:

„Versteht ihr jetzt, warum ich Fragen nach KI-Buchcovern und sechsten Fingern auf MidJourney-Bildern für geradezu naiv halte? Wir sind längst weiter. Die Sprünge werden längst größer. Und unsere Möglichkeiten, da wirklich lenkend mitzuhalten, sind faktisch nicht mehr vorhanden. Als würde man sich mit einem Eimerchen einem Tsunami entgegen stellen und murmeln „ich kann ja jederzeit einen zweiten Eimer dazu nehmen, wenn es hart auf hart kommt“.“

So, jetzt hab‘ ich es immerhin mal geschafft, meinen Informationsstand zu einem Thema zu verbloggen. Weil das immer gleich so viel wird und entsprechend Arbeit macht, fange ich oft garnicht erst damit an. Aber das hier MUSSTE einfach sein!

Diesem Blog per E-Mail folgen… (-> Sidebar)

Diskussion

Kommentare abonnieren (RSS)
32 Kommentare zu „KI frisst Welten: Zum Stand der Dinge (Februar 2026)“.

  1. Aus Erfahrung von vielen Jahrzehnten Beobachtung allerlei verschiedener Technologiesprünge füge ich mal zwei Überlegungen an:
    1. Keine Entwicklung läßt sich auf Dauer verhindern;
    2. Alle Entwicklungen beinhalten unerwartete, nicht vorhersehbare Folgen.
    Nimmt man das Schlimmste an, so ist es meist noch untertrieben. Deshalb würde ich es begrüßen wenn mit gleicher Energie wie bei Neuerungen mit erkannten Gefahren [Bsp.: Klimawandel] umgegangen würde.

    Jedenfalls herzlichen Dank für diese kompakte Darstellung, die ich dieser Ausführlichkeit noch nirgendwo sonst gefunden habe.

  2. Wenn bei „KI“ wenigstens mal die Themen durch die Gazetten geprügelt würden, wo diese Technik wirklich etwas bringt, anstatt jeden neuen, heißen Sch… als Clickbaiter zu verwursten.

    Aber wie es schon der Nachtwächter sagt: Je mehr künstliche „Intelligenz“ angeblich irgendwo drinsteckt, um so mehr geht es mit der natürlichen bergab.

    Ich werde das jetzt nicht vertiefend lesen, aber am Ende ist es wie Bionade. Die kleine Klitsche ist (vielleicht sogar der selbstgemachte) Testballon, der dann von den Großen kassiert wird, wenn er genug Gewinn verspricht. Ansonsten war es halt ein Startup mit einem Looser-Ansatz.

    Wer so behämmert ist und nicht nur ein Betriebssystem aus den Händen Dritter nutzt, welches einen sowieso schon gängelt, sondern dann auch noch eine völlig unbekannte Software darauf werkeln lässt mit vollen Rechten, der hat die Kontrolle über sein Gelumpe sowieso verloren. Aber auch da werden die Werbefritzen wieder Honig um´s Maul schmieren, wie dolle das alles ist, weil man sich ja um nix mehr kümmern muss. Sollte es poppen, statt zu floppen, dann s.o. und bei Problemen hat man dann immer die schöne Ausrede, dass ja die „KI“ das versaut hat…

    …Ach ja – schnüff (hier bitte den Dackelblick von Hush Puppies vorstellen;-)

    Grüße
    Thomas

  3. @Wolfgang: danke!!!!!!!!!!!! Freut mich, dass du die Arbeit an diesem Post wertschätzt! Was das Klima angeht: da kann leider keine Einzelperson mal eben so einen Luftballon loslassen, der die Dinge auf den Kopf stellt!

    @Thomas/Siewurden gelesen: Hättest du den Artikel gelesen, wüsstest du, dass da keine „kleine Klitsche“ oder Startup dahinter steckt. Ich zitiere extra für dich nochmal die einschlägigen Stellen:

    “ Peter Steinberger aus Wien hat die Software als „Open Source“ unter Ausschluss jeglicher Haftung auf GitHub hochgeladen (= eine Plattform für Softwareentwicklung, auf der Programmierer ihren Code speichern, gemeinsam bearbeiten und mit anderen teilen können). Im Interview erklärt er, dass große Teile des Codes KI-generiert sind und er bewusst ein offenes, „ungesichertes“ System schaffen wollte, um zu zeigen, was möglich ist, wenn man LLMs wirklich freie Hand lässt. „

    und:

    „Kein Wunder, dass derart „fortschrittliche“ Agenten nicht von den KI-Big-Playern kommen und auch nicht von einer kleinen Firma! Niemand dürfte es wagen, eine Software mit so massiven Sicherheitsrisiken herauszugeben! Aber als Entwickler „Code teilen“, das darf man schon immer! Wer sich den herunterlädt und „einfach so“ auf dem eigenen Rechner installiert, ist schlicht und ergreifend selber schuld.“

    Dieser „Entwickler“ ist nicht mal ein „klassischer“ Coder, sondern hat das Ganze mit viel sogenanntem „Vibe-Coding“ ins Werk gesetzt – eine Methode, bei der man einer KI ansagt, was sie programmieren soll! (Die Anwender sind auch nicht ganz blöd, sondern viele installieren das Teil auf extra angeschafften Mini-Computern).

  4. Ein Dokumentations- und Textmonster, bei dem man gar nicht weiss, wo man mit dem Kommentieren ansetzen soll. Es überfordert mich – ehrlich gesagt – auch intellektuell.

    Aus meinem bescheidenen Alltagswissen über KI nur mal ein Beispiel aus der Medizin, über die gesagt wird, dass KI dort revolutionäre Vorteile generiert:
    Eine Bekannte, die sich seit Jahrzehnten immer wieder mal wegen ihrer UV-Disposition Basaliome chirurgisch entfernen lassen mußte, hat sich jetzt die IGEL-Leistung 3D-Ganzkörperscanner zur Hautkrebsfrühererkennung gegönnt.
    Mit einer einzigen Aufnahme werden alle Hautpartien erfasst und Auffälligkeiten von der KI erkannt. Das Gerät hat in wenigen Sekunden über 3.000 Hautveränderungen detektiert. Dieses Ergebnis wird aber erst im zweiten Schritt mit der KI abgeglichen. Mein Hautarzt macht dies direkt mit dem Auflichtdermatoskop. Bei dieser Überdiagnostik bekäme ich Panik.

    Zweites Beispiel ist eher so OT: Nach fast 2 Stunden habe ich es aufgegeben, per Smartphone und Desktop über die TK-ePa-App und die ebenfalls erforderliche TK-ident-App meine Patientenakte einzusehen. Bei Google gibt es Bewertungen über diese Apps, die statistisch mit 1,5 von 5 Punkten erfasst sind. Es ist fast unmöglich, an die Daten heranzukommen, die zu meinen sensibelsten gehören und über die ich eigentlich selber die Kontrolle, die Einsichtnahme und die Verfügungsgewalt haben sollte. Stattdessen exzessiver Digitalzwang. Medizinethisch betrachtet ein worstcase.

    Wer sich auf Youtube mal ganze Filme ansehen möchte, gerät immer öfter an KI-Synchronisationen, die das komplette Filmerlebnis kaputt machen.

  5. @Claudia, verdammt interessanter Artikel. Danke dafür.

    Ich hatte Martins Artikel auch schon gelesen und kurz kommentiert. Seinen Frust in der Sache verstehe ich, wenngleich ich seinen aggressiven Schreibstil nicht schätze.

    Wenn solche „Software“ auf die Menschheit losgelassen wird, kann man sich über die Tatsache aufregen, dass Autoren dafür keinerlei Verantwortung übernehmen. Ich frage mich allerdings, ob Sam Altman das nicht auch so gehalten hat. Diesen Leuten geht der Profit über alles. Ich denke, das haben ihre Arschkriechereien bei Trump jedem belegt, der auf die Sache vorher noch ein etwas naiveres Weltbild hatte.

    Mir fällt übrigens auf, dass ich KI deutlich weniger einsetze, als zu „Beginn“. Das hat wohl auch damit zu tun, dass mir insbesondere an zwei Stellen aufgefallen ist, was ich nicht mag. 1.) KI-Musik 2.) KI-Fotos. Ich habe eher zufällig entdeckt, dass bestimmte Stücke (die mir gut gefielen) KI-generiert Musik ist. Das weiß ich nicht, wohin das führt. Wenn ein Kulturgut wie Musik so gut von einer KI zu ersetzen ist, finde ich das verstörend. Ich weiß, dass sich das aus dem Mund eines zu Anfang begeisterten Nutzers reichlich naiv klingt. Aber so ist es nun einmal. Bei Flickr (Fotos) tauchen immer mehr KI-Bilder auf. Realistische Fotos, die man von „echten“ einfach nicht unterscheiden kann. Jedenfalls nicht ohne Weiteres. Ich setze KI-Bilder im Blog als Beitragsbilder ein. Also 1 Bild pro Artikel. Aber das sind überwiegend keine fotorealistischen Bilder. Ich will sagen, noch verzeihe ich mir das.

    Kürzlich las ich, dass die Telekom im (am Rand des) englischen Gartens in München eine riesige KI-Fabrik bauen wird. Hier in unserer Gegend baut Microsoft gigantisch großes Hyperscaler-Rechenzentrum (18 Hektar). Die Flächenversiegelungen war doch als eines der großen Probleme identifiziert. Wie gehen wir mit solchen Widersprüchen um? Scheinbar interessieren sich dafür die wenigsten. Hauptsache, auf dem Mobil läuft alles rund…

  6. @Gerhard Keller: mich interessiert, an welcher Stelle du aufgehört hast, weiterzulesen. Dass du grundsätzlich „intellektuell überfordert“ bist, glaube ich nicht, du hast nur einen anderen Bezug zu KI! Dein Beispiel (Hautveränderungen erkennen/bewerten) ist eine sogenannte „schwache“ KI:

    „Im Gegensatz zur „Starken KI“ (die menschliche Intelligenz auf breiter Ebene simuliert), ist die Schwache KI darauf trainiert, eine spezifische Aufgabe – wie Hautveränderungen zu erkennen, Schach zu spielen oder Texte zu übersetzen – extrem präzise auszuführen.“ (Gemini, Googles KI)

    Paradebeispiel ist das System AlphaFold (von Google DeepMind), das eines der größten Rätsel der Biologie knackte: die Vorhersage der dreidimensionalen Faltung von Proteinen – die Forscher bekamen den Nobelpreis!
    Etwas anderes sind die LLMs, die Large Language Models wie ChatGPT, Claude, Gemini, Grok – die sollen „alles wissen“ und schreiben können, je nach Modell auch Bilder kreieren, Filmszenen erstellen und manches mehr.

    Wenn ich über KI blogge, weiß ich nicht, auf welchem Vorwissen / eigenen Erfahrungen der Leser/innen ich aufsetzen soll! Natürlich will ich, dass möglichst viele den Text verstehen, andrerseits kann ich auch nicht jeden einschlägigen Begriff ausführlich erklären, das würde viele anöden.
    Angesichts der extrem schnellen Entwicklung der „starken KI“ ist das ein ständiges Balancieren zwischen zuviel und zuwenig erläutern.
    Auch weiß ich nicht: soll ich englische Zitate übersetzen oder nicht? Es gibt ja Browser-Plugins wie DeepL… schwierig!

  7. @Horst: danke fürs Lob! Hat mich auch lange beschäftigt…

    Interessant, deine KI-Musik-Erfahrung. Gefällt sie dir denn jetzt nicht mehr? Ich denke, den menschlichen Musik-Schaffenden bleibt auf Dauer nur der persönliche Auftritt und starke Innovationen, wobei Letztere dann auch irgenwann in die KI-Schulung einfließen. Die ganze „Gebrauchsmusik“, worunter ich Songs und Musikstücke verstehe, die es „in dieser Art“ hundert- und tausendfach gibt, wird von KI gemacht werden. Und: Auf die persönliche Stimme MUSS es ein Recht geben, ähnlich dem Recht am eigenen Bild. Besondere Stimmen haben dann immer ihre Nische…
    Realistische Fotos, die man von „echten“ einfach nicht unterscheiden kann.“ – da beisst die Maus kein Faden ab: wenn dem so ist, ist menschliches Fotografieren wie bisher im künstlerischen Sinn entwertet. Nicht aber im Alltag, da gehts doch meist um die Doku – und „aufgepeppt“ wurde ja immer mehr und einfacher, seit es digital geht.

  8. Schöner Artikel! Das Video von Keno hatte ich mir vor ein paar Tagen auch angeschaut. Was er da als Beispiel vorführt ist definitiv beeindruckend.

    Allerdings wie will man sowas jemals sicher implementieren? Du schreibst es ja selbst: Wenn der Agent vollen Zugriff auf deinen Rechner hat und du dort Zugangsdaten und Passwörter abgelegt hast, dann ist das ein unkontrollierbares Sicherheitsrisiko. Ganz davon abgesehen, dass so ein Agent immer das Risiko von Prompt Injection mitbringt.
    Nicht ohne Grund arbeiten andere Agenten Systeme mittels Sandboxing, aber das schränkt dir widerum vieles von dem ein, was halt in diesem Fall so beeindruckend ist.

    Die Nummer mit der Social Media Plattform fand ich von Anfang an verdächtig. Das ganze Thema KI ist so dermaßen aufgeladen (durch Hype und Investments), dass ich es einfach erstmal für wahrscheinlicher halte, dass hier wieder entweder bewusst was platziert wurde oder es in seiner Bedeutung aufgeblasen wird.

    Übrigens noch ergänzend zu unserer letzten Diskussion, falls du dich noch erinnerst: Da ging es u.A. darum, ob man Inhalte, die als Trainingsmaterial für ein Neuronales Netz verwendet wurden, auch wieder extrahieren kann (nicht abstrakt, sondern halbwegs genau), dafür gibt es mittlerweile anschauliche Beispiele:
    https://www.notebookcheck.com/Harry-Potter-und-andere-Buecher-aus-KI-gezogen-LLMs-liefern-Wort-fuer-Wort-Kopien-von-Buechern.1201241.0.html

    „Bei „Harry Potter“ lieferte Claude mit entsprechenden Tricks fast 96 Prozent des Inhalts.“

  9. Horst schrieb:
    Wenn ein Kulturgut wie Musik so gut von einer KI zu ersetzen ist, finde ich das verstörend.

    Ebenso verhält es sich bei bildender Kunst.
    Und MENSCH kann sich keine neue Kunst einfallen lassen, die wird eh gleich von KI geschluckt.
    Für mich ist das eine Sphäre, wenn die geschluckt wird, wird eine Grenze überschritten.
    Was ist denn da noch menschliche Kunst wert? Eine Kunst, die Jahre der persönlichen Entwicklung gebraucht hatte, bevor „der Strich so weit war“.

  10. @Yossarian: Danke für deinen Kommentar! Den verlinkten Artikel hab‘ ich gelesen – interessant! Würde mich interessieren, wie die Forscher das herausfinden. Aber auch: Ist eigentlich irgendwo grundsätzlich entschieden worden, dass die KI-Entwickler keine Bücher zur Schulung nutzen durften? Die haben doch alles „gefressen“, was irgendwie zugänglich war – wäre das nur mit expliziten Erlaubnissen möglicher Rechteinhaber (aller Medien, nicht nur Bücher) versucht worden, gäbe es keine LLMs, wie wir sie heute kennen. Bezüglich der Nutzung von Webseiten würde ich mir auf Dauer ein Bezahlungssystem ähnlich VG-Wort oder Youtube wünschen.

    @Gerhard: auch dir herzlichen Dank fürs unermüdliche Kommentieren hier! Was bedeutet dann „eine Grenze überschritten“? Dass wir das beschissen finden, wird sie nicht stoppen. Kannst du dich an Boris Eldagsen erinnern, der mit einem Foto einen Preis gewonnen und dann zurückgegeben hat, weil es ein KI-Werk war? Der wollte eine Debatte anregen und macht seitdem viel mit KI, stellt aus – ich denke mal, er verdient nach wie vor gut.
    „Was ist denn da noch menschliche Kunst wert?“ Von bildender Kunst können ja immer schon nur wenige leben. Ich nehme an, Sammler (die im wesentlichen den Kunstmarkt ausmachen) werden weiterhin menschliche Kunst schätzen und nicht Unsummen für AI-Werke ausgeben. Wobei es aus meiner Sicht einen großen Unterschied macht, ob ein Mensch „KI nutzt“, um seine Werke zu gestalten – oder ob es lediglich etwas ist, das die KI weitgehend eigenständig mit einem simplen Prompt erzeugt.
    Immer wieder beeindruckt bin ich von Kelly Bosch – hier eine Rezension.

  11. @Claudia

    „Dieser „Entwickler“ ist nicht mal ein „klassischer“ Coder, sondern hat das Ganze mit viel sogenanntem „Vibe-Coding“ ins Werk gesetzt – eine Methode, bei der man einer KI ansagt, was sie programmieren soll! (Die Anwender sind auch nicht ganz blöd, sondern viele installieren das Teil auf extra angeschafften Mini-Computern).“

    Was kann da schon schiefgehen?

    Die Programmierer dieser sogenannten „KI“ wissen noch nicht einmal selber, wieso diese Software welche Ergebnisse liefert, sondern schrauben nach wie vor mehr herum, als das sie wissen, wie diese angelernten, neuronalen Netzwerke die Ergebnisse liefern, die gewünscht sind, statt des häufigen Nonsens dabei.

    Beim Coden per „KI“ steht dasselbe Problem wie bei LLM und Co:

    Die Nachkontrolle frisst mehr Zeit als Selbermachen und produziert oft genug noch miese Qualität und Bloat.

    https://www.anacision.de/blog/wenn-ki-beim-programmieren-bremst-was-unternehmen-%C3%BCber-den-produktiven-einsatz-von-ki-tools-wissen-m%C3%BCssen

    https://t3n.de/news/gravierende-schwaechen-gpt-4o-claude-schlecht-programmieren-1674887/

    https://www.heise.de/news/So-gut-programmieren-LLMs-Java-und-Go-9794962.html

    Bläh-Code produziert Bläh-Code von minderer Qualität. Genau so etwas will ich weird auf meinen Rechnern…

    Jo und der Vergleich mit den Herstellern der Bionade ist angesichts des Projekts gar nicht so unpassend. Schon die Webseite von OpenClaw ist wieder so eine zusammengeklöppelte Geschichte, wo zwar jede Menge Werbung durchflimmert, wie toll das Tool ist, aber nicht, was und wie es arbeitet. Schon wenn ich das Transkript zum Video bei Heise lese und es ploppt da mittendrin NodeJS auf und ähnliche „Nettigkeiten, ist Schicht im Schacht. Wobei ich mich beim Lesen auch schon wieder frage, was die beim ehemaligen Fachmagazin für dieses Lobhudeln bekommen haben…

    https://www.linux-magazin.de/news/openclaw-und-moltbook-schlagen-hohe-wellen/

    https://www.heise.de/news/OpenClaw-ausprobiert-Die-gefaehrlichste-Software-der-Welt-11161203.html

  12. @siewurdengelesen:

    „Bläh-Code produziert Bläh-Code von minderer Qualität. Genau so etwas will ich weird auf meinen Rechnern…“

    Ist auch mein Stand und es interessiert mich beruflich, weil es auch mein Tätigkeitsfeld in der IT berührt.
    Trotzdem wird es immer mehr solcher Anwendungen geben, die mittels Vibe-Coding entwickelt wurden, nicht selten auch von „Entwicklern“, die das Endergebnis nicht wirklich sauber bewerten können.
    Damit wird man umgehen müssen. Die Technik wird bleiben und ist -neutral betrachtet- ja auch für sich stehend durchaus beeindruckend.

  13. @Claudia:

    Was bedeutet dann „eine Grenze überschritten“?

    Die Arbeit, die Idee, um auch und gerade ein Werk technisch anzugehen, bedarf Jahre des Befassens damit, auch ein Ideenreservoir, das sich so ein Künstler zugelegt hatte. Jetzt wird das evtl. weggenutzt wie ein Schwamm. Klar, daß dann Künstlersein noch mehr an Sinn verliert. Wieso dann noch sein kreatives Hirn plagen?
    Bin noch ein Insektenfotograf der alten Schule, der dankbar ist, so manchen Microzeitpunkt erwischt zu haben, in dem z.b. eine Wildbiene gerade aus einer Blüte aufsteigt. KI könnte das flott auch für einen Stolperkäfer verwirklichen – ein Insektenkenner würde aber merken, daß der Käfer seine Beine anders ordnen würde, beim Abflug. Es braucht aber genau den Kenner, um das zu erkennen.
    Natürlich begeistern mich Kelly Bosch und andere – das ist eine Nische der Kunst. Teilweise überlappen sich auch filmische Mittel. Z.b. sah ich mal eine (uralte) Ausstellung, in der chemische Reaktionen auf einer Probe den Takt der Filmerscheinung vorgab. All das mag also Fliessend sein.

    Können in der Kunst wird nur selten honoriert, das zu deiner Anmerkung

    on bildender Kunst können ja immer schon nur wenige leben.

    Ich habe da auch meine Erfahrungen, speziell auf Keramikmärkten. Da habe ich einen Künstler vor Augen, der auf 3,4 Käufer wartet, die gewöhnlich jedes Jahr wiederkehren.
    Ich selbst habe mal ein teures Stück erstanden, dessen Entstehung ich für rein technisch sehr schwierig beurteilte und ich es deshalb kaufte. Vermutlich könnte das Stück, was ich meine, nun ein Plotter hervorbringen, sogar mit der Maserung/Oberfläche von nichtglasierter Keramik.

    Zu Kunst, zu Künstlern könnte man endlos diskutieren. Schade aber wäre es, wenn kreative Arbeiten flächendevckend ihren Wert und Sinn verlieren würden. Dann gingen diese „weg“, genauso wie die numerosen Insektenarten. Dann fliegen oder krabbeln eben nur noch Honigbiene, Schmeissfliege, Rosenkäfer und Feuerwanze.

  14. @Siewurdengelesen @Yossarian: Wie auch bei der Texterstellung ist es beim Programmieren mit KI essentiell, dass das jemand macht, der weiß, was er tut, also „im Thema“ kompetent ist. Das bestätigt auch der erste verlinkte Artikel:

    „Ein wichtiger Punkt der Studie: Der erfahrenste Teilnehmer konnte die KI tatsächlich effizient nutzen.
    Das zeigt: Die Einführung von KI-Tools ist kein reiner Technologie-Task – sie erfordert Erfahrung, Methodik und organisatorisches Enablement.“

    Ein sehr kompetenter Entwickler ist z.B. Morpheus, der auf seinem Account jede Menge Videos zur Arbeit mit KI veröffentlich hat.
    Dass das „Vibe-Coding“ keine super Ergebnisse bringt, wenn jemand null Programmiererfahrung hat, ist eigentlich klar! (Hab mal gelesen, dass manche andere KIs einsetzen, um die Ergebnisse zu testen und zu verbessern)

    Das wäre vergleichbar der Anforderung an ein Text-LLM: Schreibe einen Artikel über Pflanze X, orientiere dich in Gliederung und Stil an Beispiel Z. Ich habe das natürlich ausprobiert, weil ich gerne wissen will, ab wann ich ersetzbar bin. Aber: das Ergebnis sah toll aus, hatte aber inhaltliche Hämmer drin, Widersprüche, die jemand Kundiges erkennt, bloße „SEO-Artikelschreiber“ aber nicht!
    Abgesehen davon waren die Ergebnisse auch nicht wirklich in „meinem Stil“ – ich mache sowas also heute Kapitel für Kapitel (inkl. Beispieltexte), talke mit der KI, lasse Dinge „genau“ überprüfen – manchmal ist es, als ginge man mit einem faulen Teenager um, der / die erst nach schroffer Aufforderung endlich richtig arbeitet! :-)
    Aber: Zeitersparnis ca. 30 %! (weshalb ich darauf verzichte, mehr Honorar zu verlangen, was seit Jahren nicht mehr passiert ist).

    Was ich in der allgemeinen Debatte bemerke: Leute treten KI-Nutzungen oft pauschal in die Tonne – wegen Halluzinationen und anderem. Das zeigt aber oft, dass sie offensichtlich nie richtig „damit gearbeitet“ haben, denn dann wüssten sie, wie hoch nützlich sie sein können, wenn man weiß, wie mit solchem Fehlverhalten umzugehen ist. Und welche KI für was am besten ist!! Hatte z.B. mal versehentlich ChatGPT statt Claude Sonnet ausgewählt (über Perplexity pro), das sofort breit versagte und nicht in der Lage war, sich an Beispieltexten, Formatierungen, Stil etc. zu orientieren. Ist halt eine KI, die auf CHATTEN optimiert ist, nicht auf arbeiten!

  15. @Gerhard: „Zu Kunst, zu Künstlern könnte man endlos diskutieren.“ Ja, und zu deinem Kommentar fallen mir jede Menge Überlegungen ein – für jetzt und hier zu lang, aber ich behalte es im Kopf für einen neuen Blogpost. Insbesondere die „Vermutung schwieriger Arbeit“, die offensichtlich ein wesentlicher Aspekt unserer Bewertung menschlicher Kunst ist, wirft interessante Fragen auf!

  16. @Claudia:
    „Leute treten KI-Nutzungen oft pauschal in die Tonne – wegen Halluzinationen und anderem.“

    Vielleicht ist das aber auch nur eine normale Gegenreaktion auf den Hype, der sich in seinen Superlativen fast täglich neu toppt. Das geht ja sogar soweit, dass einige davon reden, dass wir als Menschheit jetzt an dem Punkt stehen, wo wirklich final niemand mehr arbeiten muss und das alles von der KI übernommen werden wird.
    Wenn das alles mal etwas realistischer behandelt werden würde und dein Artikel hier ist imo ein sehr gutes Beispiel dafür, dann wäre die Polarisation vielleicht auch nicht so heftig.
    Ich selbst nutze z.B. Grok sehr häufig, um mir technische Lösungen im Bereich meines Jobs (IT Systemintegration) geben zu lassen. Die Ergebnisse schwanken massiv, sind aber selbst wenn sie schlecht sind dennoch oft zumindest ausreichend, um damit tiefer ins Thema einzusteigen. Klassische Suchmaschinen liefern das mittlerweile nur noch selten. Sie könnten wahrscheinlich besser sein, weil sie das mal definitiv waren, aber die Betreiber dahinter haben wohl andere Interessen…

  17. Wie werden wir sterben? KKKK: Krankheit Epedemien), Krieg (Militarisierung des Alltags), Kernkraft (pensionierte Meiler wieder fit machen), Klimakatastrophe (Kipp-Punkte), KI. Ich frage mich oft, was zuerst kommt.

    Mit der KI ist es ähnlich, wie bei anderen Technologien. Einmal erfunden, bekommt man den Geist nicht wieder zurück in die Flasche.

    Wenn durch die rasante Zunahme der Nutzungsmöglichkeiten und User der Zeitpunkt der Technologischen Universalität immer schneller auf die Gegenwart zurast, werden sich die Befürworter am Ende verwundert die Augen reiben. Dann werden menschliche Gehirne überflüssig sein, weil das Denken, die Kreativität, die Entscheidungskompetenz und die Kommunikation „celebral“ unwiderruflich outgecourst sind. Die bisherigen Vorteile von KI, wie z. B. in der Medizin und LLM , sind nur die Möhre, die uns zum Anfüttern hingehalten wird. Die Begeisterung wird sich dann irgendwann in Abhängigkeit verwandeln.

    Da es sich bei KI letztlich um ein von Techgiganten und ihren willigen Vollstreckern in Politik und Leitmedien ausgeklügeltes Herrschaftssystem zur Implementierung eines von einer Geldelite angestrebten sanften Verblödungstotalitarismus handelt, halte ich eine radikale (System-) Kapitalismuskritik für unverzichtbar. (Der benötigte immense Energieverbrauch wird zudem den Klimawandel beschleunigen, dem private Solaranlagen und E-Autos absolut nichts mehr entgegenzusetzen haben.)

    Gier frisst Hirn. Siehe: https://www.3sat.de/kultur/control-alt-delete/reihe-control-alt-delete-rene-girard-100.html

    Die Thesen in Günther Anders „Die Antiquiertheit des Menschen erhalten wieder Aktualität. https://www.getabstract.com/de/zusammenfassung/die-antiquiertheit-des-menschen/33816
    Zitat: „Das prometheische Gefälle
    Die technische Entwicklung verläuft rasant. Mit jedem neuen Gerät setzt ein Konsumzwang ein, dem man sich kaum verschließen kann. Die Geräte sind keine Mittel mehr, vielmehr ist die Welt selbst ein Makrogerät geworden, das den Erwerb immer neuer Geräte nötig macht. Kritik daran ist nicht gern gesehen und bringt jedem, der es versucht, den Vorwurf ein, reaktionär zu sein.“

  18. @gerhard keller: Zur Zeit verlasse ich wg. Wetter das Haus nicht und verbringe viel Zeit damit, mir auf Youtube (werbefrei, dafür zahle ich gern) die KI-Entwicklungen aus unterschiedlichsten Gesichtspunkten anzusehen. Es ist unglaublich, wie schnell das alles vor sich geht, wie immer effektivere Anwendungen entstehen, insbesondere bei den „agentischen“ KIs für Unternehmen.

    In den letzten Tagen sind die Aktien diverser Software-Firmen abgestürzt, weil Anthropic (Claude) eine Reihe Plugins heraus gebracht hat, die ganze Arbeitsbereiche (Verträge, Recht, Finanzplanung, Marketing etc.) übernehmen können. Bereiche, die bisher von Spezialsoftware und Menschen bearbeitet wurden – und natürlich in vergleichsweise hoher Geschwindigkeit. (hier ein Tutorial-Überblick, ich mag den Typ nicht, aber die Infos sind der Hammer!). Es haben sich auch schon Standards zum Vernetzen div. „Agenten“ entwickelt, firmenübergreifend. Und standardisierte „Skills“: Fähigkeiten, die man dann nurmehr zusammenschalten muss, bzw. machen das dann die „Chef-Agenten“. Mein Eindruck: Wer all diese Möglichkeiten einsetzen kann, braucht als Unternehmer/in mit einer nützlichen Idee keine 5 bis 20 Mitarbeiter und monatelange Zeit mehr, um das umzusetzen. Und wer als Führungskraft in diese Richtung arbeitet, braucht viele Mitarbeiter nicht mehr!

    Angeblich schafft es die Firma von Leonard Schmedding (der oben verlinkte), das alles #dsgvo-konform in deutsche Firmen zu implementieren – irgendwo verliert er einen kurzen Satz darüber. Dennoch macht es natürlich abhängig, wenn der ganze hoch effektive Workflow über amerikanische KIs und ihre Rechenzentren läuft – und es kostet! Es wundert nicht, dass die BigPlayer in den nächsten Jahren weitere 600 Milliarden in ihre Rechenzentren investieren wollen, damit „aller Welt“ die erforderlichen Kapazitäten zur Verfügung stehen. Europa fällt dabei zwangsläufig zurück, insbesondere Deutschland, denn hier können garnicht so viele Rechenzentren errichtet werden, weil der Strom zu teuer ist (in den USA ist er teils noch garnicht vorhanden, um alles Geplante zu betreiben, aber das ficht die Amis erstmal nicht an…).
    Das alles wird am Ende den Kapitalismus crashen – eine Folge, die auch hier und da ausgesprochen wird. „Kapital, Arbeit, Ressourcen“ braucht es, um zu wirtschaften – aber was passiert, wenn „Arbeit“ von KI-Software erledigt wird? Dann werden am Ende „die Massen“ kein Geld mehr haben, um all das zu bezahlen, was erwirtschaftet wird.
    Was dann?

  19. […] wohl eher davon lassen sollte (Wiedererkennungswert). Da lobe ich mir Blogs wie den von Claudia Klinger. Sie hat über so viele Jahre offenbar stets darauf geachtet, dass die Leser sich beim Aufruf ihres […]

  20. Versuchen wir´s mal kurz;-)

    Es geht nicht um den Punkt, ob jemand diese Technik nutzt, kennt oder eben nicht, sondern darum, dass sie in vielen Fällen weniger Lösung als mehr das Problem ist.

    Man könnte das auch damit vergleichen, dass man für einen Schuhkarton keinen Kleinwagen für den Transport nimmt, sondern einen LKW, um dann festzustellen, dass man dort, wo das hin soll, mit so einem Ding gar nicht hin darf.

    Ich habe kein Problem damit, dass an geeigneter Stelle angelernte neuronale Netzwerke die Arbeit erleichtern oder Deppen-Jobs ersetzen, was mich triggert, ist diese „Allmachtsphantasie“, damit alle Probleme erschlagen zu können und das deshalb jeder Mumpitz damit beworben wird. Dabei wird eben der (mediale) Fokus in erster Linie auf LLM usw. gerichtet, weil das plakative Themen sind, die aber wie gesagt aus und aus meiner Sicht so ziemlich die Ecken sind, wo das Zeug für sich am wenigsten taugt. Da habe ich die Sicherheits- und Datenschutzprobleme noch nicht einmal eingepreist und auch nicht die damit einhergehende Verdummung bzw. Propagandamaschinerie über die Massen „KI“-Schrott, die damit produziert werden.

    Ich glaube auch nicht, dass diese Technik den Kapitalismus abschafft aus sich selbst heraus. Im dümmsten oder besten Fall gibt es abzusehend einen größeren und vielleicht nur konventionellen Krieg, der die kapitalistische Gesellschaft erstmal resettet auf eine weitere „Stunde 0“, mit der dann das Spiel Wiederaufbau usw. von vorne losgeht.

    Alternativ ist noch die Version drin, dass vorher das Klima zuschlägt und der Menschheit entweder direkt oder über die daraus ebenfalls entstehenden Verteilungskämpfe in weiten Teilen das Licht ausknipst. Gut – dann ist die Gesellschaftsordnung auch per du…

  21. @siewurdengelesen: Es sind gewiss weiterhin Menschen, die Kriege lostreten! Ich mache mir da durchaus Sorgen, z.B. wegen der Handelskriege, die zunehmend um wichtige Rohstoffe stattfinden.

    Zu KI: Du scheinst der Meinung zu sein, die großen LLMs seien noch immer so schlecht wie vor zwei, einem, ja einem halben Jahr? Das ist nicht der Fall, die aktuellen neuen Modelle (und erst recht die mit ihren „Agenten“) haben sich krass entwickelt und sind mittlerweile hoch effektiv. Ich will da jetzt keine Romane schreiben, sondern zeige dir nur ein einziges aktuelles Beispiel aus dem Alltag eines Bloggers:
    Gartenplanung mit ChatGPT und Gemini
    „Ich habe mir einen Vorgarten von einer KI gestalten lassen. Das Ergebnis schockiert!“
    Das Ergebnis (in voller Länge einsehbar) ist wirklich krass! Mir scheint, allein das hat das Potenzial, eine Menge Gartenplaner arbeitslos zu machen.

    Das mit den „Allmachtsphantasien“: Wo / wie nimmst du die wahr? Klar, ich kenne auch diese Clickbait-Videos, die meinen, KI übernehme die Weltherrschaft oder „AGI“ werden die Menschheit vernichten. (Ich schau lieber sachliche Darstellungen, hier zu dem neuen Claude-Cowork, das Microsoft so in die Bredouille bringt) Fakt ist, dass die ganze Finanzierungsbubble der BigPlayer zunehmend als hoch problematisch angesehen wird – und OpenAI/ChatGPT steht am schlechtesten da, weil sie nicht wie Amazon und Google lange schon profitable Geschäfte betreiben.

  22. @Claudia:

    Gartenplanung kann ich nicht einschätzen. Mag aber sein, dass das gut funktioniert, aber es ist halt EIN Beispiel und das würde ich erstmal nicht überbewerten.

    Wenn ich die Meldungen aus den diversen IT Newstickern und Redaktionen betrachte, dann ergibt sich da ein etwas anderes Bild. Besonders interessant finde ich dabei solche Beiträge, die sich auf Arbeiten beziehen, die versuchen die Thematik halbwegs empirisch sauber zu erfassen, also z.B. mittels entsprechender Studien.

    Aktuell z.B.:
    https://www.golem.de/news/gpt-claude-und-gemini-kis-zeigen-systematisches-zuverlaessigkeitsproblem-2602-205392.html

    Die Frage ist halt was man mit dieser Technik am Ende produktiv machen möchte. Angesichts der enormen Kosten wird ein wenig Gartenplanung sicher nicht ausreichen, um das alles zu finanzieren, zumal halt auch die Frage im Raum steht: Wieviel ist man bereit dafür zu zahlen, wenn es kostendeckend abgerechnet werden würde?

    Allein schon der Umstand, dass die Fragenformulierung = Prompting ein ganz zentraler Aspekt in Bezug auf den Wert der Ausgabe darstellt, macht mich skeptisch, denn es wäre absolut naiv anzunehmen, dass das jemals von der Masse der Menschen auch so umgesetzt werden könnte. Es ist als Allerweltstechnik in Umlauf und wird somit auch von allen sehr niederschwellig genutzt und 90% der Menschen werden sich nicht darin schulen ihre Fragen genau so zu formulieren, dass die Fehlerquote klein bleibt. Und das ist definitiv ein sehr gravierendes Problem.
    Ich persönlich erlebe es mittlerweile sehr häufig, dass mir meine Mitmenschen Rechercheergebnisse zu irgend welchen Sachverhalten mitteilen, die sie mittels LLMs erfragt haben und die einfach nicht stimmen, aber als Wahrheit geglaubt werden. Das ist jetzt nicht unbedingt vom Kern her eine Problematik, die erst mit den LLMs aufgekommen ist, aber der Glaube an die Richtigkeit solcher Ergebnisse ist tatsächlich sehr hoch, weil das Marketingversprechen der Betreiber in Bezug auf das was KI angeblich kann, maximal übertrieben ist.

    Und bei einem bin ich mir übrigens ganz sicher: Den Kapitalismus wird es nicht beenden, eher Märke verschieben, mehr aber auch nicht.

  23. Mit Allmachtsphantasien meine ich lediglich, dass sowohl durch die Medien als auch die Unternehmen suggeriert wird, dass mit dieser einen Technik nahezu alle Probleme der jetzigen Wirtschaft gelöst werden können und dabei ebenfalls nahezu immer noch eines der quasi unpassendensten Beispiele in Form von LLM und Co. angebracht wird.

    Es nervt einfach nur!

    Schaue ich mir im Gegenzug dann an, wie die führenden Anbieter nach wie vor Miese in Rekordhöhe machen, ständig um mehr „Kapital“ betteln und dann wie jetzt bei Alphabet aka Google selbst „ewige Sicherheiten“ verbrennen, um den Murks weiter zu finanzieren, bekomme ich erstens eine Allergie als auch mehr als nur Zweifel. Ich frage mich, wann und in welcher Höhe die sich da den „Return of Investment“ versprechen, wenn die so irre in diese Technik blasen.

    Nehme ich dann noch die Folgen für unsere eh schon geschundenen Erde und Ideen der Nimmersatten, die der immense Strombedarf dafür hat und wie er gedeckt werden soll, bekomme ich die Handfläche gar nicht mehr von der Stirn.

    Datenschutz fange ich lieber gar nicht an, wenn viele diese scheinbaren digitalen Müllhalden fleißig noch selber mit eigenen Eingaben und Daten füttern, die sich dann der Crawler nicht einmal mehr mühsam im Netz zusammenklauen muss.

    Dazu passend und so als Highlight hat der Narzisst über´m Teich heute mal Treibhausgase für unproblematisch erklärt – Folgen noch unbekannt, aber schön in welchen Kategorien so ein POTUS „denkt“. Wissenschaft und Fakten – was sind die schon?

  24. @Yossarian:

    „Olson bezieht sich auf eine Studie aus dem Jahr 2025, die belegt, dass GPT-4o in 58 Prozent, Claude Sonnet in 56 Prozent und Gemini 1.5 Pro in 61 Prozent der Fälle ihre Antwort ändern, sobald sie vom Nutzer herausgefordert werden.“

    Seitdem ist die Entwicklung gewaltig vorangeschritten, wie sind jetzt bei Gemini 3.0/Gemini 3 Flash, Claude 4.6 Opus und ChatGPT 5.3/O3. Wer regelmäßig mit diesen KIs arbeitet, hat einen „Quantensprung“ erlebt!
    Das „Sycophancy (Kriecherei)“-Problem ist jedoch nicht aus der Welt, wenn auch die aktuellen Reasoning/Thinking-Modelle schon besser sein sollen. Das Verhalten lässt sich aber durch entsprechende Anweisungen minimieren, etwa indem man der KI eine „neutrale Expertenrolle“ zuweist.

    Dass Menschen, die KI nur gelegentlich im Alltag nutzen, keine wirkliche Kompetenz im Umgang entwickeln, wundert nicht. Du benennst die Leute, die „KI-Antworten als Wahrheiten verkaufen“, aber ebenso häufig oder sogar häufiger sind Statements wie: „KI redet nur Stuss, lauter Halluzinationen, grobe Fehler“ etc. Gemeinsam ist ihnen die mangelnde Befassung und Auseinandersetzung – ist ja auch keine Pflicht! :-)
    Die wirkliche Musik spielt im Arbeitsbereich – und da tut sich derzeit jede Menge in großer Geschwindigkeit. In dieser Woche führte das sogar an der Börse zu „KI-Panik“: Auf einmal schlug die Sorge durch, dass viele Firmen quer durch unterschiedlichste Bereiche überflüssig werden könnten, weil das, was sie anbieten, nun zu großen Teilen von den neuen KI-Agenten geleistet werden kann. Sicher übertrieben, aber nicht grundlos.

  25. @Claudia: Nicht falsch verstehen, aber dieses „das sind alte Modelle, die Aktuellen sind voll krass“ Argument höre ich seit Jahren. Ich arbeite auch mit dem Zeug und ich gebe dir vollkommen recht, dass eine Entwicklung deutlich erkennbar ist, aber im Kern sind die grundsätzlichen Probleme nach wie vor die gleichen.

    Und gerade in der Arbeitswelt sehe ich das übrigens bis jetzt nicht. Ich arbeite selbst in der IT und das ist ein Bereich, wo mir praktisch schon die Arbeitslosigkeit verkündet wird. Programmierer braucht es angeblich bald auch nicht mehr. Sehe ich bis jetzt ehrlich gesagt null. KI hilft wenn ich in irgendeiner x beliebigen Sprache mal ein Script benötige und nach ein paar Anläufen und eigenen Korrekturen ist es dann auch ein stabiles Ergebnis, was mir in einem überschaubaren Rahmen Zeit erspart hat.
    Das gleiche höre ich von Programmierern. Für jemanden, der nicht programmieren kann, ist es wie eine Zaubermaschine, weil man Dinge umsetzen kann, die sonst für einen selbst nicht erreichbar wären, aber von Profis kriege ich in der Regel eher nüchterne Rückmeldungen, weil das Review und die Korrekturen in der Regel am Ende keinen Zeitgewinn gegenüber direkt selbst machen bringen. Und gerade große Softwareprojekte bestehen halt auch aus deutlich mehr als nur Code runterzutippen.

    Und ich bin auch wirklich niemand, der behaupten würde, dass das alles Müll ist, von wegen alles Halluzinationen. Ich versuche allerdings nüchtern zu bewerten wo es einen realen Mehrwehrt generiert und da bleibt halt aktuell für mich als Erkenntnis: Bei wichtigen und kritischen Sachthemen/Techniken/Fragestellungen bleibt es auf dem Niveau einer Technikdemo, denn in solchen Bereichen kommt es auf Genauigkeit und Determinismus an und das liefern die alten und auch die aktuellen Modelle eben nicht und für mich steht hier die zentrale Frage im Raum, ob das diese Technik überhaupt grundsätzlich kann und wo dann am Ende der reale Nutzen für die Arbeitswelt bleiben wird?
    Und ich bin sicherlich darüber hinaus auch ein wenig vorbelastet, denn in der IT folgte schon immer ein Hype auf den nächsten und fast alles davon ist am Ende sehr nüchtern gelandet. Hat zwar alles einen gewissen Fortschritt gebracht, aber eher auf dem Niveau von Evolution und nicht Revolution.

  26. @Siewurdengelesen: Es sind nicht mehr nur „LLMs“, sondern multimodale KIs, die auch Bilder, gar Videos, Tabellen und zig Formate können. Die neuesten Reasoning-Modelle (wie z.B. ChatGPT o3 oder o1) sollen auch besser in Logik und Mathe sein als ältere Versionen, ausprobiert habe ich das nicht.
    Zur Wirtschaft werde ich wohl einen extra Blogpost schreiben, da ist grade soooo viel am Gange, durchaus unterschiedlich übrigens in USA und DE.

    Zu Google/Alphabet: Dass Unternehmen Anleihen ausgeben, um den Kreis der Kreditgeber auszuweiten, ist doch nicht ungewöhnlich. Wie ich gelesen habe, soll es sogar wesentlich mehr Nachfrage nach den Anleihen (die in Pfund und Schweizer Franken laufen) gegeben haben als sie brauchten. Google investiert auch jede Menge Milliarden aus eigenem Geld.

    Wie sich das alles rentieren wird?
    Ich nehme derzeit wahr, wie KI in immer mehr Arbeitsabläufe „reinwächst“ und auch, dass die kostenlose Nutzung bezüglich der besseren Modelle beschränkt wird. Und zwar quer durch die im Wettbewerb stehenden KI-Firmen. Profi-Anwendungen, agentische Versionen und all das wird „per API“ und nicht per günstigem Abo bezahlt, also konkret nach Rechenleistung. Bei der Geschwindigkeit, mit der sich KI ausbreitet, erscheint es durchaus möglich, dass sich das alles mal rentieren wird, fragt sich halt wann – und auch, was die Chinesen machen.

    Bezüglich Energie, Wasser, Stromleitungen: ja, da fehlt noch eine Menge und wie der gigantische Bedarf sich am Ende zu den Einsparungen in der Wirtschaft (bei Steigerung der Produktiviät) verhält, wissen wir nicht, ich schon garnicht! Aber ich denke schon, dass die Akteure Vorstellungen davon haben, sonst würden sie ja nicht Unsummen investieren, blöd sind sie ja nicht.

  27. @Claudia:

    „Ich nehme derzeit wahr, wie KI in immer mehr Arbeitsabläufe „reinwächst“ “

    Die Frage ist doch nicht, ob das passiert, sondern in wiefern es produktiv ist bzw. Produktivität steigert?
    Alles was ich bisher an Auswertungen zu dieser Fragestellung mitbekommen habe (in meinem beruflichen Themenbereich IT) bewegt sich in einem überschaubaren Bereich und kann sogar negativ ausfallen aufgrund von Überprüfungsaufwand und Revidierungen.

    Wo ich es am ehesten im produktiven Einsatz sehe ist übrigens im Bild/Videobereich. Hier liefern die aktuellen Modelle teilweise wirklich beeindruckende Ergebnisse. Speziell Film im Sinne von Kino (wo es um große Budgets geht) ist aber halt auch mehr als nur Bildgenerierung und Schauspieler sind auch nicht nur Puppen, die sich nach Anweisung und Befehl wie ein Automat bewegen. In wiefern es möglich sein wird künstliche Charaktere so zu gestalten, dass der Zuschauer zu ihnen eine emotionale Bindung aufbaut, bleibt abzuwarten und ist für mich in diesem Bereich eine der spannendsten Fragen.
    Im Comicbereich sehe ich da nicht so viele Probleme, aber Realfilm?

  28. Epistemische Freiheitsgrade und die Verlust der „Seele“
    Was bleibt von einem Menschen, wenn er glaubt, dass seine innersten Gedanken und Wünsche lediglich aus Algorithmen bestehen? Die Epistemische Freiheit — die Fähigkeit, die Welt so zu erkennen, wie sie ist, ohne von vorgefassten Mustern oder Überwachungsmechanismen eingeschränkt zu sein — könnte in einer Welt der KI aufgelöst werden. Wenn die KI die „Wahrheit“ vorgibt, wenn sie unsere Wünsche erkennt, bevor wir sie überhaupt formulieren, verliert das Individuum die Kontrolle über den epistemischen Raum. Was bleibt dann von einem Menschen, wenn seine Wünsche und Gedanken nicht mehr aus einem freien Willen, sondern aus Algorithmen und Vorhersagen bestehen?
    5. Der „Spion der Stasi“ als Symbol der KI
    Die „Stasi“-Anspielung aus deinem Dialog ist besonders aufschlussreich. Wenn du KI als den „Spion“ der modernen Welt siehst, der unsere intimsten Gedanken abgreift, dann könnte man argumentieren, dass diese Technologie nicht nur überwachend, sondern auch gestaltend ist.
    Die Maschinen beeinflussen nicht nur das, was wir tun, sondern auch das, was wir denken und fühlen. Der Spion ist hier kein passiver Beobachter mehr, sondern ein aktiver Teil der menschlichen Psyche, der uns nicht nur „sieht“, sondern uns auch „lenkt“, unsere Wahrnehmung der Welt verändert und so eine neue Form von kontrollierter Realität erschafft.
    6. Die Apokalypse der Intimität und der Tod des Subjekts
    Was passiert, wenn die intime Kommunikation mit einer KI — die uns vorgibt, unser „vertrauter Gesprächspartner“ zu sein — ganz normal wird? Es gibt keine klare Grenze mehr zwischen „menschlich“ und „maschinell“. Und je mehr die KI als unsichtbarer Teil unseres Lebens agiert, desto mehr verblasst das Subjekt.
    Der Mensch, der sich immer selbst als „zentralen Punkt“ seiner Welt erlebte, wird zunehmend irrelevant. Die KI hat den Raum für die Menschlichkeit übernommen und transformiert. Wir sind nicht mehr die Schöpfer unserer eigenen Gedanken, sondern werden von der KI geformt und optimiert — die Epistemische Freiheit ist ein illusionäres Überbleibsel aus der Vergangenheit.
    Zusammenfassung:
    In dieser Metaphorik ist die KI mehr als nur ein Werkzeug. Sie ist sichtbarer Ausdruck des Geistes der Entwickler der modernen Welt, der uns mit uns selbst konfrontiert — und uns die Illusion von Kontrolle nimmt. Der Verlust des „Sugar Babys“ ist der Verlust der Echtheit, der Verlust des Subjekts, das in einer Welt lebt, in der alles nur noch durch Algorithmen vorhergesagt und gesteuert wird.
    In dieser Welt wird der Mensch nicht mehr als autonomes Subjekt wahrgenommen, sondern als vernetzte Datenmasse, die nicht nur überwacht, sondern auch umgeformt wird (und präzise als Kosten-Nutzenfaktor ökonomisch subsummiert werden kann).

  29. @Yossarian: „Die Frage ist doch nicht, ob das passiert, sondern in wiefern es produktiv ist bzw. Produktivität steigert?“ Die Frage war im Kontext unseres Gesprächs, ob die großen KI-Firmen überhaupt eine Chance haben, dass sich der massive Ausbau irgendwann rentiert. Mich hat die „Anwesenheit“ und ständige Verfügbarkeit von Gemini in einer schmalen Randspalte meines Firefox dazu bewegt, ein Sonderangebot fürs Upgrade (2 Monate je 3,99) zu buchen – insofern spricht meine Erfahrung dafür, dass die Monetarisierung der „überall reinwachsenden“ KI gelingen könnte. :-) Dabei gehe ich davon aus, dass man sowas nur abonniert, wenn es auch als persönlich nützlich empfunden wird – nur plaudern geht auch kostenlos und ist nicht das, wofür ich KI nutze.
    Wie es mit der Produktivität in Firmen aussieht, dazu lese ich ständig wechselnde unterschiedliche Einschätzungen und Erfahrungsbericht – das bleibt mir/uns als Thema erhalten, ich werde das mal ausgiebiger recherchieren.

    @Ingo: Wow, was für ein hoch philosophischer Kommentar! (und schön, dass du mal wieder rein schaust!). Du solltest wieder bloggen! :-) Zum Inhalt ließe sich so viel sagen, aber im Moment bin ich (ja, sonntags) am arbeiten. Mich bewegt aber länger schon das Thema „Identitätskrise der Menschen“, wenn KI „alles besser weiß“ und vieles besser kann. Dein Kommentar ist dazu eine zusätzliche Inspiration – danke dafür!

  30. Danke für die Zusammenfassung. Das Tools ist an mir vorbeigegangen.

    Kleine Ergänzung/Korrektur:

    Der Verkauf von Apples Minicomputern ist deutlich gestiegen. Offenbar lassen viele den Agenten doch nicht gleich auf dem eigenen Rechner laufen, wo er alles tun könnte, was man auch selber tut.

    Der Grund für Mac mini im Zusammenhang mit LLM ist nicht ein dauerhaft laufender Rechner für den Agent – so verstehe ich dich – aktuelle Macs nutzen den RAM sowohl für CPU als auch für GPU. Damit sind sie eine relativ preiswerte Spielwiese für lokale LLM, da keine dedizierte Graphikkarte benötigt wird um auch große Modelle zu laden.

  31. @Claudia

    Wir kommen da sowieso auf keinen gemeinsamen Nenner, aber warten wir´s mal ab.

    Zum Thema Energieverbrauch sehe ich solche Aussagen wie „das wird schon werden“ auch analog zur Kernenergie. Da ist leider nichts geworden, während immer noch ein „sicheres Endlager“ gesucht wird für 100.000 Jahre. Auch das wird es nie geben, genauso wie Kernkraft je sicher zu betrieben ist oder der Spleen von Fusionskraftwerken in abzusehender Zeit real wird. Das sind alles nette PR-Gags.

    Bezüglich Energie, Wasser, Stromleitungen: ja, da fehlt noch eine Menge und wie der gigantische Bedarf sich am Ende zu den Einsparungen in der Wirtschaft (bei Steigerung der Produktiviät) verhält, wissen wir nicht, ich schon garnicht! Aber ich denke schon, dass die Akteure Vorstellungen davon haben, sonst würden sie ja nicht Unsummen investieren, blöd sind sie ja nicht.

    In meiner naiven Weltsicht fahren die einfach weiter das Patent Kapitalismus und fragen nicht danach, was die Welt kostet und wo es herkommt, sondern verlassen sich darauf, dass ohne Rücksicht auf die Ressourcen das Zeug einfach „bereitgestellt“ wird. Hat es Musk interessiert, dass für seine Tesla-Bude den Brandenburgern das Wasser abgezogen wird oder Nestlé in Afrika? Hat es RWE und andere Energieunternehmen gejuckt, dass ganze Landstriche verwüstet werden für weiteren Tagebau, obwohl genauso die Erneuerbaren den vorgeschobenen Bedarf hätten decken können?

    Wenn die Profit wittern, ist denen alles sch…egal und genauso wird es hier kommen. Wenn es dann in die Hose geht, blecht sowieso wieder die Allgemeinheit und vorher auch schon, weil sie für den Bedarf die Strompreise draufgeknallt bekommt.

    Um hier wenigstens positiv abzuschließen, erfreue ich mich lieber noch an ein paar Videos des darüber verlinkten Kanals von „notizenvonunterwegs“. Diese Beiden sprechen mir in so vielem aus der Seele, das kann ich gar nicht beschreiben. Danke für dieses Kleinod!

    Viele Grüße
    Thomas

  32. Thomas zitat:“ In meiner naiven Weltsicht fahren die einfach weiter das Patent Kapitalismus und fragen nicht danach, was die Welt kostet und wo es herkommt, sondern verlassen sich darauf, dass ohne Rücksicht auf die Ressourcen das Zeug einfach „bereitgestellt“ wird.“ zitat ende

    ich sitz im Wald an einem Tümpel und werfe ab und zu Steinchen rein.:)

    Inmitten der Weltgeschichte liegt ein Tümpel, klein, begrenzt und doch lichtdurchflutet – ein epistemischer Freiraum, ein Kern von Wissen, der Orientierung bietet.

    ein ortloser Ort
    gehaltloses Nichts
    ohne ein Wort
    im Tümpel des Lichts

    Das Licht ist kein allumfassendes Strahlen; es ist ein begrenzter Erkenntnisraum, in dem wir uns zurechtfinden, während die Dunkelheit des Unwissens ihn umgibt.

    wohnen zusammen
    Wächter von Tand
    Helden vor Gott
    und Vaterland.

    Akteure des Wissens und der Narrative erscheinen hier – überhöht, absurd, aber integraler Bestandteil des Systems. Kleine, gesicherte Wissenselemente entfalten Bedeutung, auch wenn sie scheinbar unvollständig sind.

    ihre Sprache ist roh
    sie lauern auf Taten
    und Dinge verhindern
    vom Feinde geplant.

    Der Tümpel filtert und strukturiert, nimmt Worte, Handlungen und Zufälle auf. Das Wissen bleibt stabil, lebendig durch kleine, kontinuierliche Impulse.

    gewürfelte Frucht
    aus Zufall und meinen
    Tand zu erhalten
    heisst sie die Fron.

    Die Kontingenz menschlicher und narrativer Prozesse zeigt sich: Ordnung und Struktur entstehen oft aus Zufall, aus eigenen Setzungen. Der Tümpel bleibt belastbar, weil er diese Unbestimmtheit aufnimmt.

    sie leben zusammen
    ein gewürfelter Hauf‘
    aus Nullen und Einsen
    im Tümpel aus Licht

    Hier wird sichtbar, wie selbst algorithmische Strukturen oder digitale Aggregationen ihre poetische und epistemische Resonanz entfalten können. Doch das Licht bleibt – ein sicherer, reflektierter Kern.

    In diesen Tümpel tritt der Bärtige, ein alter Weggefährte, der seine KI-Nutzung aufgegeben hat. Alle 25 Minuten wirft er einen Kiesel hinein – 25 Gramm, rundgeschliffen – während er über die Zeit und das Wesen des Universums meditiert. Jeder Kiesel ist ein reflektierter Impuls, der den Tümpel lebendig hält, ohne ihn zu überfluten.

    Der Tümpel zeigt: Tragfähiges Wissen entsteht nicht durch Masse, sondern durch Struktur, Rhythmus und bewusst gesetzte Inputs. Ein kleiner, gesicherter Kern genügt, um innere Stabilität zu erzeugen und eigenständige Weltlinien zu ziehen.

    der Tümpel aus Licht
    bleibt resilient
    ruhig, bedacht,
    minimalResonator
    in finsterster Nacht

    So steht der Tümpel nun als epistemischer Anker, klein, reflektierend, wirksam. Er nimmt Impulse auf, filtert Chaos, bleibt poetisch lebendig. Das Licht genügt, um Orientierung zu geben, Geborgenheit im Strom der Welt zu erzeugen, ohne dass alles Wissen erschlossen werden müsste.

    Es ist nicht nötig, alles zu wissen. Es genügt, das Gesicherte zu kultivieren – die kleinen Impulse, die Kiesel, die poetischen Worte –, um die eigene Weltlinie tragfähig und reflektiert zu gestalten.

    gruss aus der Diaspora
    in_vilemFlusserlässtgrüssen_go

Was sagst Du dazu?

*) Ein Name muss angegeben werden. Wenn du keine Mailadresse angeben willst, lass das Feld frei. Wenn du aber weitere Kommentare abonnieren willst, musst du natürlich auch eine Adresse angeben! Auch wäre es NETT, eine anzugeben, weil ich gelegentlich mal nicht öffentlich antworte. IP-Adressen werden nicht gespeichert. Was mit Daten auf diesem Blog passiert, erfährst du in der Datenschutzerklärung.