Claudia am 13. Dezember 2025 — 9 Kommentare

Kritik: Scobel und die „emphatische KI“

„Darüber sollte ich dringend bloggen!“ sag‘ ich mir jedes mal, wenn ich während einer längeren Youtube-Session von der Info-Tiefe zum Weltgeschehen, zur „Künstlichen Intelligenz“ und Nachdenklichem zu alledem schwer beeindruckt bin. Und dann komm‘ ich doch nicht dazu, bzw. kann mich nicht für ein Thema entscheiden – suboptimal. Im Versuch, hier als Alternative zumindest eine Video-Tipp-Liste zu bloggen, bin ich dann beim Kommentieren gleich so ausgeufert, dass es doch bei einem Thema bleibt:

Empathische KI: Wenn Maschinen menschlicher wirken als wir – scobel

Scobel

Nach dem Ende des 3Sat-Formats „SCOBEL“ hatte ich mich gefreut, dass Gerd Scobel auf Youtube weitermacht. Seine Videos erscheinen wöchentlich und handeln vom Zeitgeschehen aus philisophischer Sicht. Beim Thema „Empathische KI“ geht es jedoch erstmal um Psychologisches: Ungewöhnlich vehement beharrt Scobel darauf, dass eine KI trotz aller vermeintlichen „Empathie“ keine Person sei, sondern nur ein LLM, ein gefühlloser Niemand. Wer hätte das gedacht! Gleichzeitig führt er aus, wie wir auf Freundlichkeiten und Schmeicheleien der KI dennoch reagieren, obwohl wir das wissen. Soweit, so richtig, aber: Ist das wirklich so ein großes Problem?

Was mich ärgert: Obwohl das Video Scobels Neuestes ist, scheint er bezüglich der Entwicklungen nicht auf dem Laufenden zu sein. Er behauptet allen Ernstes, die diversen KIs würden aktuell „immer emphatischer“, dabei ist das Gegenteil der Fall: Die Version 4o von ChatGPT wurde – weil zu freundlich/unterwürfig – schnell zurückgezogen. Und die grade erschienene Version 5.2. wird wegen ihrer formalen Strenge und häufigen Antwortverweigerungen kritisiert:Man hat das Gefühl, die KI behandelt einen nicht wie einen mündigen Bürger, sondern wie ein Kleinkind„.

Scobel: Chats unterbrechen, Erinnerungen verbieten

Zudem empfinde ich die Herangehensweise von Scobel als recht paternalistisch: Der alte weise Mann (hier stimmt das mal!) will uns davon abbringen, mit KIs allzu freundlichen Umgang zu pflegen. Er wünscht sich sogar technische Zwangslösungen:

„Eine KI sollte immer wieder zwischendurch den Ton und die Stimme wechseln und explizit sagen: „Ich bin eine kybernetische Maschine und habe keine echten Gefühle“. KI-Systeme – vom Computer bis zum Smartphone – MÜSSEN eine begrenzte und NICHT ERWEITERBARE Beziehungsfunktion durch Design limitieren! Etwa indem ihnen nicht erlaubt wird, kontinuierlich auf alle persönlichen Daten zuzugreifen und zu lernen, zu lernen, zu lernen…. „

(Hört euch die Stelle an! Sowas will er uns verordnen!)

Leider zeigt Scobels so heftig gewünschtes Erinnerungsverbot, dass er sich offenbar selbst wenig mit LLMs beschäftigt. Denn dann wüsste er, dass er hier etwas verbieten will, was garnicht der Fall ist, zumindest nicht bei den Standard-LLMs, sondern allenfalls bei extra „als Begleiter“ konzeptionierten KI-Charakteren, wie sie die Plattform Replika anbietet. (Die aber auch in Sachen Erinnerung schwächeln, wie ein Erfahrungsbericht zeigt).

Selbst bestimmen: Erinnerungen sind konfigurierbar

Jegliches Erinnern kostet Rechenzeit und jeder Chat hat nur ein begrenztes Volumen an Tokens, also eine limitierte Textmenge, die eine KI während eines Gesprächs nutzen kann. Gegen Ende dieser Menge vergisst sie sogar manchmal Inhalte aus demselben Chat! Schafft man themenspezifische „Räume“ (so heißt es bei Perplexity) kann man vorab für das jeweilige Thema Anweisungen und Daten eingeben – auch diese „erinnert“ Perplexity dann bei jeder neuen Anfrage in diesem „Raum“.

Nur wenn ich es explizit erlaube, kann sich Perplexity (da hab ich einen Pro-Account) an frühere Gesprächsinhalte erinnern:

KI-Gedächtnis Verwaltung

Unter „Verwalten“ findet sich dann eine Liste mit Einträgen, die Perplexity aus vergangenen Chats über mich gespeichert hat – ich kann sie einzeln oder „alle Erinnerungen löschen“. Was ich natürlich NICHT mache, denn es verbessert die Antworten, wenn Perplexity mehr über mich weiß. Dass das alles nicht für Schulungszwecke verwendet werden soll, hab‘ ich kürzlich mal (vor-)eingestellt, denke aber daran, es wieder zu erlauben.

Dass eine KI ganz von selber (!) „lernt, und lernt, und lernt“ und sich immer alles merkt, ist jedenfalls nicht Standard, wohl aber die Möglichkeit, Erinnerungen zu steuern, bzw. zu konfigurieren.

Wie geht es euch im Umgang mit KI? Zu emotional, zu cool, zu nerdig – oder wie?

***

Und sonst:

Hier noch ein Video-Tipp für alle, die ChatGPT das BlaBla abgewöhnen wollen, dieses unentschiedene Gesäusel, das es statt klarer Aussagen oft drauf hat:

Das bezieht sich noch nicht auf das neueste Modell, das ja weniger „nett“ sein soll. Aber vermutlich lässt sich mit einem moderierten Prompt auch bei ChatGPT 5.2 der Ton und die Klarheit der Aussagen beeinflussen.

Zum Thema Emotionen und KI hat Princi auch ein Kurzvideo, mit Tipps einer KI, wie man mit Gefühlen, die die KI erzeugt, umgehen sollte:

Diesem Blog per E-Mail folgen…

Diskussion

Kommentare abonnieren (RSS)
9 Kommentare zu „Kritik: Scobel und die „emphatische KI““.

  1. Ich persönlich empfinde ja den Unterhaltungs- und Inspirationswert von LLMs weit größer als ihren echten Nutzwert. Es sind halt rechte Haselanten. Insofern ist natürliches alles was charmant, pseudo-empathisch und ein wenig Gaga ist, das Beste daran und sollte auf gar keinen Fall heruntergeschraubt werden.

  2. Ich überlege gerade, wann ich das letzte Mal eine „KI“ genutzt habe. Ich glaube, es wird irgendwann im August gewesen sein. Und weil die KI ihre Aufgabe nicht so erfüllen wollte, wie ich es brauchte und das auch nach mehrfachen Änderungen nicht hinbekam, habe ich es gelassen. Mich langweilt das Thema langsam, aber in der ewig menschlichen Hoffnung auf Interessantes auch heute Danke Claudia für den Text!

  3. Vielen Dank für Eure Kommentare!
    @Southpark: Wow, ich hab ein neues Wort gelernt – Haselanten! „Altes deutsches Wort für Spaßmacher, Narren, Gecken oder Prahlhänse, also jemand, der sich albern verhält, einen Scherz macht oder angeberisch auftritt.“ Meine KIs sind nicht ganz so lustig, schade eigentlich! :-)

    @Holger: Die KIs entwickeln sich recht schnell weiter und was im August nicht ging, kann heute klappen – die richtigen Fragen / Ansagen immer vorausgesetzt. Auch haben sie unterschiedliche Stärken und Schwächen, aber ich verstehe schon, dass man keinen Grund hat, sich damit auseinander zu setzen, wenn man keine echten Anwendungsfälle hat. Mir erleichtert KI die Arbeit mittlerweile recht gut.

  4. Claudia, ich mache dich persönlich dafür verantwortlich, dass meine Lese- und Watchliste interessanter Beiträge und Videos länger und länger wird! Dein Beitrag selbst, die verlinkten ebenso und Scobels Video sowieso (und all die anderen, von dir empfohlenen)… Das werden schöne Feiertage werden, auch wenn ich jetzt schon Stress habe, mit dem Schreiben nachzukommen ;-) – DANKE dafür!

  5. @Michael: freut mich, dass dir meine Tipps gefallen! Ich verbringe aktuell viel Zeit auf Youtube und finde dabei doch etliche Videos, die ich wirklich gerne empfehle – wohl wissend, dass Blogleser/innen eigentlich Blogtexte lesen wollen, wenn sie hierher finden.

  6. @Claudia. Natürlich sollte ich mich damit weiter auseinandersetzen, nur kann ich die Aufgabe ja auch selbst lösen. Und es ist kein Quantensprung, was ich in der Erstellung eines Textes z.B. an Zeit sparen kann, verbrauche ich hintendrein mit Korrektur, Überprüfung und Anpassung. Da mach ich es doch lieber gleich selbst. Als ob man Blumen gießen müsste und die KI zwar wild umher gießt, man aber länger mit Aufwischen von Wasser beschäftigt ist. Mag sein, dass sich das verbessert – wenn die KI es mal fehlerlos kann was ich will, melde ich mich.

  7. @Holger: Danke für deine Erläuterung! Meine Hauptanwendung ist ebenfalls die Erstellung von Texten (nicht fürs Blog!) und ich meine zu wissen, was du meinst. Ich konnte Perplexity (Pro, tiefe Forschung, KI-Modell wählbar, meist nehme ich Claude, das am besten schreibt) dazu bringen, recht ordentliche Texte zu schreiben, pro Absatz mit Angabe mehrerer Quellen, die das Prüfen leicht macht.
    Das hat allerdings erfordert, nicht einfach so allgemein loszuprompten, sondern ich habe pro Themenbereich „Räume“ geschaffen mit Vorab-Befehlen und EIGENEN Beispieltexten. In der konkreten Aufgabe fordere ich dann jedes Mal auf, sich in Stil, Struktur und Länge an den Beispieltexten zu orientieren, gebe manchmal auch noch einen besonders gut passenden dazu, als Link oder Datei, die ich hochlade. Mal mach ich das Kapitel für Kapitel, hab aber auch schon den ganzen Text ausgeben lassen.
    Das Ergebnis kann sich sehen lassen, aber faktisch beschäftige ich mich mit der Veränderung und Verbesserung dieser Texte etwa 60% der Zeit, die ich gebräucht hätte, es alleine zu machen. Gleichwohl macht es mir mehr Spaß mit der KI, weil ich rückfragen, einzelne Absätze / Themen nochmal vertieft beforschen und neu schreiben lassen kann – und weil das Ganze fürs Web ist, lasse ich mir die Teiltexte gerne als „einfaches HTML“ ausgeben. Es hat sich so ein Workflow ergeben, der mir gut nützt.

  8. Solange das grösste Problem an angelernten neuronalen Netzwerken in Form einer LLM das ist, ob sie zu freundlich oder zu harsch oder zu menschlich daher kommt, besteht ja noch Hoffnung. Letzten Endes ist das ja auch nur wieder eine Ausgabe aus dem Pool dessen, was an Lernmaterial zusammengeschorchelt wird von diesem Zeugs und dann kommt halt je nach Schräubchen so oder so etwas heraus dabei.

    Mir geht ja dieser mit eher Glückstreffern verbundene, debil-devote Tonfall des Outputs sowieso auf den Zünder, aber was weiss ich schon, wenn ich diesen ressourcenvernichtenden Speicherschrott zumindest nicht wissentlich nutze. Was vor noch gar nicht langer Zeit smart war, muss halt jetzt mit dem im Grunde auch noch falschen Label „KI“ verklimpert werden. Und wen juckt schon der Tatsachengehalt, solange das gerne im Konjunktiv gebotene Ergebnis wenigstens „nett“ präsentiert wird…

  9. @Thomas/Siewurdengelesen: klar, ich hab es auch erlebt, dass ChatGPT, das ich anfänglich (auch mit Pro-Account) verwendete, Quellen erfindet und Fehler macht. Beim Nachforschen, warum diese Fehler entstanden, habe ich festgestellt, dass Info-Bits, die auf derselben Webseite nahe beeinander stehen, schon mal „zusammen genommen“ als Fakten(Wahrheit) präsentiert wurden – obwohl die zweite „Fundstelle“ einen anderen Fall als die erste behandelte, bei dem sich die Dinge eben gerade andersherum verhielten. Und über das Erfinden von Quellen hab ich einen Dialog mit ChatGPT geführt, das mir erklärte, dass es Quellen nach dem Motto ausgibt „so werden Links bei diesem Medium üblicherweise formuliert“ – aha!

    Wie sich das heute verhält, weiß ich nicht (ist wohl besser geworden, wie ich lese), denn ich bin dann auf Perplexity umgestiegen, die erste KI, die auf „so gut wie/besser als eine Suchmaschine“ getrimmt wurde: Keine erfundenen Links, in aller Regel sind es wirklich passende Artikel, die zu den jeweiligen Antworten (Absatz für Absatz!) angegeben werden.

    Ganz allgemein: Man muss sich schon ein bisschen befassen mit den Modellen und das korrekte Prompten ausexperimentieren (dazu gibts ja viele Infos mittlerweile), um zu fehlerarmen, im besten Fall fehlerfreien Ergebnissen zu kommen. In meiner Antwort an Holger hab ich meinen aktuellen Workflow beschrieben – und seit ich den perfektioniert habe, kommen inhaltliche Fehler vielleicht noch zu 5% vor, wenn überhaupt!

    ***

    Aber klar: KI wird alles verändern, denn das Ziel ist, darum muss man nicht herumreden, jede erdenkliche menschliche Arbeit zu ersetzen – durch KI und KI-Robots. Die allermeisten Tätigkeitsfelder wird das betreffen, es bleibt nicht allzu viel, was mittelfristig noch zwingend Menschen braucht (Pflege, Handwerk etc.). Das zerstört den Dreiklang „Kapital, Arbeit, Boden/Ressourcen„, der die Basis des Kapitalismus darstellt, durch massive Entwertung von Arbeit. Wenn immer weniger Menschen mit ihrer Arbeit Geld verdienen können, können sie allerdings auch nicht mehr konsumieren und all die Dinge und Dienstleistungen kaufen, die durch die automatisierte Produktion hergestellt werden. Was dann?

    Wir wissen es nicht. Marx hat nie so wirklich deutlich ausgeführt, was passiert, wenn der Kapitalismus an sein Ende kommt – damals war es auch faktisch noch lange lange nicht soweit. Aber heute lässt sich das absehen – was denkst du?

    (Hier mal 3 Szenarios)

Was sagst Du dazu?

*) Ein Name muss angegeben werden. Wenn du keine Mailadresse angeben willst, lass das Feld frei. Wenn du aber weitere Kommentare abonnieren willst, musst du natürlich auch eine Adresse angeben! Auch wäre es NETT, eine anzugeben, weil ich gelegentlich mal nicht öffentlich antworte. IP-Adressen werden nicht gespeichert. Was mit Daten auf diesem Blog passiert, erfährst du in der Datenschutzerklärung.