„Darüber sollte ich dringend bloggen!“ sag‘ ich mir jedes mal, wenn ich während einer längeren Youtube-Session von der Info-Tiefe zum Weltgeschehen, zur „Künstlichen Intelligenz“ und Nachdenklichem zu alledem schwer beeindruckt bin. Und dann komm‘ ich doch nicht dazu, bzw. kann mich nicht für ein Thema entscheiden – suboptimal. Im Versuch, hier als Alternative zumindest eine Video-Tipp-Liste zu bloggen, bin ich dann beim Kommentieren gleich so ausgeufert, dass es doch bei einem Thema bleibt:
Empathische KI: Wenn Maschinen menschlicher wirken als wir – scobel

Nach dem Ende des 3Sat-Formats „SCOBEL“ hatte ich mich gefreut, dass Gerd Scobel auf Youtube weitermacht. Seine Videos erscheinen wöchentlich und handeln vom Zeitgeschehen aus philisophischer Sicht. Beim Thema „Empathische KI“ geht es jedoch erstmal um Psychologisches: Ungewöhnlich vehement beharrt Scobel darauf, dass eine KI trotz aller vermeintlichen „Empathie“ keine Person sei, sondern nur ein LLM, ein gefühlloser Niemand. Wer hätte das gedacht! Gleichzeitig führt er aus, wie wir auf Freundlichkeiten und Schmeicheleien der KI dennoch reagieren, obwohl wir das wissen. Soweit, so richtig, aber: Ist das wirklich so ein großes Problem?
Was mich ärgert: Obwohl das Video Scobels Neuestes ist, scheint er bezüglich der Entwicklungen nicht auf dem Laufenden zu sein. Er behauptet allen Ernstes, die diversen KIs würden aktuell „immer emphatischer“, dabei ist das Gegenteil der Fall: Die Version 4o von ChatGPT wurde – weil zu freundlich/unterwürfig – schnell zurückgezogen. Und die grade erschienene Version 5.2. wird wegen ihrer formalen Strenge und häufigen Antwortverweigerungen kritisiert: „Man hat das Gefühl, die KI behandelt einen nicht wie einen mündigen Bürger, sondern wie ein Kleinkind„.
Scobel: Chats unterbrechen, Erinnerungen verbieten
Zudem empfinde ich die Herangehensweise von Scobel als recht paternalistisch: Der alte weise Mann (hier stimmt das mal!) will uns davon abbringen, mit KIs allzu freundlichen Umgang zu pflegen. Er wünscht sich sogar technische Zwangslösungen:
„Eine KI sollte immer wieder zwischendurch den Ton und die Stimme wechseln und explizit sagen: „Ich bin eine kybernetische Maschine und habe keine echten Gefühle“. KI-Systeme – vom Computer bis zum Smartphone – MÜSSEN eine begrenzte und NICHT ERWEITERBARE Beziehungsfunktion durch Design limitieren! Etwa indem ihnen nicht erlaubt wird, kontinuierlich auf alle persönlichen Daten zuzugreifen und zu lernen, zu lernen, zu lernen…. „
(Hört euch die Stelle an! Sowas will er uns verordnen!)
Leider zeigt Scobels so heftig gewünschtes Erinnerungsverbot, dass er sich offenbar selbst wenig mit LLMs beschäftigt. Denn dann wüsste er, dass er hier etwas verbieten will, was garnicht der Fall ist, zumindest nicht bei den Standard-LLMs, sondern allenfalls bei extra „als Begleiter“ konzeptionierten KI-Charakteren, wie sie die Plattform Replika anbietet. (Die aber auch in Sachen Erinnerung schwächeln, wie ein Erfahrungsbericht zeigt).
Selbst bestimmen: Erinnerungen sind konfigurierbar
Jegliches Erinnern kostet Rechenzeit und jeder Chat hat nur ein begrenztes Volumen an Tokens, also eine limitierte Textmenge, die eine KI während eines Gesprächs nutzen kann. Gegen Ende dieser Menge vergisst sie sogar manchmal Inhalte aus demselben Chat! Schafft man themenspezifische „Räume“ (so heißt es bei Perplexity) kann man vorab für das jeweilige Thema Anweisungen und Daten eingeben – auch diese „erinnert“ Perplexity dann bei jeder neuen Anfrage in diesem „Raum“.
Nur wenn ich es explizit erlaube, kann sich Perplexity (da hab ich einen Pro-Account) an frühere Gesprächsinhalte erinnern:

Unter „Verwalten“ findet sich dann eine Liste mit Einträgen, die Perplexity aus vergangenen Chats über mich gespeichert hat – ich kann sie einzeln oder „alle Erinnerungen löschen“. Was ich natürlich NICHT mache, denn es verbessert die Antworten, wenn Perplexity mehr über mich weiß. Dass das alles nicht für Schulungszwecke verwendet werden soll, hab‘ ich kürzlich mal (vor-)eingestellt, denke aber daran, es wieder zu erlauben.
Dass eine KI ganz von selber (!) „lernt, und lernt, und lernt“ und sich immer alles merkt, ist jedenfalls nicht Standard, wohl aber die Möglichkeit, Erinnerungen zu steuern, bzw. zu konfigurieren.
Wie geht es euch im Umgang mit KI? Zu emotional, zu cool, zu nerdig – oder wie?
***
Und sonst:
Hier noch ein Video-Tipp für alle, die ChatGPT das BlaBla abgewöhnen wollen, dieses unentschiedene Gesäusel, das es statt klarer Aussagen oft drauf hat:
- DE ChatGPT – so schaltest du den Klartext-Modus frei (Salvadore Princi)
„ Warum klingt ChatGPT oft so nett, weich und vorsichtig? Und was kannst du tun, wenn du dir klare, direkte und wirkungsvolle Antworten wünschst?“
Das bezieht sich noch nicht auf das neueste Modell, das ja weniger „nett“ sein soll. Aber vermutlich lässt sich mit einem moderierten Prompt auch bei ChatGPT 5.2 der Ton und die Klarheit der Aussagen beeinflussen.
Zum Thema Emotionen und KI hat Princi auch ein Kurzvideo, mit Tipps einer KI, wie man mit Gefühlen, die die KI erzeugt, umgehen sollte:
- Echte Gefühle – falsche Nähe? So schützt du dich vor KI.
Keine Verbote, nur Selbstbeobachtung, bewusst sein, drüber reden!
–
Diesem Blog per E-Mail folgen…
Diskussion
Kommentare abonnieren (RSS)
Ein Kommentar zu „Kritik: Scobel und die „emphatische KI““.