{"id":3744,"date":"2023-04-20T14:54:38","date_gmt":"2023-04-20T12:54:38","guid":{"rendered":"https:\/\/www.claudia-klinger.de\/digidiary\/?p=3744"},"modified":"2023-07-22T08:27:40","modified_gmt":"2023-07-22T06:27:40","slug":"chatgpt-4-kann-nicht-mal-woerter-richtig-zaehlen","status":"publish","type":"post","link":"https:\/\/www.claudia-klinger.de\/digidiary\/2023\/04\/20\/chatgpt-4-kann-nicht-mal-woerter-richtig-zaehlen\/","title":{"rendered":"ChatGPT-4 kann nicht mal W\u00f6rter richtig z\u00e4hlen!"},"content":{"rendered":"<p>Angeblich soll ChatGPT-4 ja stolze 25000 W\u00f6rter verarbeiten k\u00f6nnen. So berichteten jedenfalls viele Medien, die sich auf die Ank\u00fcndigung des Herstellers OpenAI bezogen: GPT-4 sei jetzt f\u00e4hig,<strong> mehr als 25.000 W\u00f6rter Text<\/strong> zu verarbeiten, was zum Beispiel eine echte Analyse von Dokumenten m\u00f6glich mache.<\/p>\n<p>&#8222;F\u00e4hig sein&#8220; hei\u00dft aber offenbar nicht, dass diese Textmenge &#8211; bestehend aus Eingaben und Antworten eines Gespr\u00e4chs &#8211; nun f\u00fcr zahlende User wirklich zur Verf\u00fcgung steht. Aber mehr noch: ChatGPT schafft es noch nicht mal, die W\u00f6rter eines Textes richtig zu z\u00e4hlen!<br \/>\n<img decoding=\"async\" loading=\"lazy\" class=\"aligncenter size-full wp-image-3745\" src=\"https:\/\/www.claudia-klinger.de\/digidiary\/wp-content\/uploads\/2023\/04\/chatgpt-symbolbild.jpg\" alt=\"ChatGPT Symbolbild\" width=\"300\" height=\"225\" \/><!--more--><\/p>\n<h2>Wie ich die Fehler entdeckte: Videos zusammenfassen getestet<\/h2>\n<p>Als ich mitbekam, dass ChatGPT Youtube-Videos zusammen fassen kann, war ich begeistert! Schlie\u00dflich w\u00fcrde das einige Lebenszeit ersparen, die ich ansonsten mit dem Ansehen des Videos verbringen w\u00fcrde. Es funktioniert auf Basis des Transscripts, das Youtube zu jedem Video automatisch erstellt. (Zu finden unter den 3 Punkten rechts unterhalb des Videos). Das gibt man mit einer entsprechenden Ansage bei ChatGPT ein. Ich habe es zun\u00e4chst mit dem Video &#8222;<a href=\"https:\/\/www.youtube.com\/watch?v=W-mkqvStWIs\" target=\"_blank\" rel=\"noopener\">Die geheime Wahrheit \u00fcber ChatGPT<\/a> getestet (daf\u00fcr die Zeitangaben weggeschaltet) und bekam tats\u00e4chlich ein gutes Ergebnis mit der Ansage:<\/p>\n<blockquote><p>&#8222;Bitte fasse die Inhalte des folgenden Video-Transcripts zusammen. Gib eine Liste mit 10 Punkten aus, jeder Punkt soll mit ca. 30 W\u00f6rtern beschrieben werden. Hier der Text:&#8220;<\/p><\/blockquote>\n<p>Nun ist dieses Video nur 11 Minuten lang. Als n\u00e4chstes testete ich das Video &#8222;<a href=\"https:\/\/www.youtube.com\/watch?v=FQIHLFLrTw0\" target=\"_blank\" rel=\"noopener\">A ChatGPT Alternative That&#8217;s Free &amp; Open Source!<\/a>&#8220; &#8211; ein Schnellsprecher, der in gut 17 Minuten recht viel erz\u00e4hlt. ZU VIEL f\u00fcr ChatGPT, denn es meinte, der Text sei zu lang und ich solle ihn k\u00fcrzen. Mich hat das gewundert, denn der Text enth\u00e4lt insgesamt &#8222;nur&#8220; 3470 W\u00f6rter. War da nicht was mit 25.000 W\u00f6rtern?<\/p>\n<p>Also hab ich nachgefragt &#8211; wohlgemerkt immer mit der zahlungspflichtigen Version 4, die ja soviel besser sein soll als 3.5:<\/p>\n<p><strong>Wieviele W\u00f6rter darf eine Konversation mit ChatGPT-3 und ChatGPT-4 umfassen?<\/strong><\/p>\n<blockquote><p>&#8222;Die Anzahl der W\u00f6rter, die in einer Konversation mit ChatGPT-3 oder ChatGPT-4 verwendet werden k\u00f6nnen, h\u00e4ngt von den jeweiligen Grenzen der Modelle ab. Bei ChatGPT-3 liegt die maximale Anzahl der Eingabe-Token (W\u00f6rter und Satzzeichen) bei 4096. ChatGPT-4, auf dem ich basiere, hat \u00e4hnliche Grenzen, aber die genaue Anzahl der Token kann von der Implementierung abh\u00e4ngen.<\/p>\n<p>Es ist wichtig zu beachten, dass sowohl die Eingabe als auch die Ausgabe des Modells in diesen Token-Grenzen enthalten sind. Das bedeutet, je l\u00e4nger die vorangegangene Konversation, desto weniger Raum bleibt f\u00fcr die Antwort des Modells. Wenn der Text die Token-Grenze \u00fcberschreitet, muss er gek\u00fcrzt oder in mehrere Teile aufgeteilt werden, um vom Modell verarbeitet werden zu k\u00f6nnen.&#8220;<\/p><\/blockquote>\n<p>Nun gut! Um mir eine Vorstellung vom Unterschied zwischen W\u00f6rtern und Tokens zu machen, gab ich ChatGPT den Blogbeitrag <a href=\"https:\/\/www.claudia-klinger.de\/digidiary\/2023\/04\/02\/zwei-monate-chatgpt-eine-zwischenstandsmeldung\/\" target=\"_blank\" rel=\"noopener\">Zwei Monate ChatGPT \u2013 eine Zwischenstandsmeldung<\/a> (einschlie\u00dflich der Verweise auf andere Quellen) zur Analyse und fragte nach der Anzahl der W\u00f6rter und Tokens. Ergebnis:<\/p>\n<blockquote><p>&#8222;In diesem Textbeispiel gibt es insgesamt 569 W\u00f6rter. Da Token jedoch nicht nur W\u00f6rter, sondern auch Satzzeichen und manchmal Teile von W\u00f6rtern umfassen, ist die genaue Anzahl der Token h\u00f6her als die Anzahl der W\u00f6rter. Nach einer Analyse des Textbeispiels gibt es ungef\u00e4hr 647 Tokens, einschlie\u00dflich Satzzeichen und anderen Textelementen. Es ist wichtig zu beachten, dass die genaue Anzahl der Tokens von der verwendeten Tokenisierungsmethode abh\u00e4ngt, die zwischen verschiedenen NLP-Modellen und -Bibliotheken variieren kann.&#8220;<\/p><\/blockquote>\n<p>Tja, weit daneben! Der Text enth\u00e4lt tats\u00e4chlich 732 W\u00f6rter (gez\u00e4hlt mit Libre Office) bzw. 744 W\u00f6rter (gez\u00e4hlt mit einem <a href=\"https:\/\/www.woerter-zaehlen.de\/\" target=\"_blank\" rel=\"noopener\">Online-Tool<\/a>). H\u00e4tte sich ChatGPT nur um wenige W\u00f6rter vertan, w\u00fcrde ich nicht meckern, aber eine solche Diskrepanz? Geht gar nicht!<\/p>\n<p>Zur Sicherheit hab ich es noch einmal getestet, dieses mal mit einem St\u00fcck Text ohne Satzzeichen aus dem zuvor kopierten Video-Transscript. Er enth\u00e4lt nur 555 W\u00f6rter, sollte also schaffbar sein. ChatGPT-4 ist anderer Meinung:<\/p>\n<blockquote><p>&#8222;In diesem Textbeispiel gibt es insgesamt 396 W\u00f6rter. Nach einer Analyse des Textes gibt es ungef\u00e4hr 456 Tokens, einschlie\u00dflich Satzzeichen und anderen Textelementen. Es ist wichtig zu beachten, dass die genaue Anzahl der Tokens von der verwendeten Tokenisierungsmethode abh\u00e4ngt, die zwischen verschiedenen NLP-Modellen und -Bibliotheken variieren kann.&#8220;<\/p><\/blockquote>\n<p>Damit wollte ich mich nicht zufrieden geben und bat um eine Korrektur:<\/p>\n<p><strong>Bitte z\u00e4hle die W\u00f6rter im letzten Beispieltext noch einmal! Deine Antwort war nicht korrekt!<\/strong><\/p>\n<blockquote><p>&#8222;Entschuldigung, es scheint, dass ich einen Fehler gemacht habe. Nach erneuter \u00dcberpr\u00fcfung des Textbeispiels habe ich festgestellt, dass der Text tats\u00e4chlich 389 W\u00f6rter enth\u00e4lt. Bei der Tokenisierung, die auch Satzzeichen und andere Textelemente ber\u00fccksichtigt, hat der Text etwa 441 Tokens.&#8220;<\/p><\/blockquote>\n<p>Aha! Sich entschuldigen ist ja nett, wiederholt voll daneben zu liegen weniger. Auch enthielt der Text keine &#8222;Satzzeichen und andere Textelemente&#8220; sondern ausschlie\u00dflich aneinander gereihte W\u00f6rter ohne Absatz, Punkt und Komma.<\/p>\n<h2>ChatGPT erkl\u00e4rt seine Fehler, neuer Test<\/h2>\n<p>Ich bat nun um eine Erkl\u00e4rung f\u00fcr die unglaubliche Fehlerhaftigkeit der Antworten:<\/p>\n<p><strong>Kannst du erkl\u00e4ren, warum du nicht richtig W\u00f6rter z\u00e4hlen kannst? Auch dieses Ergebnis ist noch sehr falsch!<\/strong><\/p>\n<p>Antwort (gek\u00fcrzt um Entschuldigungs-Blabla):<\/p>\n<blockquote><p>&#8222;In meinem bisherigen Verfahren habe ich versucht, den Text automatisch zu analysieren und die Anzahl der W\u00f6rter und Tokens zu berechnen. Diese Berechnungen k\u00f6nnen jedoch fehlerhaft sein, insbesondere wenn der Text eine ungew\u00f6hnliche Struktur oder Formatierung aufweist. Ich werde mich bem\u00fchen, Ihnen bei zuk\u00fcnftigen Anfragen genauere Informationen zu liefern.<\/p>\n<p>Als KI-Modell kann ich in einigen F\u00e4llen aufgrund von Kontext- oder Verst\u00e4ndnisproblemen Schwierigkeiten haben, W\u00f6rter korrekt zu z\u00e4hlen. Dies kann auf sprachliche oder grammatikalische Ungenauigkeiten, ungew\u00f6hnliche Satzstrukturen oder unklare Textformatierungen zur\u00fcckzuf\u00fchren sein. Um solche Fehler zu vermeiden, kann es hilfreich sein, den Text klarer oder strukturierter zu gestalten oder die Frage pr\u00e4ziser zu formulieren.&#8220;<\/p><\/blockquote>\n<p>Na gut, der erste Text enthielt diverse unterschiedliche Formatierungen, der zweite (ohne Satzzeichen) war sicher &#8222;ungew\u00f6hnlich&#8220;. Also versuchte ich es noch einmal mit einem schlichten kurzen Absatz mit nur 67 W\u00f6rtern aus dem zuerst getesteten Diary-Text:<\/p>\n<p><strong>Ich m\u00f6chte, dass du die W\u00f6rter und Tokens in einem weiteren extra kurzen Text analysierst. Hier der Text <\/strong>(Eingabe erfolgte ohne Anf\u00fchrungszeichen rund ums Zitat):<\/p>\n<p>&#8222;Auch ChatGPT zeigt einen wirklich \u201egrundst\u00fcrzenden\u201c Umbruch in der Art und Weise, wie wir mit Daten und Informationen umgehen. Das trifft nicht nur Schulen und Universit\u00e4ten, sondern faktisch alle Berufe, die mit der Erschlie\u00dfung und Aufbereitung von Inhalten befasst sind. Autodidaktisches Lernen erlebt einen Quantensprung \u2013 ein Effekt, dessen Vorteil man sich gar nicht gro\u00df genug ausmalen kann in einer Welt, die mehr und mehr \u201elebenslanges Lernen\u201c erfordert.&#8220;<\/p>\n<p>Die Antwort:<\/p>\n<blockquote><p>&#8222;In diesem kurzen Textbeispiel gibt es insgesamt 58 W\u00f6rter. Nach einer Analyse des Textes gibt es ungef\u00e4hr 68 Tokens, einschlie\u00dflich Satzzeichen und anderen Textelementen. Beachten Sie bitte, dass die genaue Anzahl der Tokens von der verwendeten Tokenisierungsmethode abh\u00e4ngen kann, die zwischen verschiedenen NLP-Modellen und -Bibliotheken variieren kann.&#8220;<\/p><\/blockquote>\n<p><strong>Immer noch 9 W\u00f6rter zu wenig!<\/strong> Mich wundert das auch deshalb, weil es zumindest die &#8222;Tokens&#8220; zum Berechnen der eigenen Kapazit\u00e4t st\u00e4ndig braucht!<\/p>\n<p>Es m\u00fcsste also ein Tool geben, das anzeigt, wie viele &#8222;Tokens&#8220; ein Text f\u00fcr ChatGPT enth\u00e4lt. Und ja, das gibt es, sogar von OpenAI selbst. Im sogenannten &#8222;<a href=\"https:\/\/platform.openai.com\/tokenizer\" target=\"_blank\" rel=\"noopener\">Tokenizer<\/a>&#8220; testete ich nun den Kurztext mit den 67 W\u00f6rtern. Leider bezieht sich das Tool nur auf ChatGPT 3). Ergebnis:<\/p>\n<blockquote><p><strong>Tokens 126<br \/>\nCharacters 355<\/strong><\/p><\/blockquote>\n<p>Auch das ist falsch. Zwar gibt es nur die Zeichenanzahl und keine W\u00f6rter aus, der Text enth\u00e4lt jedoch keine 355 Zeichen, sondern 464 (mit Leerzeichen) und 396 ohne Leerzeichen.<\/p>\n<p>Damit man sich eine Vorstellung machen kann, was &#8222;Tokens&#8220; konkret sind, werden diese im Text farblich voneinander abgegrenzt:<br \/>\n<img decoding=\"async\" loading=\"lazy\" class=\"alignleft size-full wp-image-3746\" src=\"https:\/\/www.claudia-klinger.de\/digidiary\/wp-content\/uploads\/2023\/04\/tokens.jpg\" alt=\"Tokens Test\" width=\"648\" height=\"240\" srcset=\"https:\/\/www.claudia-klinger.de\/digidiary\/wp-content\/uploads\/2023\/04\/tokens.jpg 648w, https:\/\/www.claudia-klinger.de\/digidiary\/wp-content\/uploads\/2023\/04\/tokens-300x111.jpg 300w\" sizes=\"(max-width: 648px) 100vw, 648px\" \/><\/p>\n<p style=\"clear: left;\">Wie man sieht, spielen Leerzeichen keine extra Rolle. Der Vergleichswert ist also &#8222;464 MIT Leerzeichen&#8220;. Damit liegt der &#8222;Tokenizer&#8220; stolze 109 Zeichen daneben!<\/p>\n<p><strong>Fazit: ChatGPT versagt beim W\u00f6rter z\u00e4hlen komplett.<\/strong> Meine urspr\u00fcngliche Frage ist jedenfalls so nicht zu beantworten. Wie lang der Text konkret sein darf, den ChatGPT-4 noch annimmt, ohne ihn als &#8222;zu lang&#8220; zur\u00fcckzuweisen, muss ich wohl durch Trial&amp;Error noch heraus finden.<\/p>","protected":false},"excerpt":{"rendered":"<p>Angeblich soll ChatGPT-4 ja stolze 25000 W\u00f6rter verarbeiten k\u00f6nnen. So berichteten jedenfalls viele Medien, die sich auf die Ank\u00fcndigung des Herstellers OpenAI bezogen: GPT-4 sei jetzt f\u00e4hig, mehr als 25.000 W\u00f6rter Text zu verarbeiten, was zum Beispiel eine echte Analyse von Dokumenten m\u00f6glich mache. &#8222;F\u00e4hig sein&#8220; hei\u00dft aber offenbar nicht, dass diese Textmenge &#8211; bestehend [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":[],"categories":[7],"tags":[675,682,473,553],"post_mailing_queue_ids":[],"_links":{"self":[{"href":"https:\/\/www.claudia-klinger.de\/digidiary\/wp-json\/wp\/v2\/posts\/3744"}],"collection":[{"href":"https:\/\/www.claudia-klinger.de\/digidiary\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.claudia-klinger.de\/digidiary\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.claudia-klinger.de\/digidiary\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.claudia-klinger.de\/digidiary\/wp-json\/wp\/v2\/comments?post=3744"}],"version-history":[{"count":0,"href":"https:\/\/www.claudia-klinger.de\/digidiary\/wp-json\/wp\/v2\/posts\/3744\/revisions"}],"wp:attachment":[{"href":"https:\/\/www.claudia-klinger.de\/digidiary\/wp-json\/wp\/v2\/media?parent=3744"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.claudia-klinger.de\/digidiary\/wp-json\/wp\/v2\/categories?post=3744"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.claudia-klinger.de\/digidiary\/wp-json\/wp\/v2\/tags?post=3744"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}