Ein Mann kniet auf dem Rasen und streckt die Hand zu einem sitzenden, lächelnden goldenfarbenen Hund aus. Im Hintergrund sind Bäume und verschwommene Gebäude zu sehen.

Was tun, wenn ChatGPT spinnt? Vier (mässig wirksame) Methoden

Es ist kein riesiges Problem, aber es wirft eine in­te­res­san­te Frage auf: Mit welchen Metho­den führen wir Sprach­mo­del­le, die of­fen­sicht­li­chen Un­fug fa­bri­zieren, auf den Pfad der Tugend zurück?

Ist das ein Zeichen, dass ChatGPT damit beginnt, seine Persönlichkeit mittels Marotten auszugestalten? Oder haben wir es mit einem simplen «Bug» zu tun? Als normaler Anwender kann ich weder die eine noch die andere These beweisen. Aber es scheint glasklar, dass wir dieses Sprachmodell weiterhin als eine Software betrachten und ihr kein menschliches Bewusstsein unterstellen sollten.

Es geht um die seltsame Angewohnheit des Sprachmodells von OpenAI, Umlaute nicht mittels Trema (Ä, Ö, Ü) wiederzugeben, sondern als Digraph (Ae, Oe, Ue). Leute, die so alt sind wie ich, kennen diese Abart aus der Ära der Schreibmaschine, bei der es nur für die Kleinbuchstaben entsprechende Typen gab und die Versalien zusammengesetzt werden mussten.

Der «den heiligen Gral der Tastaturlayouts»

Im Computerzeitalter ist diese Methode überflüssig. Uns steht dank Unicode ein riesiger Zeichenvorrat zur Verfügung, und man kann bei den modernen Betriebssystemen die Tastatur so einstellen oder anpassen, dass sich beliebige Zeichen leicht tippen lassen. Wenn jemand das nicht tut, dann liegt entweder Schlendrian oder typografische Ignoranz vor. Oder die Person tut das aus aufgrund einer Entscheidung, um uns eine Botschaft zu übermitteln: «Hier ist ein Nonkonformist am Werk!» (Meiner Meinung nach wäre für diesen Zweck die gemässigte oder konsequente Kleinschreibung die effektivere Methode).

Letzte Möglichkeit: Man inszeniert sich als Nerd. Als solcher hat man sein Betriebssystem und seine Tastatur auf Englisch eingestellt, weil es sich leichter programmieren lässt. Einer bezeichnet das sogar als den heiligen Gral der Tastaturlayouts.

Chatverlauf mit Anleitung, korrekte Umlaute und «ss» statt «ß» zu verwenden. Text in Blasen mit klaren Anweisungen zum Gebrauch und Bestätigung.
«Nein, Herr Lehrer, ich werde nie wieder unartig sein!»

Nun, was ChatGPT angeht, sind wir uns wohl einig, dass er keine Finger hat und demzufolge auch keine Gedanken auf die passenden Einstellungen zur Eingabemethode zu verschwenden braucht. Meiner Beobachtung nach begann das Problem mit GPT 5. Die beiden Updates 5.1 und 5.2 lösten es nicht, sondern führten zu einer Verschlimmerung. Anscheinend bin ich nicht der einzige mit dem Problem. Bei Reddit finden sich ungefähr gleich viele Leute, die davon betroffen sind, wie solche, die das Phänomen nie zu Gesicht bekamen.

Vier Methoden, um ChatGPT auf den Pfad der Tugend zurückzubringen

Wie lässt sich das Problem lösen? Ich habe vier Dinge ausprobiert:

  • ChatGPT kassierte einen Zusammenschiss und die Aufforderung, mir gefälligst korrektes Deutsch abzuliefern.
    Erfolg? Vorerst minim. Schon bei der nächsten Antwort tauchten wieder Digraphe auf. Doch der Eindruck verfestigt sich, dass sie in der Gesamtzahl rückläufig sind. Eine Massregelung ist bei solchem Fehlverhalten auf alle Fälle einen Versuch wert!
  • Ich deponierte in den Einstellungen die explizite Aufforderung, auf korrekte Umlaute zu achten.
    Resultat: Gefühlt eine Verschlechterung. Es wirkt fast so, als ob die Thematisierung dieses Fehlverhaltens kontraproduktiv wäre.
  • Ich sah in den Erinnerungen nach, ob sich ChatGPT einen Unsinn gemerkt hat.
    Erkenntnis: Nein. Mit einer gewissen Verwunderung nehme ich zur Kenntnis, welche Erinnerungen ChatGPT über mich anlegte¹.
  • Zurückwechseln auf GPT 4o.
    Das hülfe, ist aber nicht in meinem Sinn. Ich möchte die Wahl des Modells nicht von einer Formalität abhängig machen. Da wechsle ich eher auf ein anderes Sprachmodell (Claude, Perplexity oder Gemini). Aber ungern, weil ich bei OpenAI fürs Pro-Modell bezahle.

Mit anderen Worten: Es handelt sich um ein Problem, das OpenAI lösen muss und das vermutlich durch ein Update irgendwann verschwinden wird. Ein unbefriedigendes Ende für einen banalen Blogpost?

Nein! Es gibt sogar gleich drei Erkenntnisse: Diese Sprachmodelle funktionieren grundsätzlich anders als ein klassisches Anwendungsprogramm. So komplex das ist, sind die Resultate – wenn man alle relevanten Parameter im Blick hat – reproduzierbar und durch konkrete Massnahmen zu beeinflussen. Die Sprachmodelle hingegen sind schwarze Kisten. Von aussen wirkt es oft so, als hätten sie ein Eigenleben. Darum …

  1. müssen wir verinnerlichen, dass die herkömmlichen Problemlösungsstrategien nicht mehr greifen.
  2. unterliegen wir der Gefahr, sie zu vermenschlichen. Weil es so wirkt, als hätten sie ein Eigenleben.
  3. machen wir das genaue Gegenteil: Wir rufen uns in Erinnerung, dass ChatGPT sich nicht exzentrisch aufführt, wie wir es von manchen lebenserfahrenen Mitmenschen kennen. Nein, jemand bei OpenAI hat Mist gebaut und müsste diesen Umlautfehler bereinigen.

Fussnoten

1) Eine dieser Erinnerungen:

Der Benutzer hat herausgefunden, dass das Zitat «Never trust a computer you can’t lift» bereits in der NZZ vom 8. September 1981 erwähnt wurde.

Das geht auf die Nachforschungen zu diesem Blogpost zurück.

Beitragsbild: ChatGPT (links) scheint an den Instruktionen nicht wirklich interessiert zu sein (Adam hilles, Unsplash-Lizenz).

Kommentar verfassen