Eine KI, die sich von KIs einwickeln lässt

AI Detektor gibt eine Einschä­tzung ab, ob ein Text von einem Menschen oder einem Chat­roboter ver­fasst worden ist. Ein Test ergibt – ja, genau das, was ihr jetzt vermutet.

Neulich habe ich auf meinen Artikel Wenn der Chatbot flucht und lügt die Aufforderung erhalten, mich mit AI Detektor zu beschäftigen. Denn im Artikel geht es um die Notwendigkeit, künstlich erzeugte Texte zu erkennen. Das entpuppt sich immer mehr als entscheidendes Kriterium, das uns hilft, einen Text einzuordnen und zu entscheiden, wie weit wir ihm vertrauen dürfen.

Und ja, natürlich: Manchmal sind es Menschen, die Blödsinn schreiben – und gelegentlich ist das, was eine KI von sich gibt, richtig und wichtig. Aber es bleibt dabei, dass viele Menschen zwischen wahr und falsch unterscheiden können und einen moralischen Kompass miteinbeziehen, während die KI statistisch operiert und das von sich gibt, was sie als wahrscheinlichste Aussage erachtet.

Die Zeit nicht mit ChatGPT-Ergüssen verschwenden

Es gibt einen weiteren Aspekt; nämlich eine klare Hierarchie bezüglich der Auswahl der Lektüre: Ich möchte lieber Texte von Menschen als von Maschinen lesen. Das heisst nicht, dass ich KI-Werke grundsätzlich ablehne; aber ich würde sie doch vor allem im Bereich der «Gebrauchstexte» goutieren – also Produktbeschreibungen, Zusammenfassungen und ähnliche Dinge. Bei Inhalten, die mich informieren, aufklären oder unterhalten sollen, will ich meine Zeit nicht mit einem ChatGPT-Erguss verschwenden.

Stellt sich die Frage: Vermag AI Detektor zu halten, was er verspricht?

Gretchen, wie hältst du es mit der künstlichen Intelligenz?

19 Prozent vermutete maschinelle Mitwirkung bei einem Blogpost, den ich allein geschrieben habe.

Ich wage einen Versuch mit einer Passage aus einem meiner Blogposts. Der Algorithmus errechnet eine Prozentzahl von 19 – ohne, dass dafür eine Masseinheit angegeben wäre. Ich nehme an, dass die Zahl den «Künstlichkeitsgrad» angibt: Je höher, desto grösser der Anteil eines Sprachsystems. Stimmt das Urteil? Da mein Text ganz ohne KI zustande gekommen ist, sollte die Anzeige bei null Prozent stehen. Aber die Hauptaussage, «menschlich» ist korrekt.

Falsch – das ist das alleinige Werk von Bing.

Ein zweiter Versuch erfolgt anhand einer Passage, die Bing Chat ausgespuckt hat. Es handelt sich um eine der Antworten, die ich in meinem Blogpost zu der Frage, wie sich gut Microsofts Bot bei der Behandlung von Computerproblemen schlägt.

Die Antwort hier: Ein Prozent, lautet das Urteil: also komplett menschlich. Was ein kompletter Blödsinn ist.

Dass das ein maschinelles Transskript ist, erkennt AI Detector nicht.

Ein dritter Versuch: Ich verwende ein Transkript aus einer unserer Nerdfunk-Sendungen. Das ist von Haus aus ein Grenzfall: Einerseits ist es ein menschliches Erzeugnis. Der Inhalt stammt von Menschen; doch der Text selbst ist anhand eines Audiosignals maschinell gefertigt. Und da das Original in Züritütsch vorliegt, die Transkription aber in Standardsprache abgefasst ist, handelt es sich eindeutig um ein Gemeinschaftswerk: Die Nadel müsste in der Mitte bei Mix zu stehen kommen.

Das tut sie aber nicht: AI Detektor positioniert die Nadel ganz links. So eindeutig, dass ich das nur als falsch bezeichnen kann.

Das heisst, bei zwei von drei Versuchen liegt AI Detektor daneben. Und der Text mit der höchsten Prozentzahl – also derjenige, bei dem diese App die höchste KI-Beteiligung vermutet –, ist der einzige, der vollständig von einem Menschen geschrieben wurde. Damit bleibt nur ein Schluss: AI Detektor ist unbrauchbar.

Eine fast unlösbare Aufgabe

Mich überrascht das nicht: Ich stelle infrage, dass eine solche Feststellung überhaupt möglich ist. Denn wir Menschen können das auch nicht – und schon gar nicht anhand von zwei, drei Sätzen. Denn anhand der rein sprachlichen Merkmale ist das meines Erachtens gar nicht möglich. Bei einem längeren Text gibt uns ein stringenter Stil, kontinuierlicher Rhythmus und eine klare, folgerichtige Argumentationslinie ein Gespür für den Autor, der bei einem KI-Text nicht fassbar wird. Denn KIs produzieren Inhalte, die ich in Ermangelung eines besseren Worts als seelenlos beschreiben würde.

Es gibt auch eine ironische Seite: Wir versuchen hier mit KI ein Problem zu lösen, dass wir uns mittels KI eingebrockt haben. Und besonders ironisch ist, dass wir dabei eigentlich nicht um die philosophische Frage herumkommen, wie eine Maschine etwas Menschliches erkennen soll, wo es ihr Kernmerkmal ist, dass sie uns Menschen nicht versteht, sondern bloss imitiert. Das ist reichlich absurd.

Es bräuchte eine Art Ehrenkodex, dass KI-Texte entsprechend deklariert werden. Und klar, da sich viele von vornherein nicht an eine solche Deklaration halten würden, kann man die Idee sogleich wieder in die Tonne klopfen. Meine grösste Hoffnung ruht darauf, dass viele von uns eine Art sechsten Sinn für solche KI-Werke entwickeln werden – genauso, wie manche schon fünf Kilometer gegen den Wind erkennen, wenn ein Bild mit Photoshop aufgemotzt worden ist.

Beitragsbild: So, alles da zum Einwickeln (Önder Örtel, Unsplash-Lizenz).

Kommentar verfassen