Beim «KI-Journalismus» tun sich viele Fragen auf

«Neural Times» ist eine News­site, die gegen po­li­ti­sche Vor­ein­ge­nom­men­heit und Po­la­ri­sie­rung vorgehen will, indem sie schein­bar ob­jek­tiv be­rich­tet – mittels KI. Ein Patent­re­zept oder eine Schein­lö­sung?

Ist das genial? Ist das bescheuert? Neuraltimes.org verspricht «unvoreingenommene Nachrichten und Journalismus» – und zwar mittels künstlicher Intelligenz.

Das funktioniert gemäss Beschreibung so:

«Neural Times» ist eine KI-gestützte Nachrichtenseite, die autonom Themen auswählt, recherchiert, schreibt und Nachrichten veröffentlicht. Als Pionier auf dem Gebiet des KI-Journalismus wollen wir politischer Voreingenommenheit und Polarisierung entgegenwirken, indem wir für jede Geschichte gleich viele Informationen aus linken, rechten und mittleren Quellen beziehen.

Klar, das ist gut gemeint. Die Polarisierung scheint sich zu vergrössern und Kompromisse immer mehr zu erschweren. Aber ist gut gemeint auch wirklich gut?

Die Startseite liefert zu jedem Artikel ein AI-generiertes Bild.

Das Rezept für Objektivität

Mir liegen diverse Gründe auf der Zunge, um das zu verneinen. Erstens kann man sich fragen, ob tatsächlich ein objektiver Bericht herauskommt, wenn man mehrere Quellen hernimmt und zu einem Text einkocht.

In manchen Fällen wird das vermutlich klappen – nämlich dann, wenn die Fakten unbestritten sind. Aber bei denen ist der Nutzen von «Neural Times» für uns Nutzerinnen und Nutzer gering: Die AI kann die Schlagzeile von Wertungen oder Clickbaiting befreien und kommentierende Passagen weglassen. Diese Leistung sollten wir allerdings selbst erbringen können: Zu erkennen, wo die Berichterstattung aufhört und die Meinung anfängt, zählt für mich zum Kern jener essenziellen Fähigkeit, die man Medienkompetenz nennt.

Was ist mit den alternativen Fakten?

Aber was, wenn die Fakten nicht übereinstimmen? Dann reicht es nicht, alle Variationen der Schilderungen nebeneinanderzustellen.

Stichwort False Balance: Denn besonders, wenn die Darstellungen widersprüchlich sind, sollten wir wissen wollen, was wahr und was falsch ist. Denn erinnern wir uns an Trumps Beraterin Kellyanne Conway und ihre alternativen Fakten: Sie hat so getan, als würden die gleichwertig nebeneinanderstehen. Doch das tun sie nicht – denn eine Schilderung ist wahr, die andere nicht.

Dass uns die KI in so einer Situation weiterhelfen kann, halte ich für nahezu ausgeschlossen. Denn auch wenn der Betreiber behauptet, die KI würde «recherchieren», tut sie das nicht: Dafür müsste sie auf Originalquellen zugreifen, allenfalls Leute befragen oder von sich aus beurteilen können, was plausibler ist und was nicht. Das ist aber selbst für Nachrichtenprofis und Leute mit hoher Medienkompetenz eine schwierige Sache – gerade wenn sich die Nachrichtenlage unübersichtlich ist.

Das ist schwieriger, als es aussieht

Der zu­sam­men­ge­wür­fel­te Artikel mit den Quel­len am Ende.

Damit eine KI bei Unvereinbarkeiten auch nur ansatzweise hilfreich wäre, müsste sie wissen, welche Stärken und Schwächen die einzelnen Medien haben, d.h. bei welchen Themen sie normalerweise kompetent berichten und bei welchen nicht. Bei schnellen Entwicklungen müsste sie einschätzen können, auf welchem Kenntnisstand eine Meldung beruht – was sich anhand des Datums der Veröffentlichung nur sehr bedingt sagen lässt. Und sie bräuchte Expertenwissen für sämtliche Themen, die es in die Medien schaffen.

Ein Artikel auf «Neural Times» verweist am Ende auf alle Quellen, die einbezogen wurden. Es gibt nach einzelnen Sätzen oder Absätzen Fussnoten mit Nummern, die auf die einzelnen Quellen verweisen.

Das ist eigentlich eine gute Idee – allerdings mit dem Problem, dass die Nummern nicht eindeutig mit einem Artikel korrespondieren. Wenn der Betreiber diese Schwäche beseitigen würde, dann würde ich die Website sogar empfehlen – zwar nicht als «Pionier auf dem Gebiet des KI-Journalismus», aber als Arbeitsmittel für medienkompetente Nutzerinnen und Nutzer, die eine schnelle Möglichkeit suchen, um sich zu jedweden Themen einen Überblick über die Berichterstattung zu verschaffen.

Das weckt zu hohe Erwartungen

Damit sind wir beim Fazit: Ich habe einige der Artikel gelesen und keine Ausrutscher entdeckt – aber auch kein Thema, bei dem ich mich signifikant besser informiert gefühlt hätte, als über meine angestammten News-Apps.

Ich fände «Neural Times» trotzdem ein gutes Angebot, wenn sich die Site als eine Art Portal für Presseschauen positionieren würde. Das hat seine Berechtigung. Was ich falsch finde, ist die implizite Behauptung, die KI sei objektiv.

Das ist naiv. Denn erinnern wir uns daran, dass KIs genauso ihre Vorurteile haben und nicht vor Bias gefeit sind. Der Output einer KI ist das Resultat ihres Inputs. Und da wir die KI nicht mit der ungefilterten Wahrheit füttern können, kann sie auch nicht Hüter der reinen Wahrheit sein.

Klar, die Betreiber gehen nicht so weit, das zu behaupten. Aber implizit stilisieren sie ihre Journalismus-KI zu einer Art Schiedsrichter, der weiterhilft, wenn sich die Menschen nicht einig sind. Aber das ist eine gefährliche Überhöhung, die wir unbedingt vermeiden müssen.

Beitragsbild: Das ist aus meinem Berufsstand geworden (Microsoft Image Creator zum Prompt «a robot as a journalist, with a notepad, pencil, a hat and a cigarette in the mouth, standing in front of the capitol, taking notes»).

Kommentar verfassen