Wie nicht anders zu erwarten war, begegnen uns KI-Bilder inzwischen auf Schritt und Tritt. In den sozialen Medien werden sie seltenst deklariert, sondern meist als echt ausgegeben. So manipulativ das auch ist, tut namentlich Facebook nichts dagegen.
Wir sind auf uns selbst gestellt: Eine Hilfe beim Umgang mit diesem Problem sind Detektoren wie sightengine.com: Das ist eine Lösung für die Content-Moderation. Sie kümmert sich nicht nur um die künstliche Intelligenz, sondern auch Anstössiges in diversen Ausprägungen: Die Software erkennt Nacktbilder, Gewalt, Waffen, Drogenmissbrauch, Hasssymbole wie Hakenkreuze, Kriegsbilder und ähnliche Dinge.
Content-Moderation im grossen Stil
Die Nutzung erfolgt normalerweise über eine Schnittstelle (API). Der Hauptzweck von Sight Engine besteht darin, auf einer Plattform mit User Generated Content zu prüfen, was dort so hochgeladen wird. Aber Tests lassen sich auch manuell durchführen, d.h. indem wir einzelne Bilder hochladen und prüfen lassen. Mit einem Gratisaccount sind bis zu 2000 Operationen pro Monat oder 500 pro Tag möglich; die Bezahl-Abos starten ab 29 US-Dollar.
Manuell lässt sich insbesondere der KI-Dektektor benutzen. Die Software gibt die Wahrscheinlichkeit in Prozent an, mit der ein Bild KI-generiert wurde. Falls ein Bild als künstlich generiert erkannt wird, erhalten wir auch einen Hinweis darauf, welcher Generator mutmasslich eingesetzt wurde.
Das sind einige der Beispiele, die ich getestet habe:

Bei diesem Beispiel bin ich sicher, dass es von KI generiert wurde – ich habe es nämlich selbst erstellt. Die Zuweisung – Stable Diffusion – ist korrekt.

Das ist eines dieser Bilder, das einem auf Facebook inzwischen andauernd begegnet. Es sieht nicht wirklich echt aus, ist aber auch nicht auf den ersten Blick als «fake» zu erkennen.
Doch die Software ist sich sicher: Falsch; und mit Google Imagen erzeugt.

Noch ein Beispiel von Facebook: Der hier besprochene schillernde Eisberg. Hier könnten wir es auch mit einer klassischen, per Photoshop ausgeführten Manipulation zu tun haben. Doch der Detektor ist sich sicher, dass hier KI zum Einsatz kam. Welches Produkt es war, ist nicht eindeutig. Reve war mir bislang nicht bekannt, aber hier lässt sich dieser Generator ausprobieren.

Dieses Beispiel ist eines, mit dem ich es im wahren Leben zu tun bekommen habe. Es ist bzw. war im Katalog der Bildagentur Getty aufzufinden, war dort aber nicht als KI-generiert gekennzeichnet. Inzwischen ist es verschwunden. Das ist als Zeichen dafür zu werten, dass die Agentur zum gleichen Schluss gekommen ist wie Sight Engine.

Das hier ist ein echter Grenzfall: Es handelt sich um das per KI-generierte Wahlplakat der FDP: Das Motiv ist unecht, das Foto des Plakats hingegen schon. Was erwarten wir in so einem Fall von einem Detektor? Aiornot.com hat es bei meinem Test als falsch erkannt, was meinen Erwartungen entspricht. Allerdings kann es sein, dass beim Abfotografieren des Motivs gewisse Merkmale, die für die Erkennung wichtig sind, verloren gehen.
Sorgfalt ist gefragt!
Das zeigt uns klar die Limite der automatischen Detektoren auf: Auch wenn ein Bild als authentisch bezeichnet wird, muss es das nicht unbedingt sein. Es bleibt dabei, dass nur Bilder aus einer vertrauenswürdigen Quelle unser volles Vertrauen geniessen dürfen.
Fazit: Toll, dass es solche Anwendungen gibt. Aber es ist völlig unmöglich, jedes Bild, das uns in den sozialen Medien oder sonst irgendwo begegnet, überprüfen zu lassen. Es bleibt uns nichts anderes übrig, als den inneren Dektektor für künstliche Intelligenz zu schulen. Eine App wie Sight Engine bemühen wir in Zweifelsfällen oder dann, wenn es wirklich darauf ankommt.
Für alle, die selbst Bilder publizieren, ergibt sich zwingend ein höchst sorgfältiger Umgang mit Bildern: Wir müssen uns bewusst sein, dass wir unser Vertrauen aufs Spiel setzen, wenn uns ein KI-Bild ohne Deklaration durchrutscht. Darum gehört zur Medienkompetenz heute nicht nur ein gut geschulter innerer KI-Detektor, sondern auch Kenntnisse von Hilfsmitteln wie Sight Engine.
Beitragsbild: Dieses Motiv ist natürlich KI-generiert. Es stammt von ChatGPT 40. Funfact am Rand: Als ich die KI aufgefordert habe, die Kopie der Hinterteile weniger menschlich, sondern mehr roboterhaft zu machen, wurde die Erzeugung mit Hinweis auf die Richtlinien abgebrochen.
Ich staune über die Zuverlässigkeit. Der Test lässt sich nicht durch einfache Manipulationen wie „Rauschen hinzufügen“ oder „1 Grad drehen“ beeinflussen. Das Titelbild wird immer als generiert erkannt.