Wie sich KI-Bilder enttarnen lassen

Wie lässt sich fest­stel­len, ob ein Bild oder eine Audio­da­tei von einer KI gene­riert worden ist? Im Test er­weist sich aiornot.com als treff­si­cher. Doch es gibt Grenzen – und darum lohnt es sich, das eige­ne Auge zu schulen.

Wie lassen sich KI-generierte Inhalte erkennen? Bei den Texten ist die Sache weitgehend aussichtslos, habe ich vor gut einem Jahr festgestellt¹.

Doch bei Bildern sollte ein solcher Detektor mehr Aussicht auf Erfolg haben. Denn er muss seine Einschätzung nicht bloss anhand von ein paar Worten treffen. Er hat stattdessen ein ausgearbeitetes Motiv mit vielen Pixeln zur Verfügung.

Auf aiornot.com gibt es einen solchen automatischen Detektor². Ich habe ihn einer Prüfung unterzogen und bin verhalten positiv gestimmt: Bei meinen Stichproben war die Beurteilung in allen Fällen richtig.

Erst habe ich Aiornot klare Fälle begutachten lassen:

  • Eine Aufnahme, die auch für Menschen klar als echtes Foto erkennbar ist: das Beitragsbild hier.
  • Eine authentische Fotografie, bei der ich neulich auf den ersten Blick dachte, es handle sich um ein KI-Bild (Beitragsbild).
  • Eine KI-Illustration (Beitragsbild).
  • Und noch eine KI-Illustration in einem minimalistischen Stil (Beitragsbild).
Zwei Fälle, bei denen man auch als Mensch genauer hinschauen muss.

Den letzten Fall halte ich für den kniffligsten: Es handelt sich um eine Strichzeichnung mit etwas Kolorierung, die nicht sehr viele Anhaltspunkte gibt. Trotzdem ist das Verdikt eindeutig und korrekt: Es handelt sich um das Werk einer künstlichen Intelligenz.

Wie steht es mit Mischformen?

Ich habe noch einige weitere Beispiele getestet:

  • Ein Bild von Getty, das nicht als KI ausgewiesen wird, aber zu poliert ausschaut, um echt zu sein. Die Schärfentiefe ist für eine Makroaufnahme eigentlich zu gross; mit Fokus-Stacking würde man das vielleicht hinbekommen. Aber vermutlich nicht bei einem fleissigen Bienchen.
  • Ein Foto von Keystone-SDA eines KI-generierten Plakats, das in einem echten Pressefoto vor einer authentischen Umgebung steht – also ein KI-Foto-Hybrid.

Beim ersten Bild geht Aiornot mit mir einig: Es handelt sich um KI; aber eindeutig wissen wir es beide nicht.

Beim zweiten hängt es vom Zuschnitt ab: Das Bild als Ganzes wird als «likely human» beurteilt. Wenn ich die Aufnahme aufs Plakat beschneide, ändert sich das Urteil zu «likely AI generated».

Das gleiche Bild, zwei Urteile – und beide korrekt.

Damit erhalten wir eine Vorstellung davon, wo die Grenzen dieses Tools verlaufen könnten: Bei Mischformen aus KI und echten Fotos stösst es an seine Grenzen. Wenn eine Aufnahme durch elaborierte KI-Methoden wie das Inpainting (Austausch einzelner Bildpartien) und Outpaintig (Vergrössern des Bildausschnitts) verändert wurde, lässt sich das unter Umständen nicht feststellen.

Vier abschliessende Bemerkungen:

1) Wie arbeitet Aiornot?

Natürlich funktioniert Aiornot selbst mit KI. So beschreibt der Hersteller die Funktionsweise:

AI or Not verwendet fortschrittliche Algorithmen des maschinellen Lernens, um Bilder zu analysieren und Anzeichen für die Erzeugung von KI zu erkennen. Unser Dienst vergleicht das Eingabebild mit bekannten Mustern, Artefakten und Merkmalen verschiedener KI-Modelle und von Menschen erstellter Bilder, um den Ursprung des Inhalts zu bestimmen.

Klar, wie würde man es auch sonst tun? Interessieren würde mich, wo der Hersteller selbst die Grenzen seines Tools verortet.

2) Aiornot kann auch Audio

Mit der Website lassen sich nicht nur Bilder, sondern (theoretisch) auch Audiodateien überprüfen. Ich habe es mit meinen Demo-Dateien von Eleven­labs probiert, aber leider gab es dabei keine Analyse, sondern nur eine Fehlermeldung. Generell scheint Aiornot ein Stabilitätsproblem zu haben.

3) Was kostet es?

Die Preisgestaltung ist einigermassen seltsam. Der Preisplan Base kostet fünf US-Dollar im Jahr, das Pro-Abo ist dann gleich fünfzigmal so teuer (250 US-Dollar). Mit dem billigen Zugang darf man hundert Bilder analysieren, mit dem teuren 10’000. Warum keine Abrechnung nach effektiver Nutzung?

Zahlende Kunden erhalten einen ausführlichen Report, in dem (mutmasslich) auch einige Anhaltspunkte für das Urteil aufgeführt werden. Als Gratisnutzer kann ich dazu aber leider nicht mehr sagen.

4) Wie schule ich meinen eigenen Blick?

Ein solches Tool sollte uns nicht davon abhalten, unseren eigenen Blick für KI-Bilder zu schulen. Eine Anleitung dazu finden wir z.B. bei «PC Mag». Die Tipps und Anzeichen aus diesem Beitrag:

  • Wenn bei aktuellen Bildern Zweifel besteht, sollten wir eine Rückwärts-Bildersuche z.B. mittels Google Image durchführen.
  • Artefakte sind oft ein Anzeichen für KI. Das können banale Bildstörungen sein, aber auch Details, die in der wirklichen nicht vorkommen. Die Klassiker: Eine falsche Anzahl Finger oder Arme, Glieder, die anatomisch nicht korrekt mit dem Körper verbunden sind oder Extremitäten in der falschen Länge.
  • KI-Bilder sind oft zu glattgebügelt.
  • Und Details stimmen nicht: Der eine Ohrring passt nicht zum anderen.

Und auch der Blick aufs ganze ist wichtig: Wirkt das Bild in sich stimmig und authentisch, oder hat es diese schwer zu beschreibende, seelenlose Qualität?

Fussnoten

1) Allerdings muss ich auch hier vielleicht auf den Test zurückkommen. Ein erster Eindruck von hivemoderation.com ist nämlich erstaunlich positiv.

2) Ich habe auch die Bilder-Funktion von Hivemoderation getestet, hatte bei der aber nicht ganz so gute Resultate. Bei den eindeutigen Fällen lag sie ebenfalls richtig, doch bei den Mischformen war sie nicht so erfolgreich.

Beitragsbild: Kommt eine KI in ein Museum … (Dall-e 3)

Kommentar verfassen