Wie wärs mit einem völlig neuen Google?

Ein Hirn­gespinst oder eine Re­vo­lu­tion bei der Web­suche? Ein Vorschlag, wie Google seinen Page­rank beer­digen, die SEO-Trickser ein für alle Mal besiegen und endlich die qua­li­ta­tiv besten Resul­tate lie­fern könnte.

Ist Googles Suche noch zeitgemäss?

An dieser Frage ist, natürlich, die künstliche Intelligenz schuld. Ich will aber nicht darauf hinaus, dass wir künftig nur noch mit Chatbots diskutieren und die klassische Suchmaschine links liegen lassen. Das glaube ich nicht: Denn die herkömmliche Methode hat den Vorteil, unschlagbar schnell zu sein. Ein paar Begriffe sind ruckzuck getippt und die Liste mit den Resultaten erscheint in Bruchteilen von Sekunden. Eine Recherche mittels ChatGPT oder Copilot zu initiieren, ist um einiges langwieriger.

Nein, ich denke an die Methode, mit denen die Suchmaschine die Liste der Suchresultate aufbaut. Sie verwendet bekanntlich den Pagerank-Algorithmus. Er holt erst einmal nach Websites aus dem Index, die zu den Suchbegriffen passen. Dann gewichtet er die anhand der Links, die auf eine Seite verweisen. Die Idee ist, dass wichtige Websites viele Referenzen auf sich vorweisen können, unwichtige Websites hingegen nicht.

Das Problem mit der Manipulation

Dieser Mechanismus nimmt keinerlei inhaltliche Bewertung vor. Ob die Informationen stimmen, schön aufbereitet und leicht zugänglich sind, spielt überhaupt keine Rolle. Die Idee ist natürlich, dass sich die Qualität indirekt widerspiegelt, weil auf qualitativ hochwertige Informationen häufiger verlinkt wird als auf Schund.

Das stimmt in Kern natürlich, aber wie wir inzwischen leidvoll erfahren mussten, ist der Pagerank anfällig für Manipulation. Eine ganze Industrie lebt davon, die Bedeutung von Websites hochzujazzen, deren Betreiber sie für wichtiger halten, als sie tatsächlich sind. Ich habe hier im Blog immer mal wieder darüber geschrieben, was für Angebote ich von Leuten kriege, die in meinem Blog gern Backlinks zu ihren Auftraggebern platzieren würden (hier, hier, hier oder hier).

Hat er eine Ahnung, was uns Surferinnen uns Surfern gefällt?

Und ja, ich habe eine tiefe Abneigung gegen das Geschäft der Suchmaschinenoptimierung. Es ist nicht grundsätzlich unlauter, weil jeder im Netz das Recht hat, sich möglichst vorteilhaft zu präsentieren. Aber viele der SEO-Praktiken stammen nicht von Ehrenmännern und -frauen, sondern von Leuten, denen kein Trick zu dreckig ist.

Neulinge und Introvertierte haben es schwer

Das zweite und vielleicht noch grössere Problem besteht darin, dass ein guter Text erst einmal gefunden und verlinkt werden muss, damit er sich in den Resultaten einer Suchmaschine adäquat platzieren kann.

Das benachteiligt die Neulinge und die kleinen Webangebote – und die bescheidenen Leute. Stellen wir uns einen Blogger vor, der mit Herzblut die tollsten Sachen ins Netz schreibt, aber keinerlei Lust verspürt, damit in den sozialen Medien hausieren zu gehen. Wie sollten dessen Perlen Popularität erlangen? Über die Suchmaschinen gelingt das jedenfalls nicht, weil Googles Pagerank sein Blog für irrelevant hält.

Stellen wir uns vor, dass sich der KI-Bot einer Suchmaschine quer durchs Netz pflügt und sich auch diese unbekannten Websites vornimmt: Wenn sie in der Lage wäre, diese verborgenen Perlen als solche zu erkennen, dann könnte diesem Blog in den Suchresultaten die Bedeutung zukommen, die ihm auch gebührt.

Wie lässt sich Qualität bemessen?

Mir ist das Problem an dieser Idee schon bewusst: Das ist natürlich die Frage, ob es einen absoluten Massstab für Qualität geben kann, auf den sich alle einigen können.

Wenn wir darüber nachdenken, fallen uns als erstes all die Dinge ein, die die KI nicht berücksichtigen darf: die politische Ausrichtung, weltanschauliche Dinge, ob diese oder jene Meinung vertreten wird und die Sachlichkeit. Ja, nicht einmal der Wahrheitsgehalt taugt als Unterscheidungsmerkmal, denn wir wollen auch nach Märchen, nach Science-Fiction und nach Lügengeschichten googeln können.

Andererseits ist es natürlich so, dass die meisten von sich durchaus zutrauen, einen Text zu beurteilen. Uns fällt auf, ob er sorgfältig verfasst wurde, ob er seinem Thema gerecht wird, wie sehr er in die Tiefe geht und ob er um Originalität bemüht ist oder das wiederkäut, was andernorts schon besser und schöner vermittelt wurde. Und auch Lehrerinnen und Lehrer fühlen sich befähigt, für einen Aufsatz eine Note zu vergeben, auch wenn natürlich unbestreitbar ist, dass diese Note je nach Person höchst unterschiedlich ausfallen kann.

Die Versuchsanordnung

Das Schöne an einer KI ist, dass wir uns über derlei Kriterien keine Gedanken zu machen brauchen. Der Zauber des maschinellen Lernens besteht darin, dass keiner eine Ahnung hat, wie es eigentlich funktioniert.

Also, stellen wir uns eine Testgruppe vor, die sich aus Menschen von allen Kontinenten und Ländern zusammensetzt und die nach allen Regeln der Kunst divers aufgestellt ist. Wenn diese Gruppe als repräsentativ für die Internet-Anwenderschaft gelten dürfte, dann könnte die doch eine Beurteilung einer repräsentativen Auswahl von Texten und Websites aus dem Internet vornehmen und so das Datenmaterial bereitstellen, mit dem sich diese Suchmaschinen-Indizierungs-KI dann trainieren liesse – oder nicht?

Natürlich müsste sichergestellt sein, dass Leute nur Inhalte beurteilen, mit denen sie grundsätzlich etwas anfangen können. Ich zum Beispiel sollte nicht als Juror von Sport-Plattformen oder einem Shop für Gartenzubehör fungieren.

Lassen sich die Qualitätsansprüche aller Surferinnen und Surfern auf einen Nenner bringen?

Apropos Shop: Bei denen liegt es auf der Hand, dass wir deren Qualität nach Kriterien wie dem Sortiment und den Lieferbedingungen beurteilen möchten. Genauso klar ist, dass die KI das nicht zu leisten vermag. Nur ein Mensch kann solche Urteile abgeben, nachdem er reale Shopping-Erfahrungen gesammelt hat. Was sich aber direkt erfassen liesse, wäre der erste Eindruck, also vertrauenswürdig, einladend und zugänglich das Angebot wirkt.

Leg los, Google!

Fazit: Ich habe keine Ahnung, ob dieser Ansatz ein völliges Hirngespinst ist oder eine Revolution in der Websuche bewirken könnte. Beim KI-Journalismus fand ich, dass einer künstlichen Intelligenz die Rolle des Schiedsrichters nicht zusteht. Aber dass sich das, was uns an einer «guten» Website gefällt, in wiedererkennbaren Mustern äussert – das kann ich mir schon vorstellen.

Beitragsbild: Die Startseite könnte bleiben – aber was hinter der Eingabemaske passiert, hat Verbesserungspotenzial (Firmbee.com, Unsplash-Lizenz).

One thought on “Wie wärs mit einem völlig neuen Google?

  1. Eine schöne Idee. ChatGPT & Co. lassen sich gut für SEO einsetzen. Man kann Texte mit Blabla strecken und Zwischenüberschriften generieren lassen. Das hat kürzlich der Marketingverantwortliche eines Kunden, eine Metallbaufirma, entdeckt. Die SEO-Tools sind begeistert, Google wird es auch sein. Aber für Menschen sind die Texte schwerfällig zu lesen, sie enthalten zu viel Ballast.

    Ich habe ihn dann gefragt, ob er seine Website nicht lieber für seine (potenzielle) Kundschaft als für Suchmaschinen optimieren möchte. Die Zielgruppe sind Menschen, nicht Maschinen.

    Gegen SEO im Sinne von „Inhalte maschinell extrahierbar machen“, also Titel als h1, sinnvolle Gliederung, Text als Bildunterschrift und nicht -inhalt etc. habe ich selbstverständlich nichts. Das kommt auch Menschen mit Sehschwäche zugute.

    Überlange Einleitungen, sinnlose Zwischenüberschriften (Hauptsache, der Suchbegriff kommt vor) etc. sind eine Plage.

    Wenn solche Praktiken wie von Dir vorgeschlagen durch menschliches Trainingsmaterial bestraft werden könnten, wäre viel erreicht.

    Es gibt KI, die mit KI geschriebene Texte erkennt. Diese könnte man einsetzen, um gestreckte Texte abzuwerten. Jedenfalls so lange, bis die KI Texte so generiert, dass sie nicht mehr erkannt werden…

Kommentar verfassen