Ranking im AI-Mode & ChatGPT?
Wie Webseitenfaktoren die Zitierwahrscheinlichkeit durch Large Language Models beeinflussen
Eine Analyse aktueller SE Ranking-Daten zu ChatGPT und Google AI Mode
In einer aktuellen Untersuchung von SE Ranking wurde analysiert (Veröffentlichung von Mike Korenugin auf LinkedIn), welche Webseitenfaktoren den größten Einfluss darauf haben, ob Inhalte von Large Language Models (LLMs) wie ChatGPT oder dem Google AI Mode zitiert werden. Die Ergebnisse liefern spannende Einblicke in die Schnittstelle zwischen klassischer SEO und generativer KI und zeigen, dass sich die Gewichtung einzelner Metriken zwischen den beiden Systemen deutlich unterscheidet.
Quelle: Mike Korenugin auf LinkedIn
1. Backlink-Profil bleibt der dominierende Faktor
Sowohl bei ChatGPT als auch beim Google AI Mode zeigt sich: Der Gesamtumfang der verweisenden Domains ist der mit Abstand wichtigste Einflussfaktor.
- Bei ChatGPT liegt der SHAP-Wert bei 1.21,
- beim Google AI Mode bei 0.63.
Websites mit einer breiten und qualitativ hochwertigen Backlink Struktur haben signifikant höhere Chancen, in Antworten von LLMs als Quelle genannt oder paraphrasiert zu werden. Auffällig ist jedoch, dass ChatGPT diesen Faktor fast doppelt so stark gewichtet wie Google AI. Das legt nahe, dass ChatGPT stärker auf klassische Domain Autorität (Domain Trust, Linkanzahl) setzt, während Google AI offenbar eine breitere Signallandschaft nutzt.
2. Domainweite Autorität und Vertrauen als Sekundärsignale
Beide Modelle bewerten Domainweite Kennzahlen wie Domain Trust und Page Trust ebenfalls als relevante, aber weniger dominante Signale. Diese Werte deuten darauf hin, dass Markenreputation und technische Vertrauensfaktoren (z. B. Sicherheit, Stabilität, Indexqualität) eine Rolle spielen – jedoch primär ergänzend zur Linkbasis.
3. Google AI berücksichtigt mehr Inhalts- und Kontextsignale
Während ChatGPTs Ranking stärker auf Backlink-Metriken fokussiert, integriert der Google AI Mode deutlich mehr Inhaltsbezogene Faktoren:
- Content-Length (Anzahl der Wörter im Hauptinhalt)
- Content-Freshness (Datum der letzten Aktualisierung)
- Semantic Relevance (z. B. zur URL oder Meta Description)
- Presence in SERP (Top10 Ergebnisse)
Diese Variablen deuten auf ein Modell hin, das semantische Qualität und Aktualität höher bewertet - vermutlich, weil Googles System auf Live-Index Daten zurückgreifen kann, während ChatGPT meist auf statischeren Datensätzen operiert.
4. Nutzersignale und UX-Metriken spielen nur eine Nebenrolle
Metriken wie Interaction to Next Paint (INP), Largest Contentful Paint (LCP) oder Speed Index haben bei beiden Modellen nur geringe Einflüsse (unter 0.07 SHAP). Das legt nahe, dass technische Performance zwar SEO relevant bleibt, aber für die LLM-Zitationswahrscheinlichkeit aktuell weniger eine zentrale Rolle spielt.
5. Kein Ranking, sondern dynamische Personalisierung
Ein entscheidender Unterschied zur klassischen Suchmaschinenoptimierung:
LLMs haben kein festes Ranking.
Statt hierarchischer Ergebnislisten generieren Sprachmodelle situationsabhängige, personalisierte Antworten.
Welche Quellen zitiert oder referenziert werden, hängt vom Kontext der Anfrage, dem Wording des Prompts, der Region, den Query Fan-Out-Ergebnissen und von Interaktionsverläufen des Nutzers ab. Selbst bei identischen Suchanfragen können daher unterschiedliche Ergebnisse entstehen. Für SEO bedeutet das: Optimierung zielt nicht auf eine Position in einem Ranking, sondern auf eine möglichst hohe Wahrscheinlichkeit, in relevanten Antwortkontexten als vertrauenswürdige Quelle erkannt zu werden. Das verschiebt den Fokus von klassischen Keyword- Strategien hin zu semantischer Relevanz, Autorität und Markenvertrauen.
6. Fazit: LLM-Optimierung erfordert erweiterte SEO-Denkmuster
Die Analyse zeigt klar: Für die Sichtbarkeit in generativen KI- Modellen gelten ähnliche, aber nicht identische Regeln wie in der klassischen SEO.
- Backlinks bleiben der stärkste Hebel, besonders für ChatGPT.
- Inhaltliche Tiefe, semantische Relevanz und Aktualität gewinnen an Bedeutung, insbesondere im Google AI Mode.
- Technische und UX- Faktoren sind nachrangig, könnten aber in künftigen Modellgenerationen stärker gewichtet werden.
Wer Inhalte für LLM- Zitationen optimieren will, sollte ein hybrides SEO-KI-Konzept verfolgen:
- Starkes Linkprofil und thematische Autorität aufbauen,
- Inhalte regelmäßig aktualisieren,
- semantische Kohärenz zwischen Titel, URL, Hauptinhalt und Metadaten sicherstellen.