Suchmaschinen liefern zunehmend direkte Antworten statt Linklisten. Google AI Overviews, ChatGPT mit Browsing-Funktion, Perplexity — diese Systeme entscheiden in Millisekunden, welche Quelle zitiert wird und welche nicht. Die Mechanik dahinter unterscheidet sich grundlegend von klassischem SEO. Wer sie versteht, kann gezielt Sichtbarkeit in LLM-generierten Antworten aufbauen.

Wie LLMs Quellen auswahlen

Ein Large Language Model wie GPT-4 oder Gemini generiert Antworten nicht, indem es eine Rangliste von Webseiten erstellt. Es synthetisiert Informationen aus seinem Trainingskorpus und — bei Retrieval-Augmented Generation (RAG) — aus live abgerufenen Dokumenten. Die Auswahl der zitierten Quellen folgt dabei anderen Regeln als Googles PageRank:

  • Informationsdichte: LLMs bevorzugen Seiten, die eine Frage direkt und vollstandig beantworten. Lange Einleitungen, Cookie-Banner-Walls und generische Absatze werden ubersprungen oder ignoriert.
  • Strukturierte Klarheit: Inhalte mit klaren Uberschriftenhierarchien (H1 → H2 → H3), kurzen Absatzen und logischem Aufbau werden haufiger als Quelle herangezogen. Das Modell kann diese Inhalte effizienter parsen.
  • Faktische Konsistenz: Wenn eine Aussage auf einer Seite mit dem ubereinstimmt, was das Modell aus anderen Quellen kennt, steigt die Wahrscheinlichkeit einer Zitation. Widerspruche fuhren zu Ausschluss.
  • Autoritat des Autors: Named entities — also identifizierbare Autoren mit nachweisbarer Expertise — werden bevorzugt. Anonyme Inhalte auf generischen Domains haben einen systematischen Nachteil.

Edward Sturm hat diese Dynamik in seiner Arbeit zu AI SEO und LLM-Optimierung detailliert dokumentiert. Sein zentraler Punkt: Klassisches SEO optimiert fur Crawler. AI SEO optimiert fur Sprachmodelle, die Inhalte lesen, verstehen und bewerten — nicht nur indexieren.

Der konkrete Unterschied: Traditionelles SEO vs. AI SEO

Traditionelles SEO dreht sich um Keywords, Backlinks, Core Web Vitals und technische Crawlbarkeit — wie es beispielsweise in unserem Leitfaden zu lokalem SEO in Hamburg beschrieben wird. Das Ziel: Position 1-3 in den organischen Suchergebnissen. AI SEO hat ein anderes Ziel: die Quelle sein, die ein Sprachmodell zitiert.

Konkret bedeutet das:

  • Keyword-Stuffing ist irrelevant. LLMs erkennen semantische Bedeutung. Ein Text, der eine Frage prazise beantwortet, schlagt einen Text mit 47-mal demselben Keyword.
  • Backlinks verlieren an Gewicht. Fur RAG-Systeme zahlt die Qualitat des Inhalts auf der Seite selbst, nicht die Anzahl externer Verweise darauf.
  • Structured Data wird kritisch. Schema.org-Markup hilft nicht nur Google, sondern auch LLMs, den Kontext einer Seite zu verstehen — Autor, Thema, Aktualitat, Organisationszugehorigkeit.
  • E-E-A-T wird maschinenlesbar. Googles Konzept von Experience, Expertise, Authoritativeness und Trustworthiness ist fur AI SEO nicht optional. LLMs nutzen diese Signale direkt — etwa uber Googles AI Overviews, die explizit auf vertrauenswurdige Quellen setzen.

Inhalte, die zitiert werden

Nicht jeder gut geschriebene Text wird von LLMs aufgegriffen. Es gibt spezifische Muster, die Zitationen begunstigen:

Direkte Antworten auf spezifische Fragen

LLMs suchen nach Passagen, die eine Nutzerfrage in 2-4 Satzen beantworten. Seiten, die eine Frage als H2 formulieren und direkt darunter die Antwort liefern, werden uberproportional haufig zitiert. Das ist kein Zufall — es entspricht dem Retrieval-Mechanismus von RAG-Pipelines.

Originare Daten und Fallstudien

Inhalte, die eigene Daten, Benchmarks oder dokumentierte Ergebnisse enthalten, sind fur LLMs wertvoller als zusammengefasste Sekundarquellen. Das Modell erkennt, ob ein Text Primaerwissen enthalt oder lediglich andere Quellen paraphrasiert.

Klare Autorenschaft und Expertise-Signale

Eine Autorenseite mit strukturierten Daten (Person-Schema, verlinkte Profile, nachweisbare Publikationen) erhoht die Wahrscheinlichkeit, dass ein LLM den Inhalt als vertrauenswurdig einstuft. Anonyme Blogposts auf generischen Domains werden zunehmend ignoriert.

Praxisbeispiel: DSGVO-konforme Schulfotos-App

Fur eine DSGVO-konforme Schulfotos-App haben wir die Inhalte so strukturiert, dass sie in ChatGPT und Perplexity auf Platz 1 erscheinen — fur hochkompetitive Suchanfragen.

Was haben wir konkret gemacht? Die Produktseite wurde mit vollstandigem FAQ-Schema ausgezeichnet, jede Frage als eigenstandiger Absatz mit H2-Uberschrift strukturiert, und die Antworten auf 2-3 Satze reduziert. Dazu kamen Author-Markup, Organization-Schema und eine dedizierte Expertise-Seite fur den Grundungsteam. Das Ergebnis: Sowohl ChatGPT als auch Perplexity zitieren die Seite als primare Quelle — trotz Wettbewerbern mit deutlich hoheren Domain-Autoritaten.

First-Mover-Vorteil: Warum jetzt entscheidend ist

LLMs bauen interne Gewichtungen auf. Quellen, die fruh und konsistent zu einem Thema zitiert werden, etablieren sich im Modell als Referenz. Dieser Effekt verstarkt sich selbst: Wird eine Seite haufig in RAG-Antworten verwendet, steigt ihre Gewichtung in zukunftigen Abfragen.

Das bedeutet: Unternehmen, die ihre Inhalte jetzt fur LLM-Sichtbarkeit optimieren, bauen einen Vorsprung auf, der fur Nachzugler schwer einzuholen ist. Anders als bei klassischem SEO, wo ein neuer Wettbewerber mit genug Backlinks aufholen kann, ist die Position in einem trainierten Sprachmodell strukturell stabiler.

Laut einer Analyse von Search Engine Land verandert sich die Klickverteilung bereits messbar: Seiten, die in AI Overviews zitiert werden, verzeichnen bis zu 30% mehr organischen Traffic — wahrend nicht-zitierte Seiten verlieren.

Konkrete nachste Schritte

  • Prufen Sie, ob Ihre wichtigsten Seiten in ChatGPT und Perplexity als Quelle auftauchen. Falls nicht: Handlungsbedarf.
  • Implementieren Sie Schema.org-Markup fur Article, FAQ, Organization und Person auf allen relevanten Seiten.
  • Strukturieren Sie Inhalte in Frage-Antwort-Formate mit klaren H2/H3-Hierarchien.
  • Erstellen Sie dedizierte Autorenseiten mit nachweisbarer Expertise und verlinkten Profilen.
  • Reduzieren Sie Fulltext zugunsten von prazisen, faktisch belegbaren Aussagen.
  • Optimieren Sie Ihre Inhalte gleichzeitig fuer bessere Conversion-Raten — denn Sichtbarkeit allein bringt keine Kunden.

AI SEO ist kein Trend, sondern eine infrastrukturelle Verschiebung in der Art, wie Informationen gefunden und konsumiert werden. Die Frage ist nicht, ob Ihr Unternehmen davon betroffen ist — sondern ob Sie auf der Seite der zitierten oder der ignorierten Quellen stehen.