Seit AI Overviews nun auch im DACH-Raum sichtbar sind, gilt’s ernst mit der KI-Optimierung. Die SERP (Google-Ergebnisseite) hat ein weiteres Feature – und wir möchten dort mit unserer Marke präsent sein.
Eine SERP mit integrierter AI Overview sieht jetzt so aus:
Die Frage „Wie erscheine ich dort?“ ist nicht mehr theoretisch – sie betrifft mich und viele meiner Kolleg*innen im Online-Marketing direkt:
Ich habe mich in den letzten Wochen vertieft ins Thema eingelesen und eigene Tests gemacht. In diesem Artikel fasse ich meine Erkenntnisse zusammen. Es wird ein „lebender“ Artikel sein. Ich werde neue Erkenntnisse hinzufügen, sobald ich mehr lerne. Folgende externe Ressourcen habe ich derzeit studiert und konsultiert:
- Kevin Indig: What content works well in LLMs?
- Resourcen von Google Search Central Madrid: Artikel Aleyda Solis – Linkedin-Post Raquel González Expósito
- Brighton SEO Slides Veronika Höller April 2025 – Beyond Google: redefining SEO for Al-powered tools
- Backlinko: AI Overviews – What They Are and How to Optimize for Them
In diesem Artikel fokussiere ich mich auf LLMs, welche Retrieval Augmented Generation (RAG) nutzen. Bei RAG greift das LLM auf das Web oder externe Datenbanken zu. Es durchsucht quasi das Web live für dich. Die Resultate beinhalten deshalb aktuelle Informationen. Die Antworten sind immer noch mit Vorsicht zu geniessen, aber durch das hinzuziehen von aktuellen Quellen gemäss reduzieren sich die „Halluzinationen“. Als „Halluzinationen“ bezeichnet man KI-Informationen, die zwar realistisch erscheinen, aber nicht stimmen.
LLMs, welche mit RAG arbeiten, sind beispielsweise Perplexity, AI Overviews oder GPT-4o.
Schauen wir nun, wie wir unsere Webseite für die LLMs mit RAG optimieren können. Ich habe die Erkenntnisse gegliedert in
Am Schluss beleuchte ich, wie du den Traffic aus den LLMs messen kannst.
Technische Optimierung für LLMs
Genau wie bei SEO ist eine saubere technische Basis die Voraussetzung, damit das LLM den Inhalt deiner Website absorbieren kann.
Überprüfe robots.txt: Ist der Content für KI-Bots crawlbar?
Überprüfe deine robots.txt, ob du nicht versehentlich KI-Bots gesperrt hast. Falls deine robots.txt folgenden Code beinhaltet, sind die KI-Crawler gesperrt:
User-agent: Google-Extended
Disallow: /
User-agent: OpenAI-GPT
Disallow: /
Als Konsequenz würde der Inhalt deiner Webseite nicht in den LLM-Resultaten erscheinen.
Analog zu robots.txt gibt es auch LLMs.txt
Als Äquivalent zur robots.txt gibt es auch LLMs.txt. An der Search Central Live in Madrid sagte John Mueller, dass ihm aktuell kein AI-System bekannt ist, das diese Datei tatsächlich nutzt.
Aus Google-Perspektive (also für AI Overviews) hat der Bot bereits genug Informationen, wenn es die Website schon eine Weile gibt.
Strukturierte Daten beibehalten
An der Search Central Live in Madrid sagte John Mueller, dass strukturierte Daten auch im Kontext von AI Overviews wichtig bleiben. Sie sind effizient, präzise und leicht lesbar für Bots. Mueller empfahl, sich auf strukturierte Daten zu fokussieren, die auch in den SERPs vorkommen.
Mangools hat eine sehr übersichtliche Liste aller strukturierten Daten, die in den SERPs tatsächlich verwendet und angezeigt werden.
On-page Optimierung für LLM
Von Keywords hin zu Themenclustern
Veronika Höller empfiehlt in den Slides ihres Vortrags, sich bei KI nicht mehr nur auf Keywords zu fokussieren, sondern auf ganze Themencluster. Man sollte sich also nicht zu stark auf ein einzelnes Keyword wie „beste SEO-Beraterin Schweiz 2025“ konzentrieren, sondern relevante Aspekte rund um den Service abdecken: Preise, Bewertungen, Kunden-Fallbeispiele etc.
Das kann zum Beispiel in einem umfassenden Leitfaden oder in mehreren Beiträgen geschehen.
Dieses Vorgehen erinnert mich an das SEO-Konzept der Topical Authority, das darauf abzielt, ein Thema in all seinen Facetten zu beleuchten. Auch dies ist seit ein paar Jahren gängige Praxis.
FAQ-Abschnitte beibehalten
Eine Taktik, die wir SEOs seit dem Aufkommen der People Also Ask (PAA)-Snippets pflegen, sind FAQ Snippets in den Contnet einzufügen. Das kann wie folgt aussehen:
Veronika Höller empfiehlt, FAQ-Abschnitte mit typischen Nutzerfragen beizubehalten. Das kann ich nachvollziehen, denn LLMs verarbeiten dialogorientierte Formate besonders gut. Es empfiehlt sich, spezifische Fragen zu stellen und schnell klare Antworten zu geben – ohne zuviel blabla.
Content-Tiefe & Lesbarkeit
Kevin Indig hat in seiner Studie herausgefunden, dass LLMs Beiträge mit Tiefe, Struktur und Klarheit bevorzugen. Eine höhere Wort- und Satzanzahl ist kein Nachteil, solange der Text gut lesbar bleibt (hoher Flesch-Score).
Off-page Optimierung für LLM
Digital PR
Erwähnungen sind die neuen Backlinks! Die LLMs mit RAG ziehen oft externe Quellen als Hilfe heran. Beim AI Overview zu „beste Online-Marketing-Agentur Deutschland“ stammen die Resultate nicht von den gelisteten Webseiten, sondern von externen Quellen, die darüber schreiben.
Entsprechend hat digitale PR weiterhin (oder jetzt noch mehr!) Bedeutung. Es ist ratsam, dort präsent zu sein, wo über deine Nische gesprochen wird. Noch habe ich keine Studie über das Gewicht der Backlinks in LLMs gesehen.
Antworten in AI Overviews sind nicht konsistent
Antworten in AI Overviews sind nicht konsistent. Ich habe an drei verschiedenen Tagen nach „how to filter for organic traffic in Looker“ gesucht. Am Tag 1 wurden drei Quellen für die Antwort berücksichtigt, darunter mein englischer und ein deutscher Artikel zum Thema:
Am zweiten Tag wurde mein deutscher Artikel nicht mehr berücksichtigt:
Und am dritten Tag löste die Suchanfrage kein AI Overview mehr aus:
Eine so starke Volatilität kenne ich von den traditionellen organischen Google-Suchresultaten nicht.
Analytics für KI: So siehst du in GA4 welche deiner Seiten Traffic von LLMs erhalten
GA4 liest den Traffic von Copilot, Perplexity und ChatGPT als Referral (Weiterleitung) aus. Die Referral-Beschreibung ist wie folgt:
- copilot.microsoft.com / referral
- perplexity.ai / referral
- chatgpt.com / referral
Es wird nicht als Referral-Traffic in GA4 ausgewiesen. Die Links von AI Overviews haben ein # in der URL. Beispielsweise:
https://corinaburri.com/de/organischer-traffic-filter-looker-studio/#:~:text=1.,deinem%20Looker%2DStudio%2DDashboard.&text=Diagramm%20hinzuf%C3%BCgen%20%3E%20Tabelle-,2.,und%20klicke%20auf%20Filter%20hinzuf%C3%BCgen.&text=7.,Session%2DMedium%20=%20organic%20gew%C3%A4hlt.&text=10.,SEO%2C%20Content%20Marketing%20und%20WordPress.
Um dies zu tracken, muss man eine JavaScript-Variable im Google Tag Manager hinzufügen.
Dana DiTomaso erklärt dies Schritt-für-Schritt in ihrem Artikel: How to Track Traffic from AI Overviews, Featured Snippets, or People Also Ask Results in Google Analytics 4
Derzeit differenziert Google jedoch noch nicht, ob der Link aus AI Overviews, PAA oder Featured Snippet kommt.
Ich habe es entsprechend für meine folgende Analyse weggelassen.
Anleitung: Explorative Datenanalyse mit Segment für Referral-Traffic von Copilot, Perplexity oder ChatGPT in GA4
Wenn du sehen möchtest, welche deiner Seiten bei Copilot, Perplexity oder ChatGPT erscheinen, kannst du wie folgt vorgehen:
- In GA4 klicke auf [Explorative Datenanalysen] im Menü links.
- Erstelle einen neuen Report, indem du auf [Leer] klickst
3. Erstelle ein neues Segment, indem du auf das [+] bei Segmente klickst.
4. Wir möchten ein Segment, welches den Referral-Traffic folgender Quellen abbildet:
copilot.microsoft.com / referral
perplexity.ai / referral
chatgpt.com / referral
Dazu erstellen wir ein Regex: ^(copilot\.microsoft\.com|perplexity\.ai|chatgpt\.com)\s*/\s*referral$
5. Als Zeile kannst du [Seitenpfad und Abfragestring] auswählen.
6. Als Wert wählst du zum Beispiel [aktive Nutzer].
Du erhältst dann eine Liste, welche die Seiten anzeigt, welche LLM traffic erhalten:
Die typischen SEO-Tools wie Ahrefs, SEMrush oder SERanking entwickeln sich auch weiter. So hat Semrush im September 2024 AI Overview tracking eingeführt. SERanking hat im April 2025 AI Overviews Tracker lanciert.
Zusammenfassung: Optimierung für LLMs differenziert sich nicht zu stark von best practice SEO-Optimierung
Die Optimierung für Large Language Models (LLMs) wie ChatGPT unterscheidet sich nicht grundlegend von klassischen SEO-Prinzipien – sie baut vielmehr auf ihnen auf.
- Technische Basis ist weiterhin wichtig
- Content bleibt Queen: Qualitativ guter und umfassender Inhalt ist weiterhin wichtig.
- Die Reputation (Digital PR) ist weiterhin wichtig.
Ich sehe keinen radikalen Wandel in meiner SEO-Arbeitsweise, aber eine klare Tendenz: Digital PR und gezielte Autoritätsstärkung gewinnen weiter an Bedeutung. Diesen Bereich werde ich künftig stärker priorisieren – im Einklang mit bewährter SEO-Praxis.