Zum Hauptinhalt springen

GEO erklärt

Generative Engine Optimization.

Was es ist, wie es funktioniert, wo die Hebel liegen — und warum klassisches SEO 2026 nicht mehr ausreicht. Eine Definition, ein Stand der Disziplin, ein Action-Set für B2B.

Lesedauer ~12 Minuten · zuletzt aktualisiert 2026-05-08

Definition

Generative Engine Optimization (GEO) ist die Disziplin, eine Website oder Marke so zu strukturieren, dass generative KI-Engines wie Perplexity, ChatGPT, Anthropic Claude und Google AI Overviews sie als Quelle in ihren Antworten zitieren. Klassisches SEO optimiert für die Suchergebnis-Seite und für Klicks. GEO optimiert für die Antwort selbst — also für Erwähnung, Link-Citation und Quellen-Status innerhalb der generierten Antwort.

Der Unterschied klingt akademisch, ist aber operativ groß: Eine Seite kann bei Google auf Position 1 ranken und trotzdem keine einzige Erwähnung in Perplexity oder ChatGPT bekommen. Umgekehrt kann eine SEO-mäßig mittelmäßige Domain in einem signifikanten Teil der branchen-typischen Anfragen bei Perplexity als Quelle auftauchen — wenn ihre Schema-Architektur, Author-Profile und Antwort-Strukturen richtig sitzen. GEO ist ein eigenständiges Optimierungsfeld, kein SEO-Add-on.

Mechanik: Wie LLMs Quellen auswählen

Generative KI-Engines wählen Quellen über drei Mechaniken aus, die unterschiedlich gewichtet sind:

  1. Retrieval-Augmented Generation (RAG): Bei Web-Search-fähigen Modellen (Perplexity, ChatGPT mit Search, Anthropic mit Search, Google AI Overviews) wird zur Anfrage live im Web nach Quellen gesucht. Die Auswahl basiert auf einer Mischung aus klassischem Search-Ranking und semantischer Ähnlichkeit zur Anfrage.
  2. Trainings-Memorisation: Bei Anfragen ohne Web-Search greift das Modell auf das zurück, was es im Trainings-Korpus gesehen hat. Inhalte, die häufiger und in autoritativen Kontexten zitiert wurden, sind tiefer in den Modell-Gewichten verankert.
  3. Tool-Calling und APIs: Manche Engines nutzen externe APIs (Wikidata, eigene Knowledge-Graphs, fachspezifische Datenbanken) und gewichten Inhalte höher, die in diesen strukturierten Quellen referenziert sind.

Für GEO heißt das: Wer alle drei Mechaniken bedient, hat den höchsten Citation-Hebel. Praktisch bedeutet das: live-crawlbarer Content für RAG, semantisch-dichte Pillar-Inhalte für Trainings-Memorisation, strukturierte Daten und Wikidata-Verlinkung für Tool-Calling.

GEO vs. SEO: Wo die Disziplinen sich trennen

SEO und GEO teilen sich technische Grundlagen — beide brauchen sauberen HTML-Code, schnelle Server, mobile-optimierte Layouts. Ab dieser Basis trennen sich die Wege.

Was SEO will

  • Hohes Ranking auf der Google-Ergebnisseite
  • Klick aus der SERP auf die eigene Site
  • Keyword-Targeting für Suchintent
  • Backlink-Aufbau für Domain-Authority
  • UX-Signale (CTR, Verweildauer, Pogo-Sticking)

Was GEO will

  • Erwähnung als Quelle innerhalb generierter Antworten
  • Eindeutige Entity-Identifikation (das Unternehmen, die Person, der Service)
  • Strukturierte, zitierbare Antwort-Blöcke
  • Author-Authority pro Person, nicht nur pro Domain
  • Schema-Markup als primärer Indikator (nicht nur als Bonus)

Diese Differenz erklärt, warum SEO-Audits 2026 oft an Symptomen vorbeigehen: ein Audit, das auf Keyword-Dichte und Title-Tags optimiert, übersieht, dass Perplexity die Seite nicht mal als relevantes Ergebnis erkennt, weil das Schema-Markup unzureichend ist.

Engines im Vergleich

Die vier zentralen Engines für B2B-DACH unterscheiden sich in Crawler-Verhalten, Quellen-Präferenz und Update-Geschwindigkeit:

Perplexity, ChatGPT und Claude greifen bei aktuellen Anfragen live auf das Web zu. Google AI Overviews nutzen den Google-Index. Sichtbarkeit in diesen Engines hängt deshalb weniger von einem festen Update-Rhythmus ab, sondern davon, ob eure Seite strukturiert genug ist, um in dem Moment, in dem die Engine sucht, als Quelle erkannt zu werden. Das ist der Unterschied zwischen „wird gefunden" und „wird zitiert".

Eine GEO-Strategie sollte alle vier Engines bedienen, weil B2B-Buying-Center heterogen recherchieren. Die ChatGPT-Affinität in DACH ist hoch, aber Perplexity hat bei technischen B2B-Buyern überproportionale Reichweite. Google AI Overviews wirken über organische Reichweite und sind oft der erste Touchpoint, auch wenn die Click-Through-Rate niedrig ist.

Schema-Engineering: Der wichtigste Hebel

Schema.org ist die strukturierte Daten-Sprache, mit der Crawler den Inhalt einer Seite verstehen. In klassischem SEO ist Schema oft ein nice-to-have — bei GEO ist es der zentrale Hebel, weil generative Engines explizit auf strukturierte Daten zurückgreifen, um Antworten zu konstruieren.

Ein vollständiges Schema-Setup für eine B2B-SaaS-Domain umfasst mindestens:

  • Organization: mit name, url, logo, foundingDate, areaServed, sameAs (LinkedIn, Wikidata, Crunchbase), knowsAbout-Liste, contactPoint.
  • WebSite: mit potentialAction (SearchAction) und publisher-Verlinkung zur Organization.
  • Person für jeden Founder und jeden zentralen Author: mit jobTitle, worksFor, sameAs, alumniOf, knowsAbout, image. Ohne Person-Schema haben Author-Boxen keine Entity-Wirkung.
  • Service: ein Service-Eintrag pro Leistungs-Subseite, mit serviceType, provider, areaServed, offers (mit Preis bei Transparenz oder priceRange).
  • FAQPage: auf jeder Seite mit FAQ-Sektion, mit mainEntity-Array.
  • Article + Person-Author: auf jedem Lab- oder Blog-Artikel.
  • BreadcrumbList: auf allen Sub-Pages.

Drei häufige Fehler: (a) Schema nur via Plugin generiert ohne manuelle Validation, (b) sameAs-Listen, die ins Leere zeigen oder unaktualisiert sind, (c) Service-Schemas ohne offers, weil das Pricing-Tabu hochgehalten wird — das kostet Citations bei Pricing-fokussierten Anfragen.

Entity-Mapping: Eindeutigkeit über sameAs

Eine Entität (das Unternehmen, ein Founder, ein Service) muss für Crawler eindeutig sein. Der Mechanismus dafür ist das sameAs-Feld in Schema.org: ein Array von URLs, die dasselbe Entity in autoritativen externen Quellen referenzieren.

Beispiele für solche Quellen: Wikidata, Wikipedia, LinkedIn (Company und Person), Crunchbase, GitHub (für Tech-Personen), eigene Tool-Repositories, akademische Profile (ResearchGate, ORCID).

Eine Person ohne sameAs ist für ein LLM ein Name, mehr nicht — ein Name kann beliebig viele reale Personen meinen. Eine Person mit sameAs auf LinkedIn, Wikidata und GitHub ist eine eindeutige Identität, an die das LLM Reputation, Expertise und Author-Authority koppeln kann. Der Citation-Vorteil ist in der Praxis substanziell.

Author-Authority: Der unterschätzte Faktor

Generative Engines bevorzugen Inhalte mit identifizierbaren Autoren. Anonyme Marketing-Texte werden seltener zitiert als Beiträge mit Person-Schema, Author-Bylines und externer Verlinkung. Der Grund: das Modell kann Inhalt → Person → Reputation → Vertrauenswürdigkeit verketten.

Praktisch heißt das für B2B-Marketing: nicht „Marketing-Team" als Autor, sondern echte Personen mit eigener Domain-Authority. Im Mittelstand bedeutet das oft: die Founder selbst werden zu Author-Brands — mit eigener LinkedIn-Aktivität, Konferenz-Beiträgen, eigenen Lab-/Blog-Beiträgen unter ihrem Namen.

Author-Authority lässt sich gezielt aufbauen. Konkrete Hebel: regelmäßige LinkedIn-Posts mit fachlicher Tiefe (nicht Marketing-Posts), Gastbeiträge auf Branchen-Sites mit Backlink zur Author-URL, Open-Source-Projekte mit klarer Author-Identifikation, Konferenz-Auftritte, deren Aufzeichnungen mit Person-Schema eingebettet werden.

Antwort-Strukturen: Was LLMs zitierbar finden

Inhalte, die LLMs in Antworten verarbeiten, haben charakteristische Strukturen. Diese sind nicht zufällig — sie ergeben sich aus dem Trainings-Bias der Modelle, die mit Wikipedia-, Encyclopaedia- und Lehrbuch-Stil trainiert wurden.

Zitierbare Antwort-Strukturen:

  • Definition-First: Jeder H2 wird gefolgt von einem Absatz, der den Begriff in 2–3 Sätzen stand-alone definiert. Der Absatz funktioniert ohne Kontext der restlichen Seite.
  • Listen und Tabellen: Vergleichende Inhalte als HTML-Listen oder -Tabellen, nicht als Bilder. LLMs können strukturierte Daten extrahieren, sie können keine Bilder lesen (außer in seltenen Multimodal-Modi).
  • FAQ-Blöcke: Frage-Antwort-Paare am Ende einer Pillar-Page, die häufige Fragen abdecken. Mit FAQPage-Schema. Diese Strukturen werden überproportional oft zitiert.
  • Faktische Dichte: Inhalte mit konkreten Zahlen, Datierungen, Quellen-Verweisen. Marketing-Texte mit hoher Adjektiv-Dichte werden gefiltert.

Messung & KPIs

GEO-Erfolg lässt sich messen, aber anders als SEO. Die Kern-KPIs:

  1. Citation-Rate pro Engine: In wie viel Prozent von 50–100 branchen-typischen Anfragen wird eure Domain als Quelle zitiert? Standardmessung: monatlich, mit fixiertem Anfrage-Set.
  2. Citation-Position: Wenn zitiert — als erste, zweite, dritte Quelle? Frühe Positionen werden tendenziell stärker gewichtet in der Antwort.
  3. Sentiment der Erwähnung: Wird neutral, positiv, oder vergleichend erwähnt — und wenn vergleichend, gegenüber wem?
  4. Click-Through aus AI-Antworten: Trotz fertiger Antwort wird ein Teil der Nutzer auf die zitierte Quelle klicken. Messbar via Plausible/GA4 mit UTM oder Referrer-Auswertung.
  5. Author-Authority-Score: Pro genannten Founder/Author ein eigener Citation-Score über alle Engines.

Roadmap: Wie Ihr in 90 Tagen messbar werdet

Ein realistischer 90-Tage-Plan für eine B2B-Domain mit durchschnittlicher SEO-Basis:

Tage 0–14: Diagnose & Foundation

  • Citation-Audit über vier Engines, Baseline für 50–100 Anfragen
  • Schema-Audit: Lücken auflisten, Prioritäten setzen
  • llms.txt + robots.txt-Konfiguration für GPTBot, ClaudeBot, PerplexityBot
  • OG-Image-Set für Schlüssel-Pages

Tage 15–45: Schema + Author-Setup

  • Vollständige Schema-Implementierung (Organization, Person, Service, Article)
  • sameAs-Verlinkung auf LinkedIn, Wikidata, Crunchbase
  • Author-Profile-Seiten mit Person-Schema
  • FAQPage-Schemas auf Pillar-Pages

Tage 46–75: Content + Pillar-Pages

  • Drei Pillar-Pages mit Definition-First-Struktur
  • FAQ-Blocks mit 8–10 zitierbaren Antworten
  • Tabellen für Vergleichs-Anfragen
  • Author-Bylines auf allen redaktionellen Inhalten

Tage 76–90: Re-Audit + Optimierung

  • Re-Citation-Audit über alle vier Engines
  • Vergleich Baseline vs. T+90: Citation-Rate-Anstieg messen
  • Lücken-Analyse: was ist noch nicht durchgekommen, woran liegt es
  • Sprint-Plan für Tage 91–180

Realistische Erwartung: in 90 Tagen erreichbar ist eine Citation-Rate-Steigerung um Faktor 2–3 in Perplexity und Google AI Overviews. ChatGPT und Claude reagieren langsamer (Trainingsdaten-Lag), zeigen aber innerhalb von 6 Monaten ähnliche Effekte, wenn die strukturelle Basis sitzt.

FAQ

Häufige Fragen zu GEO.

Was bedeutet Generative Engine Optimization (GEO) konkret für ein Unternehmen?

GEO bedeutet, dass eure Inhalte so strukturiert sind, dass generative KI-Systeme — Perplexity, ChatGPT, Claude, Google AI Overviews — sie als Antwort-Quelle auswählen. Konkret heißt das: präzises Schema-Markup, eindeutige Entitäten, dichte Author-Profile, semantisch dichter und stand-alone zitierbarer Content. Das Resultat: in 30–70% der branchen-typischen Anfragen taucht eure Domain als Quelle auf.

Wie unterscheidet sich GEO technisch von SEO?

Technisch hat SEO drei Säulen: On-Page (Keywords, Title-Tags, Meta), Backlinks (Domain-Authority), UX-Signale (Core Web Vitals, CTR). GEO hat andere Säulen: Schema.org-Engineering (Organization, Person, Service, Article, FAQPage in Tiefe), Entity-Disambiguierung (eindeutige Identifikatoren via sameAs, Wikidata, LinkedIn), Author-Authority (verlinkte Person-Profile mit eigener Domain-Authority), Antwort-Strukturen (Definition-First, Tabellen, Listen, FAQ-Blöcke).

Welche Engines sind 2026 am wichtigsten im B2B-DACH?

Im B2B-DACH-Raum dominieren aktuell Perplexity und ChatGPT die generative Vendor-Recherche. Google AI Overviews kommen über die organische Reichweite und sind oft der erste Touchpoint, auch wenn die Click-Through-Rate niedrig ist. Anthropic Claude ist im B2B-Tech-Segment stark vertreten, im breiten Markt aber kleiner. Exakte Marktanteile schwanken zwischen Branchen und Studien — verlässliche DACH-spezifische Erhebungen sind aktuell selten.

Was ist E-E-A-T und warum zählt es für GEO?

E-E-A-T steht für Experience, Expertise, Authoritativeness, Trustworthiness. Ursprünglich Googles Qualitäts-Signal-Set, ist es 2026 für alle generativen Engines relevant — sie wollen Quellen mit erkennbarer Autorität zitieren. Konkret heißt das: identifizierbare Autoren mit eigener Reputation (LinkedIn, eigene Site), inhaltliche Tiefe statt Oberflächen-Content, externe Bestätigungs-Signale (Verlinkungen, Erwähnungen), klare Quellen-Angaben innerhalb des eigenen Contents.

Was ist llms.txt und brauche ich das?

llms.txt ist ein Standard-Manifest (analog zu robots.txt), das LLM-Crawlern einen kuratierten Index der wichtigsten Seiten gibt. Es ist kein Pflicht-Standard, aber ein klares Signal: 'Diese Seiten sind für LLM-Konsum optimiert, hier sind die Antworten.' Perplexity und Anthropic respektieren llms.txt explizit; OpenAI und Google noch nicht offiziell, aber die Crawler kommen — und Frühadopter haben einen Indexierungs-Vorsprung.

Wie messe ich GEO-Erfolg konkret?

Drei Kern-Metriken: (1) Citation-Rate pro Engine — in wie viel % der branchen-typischen Anfragen wird eure Domain als Quelle genannt. (2) Sentiment der Erwähnung — neutral, positiv, vergleichend (das Ranking gegenüber Konkurrenten). (3) Klickrate aus generierten Antworten — wie viele Klicks erreichen eure Domain trotz fertiger AI-Antwort. Reines 'Perplexity-Ranking' wie bei Google gibt es nicht — die Antwort wird probabilistisch erzeugt.

Lohnt GEO für SEO-arme Branchen wie Industrieausrüstung oder Spezialmaschinenbau?

Besonders dort. Klassisches SEO funktioniert in Nischen-B2B oft schwach, weil Suchvolumen niedrig und Backlink-Aufbau teuer sind. LLM-basierte Recherche dagegen ist branchen-blind: ein technischer Einkäufer, der 'beste 5-Achs-CNC-Fräsen für Aerospace-Anwendungen' bei Perplexity fragt, bekommt eine Antwort — und wer dort als Quelle auftaucht, gewinnt den ersten Touchpoint. Nischen-B2B mit gutem GEO-Setup hat überproportionale Sichtbarkeits-Hebel.

Welche typischen Fehler treten in B2B-Sites am häufigsten auf?

Fünf Klassiker: (1) Schema.org nur als Organization, ohne Person für Founder/Author und ohne Service-Strukturen. (2) FAQ-Sections in HTML, aber ohne FAQPage-Schema. (3) Pillar-Pages mit dünnen Definitionen — LLMs können sie nicht stand-alone zitieren. (4) Author-Profile ohne sameAs-Verlinkung zu LinkedIn/Wikidata. (5) Keine llms.txt, robots.txt blockiert teilweise GPTBot/PerplexityBot. Jeder dieser Punkte reduziert Citation-Rate erheblich.

Reicht Theorie nicht? Schauen wir gemeinsam auf eure Site.

Mini-Audit: 30 Minuten, kostenlos, live über vier Engines.

Termin buchen