Methode
Two-Stage-Pipeline. Keine autonome LLM-Recherche.
Wir trennen strikt zwischen Datenbeschaffung und Bewertung. Stage 1 strukturiert. Stage 2 bewertet nur diese Daten. Das ist langweilig — und genau deshalb funktioniert es.
Datenquellen
Deterministische Crawler ziehen HTML, Schema-Markup, Backlink-Daten und LLM-Citation-Outputs (Perplexity API, OpenAI mit web_search, Anthropic mit web_search). Keine LLM-Auswahl, keine Halluzinations-Möglichkeit.
n8n · Cheerio · Perplexity API · OpenAI Search · Anthropic Search
Stage 1: Data Engineer
Ein LLM normalisiert Rohdaten in ein strikt JSON-Schema-validiertes Format. Temperature=0. Keine Web-Recherche. Keine externen Tool-Calls. Es bekommt Daten, gibt strukturierte Daten zurück. Das ist alles.
Anthropic Claude · OpenAI ChatGPT · Schema-constrained JSON · Frontier-Modelle
Stage 2: Senior Consultant
Ein zweites LLM bewertet die strukturierten Daten aus Stage 1. Priorisierung nach Impact und Aufwand. Output: priorisierte Maßnahmen-Liste, Rationale je Maßnahme, geschätzte Implementation-Zeit. Wieder: Temperature=0, keine eigene Recherche.
Anthropic Claude · System-Prompt versionsverwaltet · Outputs reproduzierbar
Output
30+seitiger Audit-Report (PDF, Markdown, Notion-Export verfügbar). Drei Top-Maßnahmen für Sprint-1. Schema-Snippets als Pull-Request-Kopiervorlage. JSON-Datenexport für interne Tools. Alles versioniert.
@react-pdf/renderer · MDX · GitHub-PR-Template
FAQ
Häufige Fragen zur Pipeline.
Warum keine autonome LLM-Web-Recherche?
Autonome Web-Recherche durch ein LLM bedeutet: das LLM entscheidet selbst, welche Quellen es konsultiert. Das ist für viele Anwendungen pragmatisch — für ein Audit aber gefährlich. Halluzinationen, schlechte Quellen-Wahl und unverifizierbare Ergebnisse machen den Output unbrauchbar. Wir trennen deshalb strikt: ein deterministischer Datenfetcher zieht definierte Quellen, das LLM bewertet nur diese strukturierten Daten.
Welche LLMs setzt ihr in welcher Stage ein?
Stage 1 (Data Engineer) und Stage 2 (Senior Consultant) laufen beide auf aktuellen Frontier-Modellen von Anthropic (Claude) und OpenAI (ChatGPT). Beide Modell-Familien unterstützen Schema-Constrained-JSON-Outputs, was für reproduzierbare Ergebnisse essentiell ist. Die Modell-Auswahl ist konfigurierbar pro Kunde.
Wie geht ihr mit Datenschutz um?
Daten, die in die Pipeline gehen, sind aggregierte Crawl-Daten und LLM-Citation-Outputs — keine Personenbezogenen Daten. Sollten in Pilot-/Retainer-Projekten Personenbezogene Daten relevant sein (z. B. Author-Profile), wickeln wir das über AVV nach Art. 28 DSGVO ab, mit dokumentierten TOMs und EU-Region-Compute (Cloudflare EU, OpenAI EU, Anthropic EU bei Verfügbarkeit).
Wie reproduzierbar ist die Pipeline?
Beide LLM-Stages laufen mit Temperature=0 und festem Seed, wo verfügbar. Outputs sind JSON-Schema-validiert. Identische Inputs erzeugen identische Outputs — wichtig für Audit-Wiederholungen und Vergleichbarkeit über Zeit. Konkurrenz-Audits, die mit Temperature=0.7 fahren, können Ergebnisse nicht reproduzieren.
Methode überzeugt? Sprich mit uns.
Mini-Audit: 30 Minuten, wir zeigen live wie die Pipeline für eure Domain läuft.
Termin buchen