Zum Hauptinhalt springen

Methode

Two-Stage-Pipeline. Keine autonome LLM-Recherche.

Wir trennen strikt zwischen Datenbeschaffung und Bewertung. Stage 1 strukturiert. Stage 2 bewertet nur diese Daten. Das ist langweilig — und genau deshalb funktioniert es.

STAGE 00

Datenquellen

Deterministische Crawler ziehen HTML, Schema-Markup, Backlink-Daten und LLM-Citation-Outputs (Perplexity API, OpenAI mit web_search, Anthropic mit web_search). Keine LLM-Auswahl, keine Halluzinations-Möglichkeit.

n8n · Cheerio · Perplexity API · OpenAI Search · Anthropic Search

STAGE 01

Stage 1: Data Engineer

Ein LLM normalisiert Rohdaten in ein strikt JSON-Schema-validiertes Format. Temperature=0. Keine Web-Recherche. Keine externen Tool-Calls. Es bekommt Daten, gibt strukturierte Daten zurück. Das ist alles.

Anthropic Claude · OpenAI ChatGPT · Schema-constrained JSON · Frontier-Modelle

STAGE 02

Stage 2: Senior Consultant

Ein zweites LLM bewertet die strukturierten Daten aus Stage 1. Priorisierung nach Impact und Aufwand. Output: priorisierte Maßnahmen-Liste, Rationale je Maßnahme, geschätzte Implementation-Zeit. Wieder: Temperature=0, keine eigene Recherche.

Anthropic Claude · System-Prompt versionsverwaltet · Outputs reproduzierbar

STAGE 03

Output

30+seitiger Audit-Report (PDF, Markdown, Notion-Export verfügbar). Drei Top-Maßnahmen für Sprint-1. Schema-Snippets als Pull-Request-Kopiervorlage. JSON-Datenexport für interne Tools. Alles versioniert.

@react-pdf/renderer · MDX · GitHub-PR-Template

FAQ

Häufige Fragen zur Pipeline.

Warum keine autonome LLM-Web-Recherche?

Autonome Web-Recherche durch ein LLM bedeutet: das LLM entscheidet selbst, welche Quellen es konsultiert. Das ist für viele Anwendungen pragmatisch — für ein Audit aber gefährlich. Halluzinationen, schlechte Quellen-Wahl und unverifizierbare Ergebnisse machen den Output unbrauchbar. Wir trennen deshalb strikt: ein deterministischer Datenfetcher zieht definierte Quellen, das LLM bewertet nur diese strukturierten Daten.

Welche LLMs setzt ihr in welcher Stage ein?

Stage 1 (Data Engineer) und Stage 2 (Senior Consultant) laufen beide auf aktuellen Frontier-Modellen von Anthropic (Claude) und OpenAI (ChatGPT). Beide Modell-Familien unterstützen Schema-Constrained-JSON-Outputs, was für reproduzierbare Ergebnisse essentiell ist. Die Modell-Auswahl ist konfigurierbar pro Kunde.

Wie geht ihr mit Datenschutz um?

Daten, die in die Pipeline gehen, sind aggregierte Crawl-Daten und LLM-Citation-Outputs — keine Personenbezogenen Daten. Sollten in Pilot-/Retainer-Projekten Personenbezogene Daten relevant sein (z. B. Author-Profile), wickeln wir das über AVV nach Art. 28 DSGVO ab, mit dokumentierten TOMs und EU-Region-Compute (Cloudflare EU, OpenAI EU, Anthropic EU bei Verfügbarkeit).

Wie reproduzierbar ist die Pipeline?

Beide LLM-Stages laufen mit Temperature=0 und festem Seed, wo verfügbar. Outputs sind JSON-Schema-validiert. Identische Inputs erzeugen identische Outputs — wichtig für Audit-Wiederholungen und Vergleichbarkeit über Zeit. Konkurrenz-Audits, die mit Temperature=0.7 fahren, können Ergebnisse nicht reproduzieren.

Methode überzeugt? Sprich mit uns.

Mini-Audit: 30 Minuten, wir zeigen live wie die Pipeline für eure Domain läuft.

Termin buchen