TL/DR
Ein SEO Content Audit ist die systematische Analyse aller bestehenden Website-Inhalte, um Optimierungspotenziale zu identifizieren und organischen Traffic zu steigern. Die Kernschritte: Content-Inventar erstellen, Performance-Daten analysieren, Lücken identifizieren, und Maßnahmen priorisieren (aktualisieren, konsolidieren oder löschen). Mit KI-gestützten Tools wie Firecrawl und automatisierten n8n-Pipelines lässt sich dieser Prozess von Wochen auf Stunden reduzieren.
Inhalt
- Warum ein SEO Content Audit unverzichtbar ist
- Die Vorbereitung: Tools und Datenquellen
- Schritt 1: Content-Inventar erstellen
- Schritt 2: Performance-Daten sammeln
- Schritt 3: Content nach Kategorien clustern
- Schritt 4: Keyword-Kannibalisierung identifizieren
- Schritt 5: Content Gaps aufdecken
- Schritt 6: Qualitätsbewertung durchführen
- Schritt 7: Entscheidungsmatrix anwenden
- Schritt 8: Priorisierung nach ROI
- Schritt 9: Optimierung umsetzen
- Schritt 10: Monitoring und Iteration
- Häufig gestellte Fragen zum SEO Content Audit
Warum ein SEO Content Audit unverzichtbar ist
Die meisten Websites leiden nicht an Content-Mangel – sie ertrinken in veraltetem, kannibalisierendem oder unterperformendem Content. Über 90% aller Blog-Artikel generieren keinen organischen Traffic. Ohne systematische Analyse bleiben diese "Zombie-Seiten" unsichtbar und ziehen die gesamte Domain-Autorität nach unten.
Das Problem verschärft sich 2026:
- Google's Helpful Content Updates bestrafen Thin Content härter
- KI-Antwortmaschinen (Perplexity, ChatGPT) bevorzugen aktuelle, autoritäre Quellen
- Konkurrenten optimieren aggressiv – wer stillsteht, fällt zurück
Praxis-Tipp: Wir haben eine automatisierte ETL-Pipeline für Blog-SEO-Diagnosen entwickelt, die genau dieses Problem löst – Content-Audits, die früher Wochen dauerten, laufen jetzt in Stunden .
Die Vorbereitung: Tools und Datenquellen
Bevor Sie starten, benötigen Sie Zugang zu diesen Datenquellen:
| Tool/Quelle | Zweck | Priorität |
|---|---|---|
| Google Search Console | Impressionen, Klicks, CTR, Position | Pflicht |
| Google Analytics 4 | Engagement, Conversions, Absprungrate | Pflicht |
| Firecrawl | API-basiertes Crawling mit Map-Funktion | Empfohlen |
| Sitebulb / DataForSEO | Cloud-basiertes technisches Crawling | Alternative |
| Ahrefs / Semrush | Backlinks, Keyword-Rankings, Konkurrenz | Empfohlen |
| Eigenes CMS (Strapi etc.) | Veröffentlichungsdaten, Autoren, Kategorien | Pflicht |
KI-Shortcut: Mit Researchly's Content-Agenten können Sie diese Datenquellen automatisch aggregieren und in einem Dashboard zusammenführen – ohne manuelle CSV-Exporte.
Schritt 1: Content-Inventar erstellen
Ziel: Eine vollständige Liste aller URLs mit grundlegenden Metadaten.
Die Tool-Entscheidung: Offline vs. Cloud-basiert
Screaming Frog ist der Klassiker für technische SEO-Audits – aber ein Offline-Tool mit Einschränkungen: Es läuft lokal, erfordert manuelle Exports und skaliert schlecht bei großen Websites.
Flexiblere Alternativen:
| Tool | Vorteil | Ideal für |
|---|---|---|
| Sitebulb | Cloud-basiert, visuelle Audit-Reports | Teams mit wenig technischem Background |
| DataForSEO | API-First, programmatische Audits | Entwickler und Automatisierungs-Workflows |
| Firecrawl | Dedizierte Map- und Crawl-Funktion, API-basiert | Content-Audits mit KI-Integration |
Mein Workflow: Backend-First oder Firecrawl
Option A: Direkter Backend-Query (Strapi, Contentful, etc.)
Wenn Ihr Content in einem Headless CMS wie Strapi liegt (wie bei uns), ist der effizienteste Weg der direkte API-Zugriff.
Sie erhalten sofort strukturierte Daten: URL, Titel, Veröffentlichungsdatum, Autor, Kategorien – ohne Crawling-Overhead.
Option B: Firecrawl für externe Websites
Ist der Backend-Zugriff nicht möglich (Legacy-System, externe Audit-Projekte), empfehle ich Firecrawl. Der Vorteil: Es bietet eine dedizierte map-Funktion, die speziell für Content-Inventare entwickelt wurde.
Warum Firecrawl statt Screaming Frog?
- API-native: Direkte Integration in n8n, Make oder eigene Scripts
- Strukturierte Extraktion: Schema-basierte Datenextraktion statt CSV-Chaos
- LLM-optimiert: Output in Markdown – perfekt für die anschließende KI-Analyse
Pro URL erfassen
Unabhängig vom Tool benötigen Sie diese Datenpunkte:
- URL
- Seitentitel (H1)
- Meta Title & Description
- Veröffentlichungsdatum
- Letzte Aktualisierung
- Wortanzahl
- Primäres Keyword
- Content-Typ (Blog, Produkt, Landingpage, Kategorie)
Prompt für die anschließende KI-Analyse: Du bist ein SEO-Analyst. Analysiere die folgenden gecrawlten Seiten und erstelle eine konsolidierte Tabelle mit: URL, H1, Meta Title, Wortanzahl, Veröffentlichungsdatum. Markiere alle Seiten mit weniger als 500 Wörtern als "Thin Content" und alle ohne Meta Description als "Incomplete".
Mehr spezialisierte Prompts finden Sie in unserem ChatGPT-Blueprints für exzellente SEO-Blogposts.
Schritt 2: Performance-Daten sammeln
Ziel: Verstehen, welche Inhalte Traffic generieren – und welche nicht.
Exportieren Sie aus Google Search Console (letzte 12 Monate):
- Impressionen
- Klicks
- CTR
- Durchschnittliche Position
Die kritischen Kennzahlen:
| Metrik | Guter Wert | Alarmstufe |
|---|---|---|
| Impressionen | > 100/Monat | < 10/Monat |
| Klicks | > 10/Monat | 0 |
| CTR | > 3% | < 1% |
| Position | < 20 | > 50 |
Quick Win identifizieren: Seiten mit hohen Impressionen aber niedriger CTR (Position 4-10) sind "Low Hanging Fruits" – eine Optimierung des Meta Titles kann sofortige Ergebnisse liefern.
Technischer Deep-Dive: Automatisierte Performance-Diagnose
Wer den gesamten Prozess – von der Datenerfassung über die Analyse bis zur Priorisierung – automatisieren möchte, findet in unserem (englischen) Guide Diagnosing Underperforming Content at Scale: My Automated ETL Pipeline for Blog SEO in N8N eine vollständige technische Anleitung.
Dort zeige ich:
- Wie Sie GSC-Daten automatisch mit Ihrem Content-Inventar verbinden
- Eine n8n-Pipeline, die unterperformende Artikel täglich identifiziert
- KI-Agenten, die automatisch Optimierungsvorschläge generieren
- Das "Traffic Decay"-Modell zur Früherkennung von Ranking-Verlusten
Praxis-Tipp: Die Pipeline ist besonders wertvoll, wenn Sie mehr als 50 Artikel haben. Bei kleineren Websites reicht ein manueller monatlicher Check – bei 500+ Artikeln ist Automatisierung Pflicht.
Schritt 3: Content nach Kategorien clustern
Ziel: Thematische Überlappungen und Lücken sichtbar machen – und eine strategische Content-Architektur aufbauen.
Die Hub-&-Spoke-Architektur: Warum "Random Content" scheitert
Bevor Sie clustern, müssen Sie verstehen: Ein Content-Audit ohne strategische Architektur ist wie ein Puzzle ohne Vorlage.
Das Ziel ist nicht einfach "mehr Content" oder "besserer Content" – sondern eine Topic-Cluster-Struktur, die Google (und KI-Antwortmaschinen) Ihre thematische Autorität signalisiert. Eine vollständige Anleitung zur Implementierung finden Sie in unserem AI-SEO-Content-Guide: Strategie 1 – Hub-&-Spoke Architektur.
Jeder Cluster braucht:
- 1 Pillar Page (2.000+ Wörter, breites Thema, hohe Authority)
- 5-10 Spoke Articles (spezifische Long-Tail-Keywords, verlinken zum Pillar)
- Bidirektionale Verlinkung (Pillar verlinkt zu Spokes, Spokes verlinken zurück)
So clustern Sie Ihren bestehenden Content
Gruppieren Sie Ihren Content nach drei Dimensionen:
1. Themen-Cluster (Topic Clusters)
| Cluster | Pillar Page vorhanden? | Anzahl Spokes | Lücken |
|---|---|---|---|
| "SWOT-Analyse" | ✅ | 8 | Fehlt: Branchen-Beispiele |
| "KI-Agenten" | ✅ | 12 | Vollständig |
| "Due Diligence" | ❌ | 3 | Pillar fehlt komplett |
2. Funnel-Stufe
| Stufe | Content-Typ | Ziel |
|---|---|---|
| Awareness | "Was ist X?", Definitionen | Traffic, Brand |
| Consideration | Vergleiche, How-Tos | Leads, E-Mail-Signups |
| Decision | Case Studies, Pricing-Seiten | Conversion |
3. Content-Format
- How-To Guides
- Listicles ("Top 10...")
- Vergleichsartikel ("X vs. Y")
- Case Studies
- Definitionen/Glossare
Die Audit-Frage für jeden Artikel
Für jeden bestehenden Artikel fragen Sie:
- Zu welchem Cluster gehört er? (Wenn unklar: Problem)
- Ist er Pillar oder Spoke? (Wenn weder noch: Problem)
- Verlinkt er zum Pillar? (Wenn nein: sofort fixen)
- Verlinkt der Pillar zu ihm? (Wenn nein: sofort fixen)
Schritt 4: Keyword-Kannibalisierung identifizieren
Ziel: Mehrere Seiten, die um dasselbe Keyword konkurrieren, konsolidieren.
Kannibalisierung tritt auf, wenn:
- Zwei oder mehr URLs für dasselbe Keyword ranken
- Google zwischen den Seiten "wechselt" (Position-Schwankungen)
- Keiner der Artikel auf Seite 1 kommt
So identifizieren Sie Kannibalisierung:
- Exportieren Sie alle Keywords aus Google Search Console
- Filtern Sie nach Keywords, die mit >1 URL verknüpft sind
- Vergleichen Sie die Durchschnittsposition beider URLs
Lösungsstrategien:
| Situation | Maßnahme |
|---|---|
| Ein Artikel deutlich stärker | Schwächeren löschen, 301-Redirect setzen |
| Beide etwa gleich stark | Zu einem umfassenden "Ultimate Guide" konsolidieren |
| Verschiedene Suchintentionen | Separate Seiten behalten, Keywords differenzieren |
Schritt 5: Content Gaps aufdecken
Ziel: Keywords identifizieren, für die Sie keinen Content haben – aber haben sollten.
Drei Methoden zur Gap-Analyse:
- Konkurrenz-Analyse: Welche Keywords ranken Ihre Wettbewerber, Sie aber nicht? Nutzen Sie dafür unser kostenloses Wettbewerbsanalyse-Tool.
- Keyword-Recherche: Welche Long-Tail-Varianten Ihrer Top-Keywords fehlen?
- Fragen-Mining: Welche "People Also Ask"-Fragen beantwortet Ihr Content nicht?
Prompt für Content Gap Analyse: Du bist ein SEO-Stratege. Analysiere die folgenden Top-10-Keywords meiner Konkurrenz und vergleiche sie mit meiner Keyword-Liste. Identifiziere die 10 wichtigsten Keywords, für die ich keinen Content habe. Priorisiere nach Suchvolumen und Business-Relevanz.





