Zum Inhalt springen
thconsulting
Menü öffnen
Tech-Deep-Dive · Site-Audit-Tool

30+ Analyzer-Module.
OAuth-Workaround. AI-Reasoning. AI-parsbar.

Eigene Audit-Engine. In 2 Min über 30 Module aktiviert. GSC-Service-Account-Block geknackt via OAuth-Browser-Flow. Output explizit für AI-driven Refactoring designed, jede Page bekommt eine eigene Markdown-Datei mit Findings, REC-IDs und konkreten Refactor-Vorschlägen.

Capability-Stack

Acht Schichten, was sie können.

Konkrete Tool-Wahl behalte ich für mich, was zählt sind die Eigenschaften: modulare Erweiterbarkeit, OAuth-Workaround als Differenziator, optionaler AI-Layer der das Tool ohne Key nicht bricht.

CLI-Engine
Modulare Architektur
30+ Analyzer · neues Modul in 1-2 h · kein Framework-Lock
GSC-Auth
OAuth-Browser-Flow
Workaround gegen Service-Account-Block seit 2024
External APIs
5 Tiers integriert
Wayback · GSC · PageSpeed · Brave · Bing · KW-Planner
Schema-Validation
JSON-LD-Parser mit @graph-Recursion
Schema.org-Types + Site-Konventionen
AI-Reasoning
Optionaler LLM-Layer
Content-Quality · KW-Discovery · Top-30-Recs
Wettbewerber-SERP
Brave Search Free-Tier
2000 Calls/Monat kostenlos · 1500 Quota-Cap intern
Output-Format
JSON + Markdown, AI-parsbar
Pro-Page-Files für gezielte Refactor-Calls
API-Verbrauch
Pro 50-Page-Audit Cent-Bereich
Tier-1-only kostenlos · Disk-Cache 7d TTL
Module

Über 30 Analyzer in sieben Kategorien.

Module nach Auth-Tier sortiert. Tier 1 läuft komplett ohne API-Keys, Tier 2-5 schalten zusätzliche Datenquellen frei.

Tech (no-auth)
  • ▸ meta
  • ▸ schema
  • ▸ opengraph
  • ▸ linking
  • ▸ images
  • ▸ mixed-content
  • ▸ duplicates
  • ▸ security-headers
  • ▸ robots
  • ▸ sitemap-consistency
  • ▸ full-sitemap-check
  • ▸ internal-linking-graph
  • ▸ wayback
  • ▸ rdap
  • ▸ dns-lookup
  • ▸ mozilla-observatory
  • ▸ hsts-preload
  • ▸ html-validator
  • ▸ accessibility
GEO (no-auth)
  • ▸ geo (llms.txt + grounding-page)
  • ▸ google-suggest
Tier-2 (Google API Key)
  • ▸ pagespeed
  • ▸ crux
  • ▸ knowledge-graph
  • ▸ safe-browsing
Tier-3 (GSC OAuth)
  • ▸ search-console
  • ▸ url-inspection
Bing (API Key)
  • ▸ bing-webmaster
  • ▸ bing-backlinks
  • ▸ bing-keyword
Lifecycle
  • ▸ audit-history (Trend-Diff)
  • ▸ content-freshness
  • ▸ linking-recommendations
  • ▸ opportunity-score
  • ▸ analytics-data (importiert @thconsulting/analytics-Export)
  • ▸ competitors (Brave)
  • ▸ keyword-planner (Google Ads)
AI-Layer
  • ▸ ai-citations (Claude + Gemini)
  • ▸ content-quality
  • ▸ keyword-discovery (Topic-Cluster)
  • ▸ recommendations (Top-30 Refactor)
Drei reale Befunde

Was Audits konkret aufdecken.

Drei echte Befunde aus Mandaten der letzten Wochen, anonymisiert. Pattern: Setup, Befund, technischer Hebel, Ergebnis, die Art von Tiefe die ein Audit liefert, wenn man unter den Standard-Score schaut.

01

Sitemap-Submit ohne Wirkung

Setup

Mittelstands-Site nach Strukturen-Refactor, ca. 40 Pages, frische URLs.

Befund

Sitemap-Submit über Search Console schien akzeptiert. Google las trotzdem stundenlang nicht neu. Standard-Tools meldeten alles grün.

Hebel

Audit zog die vollen Header pro URL. Hoster lieferte XML mit Cache-Control max-age=86400 (24h). Refactor-Empfehlung: .htaccess-Regel mit max-age=300 für sitemap*.xml, robots.txt und llms.txt.

Ergebnis

Nach Deploy las Google binnen Sekunden neu. Live-Beweis im API-Status. 30+ neue URLs sofort entdeckt statt 24 Stunden Lag.

02

Score verzerrt durch Slug-Renames

Setup

Site nach Architektur-Refactor mit Slug-Umbenennungen, alte URLs zeigten via Meta-Refresh auf neue.

Befund

Audit-Score zeigte 56 Warnings über die Site. Diagnose: 8 Warnings stammten von den Meta-Refresh-Pages, die haben weder Title noch Schema, weil sie reine Redirect-Hülsen sind. Das verzerrte den Real-Status.

Hebel

Tool-Filter für Pages mit Meta-Refresh: solche werden aus dem Score ausgeschlossen, weil sie keine echten SERP-Kandidaten sind. Saubere Refactor-Priorisierung anhand der Live-Pages.

Ergebnis

Score-Wirklichkeit sichtbar. Refactor-Empfehlungen treffen die echten Live-Pages, keine verlorene Arbeit auf Redirect-Artefakten.

03

Schema fehlt auf Portfolio-Detail-Pages

Setup

Beratungs-Site mit Portfolio-Hub und 8 Case-Study-Detail-Pages, alle ohne Schema.org JSON-LD.

Befund

Audit listete pro Detail-Page "Keine Schema.org-Blöcke gefunden". Google sieht die Pages, kann aber keinen Subject-Type ableiten, keine Article-Rich-Results, kein Knowledge-Graph-Signal.

Hebel

Pattern für Case-Study-Pages entwickelt: Article + BreadcrumbList, mit `about:` als spezifischer Schema-Type je Branche (Person, LocalBusiness, AccountingService, EducationalOrganization, VeterinaryCare, SportsOrganization, etc.). Pro Page 5-15 Min Edit.

Ergebnis

Alle 8 Pages sind Article-Rich-Result-eligible bei Google. Knowledge-Graph-Signal pro Case-Subject. Audit-Score-Sprung beim nächsten Run.

FAQ

Tech-Fragen.

Wie sieht die Modul-Architektur aus?
Pro Analyzer eine Datei in src/analyzers/<module>.ts, aktuell über 30 Module. Orchestriert: Crawl → ParallelAnalyze → External APIs → AI-Layer → Recommendations → Output. Jedes Modul exportiert async analyzeFoo(input): Promise<FooResult>. Ergebnisse landen in AuditData.<key>. Neue Module: 1-2 Stunden Aufwand pro Modul, kein Framework-Lock, die Engine kennt nur das Interface.
Wie funktioniert der GSC-OAuth-Flow?
Google blockt seit 2024 das Hinzufügen von Service-Account-E-Mails als Property-User. Lösung: OAuth-User-Flow. bin/auth-gsc.ts startet einen lokalen Server auf Port 53682, öffnet die Browser-URL, fängt den Callback ab, speichert Refresh-Token in ~/.secrets/gsc-oauth-token.json. lib/google-auth.ts bevorzugt OAuth automatisch. Pro Site einmal in GSC verifizieren (HTML-Tag), danach läuft das Tool ohne weitere Config.
Welche APIs sind integriert?
Tier 1 (no-auth): Wayback, RDAP, DNS via DoH, Mozilla Observatory, HSTS-Preload, Google Suggest, W3C HTML-Validator. Tier 2 (Google API Key): PageSpeed Insights v5, CrUX, Knowledge Graph, Safe Browsing. Tier 3 (OAuth): Search Console, URL Inspection. Tier 4 (Bing API Key): Webmaster, Backlinks, Keyword. Tier 5 (Custom): Brave Search, Google Ads Keyword Planner, AI-Citations gegen Claude und Gemini.
Wie ist der AI-Reasoning-Layer aufgebaut?
src/ai/ enthält sechs Module: client.ts (LLM-Wrapper), gemini-client.ts, content-quality.ts (Storytelling-Falle-Check), keyword-discovery.ts (Topic-Cluster-Generation mit LLM), ai-citations.ts (Brand-Mention-Tracking in Claude und Gemini), recommendations.ts (Top-30-Refactor-Liste). Alle Module sind optional, ohne LLM-Key läuft das Tool weiter, der AI-Layer wird einfach übersprungen.
Wie ist das Output-Format?
audit-data.json (Single-Source-of-Truth, AuditData-Type), audit-report.md (Mensch-Bericht), recommendations.md (priorisiert nach Impact und Effort), pages/<slug>.md (Detail pro Page). Alle Outputs sind explizit für AI-Parsability designed: konsistente Struktur, Datei-Pfade als Anker, REC-IDs für Tracking. Pro-Page-Files erlauben gezieltes Refactoring ohne den ganzen Audit-Dump zu laden.
Performance und API-Verbrauch?
Audit gegen 50-Page-Site: ~2 Min, niedriger einstelliger Cent-Bereich API-Verbrauch (PageSpeed dominiert). Tier-1-only-Audit (no API costs): ~30 Sek. Single-Page-Mode (--single): ~10 Sek. Disk-Cache für Keyword-Planner (7d TTL) gegen Rate-Limit. Brave-Quota-Schutz capped bei 1500/2000 Free-Tier-Calls/Monat. Per-Tenant-Cost-Throttle auf Roadmap. Servicepreis je nach Buchungs-Modell, klären wir im Erstgespräch.
Open-Source?
Repo aktuell privat. Mittelfristige Strategie: Core-CLI als OSS unter MIT-Lizenz, mandanten-spezifische Module plus AI-Reasoning plus MCP-Server-Schicht proprietär. Pattern wie Supabase oder PostHog (Open-Core). Mandanten kriegen vollen Quellzugriff für ihre Builds, Code-Walkthrough im Sparring jederzeit möglich.

Code-Walkthrough oder Sparring?

30 Min Erstgespräch, kostenlos. Walkthrough am Site-Audit-Tool. Modul-Architektur, OAuth-Flow, AI-Reasoning, Output-Format.

Erstgespräch buchen