Screaming Frog + ChatGPT: KI-Workflows für SEO, die sich im Alltag lohnen
Das Tool Screaming Frog ist für viele SEOs das Standardwerkzeug, wenn es darum geht, Websites systematisch zu crawlen und strukturiert verfügbar zu machen. Der klassische Output beinhaltet bereits viele sehr nützliche Informationen: Statuscodes, Seitentitel, Meta-Beschreibungen, Hauptüberschriften Indexierbarkeit der URLs, interne Verlinkungen, strukturierte Daten, etc....
Was in der Praxis aber häufig fehlt, ist die schnelle Übersetzung dieser Rohdaten in klare Entscheidungen und Handlungen. Genau an dieser Stelle wird die Kombination aus Screaming Frog und ChatGPT beziehungsweise anderen LLMs interessant.
Die Grundidee ist simpel, aber im Alltag wirkungsvoll: Du kuratierst Prompts wie kleine Werkzeuge und fütterst sie während des Crawlings automatisch mit den Datenpunkten, die Screaming Frog ohnehin einsammelt. Pro URL werden die relevanten Felder (z. B. Title, Meta Description, H1/H2-Struktur sowie eigene Custom-Extraction-Felder, etc.) in den zuvor definierten Prompt eingesetzt – und du bekommst pro URL ein Ergebnis zurück. Dadurch lassen sich Aufgaben, die sonst mühsam per Hand in Tabellen abgearbeitet werden mussten, direkt im Frog abbilden.
Das macht die SEO-Arbeit nicht nur schneller, sondern vor allem skalierbar:
Du brauchst Alt-Attribute für Bilder? Der Prompt generiert sie auf Basis der Bild-URLs.
Du willst zu lange oder zu kurze Meta-Beschreibungen auf die optimale Ziel-Länge optimieren? Der Prompt kürzt oder erweitert innerhalb harter Zeichenlimits, ohne den Sinn zu verlieren.
Der entscheidende Punkt ist dabei nicht „KI macht SEO“, sondern Skalierbarkeit: wiederkehrende, repetitive Aufgaben können mithilfe von Prompts, gespeist mit Crawl-Daten, direkt weiterverarbeiten werden. Das spart nicht nur Zeit, sondern hilft SEOs dabei sich strategischer mit Themen auseinanderzusetzen zu können.
In den folgenden Absätzen zeige ich einige konkrete Use Cases, bei denen uns ChatGPT im Screaming Frog weitergeholfen hat.
Technisches Setup: Zwei Wege, ein Ziel
Im Kern funktioniert die Integration immer gleich: Der Screaming Frog führt während des Crawls ein Skript aus, dass den Seiteninhalt verarbeitet und über die OpenAI-Schnittstelle (oder ein anderes Modell) eine Antwort zurückliefert. Du definierst dabei, was ausgeführt wird und welche Informationen daraus erzeugt werden sollen.
Für die Praxis gibt es zwei Wege:
Der erste Weg läuft über Custom JavaScript (ab Screaming Frog Version 20.1): Du öffnest den JavaScript-Konfigurator, fügst ein fertiges Snippet aus der Bibliothek hinzu, hinterlegst deinen API-Schlüssel und passt den Prompt an. Wichtig ist, dass das JavaScript-Rendering aktiv ist und dass der HTML-Quelltext gespeichert wird, damit das Snippet während des Crawlings ausgeführt werden kann. Danach startest du das Crawling am besten im Listenmodus und findest die Ausgaben anschließend im Reiter Custom JavaScript. Wenn du häufiger mit denselben Aufgaben arbeitest, speicherst du deine Prompts als eigenes Snippet in der User Library und setzt sie jederzeit wieder ein – ohne jedes Mal das Setup neu einrichten zu müssen.
Der zweite Weg nutzt die AI-Integration im Tool: Prompts werden direkt in der Oberfläche verwaltet und die Ergebnisse landen im AI-Reiter des Screaming Frogs. Das ist der einsteigerfreundliche Modus, weil du dich nicht durch Code arbeiten musst. Der Gedanke bleibt aber gleich: Du konfigurierst einen Prompt und wendest ihn gezielt auf gefilterte URL-Mengen an (z. B. nur Produktdetailseiten oder nur URLs mit fehlender Meta-Beschreibung).
Das Prinzip: Crawl-Daten, gezielte Aufgabenstellung, strukturierter Output
Damit die Arbeitsweise zuverlässig funktioniert, brauchst du drei Dinge, die du konsequent einhalten musst.
Kontrollierter, zielgerichteter Input. Schick nicht den kompletten HTML-Body ins Modell. Das treibt Token-Kosten hoch (mehr Token = mehr Kosten) und verwässert Ergebnisse, weil Navigation, Footer und irrelevante Module mitlaufen. Übergib nur die relevanten Inhalte: Seitentitel, H1, Intro, zentrale Zwischenüberschriften, USP-/Feature-Blöcke, Spezifikationen, FAQs, etc...
Ein Prompt = eine klar begrenzte Aufgabe. Sobald ein Prompt mehrere Analyseziele gleichzeitig lösen soll, werden Outputs inkonsistent. Konditionale „wenn X dann Y“-Prompts sind zusätzlich fehleranfällig. Wenn mehrere Dinge nötig sind, trenne sie in mehrere Prompts.
Strukturierter Output statt Freitext. Freitext wirkt bequem, ist aber uneinheitlich und schlecht verarbeitbar. Gib eine feste Ausgabelogik vor (z. B. immer dieselben Punkte in derselben Reihenfolge), damit die Ergebnisse direkt in Tickets, Briefings oder Reports übernehmbar sind.
Wann lohnt sich die Arbeit mit KI im Screaming Frog – und wann nicht
Der Ansatz lohnt sich besonders dann, wenn du viele URLs hast und wiederkehrende Entscheidungen treffen musst. Das ist typischerweise der Fall bei großen Content-Beständen, Shops mit vielen Produktdetailseiten, Ratgeberbereichen oder Verzeichnissen wie Glossaren und Lexika.
Weniger sinnvoll ist der Ansatz dort, wo du ohnehin nur wenige URLs hast, denn dann lohnt sich der Zeitaufwand für das Erstellen und Testen der Prompts oftmals nicht. Ebenso ist er ungeeignet, wenn die benötigten Informationen für den Prompt gar nicht auf der Seite stehen. Genau hier entstehen schnell Halluzinationen: Das Modell füllt inhaltliche Lücken mit plausibel klingenden, aber falschen Angaben.
Use Cases: Wo die KI im Screaming Frog in der Praxis wirklich liefert
Use Case 1: Alt-Attribute skalieren – suchmaschinenoptimierte Alt-Texte für Bilder und Infografiken
Alt-Attribute sind so ein typisches Thema, das in Projekten ständig „eigentlich mal“ gemacht werden soll, aber selten sauber skaliert. Gerade auf Produktdetailseiten liegen oft viele Bilder ohne Alt-Text oder mit generischen Platzhalter-Alt-Texten. Im Content-Bereich kommt dazu, dass Infografiken zwar inhaltlich wertvoll sind, der Bildkontext aber für Suchmaschinen nicht zugänglich ist, wenn der Alt-Text fehlt oder zu nichtssagend ist.
Der Screaming Frog ist hier ein idealer Hebel, weil du die Bilddaten bereits strukturiert bekommst und den Prompt gezielt nur auf Bild-URLs laufen lassen kannst. In der Praxis reicht als Input häufig die Bild-URL (bzw. der Dateiname/Pfad in der URL), weil sich daraus oft Motiv oder Produktbezug ableiten lässt und du den Workflow maximal simpel hältst.
Wenn du mehr Präzision brauchst, kannst du das später erweitern: per Custom Extraction lässt sich optional zusätzlicher Kontext einsammeln (z. B. Bildunterschrift, umgebender Text bei Infografiken). Der Standard-Workflow bleibt aber bewusst schlank: Bild-URL rein, Alt-Text raus.
Der Output ist dann kein „kreativer Bildtext“, sondern ein suchmaschinenoptimierter Alt-Text, der das Bild präzise beschreibt, zum Seitenthema passt und gleichzeitig kurz genug bleibt, um als Alt-Attribut sinnvoll zu sein. Der Mehrwert liegt in der Geschwindigkeit und der Konsistenz: Gleiche Regeln, gleiche Länge, gleiche Tonalität – über eine Vielzahl URLs.
Use Case 2: Meta-Daten-Pflege– konsistenter, schneller, kontrollierbar
Meta-Daten sind in vielen Projekten ein Dauerbrenner: Seitentitel und Meta-Beschreibungen sind oft historisch gewachsen, durch Templates verwässert oder in Länge und Tonalität inkonsistent. Optimieren kann man das, aber im Tagesgeschäft skaliert es schlecht, weil es schnell sehr viel Handarbeit wird.
Ein LLM ist hier stark, wenn du es wie eine Art „Meta-Daten-Werkbank“ einsetzt: Ein Prompt, der exakt eine Aufgabe erledigt, wird mit den relevanten SEO-Feldern aus dem Crawl gefüttert. Entscheidend ist die Unterscheidung: Seitentitel sind rankingrelevant und sollten vorsichtiger behandelt werden. Ohne angebundene Keyword-Datenbank oder Keyword Framework optimierst du Seitentitel sonst schnell „blind“. Meta-Beschreibungen sind meist dankbarer, weil du damit primär die Darstellung auf der Suchergebnisseite beeinflusst.
Der typische Workflow: Meta-Beschreibungen zuerst standardisieren, Seitentitel nur dort anfassen, wo klare Regeln dahinterstehen. Die klassischen Fälle findest du im Screaming Frog sofort über Filter wie „Description missing“, „unter X Zeichen“ oder „über Y Zeichen“. Danach löst ein passender Prompt genau dieses Problem: fehlende Descriptions generieren, zu kurze sinnvoll erweitern, zu lange ohne Bedeutungsverlust kürzen – mit festen Zeichenlimits und ohne Keyword-Stuffing. Der Zeitvorteil entsteht, weil du nicht URL für URL manuell arbeitest, sondern einmal Regeln definierst, filterst und den Prompt laufen lässt.
Use Case 3: Interne Verlinkungen – Vorschläge, die nicht im Bauchgefühl enden
Interne Verlinkungen sind oft weniger ein Wissensproblem als ein Skalierungsproblem. In großen Verzeichnissen findet niemand schnell genug die besten Linkziele, und deshalb entstehen Links und Ankertexte häufig nach Bauchgefühl. Genau hier wird es spannend: Statt nur über Keywords oder URL-Strukturen zu arbeiten, kannst du dir die semantische Nähe von Seiten direkt aus dem Crawl berechnen lassen.
Der Frog erzeugt für Seiteninhalte Embeddings und misst die Ähnlichkeit (cosine similarity) zwischen URLs. Embeddings kannst du dir als numerische „Fingerabdrücke“ von Texten vorstellen: Ein KI-Modell übersetzt den Inhalt einer Seite in einen Vektor (also eine Liste von Zahlen), der die Bedeutung des Textes abbildet. Zwei Seiten mit ähnlichem Thema landen dabei näher beieinander – und genau diese Nähe lässt sich dann mathematisch über Ähnlichkeitswerte messen. Das ist für interne Verlinkung Gold wert, weil du nicht mehr raten musst, welche Inhalte zusammengehören: Du siehst auf Knopfdruck, welche Seiten inhaltlich nahe beieinander liegen.
Der Zeitvorteil liegt wieder in der Standardisierung: Einmal Embeddings laufen lassen, dann semantische Filter und Bulk-Exports nutzen, statt manuell „ähnliche Inhalte“ zu suchen. Das macht interne Verlinkung planbar, priorisierbar und deutlich schneller umsetzbar – gerade bei großen Content-Beständen.
Grenzen, Kosten, Risiken
Sprachmodelle funktionieren grundlegend stochastisch, was dazu führt, dass Halluzinationen nach wie vor ein Problem sind. Es kann Output generiert werden, welcher sehr plausibel klingt, jedoch einfach nicht der Wahrheit entspricht. Solche Halluzinationen werden nicht durch Hoffnung oder guten Willen weniger, sondern durch saubere Prozesse. Wenn du deinen Workflow nicht gut genug definiert hast, bekommst du unzuverlässigere Resultate.
Die Kosten hängen vor allem davon ab, wie viel Text du pro Seite übergibst, wie viele URLs du crawlst und wie viele Prompts du laufen lässt – deshalb sind Listenmodus, Verarbeitung in Blöcken und kontrollierte Eingaben in der Praxis wichtig.
Fazit
Die kombinierte Anwendung vom Screaming Frog und ChatGPT ist kein Ersatz für SEO, sondern ein Multiplikator für wiederkehrende Aufgaben. Der echte Hebel ist Standardisierung: relevante Inputs, klare Jobs pro Prompt und strukturierte Outputs. Wenn du Use Cases entlang deines echten Tagesgeschäfts priorisierst, bekommst du Workflows, die nicht nur spannend klingen, sondern messbar Zeit sparen und bessere Entscheidungen ermöglichen.