Screaming Frog, eines der leistungsfähigsten SEO-Tools auf dem Markt, hat kürzlich aufregende neue Funktionen eingeführt, die mir als Marketingleiter und SEO-Experten helfen, noch effizienter zu arbeiten. Die neueste Version bietet die Möglichkeit, eigene JavaScript-Codes zu nutzen und dadurch individuelle Automatisierungen und Analysen direkt in den Crawling-Prozess einzubinden. In diesem Beitrag stelle ich die neuen AI-Features von Screaming Frog vor, insbesondere die Nutzung von JavaScript, und zeige eine detaillierte Anleitung, wie ich diese Funktionen praktisch einsetzen kann.
Zugriff auf benutzerdefinierte JavaScript-Codes
Eine der spannendsten Neuerungen von Screaming Frog ist die Möglichkeit, benutzerdefinierte JavaScript-Codes direkt im Tool zu verwenden. Das erlaubt es mir, APIs wie ChatGPT, Gemini oder Claude zu integrieren und beispielsweise die Suchintention (Search Intent) der gecrawlten Seiten zu analysieren, Zusammenfassungen der Inhalte zu erstellen oder Alt-Texte für Bilder zu generieren. Das Besondere daran: All dies kann während eines einzigen Arbeitsschrittes im Crawl erfolgen.
Screaming Frog bietet bereits eine Bibliothek mit diversen JavaScript-Vorlagen, die ich direkt nutzen kann. Diese Codes ermöglichen eine Vielzahl von Automatisierungen, von der Analyse der Seiteninhalte bis hin zur Generierung neuer Meta-Informationen. Die Integration von AI in Screaming Frog reduziert die Notwendigkeit von manuellen Nachbearbeitungen und spart mir wertvolle Zeit im SEO-Prozess.
Einrichten der JavaScript-Funktion in Screaming Frog
Um die benutzerdefinierte JavaScript-Funktion zu nutzen, muss ich zuerst das Rendering in Screaming Frog aktivieren. Der Ablauf ist wie folgt:
- Rendering aktivieren
- Ich öffne Configuration -> Spider -> Rendering -> JavaScript.
- Dann wähle ich die Option JavaScript, um das JavaScript-Rendering zu aktivieren.
- Custom JavaScript hinzufügen
- Ich gehe zu Configuration -> Custom -> Custom JavaScript.
- Hier kann ich die JavaScript-Bibliothek hinzufügen und eigenen JavaScript-Code einfügen. Dadurch kann ich die Daten, die Screaming Frog beim Crawl sammelt, verarbeiten und die Ergebnisse in die Screaming Frog-Analyse zurückspielen.
- Erster Test mit einem einfachen Kommando
- Ich versuche, folgenden Befehl auszuführen:
return seoSpider.data("hello world!")
. - Das zeigt mir, wie ich einfache Befehle nutzen kann, um mit den Daten von Screaming Frog zu arbeiten.
- Ich versuche, folgenden Befehl auszuführen:
Erste Schritte mit der JavaScript-Bibliothek
Die von Screaming Frog bereitgestellte JS-Bibliothek enthält Code-Snippets zu zahlreichen Themen, etwa zur Bestimmung des Inhaltszwecks oder zur automatischen Erstellung von Alt-Texten für Bilder. Diese Vorlagen kann ich direkt verwenden und testen, indem ich die bereitgestellten API-Schlüssel (z.B. für OpenAI) einfüge.
Beispiel: Nutzung der AI zur Analyse der Seitenintention
Um den Intent einer Seite zu ermitteln, wähle ich den entsprechenden JavaScript-Code aus der Bibliothek aus. Dann füge ich meinen persönlichen OpenAI API-Schlüssel an der Stelle 'your_api_key_here'
ein. Anschließend klicke ich auf den Tab Custom JavaScript und sehe mir die Ergebnisse meiner Analyse an.
Anwendungsbeispiele für benutzerdefiniertes JavaScript
Mit der Integration von AI und benutzerdefiniertem JavaScript in Screaming Frog sind meiner Kreativität kaum Grenzen gesetzt. Hier einige Anwendungsbeispiele:
- Erstellung von Kategorieninhalten für E-Commerce-Websites: Ich kann Titel und H1-Tags als Schlüsselwörter definieren und Inhalte automatisiert generieren lassen. Das spart nicht nur Zeit, sondern sorgt auch für eine hohe Relevanz der Inhalte.
- Alt-Tag-Generierung für Bilder: Ich kann das Erstellen von Alt-Texten für Bilder automatisieren, indem ich die im Crawl gesammelten Informationen nutze.
- Erstellung von Zusammenfassungen der Seiteninhalte: Ich lasse eine Kurzbeschreibung der Seite direkt während des Crawls generieren, um schneller einen Überblick über die gecrawlten Inhalte zu erhalten.