SSR & AI-Crawler
Server-Side Rendering (SSR) ist die technische Voraussetzung dafür, dass KI-Crawler wie GPTBot oder PerplexityBot Website-Inhalte lesen können – da die meisten LLM-Bots kein JavaScript ausführen und nur HTML-Quellcode verarbeiten.
SSR (Server-Side Rendering) bezeichnet eine Web-Architektur, bei der HTML-Seiten bereits auf dem Server vollständig gerendert und dann an den Browser (oder Crawler) ausgeliefert werden – im Gegensatz zu CSR (Client-Side Rendering), bei dem ein leeres HTML-Gerüst ausgeliefert wird und der Seiteninhalt erst durch JavaScript im Browser erzeugt wird. Für KI-Crawler ist diese Unterscheidung existenziell.
Einordnung
Der Aufstieg moderner JavaScript-Frameworks – React, Vue, Angular, Svelte – hat dazu geführt, dass viele Websites als Single-Page Applications (SPAs) gebaut wurden. Diese sind aus Entwicklersicht elegant, haben aber einen kritischen Nachteil: Klassische HTTP-Clients, die kein JavaScript ausführen, sehen nur ein leeres <div id="root">. Googlebot kann JavaScript mittlerweile rendern – LLM-Crawler wie GPTBot, PerplexityBot oder ClaudeBot in der Regel nicht. Eine React-SPA ohne SSR ist für diese Crawler unsichtbar.
Frameworks wie Next.js (für React), Nuxt.js (für Vue) und SvelteKit lösen dieses Problem durch serverseitiges Rendering oder Static Site Generation (SSG).
Wie funktioniert das?
Drei Rendering-Modelle im Vergleich:
- CSR (Client-Side Rendering): Server liefert leeres HTML + JavaScript-Bundle. Browser führt JS aus und baut Seite auf. KI-Crawler sehen: Nichts.
- SSR (Server-Side Rendering): Server rendert vollständiges HTML bei jeder Anfrage. KI-Crawler sehen: Vollständigen Inhalt.
- SSG (Static Site Generation): HTML wird beim Build-Prozess generiert und als statische Datei ausgeliefert. KI-Crawler sehen: Vollständigen Inhalt, sehr schnell.
Zusätzlich relevant:
- robots.txt: KI-Crawler müssen zugelassen sein (kein
Disallow: /für bekannte Bot-User-Agents) - Sitemaps: XML-Sitemaps helfen Crawlern, alle relevanten URLs zu entdecken
- Ladezeit: LLM-Crawler haben oft kurze Timeout-Werte; langsame Server führen zu fehlgeschlagenen Crawls
Praxisbeispiel
Ein E-Commerce-Anbieter aus Kamp-Lintfort betreibt seinen Blog als React-SPA ohne SSR. Trotz hochwertiger Inhalte zu relevanten Themen taucht der Blog nie in Perplexity-Antworten auf. Die Konkurrenz – ein WordPress-Blog mit klassischem Server-seitigem Rendering – wird regelmäßig zitiert. Nach einer Migration zu Next.js mit SSR ändert sich das Bild innerhalb von acht Wochen messbar.
Verwandte Begriffe
SSR ist die technische Grundlage für erfolgreiche LLM Crawling-Sichtbarkeit. Zusammen mit Prompt SEO und AEO bildet es die technisch-inhaltliche Basis für KI-Suchbarkeit.
Das klingt komplex? Klickweise übernimmt alle Aufgaben rund um SSR & AI-Crawler für Unternehmen am Niederrhein und im Westmünsterland. → Mehr erfahren