Um dir eine optimale Website der nextlevels präsentieren zu können, setzen wir Cookies und vergleichbare Techniken ein. Einige der eingesetzten Techniken sind unbedingt erforderlich für unser Angebot. Mit deiner Zustimmung dürfen wir und unsere Dienstleister darüber hinaus Informationen auf deinem Gerät speichern und/oder abrufen. Dabei geben wir deine Daten ohne deine Einwilligung nicht an Dritte weiter, die nicht unsere direkten Dienstleister sind. Wir verwenden deine Daten auch nicht zu kommerziellen Zwecken.
Prüfe in unter 30 Sekunden, ob deine Website von ChatGPT, Claude, Perplexity, Gemini und Google AI Overviews gefunden, gelesen und zitiert werden kann.
Wir simulieren echte KI-Crawler, lesen deine robots.txt, llms.txt und Sitemap und analysieren das gerenderte HTML – inklusive Schema, Meta-Tags und Bot-Blocker-Erkennung.
Bot-Blocker auf Cloudflare und WAF entlarven
Cloudflares Bot-Fight-Modus, ModSecurity-Regeln, fail2ban und Maxcluster-Bot-Schutz blockieren KI-Crawler oft als Kollateralschaden. Unser Check sieht den Statuscode, den der Bot wirklich bekommt – nicht den, den dein Server vermeintlich liefert.
JSON-LD & Schema.org als KI-Treibstoff
JSON-LD-Markup (Organization, LocalBusiness, Product, FAQPage, BreadcrumbList) ist der wichtigste Hebel, um von KI-Tools korrekt zitiert zu werden. Wir parsen deine vorhandenen Schema-Blöcke und zeigen, welche @types fehlen.
llms.txt als KI-eigene Sitemap
llms.txt ist die KI-Antwort auf sitemap.xml: ein Markdown-Index deiner wichtigsten Seiten und Quellen, den moderne KI-Crawler bevorzugt lesen. Wir prüfen Existenz und schlagen eine Vorlage vor.
Server-Rendering für KI-Bots
KI-Bots führen häufig kein JavaScript aus. Wer SPAs oder Client-only-Komponenten ohne SSR ausliefert, bekommt eine leere Seite indexiert. Unser Check misst, wie viel Text wirklich im initialen HTML steht.