Technische Prüfungen
Technische Prüfungen
Die technischen Prüfungen bewerten die grundlegende Infrastruktur Ihrer Website, die bestimmt, ob KI-Systeme auf Ihre Inhalte zugreifen, sie crawlen und verstehen können. Selbst die am besten optimierten Inhalte sind für KI unsichtbar, wenn technische Barrieren Crawler daran hindern, sie zu erreichen.
Diese Prüfungen konzentrieren sich auf Zugänglichkeit, Sicherheit und KI-spezifische Standards, die mit dem Wachstum der KI-gestützten Suche zunehmend an Bedeutung gewinnen.
HTTPS
Was geprüft wird
Ob Ihre Website über eine sichere HTTPS-Verbindung mit einem gültigen SSL/TLS-Zertifikat ausgeliefert wird.
Warum es für GEO wichtig ist
HTTPS ist ein grundlegendes Vertrauenssignal für sowohl klassische Suchmaschinen als auch KI-Systeme. KI-Crawler können Websites, die über unsichere HTTP-Verbindungen ausgeliefert werden, herabstufen oder überspringen. Ein gültiges SSL-Zertifikat bestätigt, dass die Website legitim ist und dass die zwischen Server und Client übertragenen Daten verschlüsselt sind. Ohne HTTPS können KI-Systeme Ihre Inhalte als weniger vertrauenswürdig einstufen.
Mögliche Ergebnisse
| Status | Bedeutung |
|---|---|
| 🟢 Bestanden | Website wird über HTTPS mit gültigem Zertifikat ausgeliefert |
| 🔴 Nicht bestanden | Website nutzt HTTP oder hat ein ungültiges/abgelaufenes Zertifikat |
So beheben Sie es
- Besorgen Sie sich ein SSL/TLS-Zertifikat (kostenlos über Let's Encrypt oder über Ihren Hosting-Anbieter)
- Konfigurieren Sie Ihren Webserver so, dass sämtlicher HTTP-Verkehr auf HTTPS umgeleitet wird
- Aktualisieren Sie alle internen Links und Ressourcen auf HTTPS-URLs
- Stellen Sie sicher, dass Ihr Zertifikat automatisch erneuert wird
- Testen Sie Ihre SSL-Konfiguration mit SSL Labs
robots.txt — KI-Crawler-Zugriff
Was geprüft wird
Ihre robots.txt-Datei wird auf Regeln analysiert, die 6 wichtige KI-Crawler betreffen:
| Crawler | Betreiber | Zweck |
|---|---|---|
| GPTBot | OpenAI | Trainingsdaten und Browsing für ChatGPT |
| ClaudeBot | Anthropic | Trainingsdaten für Claude |
| Google-Extended | Trainingsdaten für Gemini und KI-Funktionen | |
| Amazonbot | Amazon | Trainingsdaten für Alexa und KI-Dienste |
| FacebookBot | Meta | Inhaltsverständnis für Meta AI |
| Bytespider | ByteDance | Trainingsdaten für TikTok und KI-Dienste |
Warum es für GEO wichtig ist
Ihre robots.txt-Datei ist der primäre Mechanismus zur Steuerung, welche KI-Systeme auf Ihre Inhalte zugreifen können. Das Blockieren von KI-Crawlern bedeutet, dass Ihre Inhalte nicht in die Wissensbasis der KI aufgenommen werden — was es diesen KI-Systemen unmöglich macht, Ihr Unternehmen zu empfehlen oder zu zitieren. Dies ist die kritischste technische Prüfung für GEO: Wenn KI Ihre Website nicht crawlen kann, spielt alles andere keine Rolle.
Mögliche Ergebnisse
| Status | Bedeutung |
|---|---|
| 🟢 Alle erlaubt | Alle 6 KI-Crawler haben Zugriff |
| 🟡 Teilweise | Einige Crawler sind blockiert, andere erlaubt |
| 🔴 Blockiert | Die meisten oder alle KI-Crawler sind blockiert |
So beheben Sie es
Überprüfen Sie Ihre robots.txt-Datei (unter https://ihredomain.de/robots.txt) und stellen Sie sicher, dass Sie KI-Crawler, denen Sie Zugriff gewähren möchten, nicht blockieren. Eine GEO-freundliche robots.txt sieht so aus:
User-agent: *
Allow: /
# KI-Crawler explizit erlauben
User-agent: GPTBot
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: Google-Extended
Allow: /
User-agent: Amazonbot
Allow: /
User-agent: FacebookBot
Allow: /
User-agent: Bytespider
Allow: /
Wichtig: Einige CMS-Plattformen und Sicherheits-Plugins fügen pauschale Bot-Blockierungsregeln hinzu. Prüfen Sie, ob Ihr CMS ohne Ihr Wissen restriktive Regeln hinzugefügt hat.
llms.txt
Was geprüft wird
Ob Ihre Website eine gültige llms.txt-Datei bereitstellt — ein neuer Standard, der KI-Systemen eine strukturierte, menschen- und maschinenlesbare Zusammenfassung Ihrer Website bietet.
Warum es für GEO wichtig ist
Die llms.txt-Datei ist ein aufkommender Standard, der speziell für das KI-Zeitalter entwickelt wurde. Sie bietet Sprachmodellen einen kompakten Überblick über Inhalt, Zweck und Struktur Ihrer Website — als eine Art „Anschreiben" für KI-Systeme. Obwohl der Standard noch neu ist, signalisiert eine frühe Einführung KI-Bewusstsein und stellt sicher, dass KI-Systeme, die diesen Standard unterstützen, Ihre Website schnell verstehen können.
Mögliche Ergebnisse
| Status | Bedeutung |
|---|---|
| 🟢 Bestanden | Gültige llms.txt-Datei unter /llms.txt gefunden |
| 🟡 Teilweise | Datei existiert, hat aber Formatierungs- oder Inhaltsprobleme |
| 🔴 Nicht bestanden | Keine llms.txt-Datei gefunden |
So beheben Sie es
Erstellen Sie eine llms.txt-Datei im Stammverzeichnis Ihrer Website. Die Datei sollte dem aufkommenden Standardformat folgen:
# Ihr Firmenname
> Kurze einzeilige Beschreibung Ihres Unternehmens oder Ihrer Website.
## Über uns
Ein Absatz, der Ihre Organisation beschreibt, was Sie tun und wen Sie bedienen.
## Dienstleistungen
- Dienstleistung 1: Kurze Beschreibung
- Dienstleistung 2: Kurze Beschreibung
- Dienstleistung 3: Kurze Beschreibung
## Wichtige Seiten
- [Über uns](https://www.beispiel.de/ueber-uns): Erfahren Sie mehr über unser Unternehmen
- [Dienstleistungen](https://www.beispiel.de/dienstleistungen): Unser vollständiges Angebot
- [Blog](https://www.beispiel.de/blog): Branchen-Einblicke und Ratgeber
- [Kontakt](https://www.beispiel.de/kontakt): Nehmen Sie Kontakt auf
Best Practices für llms.txt:
- Halten Sie sie prägnant — dies ist eine Zusammenfassung, keine vollständige Sitemap
- Fügen Sie Ihre wichtigsten Seiten mit kurzen Beschreibungen hinzu
- Aktualisieren Sie sie, wenn Sie bedeutende neue Bereiche oder Seiten hinzufügen
- Verwenden Sie klare, beschreibende Sprache, die KI leicht analysieren kann
sitemap.xml
Was geprüft wird
Ob Ihre Website eine gültige sitemap.xml-Datei hat und wie viele URLs sie enthält.
Warum es für GEO wichtig ist
Eine Sitemap informiert KI-Crawler über alle Seiten Ihrer Website und wann diese zuletzt aktualisiert wurden. Ohne Sitemap müssen KI-Crawler Seiten über Links entdecken — wobei sie möglicherweise wichtige Inhalte übersehen, die schlecht verlinkt sind. Die Sitemap kommuniziert zudem die Aktualisierungshäufigkeit und hilft KI-Systemen, das Crawling kürzlich geänderter Inhalte zu priorisieren.
Mögliche Ergebnisse
| Status | Bedeutung |
|---|---|
| 🟢 Bestanden | Gültige Sitemap mit aufgelisteten URLs gefunden |
| 🟡 Teilweise | Sitemap existiert, hat aber Probleme (leer, fehlerhaft oder sehr wenige URLs) |
| 🔴 Nicht bestanden | Keine Sitemap gefunden |
So beheben Sie es
- Generieren Sie eine Sitemap mit Ihrem CMS (die meisten CMS-Plattformen haben eine integrierte Sitemap-Generierung)
- Stellen Sie sicher, dass die Sitemap alle wichtigen Seiten enthält (nicht nur Blogbeiträge)
- Fügen Sie
<lastmod>-Daten hinzu, um Crawlern bei der Identifizierung kürzlich aktualisierter Inhalte zu helfen - Verweisen Sie in Ihrer
robots.txtauf die Sitemap:
Sitemap: https://www.beispiel.de/sitemap.xml
- Halten Sie die Sitemap unter 50.000 URLs (verwenden Sie Sitemap-Index-Dateien für größere Websites)
- Schließen Sie Seiten aus, die nicht indexiert werden sollen (z. B. Admin-Seiten, doppelte Inhalte)
- Validieren Sie Ihre Sitemap mit einem XML-Validator
IndexNow
Was geprüft wird
Ob Ihre Website das IndexNow-Protokoll zur sofortigen URL-Übermittlung an Suchmaschinen unterstützt.
Warum es für GEO wichtig ist
IndexNow ermöglicht es Ihnen, Suchmaschinen (darunter Bing, Yandex und teilnehmende KI-Systeme) proaktiv zu benachrichtigen, wenn Inhalte erstellt oder aktualisiert werden. Anstatt darauf zu warten, dass Crawler Änderungen entdecken, übermittelt IndexNow Updates sofort. Dies ist besonders für GEO wertvoll, da es sicherstellt, dass KI-Systeme so schnell wie möglich Zugriff auf Ihre neuesten Inhalte haben.
Mögliche Ergebnisse
| Status | Bedeutung |
|---|---|
| 🟢 Bestanden | IndexNow-Unterstützung erkannt (API-Schlüssel oder Integration gefunden) |
| 🔴 Nicht bestanden | Keine IndexNow-Unterstützung erkannt |
So beheben Sie es
- Registrieren Sie sich für einen IndexNow-API-Schlüssel unter indexnow.org
- Platzieren Sie die API-Schlüssel-Datei im Stammverzeichnis Ihrer Website
- Integrieren Sie IndexNow in Ihren CMS- oder Veröffentlichungs-Workflow, um URLs automatisch zu übermitteln, wenn sich Inhalte ändern
- Viele CMS-Plattformen bieten IndexNow-Plugins an (z. B. für WordPress das IndexNow-Plugin)
- Für eigene Implementierungen senden Sie eine POST-Anfrage an die IndexNow-API, wann immer Sie eine Seite veröffentlichen oder aktualisieren:
curl -X POST "https://api.indexnow.org/indexnow" \
-H "Content-Type: application/json" \
-d '{
"host": "www.beispiel.de",
"key": "ihr-api-schlüssel",
"urlList": [
"https://www.beispiel.de/aktualisierte-seite"
]
}'
KI-Crawler-Zugriff — Gesamtbewertung
Was geprüft wird
Eine Gesamtbewertung, wie zugänglich Ihre Website für KI-Crawler ist, die Ergebnisse aus der robots.txt-Prüfung, dem HTTPS-Status, der Sitemap-Verfügbarkeit und anderen technischen Faktoren kombiniert.
Warum es für GEO wichtig ist
Dies ist die zusammenfassende Prüfung, die Ihnen sagt, ob KI-Systeme Ihre Inhalte effektiv entdecken und verarbeiten können. Selbst wenn Ihre Inhalte perfekt für GEO optimiert sind, machen technische Barrieren auf Crawler-Ebene all diesen Aufwand zunichte. Diese Bewertung bietet eine ganzheitliche Sicht auf Ihre technische GEO-Bereitschaft.
Mögliche Ergebnisse
| Status | Bedeutung |
|---|---|
| 🟢 Vollständig zugänglich | KI-Crawler können alle Inhalte entdecken und darauf zugreifen |
| 🟡 Teilweise zugänglich | Einige Barrieren existieren, die den KI-Crawler-Zugriff einschränken können |
| 🔴 Weitgehend unzugänglich | Erhebliche technische Barrieren verhindern den KI-Zugriff |
So beheben Sie es
Gehen Sie die einzelnen technischen Prüfungen oben in dieser Prioritätsreihenfolge an:
- HTTPS — Beheben Sie zuerst Zertifikatsprobleme (grundlegende Vertrauensanforderung)
- robots.txt — Entsperren Sie KI-Crawler (häufigste Barriere)
- sitemap.xml — Erstellen oder korrigieren Sie Ihre Sitemap (stellt die Inhaltserkennung sicher)
- llms.txt — Fügen Sie eine llms.txt-Datei hinzu (aufkommende Best Practice)
- IndexNow — Implementieren Sie IndexNow (proaktive Indexierung)
Allgemeine technische Best Practices für GEO
Seitengeschwindigkeit
Obwohl keine bewertete Prüfung, beeinflusst die Seitengeschwindigkeit das Crawler-Verhalten. Langsam ladende Seiten können von Crawlern mit Zeitlimits abgebrochen werden. Streben Sie eine Seitenladezeit von unter 3 Sekunden an.
Canonical-Tags
Verwenden Sie Canonical-Tags, um die bevorzugte Version von doppelten oder ähnlichen Seiten anzugeben. Dies verhindert, dass KI durch mehrere Versionen desselben Inhalts verwirrt wird.
Strukturierte Daten
Stellen Sie sicher, dass Ihr JSON-LD-Schema.org-Markup gültig und fehlerfrei ist. Fehlerhaft strukturierte Daten sind schlimmer als keine strukturierten Daten — sie können KI über Ihre Inhalte in die Irre führen.
Crawl-Budget
Wenn Ihre Website Tausende von Seiten hat, gehen Sie strategisch vor, welche Seiten zugänglich sind. Verwenden Sie robots.txt und noindex-Tags, um Crawler zu Ihren wichtigsten Inhalten zu lenken.
Server-Zuverlässigkeit
Stellen Sie sicher, dass Ihr Server konsistent mit korrekten HTTP-Statuscodes antwortet. Häufige 500-Fehler oder Timeouts veranlassen KI-Crawler, ihre Crawl-Frequenz für Ihre Website zu reduzieren.