Technische Erkenntnisse
Technische Erkenntnisse
Technische Erkenntnisse identifizieren Infrastruktur- und Konfigurationsprobleme auf Ihrer Website, die direkt beeinflussen, ob KI-Systeme auf Ihre Inhalte zugreifen, sie verstehen und referenzieren können. Diese Erkenntnisse bilden das Fundament der KI-Sichtbarkeit -- wenn KI-Crawler Ihre Inhalte nicht erreichen können, hilft keine Content-Optimierung.
Jede Erkenntnis wird nach Schweregrad klassifiziert (Blocker, Warnung oder Info), enthält eine Beschreibung des Problems und bietet eine spezifische Empfehlung zur Behebung.
Schweregrade
Blocker
Blocker sind kritische Probleme, die KI-Systeme daran hindern, überhaupt auf Ihre Inhalte zuzugreifen. Sie haben die größte Auswirkung auf Ihren Health-Score (-20 Punkte pro Blocker) und sollten sofort behoben werden.
Ein einzelner Blocker kann Ihre gesamte Website für eine oder mehrere KI-Plattformen unsichtbar machen, unabhängig davon, wie gut Ihre Inhalte sind.
Warnungen
Warnungen sind wesentliche Probleme, die Ihre KI-Sichtbarkeitseffektivität reduzieren, aber den Zugang nicht vollständig verhindern. Sie haben moderate Health-Score-Abzüge (-3 bis -5 Punkte) und sollten als Priorität adressiert werden.
Warnungen weisen typischerweise auf fehlende Signale oder Konfigurationen hin, die KI-Systeme nutzen, um Ihre Inhalte besser zu verstehen und zu priorisieren.
Info
Info-Erkenntnisse sind Verbesserungsmöglichkeiten statt Probleme. Sie haben keinen Health-Score-Abzug, repräsentieren aber Best Practices, die Ihre KI-Sichtbarkeit verbessern können.
Blocker: KI-Crawler-Blockierungen in robots.txt
Schweregrad: Blocker (kritisch) Health-Score-Auswirkung: -20 Punkte Betrifft alle Keywords: Ja
Was erkannt wird
Die Diagnose prüft die robots.txt-Datei Ihrer Website auf Disallow-Regeln, die auf KI-Crawler-User-Agents abzielen. Folgende Crawler werden geprüft:
| Crawler | Betreiber | KI-Plattform |
|---|---|---|
| GPTBot | OpenAI | ChatGPT, GPT-basierte Anwendungen |
| ClaudeBot | Anthropic | Claude |
| Google-Extended | Gemini, AI Overviews | |
| Amazonbot | Amazon | Alexa, Amazon-KI-Dienste |
| FacebookBot | Meta | Meta AI |
| Bytespider | ByteDance | TikTok-KI-Funktionen |
Was es bedeutet
Wenn eine robots.txt-Regel einen KI-Crawler blockiert, kann diese KI-Plattform keine Inhalte auf Ihrer Website indexieren. Die Plattform hat kein direktes Wissen über Ihre Seiten, Produkte, Dienstleistungen oder Expertise. Sie kann Ihr Unternehmen möglicherweise noch aufgrund externer Quellen (Nachrichtenartikel, Verzeichnisse, Wikipedia) referenzieren, aber sie kann Ihre eigenen Inhalte nicht zitieren oder empfehlen.
Das Blockieren mehrerer Crawler verstärkt das Problem. Wenn Sie GPTBot, ClaudeBot und Google-Extended blockieren, können drei der größten KI-Plattformen nicht auf Ihre Website zugreifen.
Wie zu beheben
Bearbeiten Sie die robots.txt-Datei Ihrer Website, um KI-Crawlern Zugang zu gewähren:
# KI-Crawler erlauben
User-agent: GPTBot
Allow: /
User-agent: ClaudeBot
Allow: /
User-agent: Google-Extended
Allow: /
User-agent: Amazonbot
Allow: /
User-agent: FacebookBot
Allow: /
User-agent: Bytespider
Allow: /
Wenn Sie KI-Crawlern Zugang zum Großteil Ihrer Website gewähren, aber bestimmte Bereiche einschränken möchten (z.B. private oder sensible Bereiche), verwenden Sie gezielte Disallow-Regeln:
User-agent: GPTBot
Disallow: /private/
Disallow: /internal/
Allow: /
GEO/SEO-Hinweise
- Das Blockieren von KI-Crawlern beeinflusst NICHT traditionelle Suchmaschinenrankings (Googlebot und Bingbot sind von Google-Extended und GPTBot getrennt).
- Einige Organisationen blockieren KI-Crawler als bewusste Entscheidung. Wenn dies beabsichtigt ist, seien Sie sich bewusst, dass es die KI-Sichtbarkeit erheblich einschränkt.
- Nach dem Freigeben von Crawlern kann es Tage bis Wochen dauern, bis KI-Systeme Ihre Inhalte neu indexieren. Die Wirkung ist nicht sofort spürbar.
- Überprüfen Sie Ihre robots.txt regelmäßig, da neue KI-Crawler entstehen.
Warnung: Fehlende llms.txt
Schweregrad: Warnung Health-Score-Auswirkung: -3 Punkte Betrifft alle Keywords: Ja
Was erkannt wird
Die Diagnose prüft, ob eine llms.txt- oder llms-full.txt-Datei im Stammverzeichnis Ihrer Website vorhanden ist (z.B. https://ihrewebsite.de/llms.txt).
Was es bedeutet
Die llms.txt-Datei ist eine Konvention, die es Website-Betreibern ermöglicht, KI-Systemen explizite Orientierung darüber zu geben, welche Seiten am wichtigsten sind. Sie fungiert als kuratierter Index Ihrer wertvollsten Inhalte und hilft KI-Systemen zu priorisieren, was gelesen und referenziert werden soll.
Ohne eine llms.txt-Datei müssen KI-Systeme Ihre Inhalte durch allgemeines Crawling entdecken, was wichtige Seiten übersehen oder nicht identifizieren kann, welche Seiten am autoritärsten sind.
Wie zu beheben
Erstellen Sie eine llms.txt-Datei im Stammverzeichnis Ihrer Website. Die Datei sollte:
- Mit einer Markdown-H1-Überschrift beginnen (Ihr Firmen- oder Website-Name).
- Eine kurze Beschreibung Ihres Unternehmens enthalten.
- Ihre wichtigsten Seiten mit URLs und kurzen Beschreibungen auflisten.
Beispiel:
# Acme GmbH
Die Acme GmbH ist ein führender Anbieter von Cloud-Infrastrukturlösungen für Unternehmenskunden.
## Kernseiten
- [Über uns](https://acme.de/ueber-uns): Firmengeschichte, Mission und Führungsteam
- [Cloud-Plattform](https://acme.de/plattform): Überblick über unsere Cloud-Infrastrukturplattform
- [Enterprise-Lösungen](https://acme.de/enterprise): Lösungen für Unternehmenskunden
- [Fallstudien](https://acme.de/fallstudien): Kundenerfolgsstorys und Ergebnisse
- [Dokumentation](https://acme.de/docs): Technische Dokumentation und API-Referenz
## Dienstleistungen
- [Managed Cloud](https://acme.de/services/managed-cloud): Vollständig verwaltetes Cloud-Hosting
- [Migrationsdienste](https://acme.de/services/migration): Cloud-Migrationsunterstuetzung
- [Support-Pläne](https://acme.de/services/support): Enterprise-Support-Optionen
GEO/SEO-Hinweise
- llms.txt ist eine relativ neue Konvention und die Verbreitung bei KI-Anbietern wächst. Eine frühe Implementierung positioniert Sie vor Wettbewerbern.
- Halten Sie die Datei aktuell, wenn Sie wichtige Seiten hinzufügen oder umstrukturieren.
- Fügen Sie nur Ihre wertvollsten Seiten ein (10--30 URLs sind typisch). Dies ist keine Sitemap -- es ist eine kuratierte Empfehlung.
- Verwenden Sie beschreibenden Linktext und kurze Beschreibungen, um KI-Systemen Kontext zu jeder Seite zu geben.
Warnung: Fehlendes Organization-Schema
Schweregrad: Warnung Health-Score-Auswirkung: -5 Punkte Betrifft alle Keywords: Ja
Was erkannt wird
Die Diagnose prüft, ob Ihre Website Organization-Schema-Markup (Schema.org/Organization) im JSON-LD-Format enthält.
Was es bedeutet
Organization-Schema ist der wichtigste Typ strukturierter Daten für KI-Sichtbarkeit. Es liefert KI-Systemen maschinenlesbare Informationen über die Identität Ihres Unternehmens: Name, URL, Logo, Beschreibung, Kontaktdetails, Social-Media-Profile und mehr.
Ohne Organization-Schema müssen KI-Systeme die Identität Ihres Unternehmens aus unstrukturierten Inhalten ableiten, was unvollständig oder mehrdeutig sein kann. Dies schwächt Ihre Entity-Signale und kann zu Verwechslungen mit ähnlich benannten Unternehmen führen.
Wie zu beheben
Fügen Sie Organization-Schema auf Ihrer Startseite (und optional auf jeder Seite) im JSON-LD-Format hinzu:
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Organization",
"name": "Acme GmbH",
"url": "https://acme.de",
"logo": "https://acme.de/logo.png",
"description": "Führender Anbieter von Cloud-Infrastrukturlösungen",
"foundingDate": "2010",
"address": {
"@type": "PostalAddress",
"streetAddress": "Techstrasse 123",
"addressLocality": "Muenchen",
"addressRegion": "BY",
"postalCode": "80331",
"addressCountry": "DE"
},
"contactPoint": {
"@type": "ContactPoint",
"telephone": "+49-89-12345678",
"contactType": "customer service"
},
"sameAs": [
"https://linkedin.com/company/acme",
"https://twitter.com/acme"
]
}
</script>
GEO/SEO-Hinweise
- Organization-Schema nutzt sowohl traditionellem SEO (Knowledge Panel) als auch KI-Sichtbarkeit (Entity-Erkennung).
- Fügen Sie so viele Eigenschaften wie möglich ein: Name, URL, Logo, Beschreibung, Adresse, Kontakt, Social-Media-Profile, Gründungsdatum, Gründer und Mitarbeiterzahl.
- Wenn Ihr Unternehmen als LocalBusiness operiert, verwenden Sie diesen Typ anstelle von (oder zusätzlich zu) Organization.
- Validieren Sie Ihr Schema mit dem Google Rich Results Test vor der Bereitstellung.
Warnung: HTTPS-Probleme
Schweregrad: Warnung Health-Score-Auswirkung: -5 Punkte Betrifft alle Keywords: Ja
Was erkannt wird
Die Diagnose prüft, ob Ihre Website konsistent über HTTPS (sicheres HTTP) ausgeliefert wird.
Was es bedeutet
HTTPS ist eine grundlegende Voraussetzung für moderne Web-Glaubwürdigkeit. KI-Systeme können Inhalte, die über unsicheres HTTP bereitgestellt werden, herabstufen oder nicht indexieren. Einige KI-Crawler folgen HTTP-URLs überhaupt nicht.
Wie zu beheben
- Besorgen Sie ein SSL/TLS-Zertifikat für Ihre Domain (kostenlose Optionen wie Let's Encrypt).
- Konfigurieren Sie Ihren Webserver, um alle HTTP-Anfragen auf HTTPS umzuleiten.
- Aktualisieren Sie interne Links auf HTTPS-URLs.
- Stellen Sie sicher, dass keine Mixed-Content-Warnungen auftreten (HTTP-Ressourcen auf HTTPS-Seiten geladen).
- Aktualisieren Sie Ihre sitemap.xml und Canonical-Tags auf HTTPS-URLs.
GEO/SEO-Hinweise
- HTTPS ist ein bestätigtes Google-Ranking-Signal und ebenso wichtig für KI-Sichtbarkeit.
- Mixed Content (einige Ressourcen über HTTP auf einer HTTPS-Seite geladen) kann Warnungen auslösen, selbst wenn die Basis-URL HTTPS ist.
- Nach der Migration zu HTTPS richten Sie 301-Weiterleitungen von HTTP zu HTTPS ein, um Link-Equity zu erhalten.
Warnung: Fehlende sitemap.xml
Schweregrad: Warnung Health-Score-Auswirkung: -3 Punkte Betrifft alle Keywords: Ja
Was erkannt wird
Die Diagnose prüft, ob eine sitemap.xml-Datei an den Standardpositionen vorhanden ist (/sitemap.xml oder wie in robots.txt angegeben).
Was es bedeutet
Eine sitemap.xml-Datei teilt Crawlern (sowohl Suchmaschinen als auch KI-Systemen) mit, welche Seiten auf Ihrer Website existieren, wann sie zuletzt aktualisiert wurden und wie wichtig sie relativ zueinander sind. Ohne Sitemap müssen Crawler Seiten durch Linkfolgen entdecken, was verwaiste oder tief verschachtelte Seiten übersehen kann.
Wie zu beheben
- Generieren Sie eine sitemap.xml-Datei, die alle öffentlichen Seiten Ihrer Website auflistet.
- Fügen Sie das
<lastmod>-Tag für jede URL ein, damit Crawler wissen, wann Inhalte zuletzt aktualisiert wurden. - Reichen Sie die Sitemap in der Google Search Console und den Bing Webmaster Tools ein.
- Referenzieren Sie die Sitemap in Ihrer robots.txt-Datei:
Sitemap: https://ihrewebsite.de/sitemap.xml - Halten Sie die Sitemap automatisch aktuell, wenn Seiten hinzugefuegt, entfernt oder geändert werden.
GEO/SEO-Hinweise
- Die meisten CMS-Plattformen (WordPress, Shopify etc.) generieren Sitemaps automatisch. Verifizieren Sie, dass diese Funktion in Ihrem CMS aktiviert ist.
- Große Websites benötigen möglicherweise mehrere Sitemaps, organisiert in einem Sitemap-Index.
- Fügen Sie nur kanonische, indexierbare URLs in die Sitemap ein. Fügen Sie keine Weiterleitungen, Fehlerseiten oder noindex-Seiten ein.
Info: FAQ-Schema-Gelegenheiten
Schweregrad: Info (kein Abzug) Health-Score-Auswirkung: Keine Betrifft alle Keywords: Variiert
Was erkannt wird
Die Diagnose identifiziert Seiten auf Ihrer Website, die FAQ-ähnliche Inhalte enthalten (Frage-Antwort-Muster), aber kein FAQPage-Schema-Markup angewendet haben.
Was es bedeutet
FAQ-Inhalte sind für die KI-Sichtbarkeit besonders wertvoll. KI-Systeme extrahieren häufig FAQ-strukturierte Inhalte für direkte Antworten auf Nutzeranfragen. Wenn FAQ-Inhalte existieren, aber Schema-Markup fehlt, können KI-Systeme sie möglicherweise noch aus der HTML-Struktur erkennen, aber Schema-Markup macht die Extraktion deutlich zuverlässiger und wahrscheinlicher.
Wie zu beheben
Fügen Sie FAQPage-Schema-Markup zu Seiten mit FAQ-Inhalten hinzu:
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "FAQPage",
"mainEntity": [
{
"@type": "Question",
"name": "Welche Dienstleistungen bieten Sie an?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Wir bieten Cloud-Infrastruktur, verwaltetes Hosting und Migrationsdienste für Unternehmenskunden an."
}
},
{
"@type": "Question",
"name": "Was kostet Ihr Service?",
"acceptedAnswer": {
"@type": "Answer",
"text": "Unsere Preise beginnen bei 99 EUR/Monat für Basispakete. Enterprise-Preise werden individuell nach Nutzung und Anforderungen gestaltet."
}
}
]
}
</script>
GEO/SEO-Hinweise
- FAQ-Schema kann Rich Results in der Google-Suche auslösen (FAQ-Rich-Snippets), was sowohl SEO- als auch KI-Sichtbarkeitsvorteile bietet.
- Fügen Sie FAQ-Schema nur zu genuinen FAQ-Inhalten hinzu. Erfinden Sie keine Fragen nur für Schema-Zwecke.
- Halten Sie FAQ-Inhalte präzise und faktisch. KI-Systeme bevorzugen klare, direkte Antworten.
- Aktualisieren Sie FAQ-Inhalte regelmäßig, um sicherzustellen, dass Antworten aktuell bleiben.
Erkenntnisattribute
Jede technische Erkenntnis in der Diagnoseoberfläche enthält:
| Attribut | Beschreibung |
|---|---|
| Typ | blocker, warning oder info |
| Titel | Kurzbeschreibung der Erkenntnis |
| Beschreibung | Detaillierte Erklärung des Problems und seiner Auswirkung |
| Betrifft alle Keywords | Ob diese Erkenntnis jedes Keyword beeinflusst (für die meisten technischen Probleme zutreffend) oder nur spezifische |
| Empfehlung | Spezifische Maßnahme zur Behebung der Erkenntnis |
Das Fundamentprinzip
Technische Zugänglichkeit ist das Fundament der KI-Sichtbarkeit. Die Beziehung zwischen technischen Erkenntnissen und Content-Optimierung ist hierarchisch:
- Ebene 1: Technischer Zugang -- KI-Crawler müssen Ihre Inhalte erreichen können. Blocker in dieser Ebene negieren alles darüber.
- Ebene 2: Inhaltspräsenz -- Inhalte müssen für jedes Ziel-Keyword existieren. Ohne Inhalte gibt es nichts zu optimieren.
- Ebene 3: Inhaltsqualität -- Inhalte müssen für KI-Lesbarkeit strukturiert und geschrieben sein (GEO-Optimierung).
- Ebene 4: Externe Signale -- Autorität, Backlinks und Markenpräsenz verstärken die Reichweite Ihrer Inhalte.
Das Beheben eines technischen Blockers kann Verbesserungen über alle anderen Ebenen gleichzeitig freischalten, was technische Erkenntnisse in den meisten Fällen zu den Maßnahmen mit dem größten Hebel macht.
Beziehung zu anderen Diagnose-Komponenten
- Technische Erkenntnisse generieren Abzüge, die den Health-Score reduzieren.
- Blocker-Erkenntnisse generieren kritische Empfehlungen in der Kategorie technischer Zugang.
- Technische Probleme betreffen den gesamten Keyword-Satz und beeinflussen alle Klassifikationen in der Gap-Analyse.
- Der Perspektiven-Flow zeigt die nachgelagerte Auswirkung technischer Probleme über alle Keyword-Pfade.