„In die KI kommen“ heißt in der Praxis:
KI-Suchbots können eure Seite crawlen, verstehen und als Quelle zitieren – in AI-Antworten statt nur in Linklisten.
SEO bleibt Pflichtprogramm
SEO bleibt Pflichtprogramm (Indexierbarkeit, gute Inhalte, klare Struktur).
Das Extra-Level:
Inhalte strukturiert für Maschinen aufbereiten – vor allem mit Schema/JSON-LD und (optional) /llms.txt.
Warum das Thema jetzt zählt
Früher war die Logik: Keyword → Ranking → Klick.
Heute kommt dazu: Frage → KI-Antwort → Quelle.
Wenn eure Inhalte sauber auffindbar und eindeutig sind, steigen die Chancen, dass KI-Systeme eure Website korrekt zusammenfassen und als Referenz verlinken – statt dass irgendwer „ungefähr das Richtige“ halluziniert oder die falsche Seite zitiert.
Erstens: Das müsst ihr sowieso machen (SEO bleibt, wie es ist)
Das ist kein neuer Zaubertrick. Google sagt sehr klar: Für AI-Features gelten im Kern die normalen Anforderungen – indexierbar sein, Snippet-fähig sein, solide Inhalte.
Must-haves (ohne Tech-Deep-Dive)
- Indexierbarkeit: Seiten dürfen nicht aus Versehen auf „unsichtbar“ stehen (z. B. noindex).
- Saubere Seitenstruktur: Überschriften, klare Abschnitte, eindeutige Seiten (eine Seite = ein Thema).
- Aktuelle, hilfreiche Inhalte: Antworten auf echte Fragen eurer Zielgruppe.
- Technik-Basics: Performance, Mobil-Optimierung, keine „leeren“ JS-Seiten ohne Text.
Merksatz: SEO sorgt dafür, dass ihr überhaupt im Spiel seid.
Was „in die KI reinbringen“ konkret bedeutet
Ganz pragmatisch: KI-Systeme nutzen oft Crawler/Bots, um Inhalte zu finden. Bei OpenAI sind das z. B. eigene Bots – und ihr könnt steuern, ob ihr für Suche auftauchen wollt, ohne automatisch fürs Training herangezogen zu werden.
👉 Für euch heißt das: Zugriff ermöglichen (wo sinnvoll) und eindeutig machen, was eure Inhalte bedeuten.
Zweitens: Das solltet ihr zusätzlich machen (Daten strukturiert für KI aufsetzen)
Hier kommt das, was viele Websites noch nicht tun: nicht nur Texte schreiben, sondern Inhalte so markieren, dass Maschinen sie schneller und sicherer einordnen können.
1. Schema / JSON-LD: Der „Etikettierer“ für eure Inhalte
Zweck: Schema.org-Markups (meist als JSON-LD) sagen Maschinen:
„Das hier ist ein Unternehmen. Das hier ist ein Produkt. Das hier sind FAQs. Das hier ist ein Artikel.“
Google beschreibt das als Hilfe, um Inhalte besser zu verstehen und darzustellen.
Was bringt’s für KI-Verständnis?
- Weniger Missverständnisse (z. B. Name/Adresse/Leistung eindeutig)
- Bessere Extraktion (KI findet schneller „die eine richtige“ Stelle)
- Mehr Chance auf saubere Quellenangaben (weil Inhalte klarer zuordenbar sind)
So setzt ihr das um (non-technical)
- WordPress: In vielen Fällen geht das über SEO-Plugins (Schema-Funktionen) oder gezielte Erweiterungen pro Seitentyp.
- Shop-Systeme: Produkte, Preise, Verfügbarkeit lassen sich oft über integrierte Markups abdecken.
- Individuelle Websites: Eure Devs fügen pro Template einen JSON-LD-Block ein (Header/Body), passend zum Inhalt.
Was ihr markieren solltet (typische Quick Wins)
- Organization / LocalBusiness (wer ihr seid, Kontakt, Standorte)
- Article (Blogposts, Ratgeber)
- FAQPage (Fragen & Antworten)
- Product (wenn ihr Produkte habt)
- BreadcrumbList (Navigation/Hierarchie)
Wichtig: Markup muss zum sichtbaren Inhalt passen – sonst wird’s unzuverlässig.
2) /llms.txt: Die „Startseite für LLMs“ (optional, aber oft hilfreich)
Zweck: /llms.txt ist ein vorgeschlagener Standard: eine kurze, gut lesbare Datei im Root eurer Domain, die KI-Systemen zeigt, wo die wichtigsten Inhalte liegen – ohne dass sie sich durch Menü-Klickpfade, JS-Spielereien oder 200 Unterseiten kämpfen müssen.
Real Talk: Google sagt: Für Google-AI-Features braucht ihr keine extra AI-Dateien.
Trotzdem kann /llms.txt sinnvoll sein – besonders für Agenten/Tools, die gezielt Kontext von eurer Seite einsammeln.
Was sollte in eine gute llms.txt rein?
- 2–4 Sätze: Was macht ihr? Für wen?
- Top-Links: die wichtigsten Einstiegsseiten (Leistungen, FAQ, Preise, Kontakt, Kern-Ratgeber)
- Optional: „Wenn du nur 3 Seiten liest, dann diese“
- Optional: Links zu maschinenfreundlichen Versionen (z. B. Markdown eurer wichtigsten Guides)
Umsetzung (einfach)
- Datei erstellen: https://eure-domain.tld/llms.txt
- Inhalt kurz halten, Linkliste pflegen
- Bei Website-Relaunch/Neustrukturierung aktualisieren
- Bonus: automatisiert aus eurer Sitemap/Navigation generieren (damit es nicht „veraltet“)
Mini-Beispiel (stark vereinfacht):
# SOULSURF – KI-gestützte Innovationen
Wir helfen Unternehmen, KI sinnvoll einzusetzen: Strategie, Workshops, Entwicklung.
## Start here
– /ki/
– /ki/blog/
– /ki/kontakt/
## Helpful guides
– /ki/use-cases/
Der unterschätzte Hebel: „KI-Suchbots dürfen rein“ (ohne Kontrollverlust)
Viele Teams blocken Bots unabsichtlich (CDN/WAF/Robots). Gleichzeitig wollt ihr ggf. sichtbar in KI-Suche sein, aber nicht fürs Training freigegeben werden.
OpenAI beschreibt dafür getrennte Bots/Steuerung (z. B. Suche vs. Training) über robots.txt.
Für nicht-Techniker heißt das:
➡️ Einmal mit eurer Agentur/IT prüfen lassen, wer eure Seite crawlen darf – und ob das zu euren Zielen passt.
Was jetzt zählt – drei Schritte (SOULSURF-Style)
- Basis checken (Pflicht): indexierbar, saubere Struktur, Inhalte beantwortet echte Fragen.
- Schema drauf (Wirkung schnell spürbar): Organization/Article/FAQ/Product sauber markieren.
- LLM-Fastlane bauen (Optional): /llms.txt als kompakter Wegweiser für Agenten & LLM-Tools.
Mini-Checkliste für Entscheider:innen
- Sind wir indexierbar (keine „unsichtbar“-Schalter aus Versehen)?
- Haben wir pro Thema eine klare Seite mit gutem Einstieg und eindeutigen Überschriften?
- Nutzen wir Schema/JSON-LD für die wichtigsten Seitentypen?
- Wollen wir eine /llms.txt als KI-Wegweiser?
- Können wir KI-Referrals messen (z. B. ChatGPT-Traffic mit utm_source=chatgpt.com)?
Fazit
SEO bringt euch in die Ergebnisliste.
Strukturierte Daten bringen euch in die KI-Antwort – und zwar so, dass ihr verstanden werdet.
„Ich möchte, dass unsere Website von KI-Suchbots gefunden wird – aber kontrolliert.“
Wir setzen mit euch die sinnvolle Kombi aus SEO-Basics + Schema/JSON-LD + optional llms.txt auf – pragmatisch, ohne Overengineering.





