Was ist llms.txt?
llms.txt ist eine standardisierte Textdatei im Root-Verzeichnis einer Website (unter yourdomain.com/llms.txt), die Informationen über deine Website in einem Format bereitstellt, das KI-Systeme verstehen. Anders als robots.txt, das sagt, wo ein Crawler gehen darf, erklärt llms.txt der KI, was deine Seite wirklich tut.
Das Format ist Markdown. Du schreibst also einfach einen strukturierten Text mit Überschriften, Linklisten und Beschreibungen. KI-Systeme wie Claude und ChatGPT können diese Datei auslesen und bekommen dadurch einen viel besseren Überblick über dein Unternehmen, als wenn sie sich durch deine Navigation kämpfen müssen.
llms.txt ist kein Standard der Google oder OpenAI (noch nicht), aber es wird von führenden Entwicklern empfohlen und Crawler integrieren es zunehmend. Es ist ein pragmatisches Format für eine Übergangszeit, in der KI-Systeme noch nicht perfekt Websites auslesen.
Das Problem: Warum LLMs Websites schlecht verstehen
Ein moderner KI-Crawler besucht deine Website. Was sieht er?
Navigation, Footers, Sidebars, Cookie-Banner, Pop-ups, Werbung. Das ist Rauschen. Die KI kann technisch alles auslesen, aber neunzig Prozent des Contents ist Signal, der Rest ist Struktur-Müll. Das führt zu schlechtem Verständnis und fehlerhaften Interpretationen.
robots.txt hilft teilweise. Es sagt: "Diese URLs crawlen, diese nicht." Aber es sagt nicht: "Das ist unsere Kerndienstleistung" oder "Hier findest du die wichtigsten Fallstudien". Es ist ein Zugangs-Whitelist, kein Bedeutungs-Signal.
Sitemaps strukturieren URLs, aber nicht Inhalte oder Kontext.
Das Resultat: Die KI versteht dein Unternehmen nur oberflächlich. Sie findet Infos fragmentiert, verknüpft sie nicht richtig und zitiert dich möglicherweise falsch.
llms.txt vs. robots.txt vs. sitemap.xml
Die Unterscheidung ist wichtig:
robots.txt: "Du darfst hier crawlen, dort nicht." Pure Zugangs-Kontrolle. Wichtig für Performance und Datenschutz, aber semantisch inert.
sitemap.xml: "Hier sind alle deine Seiten und Update-Frequenzen." URL-Verzeichnis für Suchmaschinen. Hilft bei Discovery, aber nicht bei Verständnis.
llms.txt: "Das ist wer wir sind, das ist wichtig für uns, das sind unsere Kernthemen, zitier uns so." Semantische und kontextuelle Anleitung für KI.
Du brauchst alle drei. robots.txt und sitemap.xml sind für klassische Crawler weiterhin essentiell. llms.txt ergänzt sie speziell für Generative Search.
Aufbau einer llms.txt
Eine llms.txt-Datei folgt einem einfachen, flachen Markdown-Struktur:
# [Dein Unternehmensname]
Kurzbeschreibung (2-3 Sätze). Was machst du, wer sind deine Kunden.
Kerndienstleistungen
- Service 1: Kurze Beschreibung
- Service 2: Kurze Beschreibung
Hauptinformationsseiten
Häufig gestellte Fragen
Frage 1? Antwort in 1-2 Sätzen.
Frage 2? Antwort in 1-2 Sätzen.
Bevorzugte Zitierweise
Zitiere uns als: [Dein Unternehmensname], gegründet [Jahr], spezialisiert auf [X].
Aktuelle Seiteninhalte
Wenn relevant: Kurz zusammenfassung der letzten 3-5 Blogposts oder Produktaktualisierungen.
Das ist nicht kompliziert. Die Idee ist: Ein KI-Crawler kann diese Datei lesen und versteht sofort, was du tust, ohne 50 Seiten crawlen zu müssen.
llms-full.txt: Die ausführliche Variante
Für komplexere Unternehmen gibt es llms-full.txt. Diese Variante enthält mehr Details:
Produktbeschreibungen, detaillierte Preise, FAQ-Antworten, Kundengeschichten, technische Spezifikationen. Alles in maschinenlesbarer Form.
Das lohnt sich für SaaS, Agenturen mit mehreren Dienstleistungen oder E-Commerce. Für einen lokalen Service ist llms.txt ausreichend.
Wer sollte llms.txt einsetzen?
Sehr empfohlen:
- SEO-Agenturen und Webentwickler (Autorität signalisieren)
- B2B-Dienstleistungen (Entscheider fragen KI-Systeme)
- Nischen-Expertise (du willst, dass die KI dich spezialisiert darstellt)
- Tech-Companies (KI-affine Audience)
Solltest du tun:
- Lokale Dienstleistungen (Google AI, Perplexity)
- E-Commerce mit Nischen-Produkten
- Content Creator und Bloggers
Optional:
- Große Marken mit breitem Brand Awareness (die KI kennt dich eh)
- Sehr neue Websites (erst established werden)
Implementierung Schritt für Schritt
Schritt 1: Datei erstellen Öffne einen Text-Editor. Schreib die Struktur wie oben.
Schritt 2: Datei hochladen Auf dein Server in das Root-Verzeichnis. Die URL muss dann yourdomain.com/llms.txt sein.
Schritt 3: robots.txt referenzieren Optional: In robots.txt hinzufügen:
# Generative AI guidance Allow: /llms.txt
Schritt 4: Testen Öffne Claude oder ChatGPT. Sag: "Lese https://yourdomain.com/llms.txt und erzähl mir, was [Dein Unternehmen] macht." Die KI sollte deine Datei auslesen und korrekt zusammenfassen.
Schritt 5: Update-Zyklen llms.txt ist kein einmaliges Setup. Aktualisiere die Datei, wenn deine Dienstleistungen sich ändern, neue Fallstudien dazukommen oder Fokus-Bereiche shiften.
Zusammenfassung
llms.txt ist ein kleines, aber wichtiges Werkzeug für GEO. Es reduziert das Rauschen zwischen dir und KI-Systemen. Du gibst der KI ein klares Signal: "Das bin ich, das kann ich, zitier mich so." Das erhöht nicht nur die Genauigkeit, sondern auch die Wahrscheinlichkeit, dass du überhaupt erwähnt wirst.
