/ llmtxt.info

llms.txt — questions fréquentes

Vingt réponses directes sur ce qu'est llms.txt, qui le lit, et comment bien l'utiliser.

Dernière mise à jour:

Questions & réponses

Qu'est-ce que llms.txt ?

Un petit fichier Markdown à la racine d'un site (ex. https://exemple.com/llms.txt) qui donne aux grands modèles de langage une carte curée des pages les plus utiles. Proposé par Jeremy Howard (Answer.AI) en septembre 2024 et documenté sur llmstxt.org.

llms.txt est-il un standard ?

Non. C'est une proposition communautaire hébergée sur llmstxt.org. Pas de processus IETF, W3C ou ISO derrière. Cela dit, il est largement adopté dans l'écosystème documentation (Anthropic, Cloudflare, Stripe, Mintlify, Vercel, Perplexity).

Google utilise-t-il llms.txt ?

Pas à avril 2026. John Mueller (Google) a questionné publiquement sa valeur comme signal Search. Traitez llms.txt comme un play de grounding LLM, pas un play SEO.

Claude, ChatGPT ou Perplexity lisent-ils llms.txt ?

Aucun fournisseur LLM majeur ne s'est publiquement engagé à fetcher llms.txt automatiquement. Cependant, les frameworks agent (Cursor, Windsurf, plusieurs intégrations MCP) et de nombreux pipelines RAG le cherchent. L'écosystème côté réception est fragmenté mais en croissance.

llms.txt aide-t-il au SEO ?

Indirectement au mieux. Il n'influence pas les rankings Google. Il peut améliorer la manière dont les assistants IA décrivent et citent votre site, une forme de découverte distincte de la recherche classique.

Dois-je publier un llms.txt ?

Si vous avez un site de documentation, un outil dev, une API ou un SaaS avec des acheteurs techniques — oui. Le coût est en heures, l'upside en citations LLM réelles. Pour du pur e-commerce ou des sites visuels, le ROI est beaucoup plus faible.

En quoi llms.txt diffère-t-il de robots.txt ?

robots.txt contrôle l'accès des crawlers (allow / disallow). llms.txt est une liste de recommandation positive pour les clients LLM. Objectifs différents, fichiers complémentaires. Utilisez les deux.

En quoi llms.txt diffère-t-il de sitemap.xml ?

Un sitemap vise la complétude (chaque URL, avec métadonnées). llms.txt vise la curation (la douzaine de pages qui comptent le plus pour un LLM). Portées différentes, fichiers complémentaires.

Qu'est-ce que llms-full.txt ?

Une convention sœur popularisée par Mintlify avec Anthropic. Elle contient le contenu réel des pages, concaténé dans un seul fichier Markdown, pour qu'un assistant puisse ingérer tout le corpus en un fetch. La plupart des plateformes de docs publient /llms.txt et /llms-full.txt.

Où vit le fichier ?

À la racine du domaine, servi en text/plain — typiquement https://votredomaine.com/llms.txt. Même convention que robots.txt et sitemap.xml.

Quelle est la syntaxe ?

Markdown simple : un H1 (nom du projet), un résumé optionnel en blockquote, un corps libre optionnel, puis n'importe quel nombre de sections H2 avec des items de liste au format `- [name](url) : notes`. Voir la spec sur llmstxt.org/core.html.

Combien d'URLs lister ?

Habituellement 10 à 30. Au-delà de 50, vous ne curez plus. Si vous devez vraiment exposer plus, publiez des variantes par produit (/docs/llms.txt, /api/llms.txt) ou déplacez le volume vers llms-full.txt.

URLs absolues ou relatives ?

Absolues. Les URLs relatives sont techniquement autorisées mais deviennent ambiguës quand le fichier est copié ou fetché hors contexte. La plupart des validateurs (dont le nôtre) signalent les URLs relatives en warning.

Comment gérer plusieurs langues ?

La spec est silencieuse sur l'i18n. Deux patterns fonctionnent : (1) un seul fichier anglais à la racine — la plupart des LLM traduisent bien ; (2) variantes par locale à /llms.txt, /fr/llms.txt, /es/llms.txt, chacune pointant vers des URLs localisées. Ne dupliquez pas les ensembles d'URLs entre locales.

llms.txt est-il sécurisé ?

C'est un fichier public. Traitez tout ce qu'il contient comme une diffusion. Ne listez jamais d'URLs staging, pages auth-gated, ou URLs avec secrets dans les query strings.

Faut-il bloquer les bots de llms.txt dans robots.txt ?

Non. Tout l'intérêt est que les clients LLM puissent le fetcher. Assurez-vous que votre robots.txt n'a pas de Disallow /llms.txt ou /llms-full.txt.

Peut-on générer llms.txt automatiquement ?

Oui — la plupart des sites en production le font. Itérez sur votre CMS ou collection de contenu au build, et écrivez le fichier dans votre dossier de sortie. Ou rendez-le à la volée via une route serveur. Dans tous les cas, lancez un validateur en CI pour attraper les régressions.

Jusqu'à quelle taille llms.txt peut-il aller ?

Pas de limite de la spec, mais au-delà de ~50 Ko, vous poussez contre les clients à contexte court. Le validateur de ce site signale les gros fichiers avec une note info.

Comment mesurer si llms.txt fonctionne ?

Réponse honnête : pas de Google Search Console pour les citations LLM. Surveillez vos logs serveur pour les user-agents LLM connus (GPTBot, ClaudeBot, PerplexityBot, OAI-SearchBot) hittant /llms.txt et /llms-full.txt, et tracez les referrers depuis chat.openai.com, claude.ai, perplexity.ai. Des outils de brand monitoring comme Profound et Otterly émergent.

Où voir des exemples réels ?

Voir notre galerie sur /fr/exemples/ — elle liste des fichiers llms.txt en production d'Anthropic, Cloudflare, Stripe, Mintlify, Vercel, Perplexity, avec des notes sur ce qui rend chacun intéressant.

Continuer

Sources