Durante años, la web ha tenido una especie de «capa de servicio» para máquinas: archivos simples, aburridos y tremendamente útiles que viven en la raíz del dominio y que sirven para que los robots entiendan cómo tratar un sitio. El robots.txt, por ejemplo, no es un elemento decorativo: es el mecanismo estándar para orientar a los rastreadores de los buscadores sobre qué deben o no deben rastrear, y para gestionar carga y comportamiento de crawling. Del mismo modo, los sitemaps ayudan a que los buscadores encuentren y recorran URLs relevantes sin tener que descubrirlas a ciegas. Esa lógica, la de «un índice pensado para máquinas», es exactamente el punto de partida de llms.txt.
¿Y qué es llms.txt? En esencia, una propuesta para añadir un archivo /llms.txt en el directorio raíz de ...