详细介绍
MCP LLMS-TXT文档服务器是一个开源工具,允许开发者通过MCP协议控制IDE和应用程序访问文档资源。它支持从本地文件或远程URL加载文档,并与Cursor、Windsurf等开发工具无缝集成,提供对文档索引文件(如llms.txt)的全面管理。
核心功能
MCP LLMS-TXT文档服务器的核心功能包括:
- 支持多种文档源:可以从本地文件或远程URL加载文档,支持YAML、JSON格式的配置文件。
- 严格的安全控制:确保只从用户指定的可信域名获取文档。
- 工具链集成:与Cursor、Windsurf等开发工具集成,提升开发效率。
- 灵活的配置方式:支持通过命令行参数、YAML或JSON配置文件添加和管理文档源。
- 文档检索透明化:通过MCP协议控制文档调用过程,增强可控性和审计能力。
安装方法
可以通过 pip 安装 mcpdoc 工具:
pip install mcpdoc此外,也可以使用 uv 工具进行安装:
curl -LsSf https://astral.sh/uv/install.sh | sh使用方法
启动文档服务器的最简单方式是通过命令行指定文档源:
mcpdoc --urls LangGraph:https://langchain-ai.github.io/langgraph/llms.txt也可以通过 YAML 或 JSON 配置文件来管理多个文档源。例如,创建一个 YAML 配置文件:
# sample_config.yaml
- name: LangGraph Python
llms_txt: https://langchain-ai.github.io/langgraph/llms.txt然后通过以下命令启动服务器:
mcpdoc --yaml sample_config.yaml同样,也可以使用 JSON 配置文件:
[{
"name": "LangGraph Python",
"llms_txt": "https://langchain-ai.github.io/langgraph/llms.txt"
}]启动命令如下:
mcpdoc --json sample_config.json还可以将 YAML、JSON 和命令行参数组合使用:
mcpdoc --yaml sample_config.yaml --json sample_config.json --urls LangGraph:https://langchain-ai.github.io/langgraph/llms.txt使用示例
以下是一个完整的 Python 示例,展示如何通过代码创建并启动文档服务器:
from mcpdoc.main import create_server
# 创建服务器实例,指定文档源
server = create_server(
[
{
"name": "LangGraph Python",
"llms_txt": "https://langchain-ai.github.io/langgraph/llms.txt",
},
# 可以添加多个文档源
# {
# "name": "Another Documentation",
# "llms_txt": "https://example.com/llms.txt",
# },
],
follow_redirects=True,
timeout=15.0,
)
# 启动服务器
server.run(transport="stdio")启动后,可以通过以下方式查询文档:
/mcp query "请列举所有支持的模型"使用场景
MCP LLMS-TXT文档服务器适用于以下场景:
- 需要在开发过程中快速检索和引用文档的开发者。
- 希望提升文档调用透明度和可控性的团队。
- 使用Cursor、Windsurf等开发工具的开发者,希望集成文档检索功能。
- 需要从多个来源加载文档并进行统一管理的项目。
注意事项
在使用MCP LLMS-TXT文档服务器时,需要注意以下几点:
- 确保文档源的URL是可信的,以避免安全风险。
- 配置文件格式必须正确,否则可能导致服务器启动失败。
- 如果文档源需要身份验证或特殊权限,需在配置中正确设置。
- 服务器默认不跟随HTTP重定向,如需启用,可使用 `--follow-redirects` 参数。
- HTTP请求默认超时时间为10秒,如需调整,可使用 `--timeout` 参数。
MCP LLMS-TXT文档服务器通过灵活的配置和强大的文档管理能力,为开发者提供了一个高效、安全的文档检索解决方案。