这是一个基于Model Context Protocol (MCP)实现的服务器,为大型语言模型(LLM)客户端(如Claude)提供通过Tavily进行网络搜索和文本分析的能力。
主要功能点
此服务器为LLM提供以下两个主要功能工具:
- 网络搜索 (search): 允许LLM对指定的查询执行网络搜索,并返回搜索结果。支持基本 ('basic') 和深度 ('deep') 搜索模式。
- 文本分析 (analyze_text): 允许LLM提交一段文本内容,利用Tavily的能力对其进行分析并返回结果。
安装步骤
- 克隆此GitHub仓库到您的本地计算机。
- 在仓库的根目录创建一个名为 '.env' 的文件。文件内容应为一行:'TAVILY_API_KEY=your_tavily_api_key_here',请将 'your_tavily_api_key_here' 替换为您从Tavily官网获取的API密钥。
- 确保您的系统中已安装 'uv' 包管理器(如果未安装,可以通过 'pip install uv' 安装)。
- 打开终端,进入克隆的仓库目录。
- 运行以下命令安装所需的依赖库:
uv add "mcp[cli]" "tavily-python" "python-dotenv" - 运行以下命令安装并注册此MCP服务器:
此命令会编译您的代码并将服务器配置信息注册到您的LLM客户端(如Claude桌面版)。uv run mcp install main.py
服务器配置
此MCP服务器的配置由 'uv run mcp install main.py' 命令自动处理。它会根据您的LLM客户端环境,将服务器的启动命令和必要参数(例如 'uv run main.py')注册到客户端配置中。当LLM客户端需要调用此服务器提供的工具时,它将使用注册的命令启动服务器,并通过标准输入/输出来建立通信连接(默认的MCP传输方式通常是Stdio)。您无需手动编辑复杂的JSON配置文件。
基本使用方法
完成安装步骤后:
- 彻底关闭并重新启动您的LLM客户端(例如,关闭Claude桌面版,确保其不在后台运行,然后重新打开)。
- 在LLM客户端的界面中,您应该能看到已成功注册的Tavily搜索和文本分析工具。
- 现在您可以在与LLM的对话中,直接请求LLM使用这些工具来完成任务。例如:
- “请帮我搜索一下关于量子计算的最新进展。”
- “分析一下这段文字的主要观点是什么:[在此粘贴您想分析的文本]” LLM将根据您的请求,决定是否调用相应的Tavily工具来获取信息或分析文本。
如果工具未出现,请检查Claude是否彻底重启,或尝试重新运行安装命令 'uv run mcp install main.py'。
信息
分类
网页与API