这是一个基于Model Context Protocol (MCP)实现的服务器,为大型语言模型(LLM)客户端(如Claude)提供通过Tavily进行网络搜索和文本分析的能力。

主要功能点

此服务器为LLM提供以下两个主要功能工具:

  • 网络搜索 (search): 允许LLM对指定的查询执行网络搜索,并返回搜索结果。支持基本 ('basic') 和深度 ('deep') 搜索模式。
  • 文本分析 (analyze_text): 允许LLM提交一段文本内容,利用Tavily的能力对其进行分析并返回结果。

安装步骤

  1. 克隆此GitHub仓库到您的本地计算机。
  2. 在仓库的根目录创建一个名为 '.env' 的文件。文件内容应为一行:'TAVILY_API_KEY=your_tavily_api_key_here',请将 'your_tavily_api_key_here' 替换为您从Tavily官网获取的API密钥。
  3. 确保您的系统中已安装 'uv' 包管理器(如果未安装,可以通过 'pip install uv' 安装)。
  4. 打开终端,进入克隆的仓库目录。
  5. 运行以下命令安装所需的依赖库:
    uv add "mcp[cli]" "tavily-python" "python-dotenv"
  6. 运行以下命令安装并注册此MCP服务器:
    uv run mcp install main.py
    此命令会编译您的代码并将服务器配置信息注册到您的LLM客户端(如Claude桌面版)。

服务器配置

此MCP服务器的配置由 'uv run mcp install main.py' 命令自动处理。它会根据您的LLM客户端环境,将服务器的启动命令和必要参数(例如 'uv run main.py')注册到客户端配置中。当LLM客户端需要调用此服务器提供的工具时,它将使用注册的命令启动服务器,并通过标准输入/输出来建立通信连接(默认的MCP传输方式通常是Stdio)。您无需手动编辑复杂的JSON配置文件。

基本使用方法

完成安装步骤后:

  1. 彻底关闭并重新启动您的LLM客户端(例如,关闭Claude桌面版,确保其不在后台运行,然后重新打开)。
  2. 在LLM客户端的界面中,您应该能看到已成功注册的Tavily搜索和文本分析工具。
  3. 现在您可以在与LLM的对话中,直接请求LLM使用这些工具来完成任务。例如:
    • “请帮我搜索一下关于量子计算的最新进展。”
    • “分析一下这段文字的主要观点是什么:[在此粘贴您想分析的文本]” LLM将根据您的请求,决定是否调用相应的Tavily工具来获取信息或分析文本。

如果工具未出现,请检查Claude是否彻底重启,或尝试重新运行安装命令 'uv run mcp install main.py'。

信息

分类

网页与API