使用说明

项目简介

Witsy 是一款桌面AI助手,它允许用户在本地电脑上使用各种大型语言模型(LLM),并提供了一系列增强AI能力的工具和插件。除了作为桌面应用,Witsy 还实现了 Model Context Protocol (MCP) 服务器,可以作为后端为其他 MCP 客户端提供服务,扩展其应用场景。

主要功能点

  • 多模型支持: 支持包括 OpenAI, Ollama, Anthropic, MistralAI, Google, xAI 等多种主流LLM模型。
  • 插件系统: 支持插件扩展 LLM 功能,例如执行 Python 代码、联网搜索、长短期记忆等。
  • Prompt Anywhere & AI Commands: 允许在任何应用程序中通过快捷键快速调用 AI 功能,提升工作效率。
  • 专家 Prompt (Experts): 内置多种预设 Prompt,让 LLM 扮演特定领域的专家角色。
  • 本地文档 RAG: 支持与本地文件和文档进行对话,实现基于本地知识库的问答。
  • MCP 服务器: 内建 Anthropic MCP 服务器支持,可以作为独立的 MCP 服务器使用。

安装步骤

  1. 下载 Witsy: 访问 witsyai.comreleases 页面下载对应平台的预编译版本。
  2. API 密钥配置 (可选): 如果需要使用 OpenAI, Anthropic, Google, Mistral AI 等在线模型,需要在 Witsy 设置中配置相应的 API 密钥。对于 Ollama 模型,需要先安装 Ollama 并下载模型。
  3. 运行 Witsy: 下载的二进制文件可以直接运行。如果选择自行构建,则按照仓库 'README.md' 中的 "Setup" 部分的指引,使用 'npm install' 和 'npm start' 命令启动应用。

服务器配置

Witsy 的 MCP 服务器主要面向集成了 MCP 客户端的应用。配置 Witsy 作为 MCP 服务器时,客户端需要指定连接信息。由于 Witsy 的 MCP 服务器实现集成在桌面应用中,其运行依赖于 Witsy 桌面应用的启动。

以下是一个 MCP 客户端配置示例,用于连接 Witsy 的 MCP 服务器 (Stdio 传输协议):

{
  "serverName": "Witsy MCP Server",
  "command": "启动Witsy桌面应用的命令",
  "args": []
}

参数注释:

  • 'serverName': MCP 服务器的名称,可以自定义。
  • 'command': [请用户自行获取] 这里需要填写启动 Witsy 桌面应用程序的命令。 对于预编译版本,通常是 Witsy 可执行文件的路径。对于自行构建版本,可能是 'npm start' 或者 'electron .' 等命令,具体取决于用户的构建和运行方式。
  • 'args': 启动命令的参数,通常为空数组 '[]'。如果启动 Witsy 应用需要特定的命令行参数,可以在这里配置。

基本使用方法

  1. 启动 Witsy 桌面应用: 确保 Witsy 桌面应用处于运行状态。MCP 服务器伴随桌面应用启动而运行。
  2. 配置 MCP 客户端: 在 MCP 客户端中,根据上述 "服务器配置" 示例,配置连接到 Witsy MCP 服务器的信息。
  3. 客户端发起 MCP 请求: MCP 客户端即可通过配置的连接信息与 Witsy MCP 服务器建立连接,并按照 MCP 协议规范发送请求,例如资源读取、工具调用、Prompt 模板获取等。
  4. Witsy 服务器响应: Witsy MCP 服务器接收到客户端请求后,将根据请求内容进行处理,并返回符合 MCP 协议的 JSON-RPC 响应。

注意: Witsy 的 MCP 服务器实现可能主要服务于其自身桌面应用的功能扩展,作为独立的 MCP 服务器使用时,具体的功能和性能表现可能与专门的 MCP 服务器有所区别。详细的 MCP 服务器功能和能力,建议参考 Witsy 项目的源代码和相关文档。

信息

分类

桌面与硬件