使用说明
项目简介
Witsy 是一款桌面AI助手,它允许用户在本地电脑上使用各种大型语言模型(LLM),并提供了一系列增强AI能力的工具和插件。除了作为桌面应用,Witsy 还实现了 Model Context Protocol (MCP) 服务器,可以作为后端为其他 MCP 客户端提供服务,扩展其应用场景。
主要功能点
- 多模型支持: 支持包括 OpenAI, Ollama, Anthropic, MistralAI, Google, xAI 等多种主流LLM模型。
- 插件系统: 支持插件扩展 LLM 功能,例如执行 Python 代码、联网搜索、长短期记忆等。
- Prompt Anywhere & AI Commands: 允许在任何应用程序中通过快捷键快速调用 AI 功能,提升工作效率。
- 专家 Prompt (Experts): 内置多种预设 Prompt,让 LLM 扮演特定领域的专家角色。
- 本地文档 RAG: 支持与本地文件和文档进行对话,实现基于本地知识库的问答。
- MCP 服务器: 内建 Anthropic MCP 服务器支持,可以作为独立的 MCP 服务器使用。
安装步骤
- 下载 Witsy: 访问 witsyai.com 或 releases 页面下载对应平台的预编译版本。
- API 密钥配置 (可选): 如果需要使用 OpenAI, Anthropic, Google, Mistral AI 等在线模型,需要在 Witsy 设置中配置相应的 API 密钥。对于 Ollama 模型,需要先安装 Ollama 并下载模型。
- 运行 Witsy: 下载的二进制文件可以直接运行。如果选择自行构建,则按照仓库 'README.md' 中的 "Setup" 部分的指引,使用 'npm install' 和 'npm start' 命令启动应用。
服务器配置
Witsy 的 MCP 服务器主要面向集成了 MCP 客户端的应用。配置 Witsy 作为 MCP 服务器时,客户端需要指定连接信息。由于 Witsy 的 MCP 服务器实现集成在桌面应用中,其运行依赖于 Witsy 桌面应用的启动。
以下是一个 MCP 客户端配置示例,用于连接 Witsy 的 MCP 服务器 (Stdio 传输协议):
{ "serverName": "Witsy MCP Server", "command": "启动Witsy桌面应用的命令", "args": [] }
参数注释:
- 'serverName': MCP 服务器的名称,可以自定义。
- 'command': [请用户自行获取] 这里需要填写启动 Witsy 桌面应用程序的命令。 对于预编译版本,通常是 Witsy 可执行文件的路径。对于自行构建版本,可能是 'npm start' 或者 'electron .' 等命令,具体取决于用户的构建和运行方式。
- 'args': 启动命令的参数,通常为空数组 '[]'。如果启动 Witsy 应用需要特定的命令行参数,可以在这里配置。
基本使用方法
- 启动 Witsy 桌面应用: 确保 Witsy 桌面应用处于运行状态。MCP 服务器伴随桌面应用启动而运行。
- 配置 MCP 客户端: 在 MCP 客户端中,根据上述 "服务器配置" 示例,配置连接到 Witsy MCP 服务器的信息。
- 客户端发起 MCP 请求: MCP 客户端即可通过配置的连接信息与 Witsy MCP 服务器建立连接,并按照 MCP 协议规范发送请求,例如资源读取、工具调用、Prompt 模板获取等。
- Witsy 服务器响应: Witsy MCP 服务器接收到客户端请求后,将根据请求内容进行处理,并返回符合 MCP 协议的 JSON-RPC 响应。
注意: Witsy 的 MCP 服务器实现可能主要服务于其自身桌面应用的功能扩展,作为独立的 MCP 服务器使用时,具体的功能和性能表现可能与专门的 MCP 服务器有所区别。详细的 MCP 服务器功能和能力,建议参考 Witsy 项目的源代码和相关文档。
信息
分类
桌面与硬件