使用说明
项目简介
OpenSumi 是一个用于构建 AI 原生 IDE 产品的框架。它提供了一套完整的前后端框架,帮助开发者快速搭建功能丰富的、面向 AI 应用的集成开发环境。该框架可以作为 MCP 服务器,为 LLM 客户端提供资源管理、工具调用和 Prompt 模板等服务。
主要功能点
- 资源管理: OpenSumi 框架可以托管和管理 IDE 工作区内的各种资源,例如文件、目录等,并提供数据访问能力。
- 工具注册与执行: OpenSumi 支持插件扩展机制,允许插件注册各种工具(例如代码编辑器、调试器、终端等),这些工具可以被 LLM 客户端调用以扩展其功能。
- Prompt 模板支持: 虽然代码中未直接体现,但作为 AI Native IDE 框架,OpenSumi 具备支持 Prompt 模板以定制 LLM 交互模式的潜力,可能通过插件或更高层框架实现。
- 可扩展的 IDE 框架: OpenSumi 提供了模块化和插件化的架构,方便开发者根据需求定制和扩展 IDE 功能,满足各种 LLM 应用的上下文服务需求。
- 多种客户端支持: 基于 Web 技术栈,OpenSumi 可以支持多种客户端,例如浏览器、Electron 应用等,方便 LLM 客户端集成。
安装步骤
- 克隆仓库: 将 OpenSumi Core 仓库克隆到本地。
git clone https://github.com/opensumi/core.git cd core - 安装依赖: 使用 yarn 安装项目依赖。
yarn install - 初始化: 运行初始化脚本。
yarn run init - 启动服务器: 运行启动命令,启动 OpenSumi 服务器。
yarn run start
服务器配置
MCP 客户端需要配置 MCP 服务器的启动命令和参数,以便建立连接。以下是 OpenSumi 服务器的典型配置信息(JSON 格式):
{ "serverName": "OpenSumi Server", "command": "yarn", "args": [ "run", "start", "--serverPort", "50999", // (可选) 指定服务器端口,默认为 50999 "--workspaceDir", "/path/to/your/workspace" // (可选) 指定工作区目录,默认为仓库根目录 // "--extensionCandidate", "/path/to/your/extension" // (可选) 指定扩展插件目录 ] }
基本使用方法
- 启动 OpenSumi 服务器: 按照安装步骤启动服务器后,OpenSumi IDE 将在浏览器中打开(默认地址为 'http://localhost:50999' 或 'http://[您的IP地址]:50999')。
- 配置 MCP 客户端连接: 在 MCP 客户端中,配置上述服务器配置信息,指定 OpenSumi 服务器的启动命令和参数。
- LLM 客户端与服务器交互: MCP 客户端将通过 JSON-RPC 协议与 OpenSumi 服务器通信,请求资源数据、调用工具功能、获取 Prompt 模板等,以实现与 LLM 的集成应用。
注意:
- 上述配置中的 'command' 和 'args' 仅为示例,请根据您的实际环境和需求进行调整。
- MCP 客户端需要根据 MCP 协议规范,构造符合规范的 JSON-RPC 请求,并解析服务器返回的响应。
- OpenSumi 框架的详细功能和 API 文档,请参考 opensumi.com。
信息
分类
开发者工具