项目简介
pctx是一个创新的开源框架,它充当AI智能体和多个Model Context Protocol (MCP) 服务器之间的桥梁。它通过一个统一的接口汇聚上游MCP服务,并引入“代码模式”功能,允许AI智能体以TypeScript代码的形式直接调用工具,从而显著减少LLM交互所需的Token数量,提高效率。pctx还负责会话管理、能力声明和安全认证,为LLM应用提供一个安全、可扩展的上下文服务框架。
主要功能点
- 统一的MCP接口: 为AI智能体提供单一的接入点,无需管理多个MCP服务器连接,简化AI智能体的集成。
- 上游MCP服务聚合: 能够连接并管理多个外部MCP服务器(如Stripe、Slack等),将它们的工具和资源统一暴露给AI智能体。
- 代码模式执行环境: 允许AI智能体生成TypeScript代码,并在安全的Deno沙盒环境中执行,以实现多步骤工具调用和数据处理,大幅优化LLM的Token使用效率。
- 安全认证与隔离: pctx负责管理对上游服务的认证密钥和凭据,并在隔离的沙盒中运行AI生成的代码,确保数据和系统的安全性。
- 会话管理和能力声明: 支持MCP协议的核心能力,包括向LLM客户端提供上下文信息和功能列表,以便AI智能体发现和利用可用的工具。
安装步骤
您可以根据您的操作系统和偏好选择以下任一方式安装pctx:
- 使用Homebrew(macOS/Linux):
在终端中运行以下命令:
brew install portofcontext/tap/pctx - 使用cURL(macOS/Linux):
在终端中运行以下命令:
curl --proto '=https' --tlsv1.2 -LsSf https://raw.githubusercontent.com/portofcontext/pctx/main/install.sh | sh - 使用npm(跨平台):
在终端中运行以下命令(需要Node.js环境):
npm i -g @portofcontext/pctx
服务器配置
pctx作为一个Model Context Protocol (MCP) 服务器,AI智能体客户端需要知道如何连接到它。如果您的MCP客户端被设计为启动pctx作为子进程,它会配置pctx的启动命令和相关参数。例如,启动pctx服务器的默认命令是'pctx',参数通常是'dev'来在开发模式下运行。pctx本身会管理与所有上游MCP服务的连接和认证信息,这些不需要在MCP客户端的配置中重复。pctx服务器启动后会输出其监听的URL,MCP客户端将通过该URL与pctx建立连接。
基本使用方法
- 初始化pctx配置: 在终端中运行 'pctx init'。这将在您的本地创建一个配置文件,用于管理pctx的上游MCP连接。
- 添加上游MCP服务:
使用 'pctx add <name> <url>' 命令添加您希望通过pctx聚合的MCP服务器。
- 例如,添加一个本地运行的MCP服务器:
pctx add my-local-server http://localhost:3000/mcp - 例如,添加一个外部的MCP服务:
pctx add stripe https://mcp.stripe.com
- 例如,添加一个本地运行的MCP服务器:
- 启动pctx服务器: 在终端中运行 'pctx dev' 启动pctx服务器,进入开发模式。服务器启动后,会在控制台输出一个URL(例如 'http://localhost:8080'),这就是您的AI智能体客户端需要连接的地址。
- AI智能体客户端连接: 将pctx服务器提供的URL配置到您的AI智能体客户端中,并确保客户端使用正确的传输协议(例如 'http')与pctx建立连接。之后,您的AI智能体就可以通过pctx统一调用所有聚合的工具和服务,并利用“代码模式”进行更复杂的交互。
信息
分类
开发者工具