项目简介

pctx是一个创新的开源框架,它充当AI智能体和多个Model Context Protocol (MCP) 服务器之间的桥梁。它通过一个统一的接口汇聚上游MCP服务,并引入“代码模式”功能,允许AI智能体以TypeScript代码的形式直接调用工具,从而显著减少LLM交互所需的Token数量,提高效率。pctx还负责会话管理、能力声明和安全认证,为LLM应用提供一个安全、可扩展的上下文服务框架。

主要功能点

  • 统一的MCP接口: 为AI智能体提供单一的接入点,无需管理多个MCP服务器连接,简化AI智能体的集成。
  • 上游MCP服务聚合: 能够连接并管理多个外部MCP服务器(如Stripe、Slack等),将它们的工具和资源统一暴露给AI智能体。
  • 代码模式执行环境: 允许AI智能体生成TypeScript代码,并在安全的Deno沙盒环境中执行,以实现多步骤工具调用和数据处理,大幅优化LLM的Token使用效率。
  • 安全认证与隔离: pctx负责管理对上游服务的认证密钥和凭据,并在隔离的沙盒中运行AI生成的代码,确保数据和系统的安全性。
  • 会话管理和能力声明: 支持MCP协议的核心能力,包括向LLM客户端提供上下文信息和功能列表,以便AI智能体发现和利用可用的工具。

安装步骤

您可以根据您的操作系统和偏好选择以下任一方式安装pctx:

  • 使用Homebrew(macOS/Linux): 在终端中运行以下命令:
    brew install portofcontext/tap/pctx
  • 使用cURL(macOS/Linux): 在终端中运行以下命令:
    curl --proto '=https' --tlsv1.2 -LsSf https://raw.githubusercontent.com/portofcontext/pctx/main/install.sh | sh
  • 使用npm(跨平台): 在终端中运行以下命令(需要Node.js环境):
    npm i -g @portofcontext/pctx

服务器配置

pctx作为一个Model Context Protocol (MCP) 服务器,AI智能体客户端需要知道如何连接到它。如果您的MCP客户端被设计为启动pctx作为子进程,它会配置pctx的启动命令和相关参数。例如,启动pctx服务器的默认命令是'pctx',参数通常是'dev'来在开发模式下运行。pctx本身会管理与所有上游MCP服务的连接和认证信息,这些不需要在MCP客户端的配置中重复。pctx服务器启动后会输出其监听的URL,MCP客户端将通过该URL与pctx建立连接。

基本使用方法

  1. 初始化pctx配置: 在终端中运行 'pctx init'。这将在您的本地创建一个配置文件,用于管理pctx的上游MCP连接。
  2. 添加上游MCP服务: 使用 'pctx add <name> <url>' 命令添加您希望通过pctx聚合的MCP服务器。
    • 例如,添加一个本地运行的MCP服务器:
      pctx add my-local-server http://localhost:3000/mcp
    • 例如,添加一个外部的MCP服务:
      pctx add stripe https://mcp.stripe.com
  3. 启动pctx服务器: 在终端中运行 'pctx dev' 启动pctx服务器,进入开发模式。服务器启动后,会在控制台输出一个URL(例如 'http://localhost:8080'),这就是您的AI智能体客户端需要连接的地址。
  4. AI智能体客户端连接: 将pctx服务器提供的URL配置到您的AI智能体客户端中,并确保客户端使用正确的传输协议(例如 'http')与pctx建立连接。之后,您的AI智能体就可以通过pctx统一调用所有聚合的工具和服务,并利用“代码模式”进行更复杂的交互。

信息

分类

开发者工具