基于 Model Context Protocol 的 MCP 服务器实现,在 Windows 上向 LLM 客户端以标准化方式暴露工具、资源与上下文信息,并通过 JSON-RPC 提供本地/远程的上下文服务与自动化能力。
基于 MCP 协议实现的服务器端,提供在 Google Colab GPU 运行时执行 Python 代码的能力,并把输出与可下载工件返回给 MCP 客户端。实现了 colab_execute、colab_execute_file、colab_execute_notebook 三个工具,支持通过_stdio 传输与客户端通信、并自动管理 Colab 运行时与内核会话。