← 返回首页

"Prompt管理"标签的搜索结果

找到 53 个结果

Mothership MCP运行时上下文服务器

Mothership MCP服务器提供工作区元数据服务,通过MCP协议向LLM客户端暴露资源、工具和Prompt,实现上下文信息和功能访问。

Context7

Context7 是一个基于 Model Context Protocol (MCP) 的服务器,为 AI 应用提供上下文信息和智能辅助能力。

Langfuse LLM工程平台

开源LLM工程平台,用于开发、监控、评估和调试AI应用,提供上下文管理、Prompt模板及评估工具。

Easy MCP Server

一个基于Model Context Protocol (MCP) 的动态API框架,能将传统API自动转换为LLM可调用的工具、提供Prompt模板和资源管理,支持多种通信协议。

Firelynx MCP服务器

可脚本化的MCP服务器,为AI应用提供定制工具、资源和Prompt能力。

程序员MCP服务器

基于Model Context Protocol (MCP),为程序员提供编程上下文和AI工具的应用后端。

EZ-MCP:快速构建MCP服务器模板

提供即开即用的Python和TypeScript模板,助您快速构建功能齐全的MCP服务器。

MCPoSimpleServer

轻量级、异步的MCP服务器,管理并暴露外部MCP工具和Prompt。

FastMCP-Scala: Scala MCP 服务器构建库

基于Scala 3和ZIO,用于快速、便捷地构建符合Model Context Protocol (MCP) 标准的应用后端服务器。

Simple Tool Server

轻量级异步API平台,用于管理和运行Model Context Protocol (MCP) 工具和服务器,提供上下文服务。

FastAPI FastMCP 集成服务器

集成FastAPI和FastMCP,快速构建可扩展的LLM上下文服务器,支持工具、资源、Prompt自动发现。

daphnetd - MCP 服务端

Model Context Protocol (MCP) 后端服务,为AI客户端提供上下文、工具调用和Prompt管理能力。

Go+ MCP服务器开发框架

基于Go+语言实现的Model Context Protocol (MCP) 服务器开发框架,简化LLM应用后端构建。

Convoworks GPT MCP服务器插件

基于Convoworks框架,将WordPress服务扩展为MCP服务器,通过SSE协议为LLM客户端提供工具和Prompt能力。

Kuri MCP 服务器框架

Kuri 是一个 Rust 框架,用于构建符合 Model Context Protocol (MCP) 协议的服务端应用,专注于提供工具和 Prompt 功能。

Workflows MCP

Workflows MCP是一个MCP服务器,用于编排和组合多个Prompt和MCP服务器,简化AI工具的使用和管理。

Talkverse.ai AI 聊天机器人平台

基于Next.js构建的AI聊天机器人平台,集成了Model Context Protocol (MCP) 功能,提供资源访问和工具执行能力。

Cangjie Magic Agent框架

Cangjie Magic 是一个用于构建智能Agent应用的框架,支持 Prompt 定义、工具集成和资源管理,可以作为 MCP 服务器使用。

Next.js MCP服务器示例

基于Next.js构建的MCP服务器示例,提供资源管理、工具注册和Prompt模板功能,支持LLM应用获取上下文信息和调用外部功能。

OmniAI MCP服务器

OmniAI MCP服务器是一个基于Ruby实现的MCP协议服务器,旨在为LLM客户端提供资源、工具和Prompt模板管理能力,实现标准化的上下文服务。

Workflows MCP

Workflows MCP 是一个 MCP 服务器,允许用户通过 YAML 文件灵活编排和管理 Prompt 工作流,并集成多种 MCP 工具。

ModelContextProtocol.jl

ModelContextProtocol.jl 是一个用 Julia 语言实现的 MCP 服务器,旨在为大型语言模型提供标准化的上下文信息和功能访问能力。

Smithery MCP Server Framework

Smithery MCP Server Framework 是一个用于构建 Model Context Protocol (MCP) 服务器的 Typescript 框架,专注于简化工具、资源和 Prompt 的集成与管理。

Croft MCP Server

Croft MCP Server 是一个基于 Laravel 框架构建的 MCP 服务器,旨在为 AI 编程助手提供上下文信息和工具支持。

MCP工具实验服务器

一个用于实验和理解MCP协议的服务器,提供工具、资源和Prompt模板,支持LLM工具调用。

MCP服务器模板

基于Python的MCP服务器快速启动模板,支持工具、Prompt和资源管理,为LLM应用提供上下文服务。

Muppet

Muppet是一个用于构建Model Context Protocol (MCP) 服务器的开源工具包,旨在标准化LLM应用后端的开发流程。

AgentScope MCP服务器

AgentScope是一个灵活的多智能体平台,集成了MCP服务器功能,为LLM应用提供标准化的上下文服务框架。

Agent8 MCP Server

Agent8 MCP Server是为Agent8 SDK开发提供上下文支持的后端服务,实现了MCP协议,提供Prompt模板和工具注册能力。

MCP示例服务器实现

基于FastMCP框架构建的MCP服务器示例,演示了如何通过资源、工具和Prompt模板为LLM应用提供上下文服务。

MCP Experiment Server

这是一个基于.NET开发的MCP服务器实验性实现,旨在为LLM客户端提供资源、工具和Prompt模板管理等上下文服务。

WithSeismic MCP Server

生产就绪的MCP服务器模板,用于托管AI工具和Prompt,支持远程和本地模式。

SkySQL MCP Server

基于FastAPI框架实现的MCP服务器,提供工具、资源和Prompt管理,集成SkySQL API。

Orq MCP Server

Orq MCP Server提供开发者友好的Typescript SDK 和 MCP 服务器实现,用于管理 LLM 应用的资源、工具和 Prompt,符合 Model Context Protocol 标准。

mcp prompts

mcp-prompts仓库是一个实现了Model Context Protocol (MCP) 的服务器,用于管理Prompt模板和自动化项目创建,支持多种存储方式,并提供丰富的工具集。

mcp template

基于Model Context Protocol的服务器模板,使用TypeScript构建,提供资源、工具和Prompt功能,方便LLM应用集成上下文能力。

server

该项目是基于FastAPI和MCP的Python MCP服务器实现,旨在为LLM客户端提供标准化的上下文交互能力,包括资源管理、工具注册和Prompt模板支持。

mcp kit

mcp-kit 是一个开源工具包,用于构建基于 Model Context Protocol (MCP) 的应用后端,提供资源管理、工具集成和Prompt模板等功能,旨在简化LLM应用后端开发。

mcp js server

mcp-js-server 是一个基于 JavaScript 的 MCP 服务器 SDK,用于构建能够向 LLM 应用提供资源、工具和 Prompt 模板的后端服务。

mcp rs template

基于Rust开发的MCP服务器模板,提供资源、Prompt和工具管理功能,可用于构建LLM应用后端。

litemcp

轻量级MCP服务器框架,用于构建和管理LLM上下文服务。

mcp framework

一个用于构建模型上下文协议(MCP)服务器的TypeScript框架,提供工具、资源和Prompt的自动发现、多种传输协议和身份验证等功能,简化MCP服务器的开发流程。

mcp go

mcp-go 是 Model Context Protocol (MCP) 的 Go 语言实现,旨在帮助开发者构建连接 LLM 应用和外部数据源及工具的后端服务。

typescript sdk

Model Context Protocol (MCP) 的 TypeScript SDK,用于简化 MCP 服务器和客户端的开发,提供资源、工具和 Prompt 管理等核心功能。

litemcp

LiteMCP是一个用于构建MCP服务器的TypeScript框架,简化了工具、资源和Prompt的定义和管理,方便LLM应用集成上下文能力。

mcp server llmling

LLMling MCP服务器是一个YAML配置驱动的MCP服务器实现,旨在为LLM应用提供资源、工具和Prompt管理功能,支持多种传输协议和配置热更新。

mcp server on raspi

一个在树莓派上运行的MCP服务器,提供简单的笔记存储和总结功能,演示了资源管理、Prompt模板和工具注册的核心MCP服务器能力。

goai

GoAI库提供了一个灵活的MCP服务器实现,支持资源管理、工具注册、Prompt模板定义,并通过JSON-RPC协议与LLM客户端通信,构建可扩展的AI应用后端。

RFK Jr Gateway

RFK Jr Gateway 是一个 MCP 服务器实现,它充当 MCP 客户端和 RFK Jr 端点之间的桥梁,将 RFK Jr 端点暴露为 MCP 资源和工具,并支持 Prompt 定制。

Resource Hub

Resource Hub Server作为代理MCP服务器,连接到中心Resource Hub以访问共享工具、资源和提示。

Langfuse Prompt Management

Langfuse Prompt Management MCP Server为LLM客户端提供Langfuse平台上的Prompt管理服务,支持Prompt检索和动态渲染。

Router

MCP代理服务器,将多个MCP资源服务器聚合成单一接口,统一管理和访问资源、工具和Prompt。

Systemprompt MCP Core

Systemprompt MCP Core 是一个基于 Model Context Protocol (MCP) 的服务器,用于创建、管理和扩展 AI 代理,提供强大的 Prompt 和工具管理系统。