项目简介
'doi-mcp' 是一个基于 Model Context Protocol (MCP) 的服务器,专门用于防止大型语言模型(LLM)生成错误的学术引用(即“引用幻觉”)。它通过与 CrossRef、OpenAlex 和 PubMed 等真实学术数据库进行交互,强制LLM在提及任何学术论文之前验证其存在性和详细信息,或查找经过验证的论文,从而显著提升LLM输出的学术严谨性。
主要功能点
- 强制引用验证: 在LLM引用任何学术论文之前,此服务器会强制要求通过工具对其进行验证,以确保该论文真实存在。如果无法验证,LLM将拒绝引用。
- 多源实时验证: 支持查询 CrossRef、OpenAlex 和 PubMed 等多个权威学术数据库,提供实时、准确的引用验证结果,大大减少虚假引用的可能性。
- 发现经过验证的论文: 允许LLM根据用户查询的主题搜索真实的、已验证的学术论文,并返回带有DOI的完整引用信息,帮助LLM提供准确的文献支持。
- 信心评分与DOI支持: 对验证结果提供信心评分(高/中),并确保所有验证通过的引用都包含有效的、可点击的数字对象唯一标识符(DOI)链接,方便用户查阅原文。
- 防止幻觉: 通过预设的Prompt模板,持续指导LLM严格遵循引用验证协议,拒绝引用未经验证或不存在的文献,从根本上解决引用幻觉问题。
安装步骤
该MCP服务器可以通过 Smithery CLI 自动安装和部署,或进行手动安装。
- 通过 Smithery CLI 安装 (推荐):
在命令行中运行以下命令,Smithery CLI 将自动下载、安装并配置服务器:
npx -y @smithery/cli install @tfscharff/doi-mcp - 手动安装:
- 克隆 GitHub 仓库:
git clone https://github.com/tfscharff/doi-mcp.git - 进入项目目录:
cd doi-mcp - 安装项目依赖:
npm install - 构建项目:
npm run build - 完成构建后,您需要将此服务器添加到您的MCP客户端配置中。
- 克隆 GitHub 仓库:
服务器配置
您的MCP客户端需要以下JSON格式的配置信息才能连接此MCP服务器。'command' 和 'args' 指示客户端如何启动服务器进程,'config' 包含服务器自身的运行参数。
{ "name": "DOI Citation Verifier", "command": "node", "args": [ "./dist/index.js" // 指定Node.js运行构建后的服务器主脚本 // 如果服务器需要监听特定端口(如用于WebSocket或SSE传输),可能需要额外参数 // 例如:"--port", "8080" ], "config": { "autoVerify": true // 可选配置,布尔值,默认为true。当设置为true时,服务器将尝试自动验证LLM响应中的引用。 } // 如果服务器需要API Key等敏感配置,通常建议通过环境变量设置, // 而不是直接暴露在客户端配置中。例如,某些MCP客户端支持类似 "env": { "DOI_API_KEY": "your_key_here" } 的配置。 }
- 'name': 服务器在MCP客户端中显示的名称。
- 'command': 用于启动服务器进程的可执行程序,此处为 'node'。
- 'args': 传递给 'command' 的参数列表。'./dist/index.js' 是 'npm run build' 命令生成的服务端代码入口文件。
- 'config': 包含服务器特定的配置参数。当前示例中,'autoVerify' 是服务器支持的唯一参数,用于控制自动引用验证行为。
基本使用方法
将此MCP服务器连接到您的LLM客户端(如Claude、GPT等)后,LLM将能够利用服务器提供的工具和Prompt模板来实现以下功能:
- 验证特定引用: LLM在被训练后,会在引用任何学术论文之前自动调用 'verifyCitation' 工具。例如,当用户要求验证“Smith et al. (2024), 'Quantum AI', Nature”时,LLM会使用此工具查询学术数据库。如果该工具返回 'verified: false',LLM会明确告知用户该引用可能不正确,从而避免传播虚假信息。
- 查找经过验证的论文: 当用户询问关于某个研究主题的论文时,LLM会调用 'findVerifiedPapers' 工具。该工具将搜索多个学术数据库,返回一系列经过验证的真实论文列表,LLM随后会使用这些信息来生成回复,并附带有效的DOI链接,确保信息的可靠性。
- 遵守引用规范: 服务器通过 'citation-verification-rules' Prompt模板向LLM提供一套严格的引用规则。这些规则指导LLM始终只引用真实存在、已通过验证的论文,并要求在引用时包含DOI信息,从根本上杜绝引用幻觉,提升LLM输出的学术质量。
信息
分类
AI与计算