项目简介
该项目是一个基于Model Context Protocol (MCP) 原则构建的后端服务,旨在作为一个专业的SaaS平台,赋能AI应用(特别是大语言模型LLM客户端)来创建和发布LinkedIn内容。它整合了AI内容生成、图像分析和LinkedIn发布API,并提供了用户认证、积分(Token)管理等核心功能。该服务器通过标准的API接口向客户端提供服务,充当AI能力与外部平台(如LinkedIn)之间的桥梁。
主要功能点
- AI内容生成: 利用先进的AI模型(如Google Gemini)根据文本或图像生成高质量、适合LinkedIn发布的专业内容。
- 图像分析: 具备分析用户上传图片的能力,提取关键信息,并结合用户指令生成相关的LinkedIn帖子内容。
- 直接发布至LinkedIn: 通过LinkedIn API实现内容的直接创建和发布,支持文本帖子、单图帖子及多图(轮播)帖子。
- 用户认证与管理: 提供安全的认证流程(如Google OAuth),管理用户账户信息。
- 积分系统: 采用Token(积分)机制来计量和限制用户对高级AI功能(如图像分析、多图发布)的使用,并提供每日自动刷新。
- 会话与权限管理: 管理用户会话状态,确保API调用的安全性和用户权限的正确性。
安装步骤
- 克隆仓库:
git clone https://github.com/Harsh-dev3221/LinkedIN_MCP.git cd LinkedIN_MCP - 安装后端依赖:
cd mcp-server npm install - 安装前端依赖: (可选,如果需要运行配套客户端)
cd ../frontend-vite npm install - 设置环境变量:
- 在 'mcp-server' 目录下复制 '.env.example' 文件并重命名为 '.env'。
- 在 'frontend-vite' 目录下复制 '.env.example' 文件并重命名为 '.env'。
- 编辑这两个 '.env' 文件,填入你的Supabase、LinkedIn开发者应用、Google Gemini AI和Google OAuth的API密钥和配置信息。
- 设置数据库:
(确保你的Supabase项目已配置好并填写了正确的URL和Service Role Key)cd mcp-server npm run setup-db - 启动开发服务器:
- 在第一个终端中启动后端:
cd mcp-server npm run dev - 在第二个终端中启动前端 (可选):
cd frontend-vite npm run dev
- 在第一个终端中启动后端:
服务器配置 (供MCP客户端连接使用)
此MCP服务器主要通过HTTP/HTTPS协议暴露服务。MCP客户端连接时,通常需要提供服务器的启动命令和连接URL。
要启动此服务器,使用的命令和参数如下:
- 命令 (command): 'npm'
- 参数 (args): '["run", "dev"]'
- 工作目录 (cwd): 服务器代码的根目录,即包含 'package.json' 的 'mcp-server' 文件夹。
MCP客户端连接信息示例 (JSON格式): (注意:实际连接方式取决于你的MCP客户端如何配置,通常需要提供服务器监听的网络地址和端口,例如 'http://localhost:3001',而不是直接运行命令。以下格式仅为按要求提供命令/参数信息,供客户端参考如何启动服务器进程。)
{ "server name": "LinkedIn Post Creator MCP Server", "command": "npm", "args": ["run", "dev"], // 客户端实际连接地址通常为:http://localhost:3001 (假设在本地运行且端口为3001) // 具体的MCP工具调用通过 POST 请求发送到 /mcp 路径 }
基本使用方法
- 通过前端应用(如果运行)访问服务器,通常在浏览器中打开 'http://localhost:5173'。
- 使用Google账户登录,连接到你的LinkedIn账户完成OAuth认证。
- 在用户界面上选择内容创建类型(纯文本、单图、多图)。
- 输入文本或上传图片。服务器的MCP工具会被调用来处理请求。
- AI生成或处理内容后,可以在前端进行预览。
- 确认内容后,使用Tokens(积分)并发布到LinkedIn。
- 在Dashboard查看Token使用情况和发布历史。
信息
分类
AI与计算