摘要:MiroFish是由盛大集团孵化的开源群体智能引擎,通过构建高保真数字世界,让数千个具备独立人格的AI智能体进行自由交互,从而预测未来走向。项目发布两周即斩获17000+ GitHub Star,目前已达45.2K Star。
项目概述
MiroFish是一款基于多智能体技术的新一代AI预测引擎。核心思路是:将现实世界的种子信息(新闻事件、政策草案、金融数据、甚至小说故事)输入系统,自动构建出高保真的平行数字世界。
在此空间内,成千上万个具备独立人格、长期记忆与行为逻辑的AI智能体进行自由交互与演化。用户可通过”上帝视角”动态注入变量,精准推演未来走向。
核心能力:
- 从现实数据提取种子,构建平行数字世界
- 生成数千个具有独立人格的AI智能体
- 支持长期记忆与行为逻辑模拟
- 动态注入变量,实时推演预测
- 生成详尽的预测报告
- 支持与模拟世界中的任意角色对话
适用场景:
- 舆情预测:政策发布后的社会反应推演
- 金融预测:市场事件对投资者行为的影响分析
- 创意推演:小说结局、剧情发展的多种可能性探索
- 决策模拟:商业策略在不同情境下的效果评估
系统架构
MiroFish采用前后端分离架构:
┌─────────────────────────────────────────────┐
│ 前端 (Vue) │
│ http://localhost:3000 │
└─────────────────────────────────────────────┘
│
▼
┌─────────────────────────────────────────────┐
│ 后端 (Python) │
│ http://localhost:5001 │
│ │
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ │
│ │ 图谱构建 │ │ 环境搭建 │ │ 报告生成 │ │
│ └──────────┘ └──────────┘ └──────────┘ │
│ │
│ ┌──────────┐ ┌──────────┐ ┌──────────┐ │
│ │ 双平台 │ │ 智能体 │ │ GraphRAG │ │
│ │ 并行模拟 │ │ 交互系统 │ │ 记忆系统 │ │
│ └──────────┘ └──────────┘ └──────────┘ │
└─────────────────────────────────────────────┘
核心模块:
- 图谱构建:现实种子提取、个体与群体记忆注入、GraphRAG构建
- 环境搭建:实体关系抽取、人设生成、环境配置
- 并行模拟:双平台协同、自动解析预测需求、动态更新时序记忆
- 报告生成:ReportAgent提供丰富的工具集
- 深度互动:支持与模拟世界中的任意角色对话
环境要求
部署前需准备以下环境:
| 工具 | 版本要求 | 说明 |
|---|---|---|
| Node.js | 18+ | 前端运行环境 |
| Python | ≥3.11, ≤3.12 | 后端运行环境 |
| uv | 最新版 | Python包管理器 |
验证安装命令:
node -v # 检查Node.js版本
python --version # 检查Python版本
uv --version # 检查uv版本
安装部署
方式一:源码部署(推荐)
1. 克隆仓库
git clone https://github.com/666ghj/MiroFish.git
cd MiroFish
2. 配置环境变量
# 复制示例配置文件
cp .env.example .env # 编辑 .env 文件
必需配置项:
# LLM API配置(支持OpenAI SDK格式的任意LLM API) # 推荐使用阿里百炼平台qwen-plus模型 LLM_API_KEY=your_api_key LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1 LLM_MODEL_NAME=qwen-plus# Zep Cloud配置(每月免费额度即可支撑简单使用)ZEP_API_KEY=your_zep_api_key
3. 安装依赖
# 一键安装所有依赖(根目录 + 前端 + 后端)
npm run setup:all
# 或者分步安装
npm run setup # 安装Node依赖
npm run setup:backend # 安装Python依赖
4. 启动服务
# 同时启动前后端
npm run dev
# 服务地址
# 前端:http://localhost:3000
# 后端API:http://localhost:5001
# 单独启动
npm run backend # 仅后端
npm run frontend # 仅前端
方式二:Docker部署
# 1. 配置环境变量
cp .env.example .env
# 2. 编辑.env填入API密钥
# 3. 拉取镜像并启动
docker compose up -d
默认映射端口:3000(前端)/ 5001(后端)。
基础使用
工作流程
MiroFish的预测流程分为5个步骤:
Step 1:图谱构建
上传种子材料(数据分析报告、新闻事件、小说文本等),系统自动提取实体关系,构建知识图谱。
Step 2:环境搭建
基于图谱生成具有独立人格的智能体,配置模拟环境参数。
Step 3:开始模拟
双平台并行模拟,智能体根据各自人格进行自由交互与演化。
Step 4:报告生成
ReportAgent对模拟结果进行分析,生成预测报告。
Step 5:深度互动
用户可与模拟世界中的任意角色对话,探索更多可能性。
预测示例
舆情预测场景:
输入:一篇关于某城市限购政策调整的新闻
系统自动构建:政策制定者、房地产商、购房者、媒体记者等多类型智能体
模拟推演:各类型群体对该政策的反应、传播路径、舆论走向
输出:详细的舆情预测报告,包括热度峰值、传播节点、情绪分布等
创意推演场景:
输入:《红楼梦》前80回文本
系统自动构建:贾宝玉、林黛玉、薛宝钗等主要人物智能体
模拟推演:基于人物性格推演后续剧情发展
输出:多种可能的结局走向及概率分析
API调用
MiroFish后端提供REST API:
# 创建模拟任务POST /api/simulation/create { "seed": "输入的种子材料", "config": { "agent_count": 1000, "simulation_rounds": 50 } }# 获取模拟状态GET /api/simulation/status/{task_id}# 获取预测报告GET /api/simulation/report/{task_id}# 与智能体对话POST /api/simulation/chat { "task_id": "xxx", "agent_id": "xxx", "message": "你想问的问题" }
配置说明
LLM配置
MiroFish支持任意兼容OpenAI SDK格式的LLM API:
# OpenAI
LLM_API_KEY=sk-xxx
LLM_BASE_URL=https://api.openai.com/v1
LLM_MODEL_NAME=gpt-4o
# Anthropic
LLM_API_KEY=sk-ant-xxx
LLM_BASE_URL=https://api.anthropic.com
LLM_MODEL_NAME=claude-3-5-sonnet
# 阿里百炼
LLM_API_KEY=your_key
LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
LLM_MODEL_NAME=qwen-plus
模拟参数配置
# simulation_config.yaml
simulation:
# 智能体数量
agent_count: 1000
# 模拟轮次
simulation_rounds: 50
# 记忆存储类型
memory:
short_term: redis
long_term: milvus
# 模拟速度(每秒处理轮次)
speed: 10
智能体人格配置
# agent_personalities.yaml
personalities:
- type: "政策制定者"
traits: ["理性", "谨慎", "利益平衡"]
memory_depth: "long"
- type: "普通市民"
traits: ["感性", "从众", "短期导向"]
memory_depth: "short"
- type: "媒体从业者"
traits: ["敏锐", "传播导向", "戏剧性"]
memory_depth: "medium"
注意事项
API消耗
MiroFish的模拟涉及大量LLM调用,消耗较高。建议:
- 初期测试时,智能体数量控制在100以内
- 模拟轮次控制在40轮以内
- 优先使用阿里百炼等性价比高的API服务
性能优化
| 场景 | 智能体数量 | 建议配置 |
|---|---|---|
| 简单测试 | 10-50 | CPU即可 |
| 常规模拟 | 100-500 | 4核CPU + 8GB内存 |
| 大规模预测 | 1000+ | 8核CPU + 16GB内存 |
数据安全
- 种子材料仅用于本地模拟,不会上传至第三方
- 建议使用国内API服务,避免跨境数据传输延迟
- 模拟结果可导出保存,便于后续分析
项目信息
- GitHub:https://github.com/666ghj/MiroFish
- Star:45.2K(截至2026年3月)
- Fork:6.3K
- License:AGPL-3.0
- 官网:https://mirofish.ai
- 在线Demo:https://666ghj.github.io/mirofish-demo/
- 赞助商:盛大集团战略支持
- 底层驱动:基于OASIS仿真引擎(Camel-AI开源)
技术栈
- 前端:Vue.js
- 后端:Python(FastAPI)
- 知识图谱:GraphRAG
- 记忆系统:Zep Cloud
- LLM支持:OpenAI SDK兼容格式
MiroFish由盛大集团战略支持孵化,底层驱动基于OASIS仿真引擎(Camel-AI开源)。
相关项目
群体智能与预测领域的其他开源项目:
- OASIS(Camel-AI):多智能体仿真引擎,MiroFish的底层驱动
- DeerFlow 2.0:字节跳动开源的多智能体协作框架
- MetaClaw:可进化的AI Agent框架
