MiroFish:多智能体技术的开源AI推演预测引擎

MiroFish:多智能体技术的开源AI推演预测引擎
在这里插入图片描述

MiroFish是一款基于多智能体技术的开源AI预测引擎,能够基于现实种子信息构建平行数字世界进行仿真推演。下面为您详细介绍这个项目以及本地部署和使用流程。

一、MiroFish项目概述

核心功能

  1. 种子信息驱动预测:支持从突发新闻、政策草案、金融信号、数据分析报告或小说故事中提取种子信息,生成预测任务输入。
  2. 平行数字世界构建:自动搭建高保真仿真环境,让具备独立人格、长期记忆与行为逻辑的智能体在其中自由交互和演化。
  3. 自然语言预测交互:用户可直接用自然语言描述预测需求,无需手工编排复杂规则。
  4. 预测报告生成:模拟完成后输出详尽预测报告,并由ReportAgent与仿真环境进行深度交互。
  5. 模拟世界深度对话:支持与模拟世界中任意角色对话,也可以与报告代理继续追问。

技术架构

  • GraphRAG + 长期记忆:种子材料自动拆解成实体关系、人设画像、事件链,Zep Cloud驱动记忆
  • OASIS仿真引擎:基于CAMEL-AI团队开源的OASIS引擎,支持数千Agent并行运行
  • ReACT模式驱动:ReportAgent采用Reasoning & Acting范式,主动调研而非被动生成
  • 双平台并行模拟:两个仿真平台同时运行,互相验证,动态更新时序记忆

应用场景

  • 舆情推演:对热点事件、校园舆情、品牌公关风险等进行动态模拟与走势预测
  • 政策与决策预演:在零风险环境中对政策、公关方案或复杂决策进行试错和预演
  • 金融与时政预测:金融方向推演预测、时政要闻推演预测
  • 文学与创意仿真:小说剧情延展、结局推演,如《红楼梦》失传结局预测
  • 多智能体研究:探索群体涌现、社会仿真和多智能体交互机制

二、本地部署详细指南

环境要求

  • Node.js:18及以上版本
  • Python:3.11至3.12版本(不要使用3.13)
  • uv:最新版Python包管理器
  • Docker & Docker Compose(如果选择Docker部署)

部署方式对比

部署方式优点缺点适用场景
Docker部署快速便捷、环境一致、隔离性好定制化程度较低快速体验、生产环境
源码部署深度定制、灵活性高依赖环境复杂开发调试、二次开发

Docker部署步骤(推荐新手)

  1. 访问服务
    • 前端界面:http://localhost:3000
    • 后端API:http://localhost:5001

一键启动

docker compose up -d

配置环境变量

cp .env.example .env 

编辑.env文件,填入以下关键配置:

# LLM配置(支持任意兼容OpenAI SDK格式的API)LLM_API_KEY=your_api_key_here LLM_BASE_URL=your_api_base_url LLM_MODEL_NAME=qwen-plus # 或其他模型# Zep Cloud配置(用于GraphRAG知识图谱)ZEP_API_KEY=your_zep_api_key 

克隆仓库

git clone https://github.com/666ghj/MiroFish.git cd MiroFish 

源码部署步骤(更灵活)

安装依赖并启动

# 一键安装所有依赖npm run setup:all # 启动开发服务器npm run dev 

克隆并配置项目

git clone https://github.com/666ghj/MiroFish.git cd MiroFish cp .env.example .env # 编辑.env文件配置API密钥

安装uv包管理器

curl-LsSf https://astral.sh/uv/install.sh |shsource ~/.bashrc 

安装Python 3.11

sudoaptinstall-y python3.11 python3.11-venv python3.11-dev 

安装基础依赖

# Ubuntu系统示例sudoapt update &&sudoapt upgrade -ysudoaptinstall-ycurlgit build-essential # 安装Node.js 18curl-fsSL https://deb.nodesource.com/setup_18.x |sudo-Ebash - sudoaptinstall-y nodejs # 验证安装node-v# 应输出v18.x.xnpm-v# 应输出9.x或更高

三、完整使用工作流程

五步标准化工作流程

步骤名称核心任务输出成果
Step 01知识初始化上传种子材料,系统通过LLM自动梳理本体结构关键节点识别、实体关系图谱
Step 02仿真编排生成性格迥异的Profile,配置时间步长、事件触发逻辑智能体人设配置、环境参数设置
Step 03实时演推启动模拟,观察情绪扩散路径,捕捉关键节点动态图谱可视化、实时行动日志
Step 04AI深度诊断ReportAgent介入,将非结构化数据转化为逻辑严密的叙事结构化预测报告、风险分析
Step 05决策下达获得包含"最佳回应节点"、"风险触发带"的终极报告可执行洞察、对策收益预测

详细操作流程

  1. 上传种子材料
    • 支持格式:PDF、MD、TXT等非结构化数据
    • 内容类型:新闻报道、政策草案、金融报告、小说文本等
    • 示例:上传《平凡的世界》PDF文件,假设"田晓霞和贺秀莲没有去世"的场景
  2. 描述预测需求
    • 用自然语言输入模拟或预测需求
    • 示例:“如果武汉大学发布撤销肖某处分的公告,会引发什么舆情走向?”
  3. 系统自动构建
    • 图谱构建:提取实体关系,形成语义体系,进行关联度分析
    • 环境搭建:生成Agent人设,预期Agent总数可达77个(实际生成61个)
    • 双平台配置:生成模拟配置,初始激活编排
  4. 运行模拟
    • 设置模拟轮数:默认100轮,建议先尝试20-40轮以减少等待时间和错误概率
    • 观察智能体交互:在动态图谱中观察情绪的扩散路径
    • 实时监控:右侧显示清晰行动路线,观察不同Agent在模拟世界中的活跃状态
  5. 查看结果
    • 预测报告:ReportAgent生成的详细分析报告
    • 深度交互:与模拟世界中任意角色对话,或与ReportAgent继续追问
    • 示例报告内容:包含叙事范式转变、社会心理补偿机制、情感支持成为核心驱动力等深度分析
  • 模拟轮数:先进行小于40轮的模拟尝试,模拟消耗较大

四、应用案例

案例1:武汉大学舆情推演

  • 种子材料:武汉大学相关舆情报告
  • 预测需求:模拟撤销处分公告后的舆情演化
  • 输出结果:舆情爆发、发展和变化趋势预测,为决策提供参考

案例2:《平凡的世界》理想化结局模拟

  • 种子材料:《平凡的世界》PDF文件
  • 预测需求:假设田晓霞和贺秀莲没有去世的故事走向
  • 输出洞察
    1. 叙事范式从"苦难美学"转向"圆满叙事"
    2. 情感支持成为个体阶层跨越的关键加速器
    3. 重塑乡村社区的集体记忆与公共话语

案例3:特斯拉财报股价预测

  • 种子材料:特斯拉最近的分析报告
  • 预测需求:发布财报当日股价涨跌预测
  • 模拟过程:生成华尔街、分析师、Elon Musk等26个不同人设的Agent
  • 预测结果:多家机构对特斯拉股价的态度转为悲观

Read more

AI的提示词专栏:Prompt 辅助的实体识别(NER)案例

AI的提示词专栏:Prompt 辅助的实体识别(NER)案例

AI的提示词专栏:Prompt 辅助的实体识别(NER)案例 本文围绕 Prompt 辅助的实体识别(NER)展开,先介绍 NER 的核心定义,即从非结构化文本提取特定意义实体并归类,阐述其在多行业的价值,对比传统 NER 与 Prompt 辅助 NER 的差异。接着提出 Prompt 辅助 NER 需遵循目标明确、约束清晰、示例引导的设计原则。随后通过金融、医疗、法律领域的实战案例,展示 Prompt 设计、预期输出及技巧点。还分析常见问题与解决方案,分享结合领域词典、多轮对话、Logit Bias 参数等进阶技巧,最后给出新手入门、行业应用等实践建议,为相关 NLP 任务提供实体数据支撑。 人工智能专栏介绍     人工智能学习合集专栏是 AI

大模型选型“炼狱”与终结:一份来自普通开发者的AI Ping深度评测报告

大模型选型“炼狱”与终结:一份来自普通开发者的AI Ping深度评测报告

在人工智能应用开发的浪潮中,每一位开发者或许都经历过相似的“启蒙时刻”:初次调用大模型API,看到屏幕上流畅涌现出精准答案时的兴奋。然而,当兴奋褪去,真正将大模型集成到生产环境时,一场更为严峻的考验才刚刚开始。这不再是关于模型能否回答“地球为什么是圆的”,而是关乎你的应用能否在真实的用户压力下,稳定、快速且经济地持续运转。 这片看似繁荣的“百模大战”景象,对一线开发者而言,更像是一片充满未知与迷雾的沼泽。我们正在面临一个前所未有的“选择炼狱”。 第一部分:AI开发者的真实困境——MaaS时代的“性能盲区” 大模型即服务(MaaS)的兴起,极大地降低了开发者使用尖端AI能力的门槛。阿里云、腾讯云、百度智能云等巨头,以及智谱AI、月之暗面、百川智能等新兴力量,共同构建了一个庞大的模型超市。货架上琳琅满目,从千亿参数的庞然大物到针对特定场景的轻量级模型,应有尽有。但问题也随之而来:当产品经理带着需求走来,当运营部门设定了严格的成本红线,当用户在应用商店里因为“反应太慢”而打下一星差评时,我们该如何做出最优选择? 长久以来,行业内评估一个大模型优劣的核心标准,似乎都聚焦于“精度”

【AI】trae Skills使用方法

【AI】trae Skills使用方法

一、Skills是什么? Skill可以理解为agent的技能,Claude官方的解释是,使用 Skills 可以提升执行特定任务的能力。比如,可以在本地就能调用 Skills 玩转图片、Excel、Word、PDF 等处理操作,它和agent、mcp对比: 特性对比表格 特性SkillsSub-AgentsMCP (Model Context Protocol)目的用专业知识、工作流程、资源扩展 Claude生成自主代理处理复杂子任务连接外部工具和数据源调用方式模型自动发现(基于上下文)父代理显式生成MCP 服务器工具调用持久性触发时加载到上下文独立运行,返回结果无状态工具执行最适合领域专业知识、工作流程、模板并行任务、研究、探索外部 API、数据库、第三方服务上下文使用渐进式披露(元数据→指令→资源)每个子代理有独立上下文最小上下文(仅工具定义)复杂度低(只需 SKILL.md + 可选文件)中等(需要编排)中-高(

本地Qwen + ComfyUI 制作AI漫剧完整保姆级教程(2026年3月最新版)

本地Qwen + ComfyUI 制作AI漫剧完整保姆级教程(2026年3月最新版)

这个组合是目前零成本、无限生成、角色一致性最强的本地方案! Qwen(本地大模型)负责写剧本 + 自动拆分镜 + 生成提示词;ComfyUI负责图像生成 + 角色一致性 + 动态视频。 适合新手/日更党,低配8GB显存就能跑(推荐12GB+更流畅)。全流程免费、无网络依赖、隐私安全。 模型+:工作流:https://pan.quark.cn/s/efc430e1996d 一、硬件要求(必看) * GPU:NVIDIA 8GB显存起步(RTX 3060 12GB最稳),AMD/Intel也可(需ROCm/OneAPI)。 * 内存:16GB+ RAM(32GB最佳)。 * 硬盘:SSD 50GB+ 空闲空间。 * 系统:Windows