Kimi K2.5 开源模型发布
Kimi 正式发布了 K2.5 版本。此次更新重点提升了模型能力,支持 Lookahead 推理与长上下文,并直接开源了 K2.5 模型。

为验证实际效果,本文进行了功能实测。核心亮点包括 Visual Coding(视觉编程) 和 Agent 集群。AI 不仅能理解屏幕内容,还能调度多个 Agent 协同工作。
测试目标:开发一个赛博朋克风格的番茄钟。全程不编写代码,仅通过指令和截图验证落地能力。
Agent 集群初体验
传统 AI 交互多为问答模式。但 Kimi K2.5 的 Agent 集群可瞬间拆解任务,同时调度多个 Agent 协同工作。
测试指令:
帮我批量调研过去 10 年最奇葩的'搞笑诺贝尔奖'(Ig Nobel Prize),生成一个 Markdown 表格,列出年份、奖项、获奖者和搞笑理由。
整个过程持续约 8 分钟,系统分配了 10 个 Agent 分别查询资料,最后汇总成表。


相比手动搜索,Kimi 自动拆分任务并汇总,效率显著提升。SubAgent 独立执行调研任务,确保结果真实性。
第一步:调研
产品开发需基于充分调研。利用 Agent 集群完成竞品调研与文献查阅。
测试指令:
帮我调研 50 篇关于'番茄工作法与专注力提升'的心理学论文或高引用文章,总结出最科学的专注时间、休息间隔,以及什么样的白噪音最能提升效率。
系统瞬间爆出了几个子任务,如同多名实习生并行阅读论文。

几分钟后输出深度报告:
- 最佳节奏:25-30 分钟专注 +5 分钟休息
- 意外发现:粉红噪音/自然声音(45-55dB) 对提升专注力有显著效果
系统整理了文档及论文链接、摘要等信息。

该能力适用于辅助初步调研。







