最新 AI 论文盘点(2026-03-18):6 篇新作看记忆、长上下文、医疗评测、机器人策略与世界模型

最新 AI 论文盘点(2026-03-18):6 篇新作看记忆、长上下文、医疗评测、机器人策略与世界模型

今天这批新论文里,我觉得有几条线特别值得看。

一条是 LLM / Agent 的记忆与长上下文,讨论怎么把“记住信息”和“真正用好上下文”这两件事拆开来做。

一条是医疗与真实场景评测,重点不再是静态 benchmark,而是更贴近临床和工作流的真实使用偏好。

还有一条是机器人与具身智能,不少工作开始把重点放在“少改模型、更多利用结构和搜索”上,而不是一味增大训练规模。

这篇挑 6 篇我认为更值得盘的论文,尽量少复述摘要,多讲它到底在解决什么问题、方法核心新在哪里、为什么值得关注、局限和边界是什么。


1. NextMem:给 LLM Agent 做“潜在事实记忆”

论文: NextMem: Towards Latent Factual Memory for LLM-based Agents
链接: https://arxiv.org/abs/2603.15634

这篇论文关注的是一个很实际的问题:Agent 的事实记忆到底该怎么存?

现在主流做法,一类是文本记忆,简单但上下文越来越长、检索开销越来越高;另一类是参数化记忆,更“内生”,但容易灾难性遗忘,更新和维护也贵。

NextMem 的思路,是往中间走一步:做 latent factual memory,也就是潜在空间里的事实记忆。作者用自回归自编码器把事实压缩进 latent memory,再保证还能准确重建;训练上用了两阶段策略,并加入量化来降低存储开销。

我觉得它最值得注意的地方,不是又做了一个 memory module,而是在回答一个越来越重要的问题:Agent 的长期记忆,不一定非得是可读文本,也不一定非得是参数更新,它可以是介于两者之间的可操作压缩表示。

如果这个方向继续成熟,后面很可能影响个人助理型 agent、长期研究 agent、复杂任务 agent 的记忆设计。不过 latent memory 的代价也很明显:更难解释,更难排错。


2. SRLM:长上下文不只是扩窗口,关键是怎么搜索“读法”

论文: Recursive Language Models Meet Uncertainty: The Surprising Effectiveness of Self-Reflective Program Search for Long Context
链接: https://arxiv.org/abs/2603.15653

长上下文这两年有个很典型的问题:模型窗口变长了,不代表它真的更会用长上下文。

这篇论文沿着 Recursive Language Models 那条线往前推,但一个很有意思的结论是:真正有效的,未必是 recursion 本身,而可能是更好的 program search。

他们提出的 SRLM,在程序化上下文交互里加入 uncertainty-aware self-reflection,用 self-consistency、reasoning length、verbalized confidence 这些内部信号去比较不同上下文交互程序。

这篇有两个启发:第一,长上下文问题很可能不是纯架构问题,而是搜索与控制问题;第二,递归策略如果选不好,不但不会更强,反而可能拖后腿。对 Agent 系统来说,这个提醒很重要。


3. MedArena:医疗 LLM 评测开始从静态题库转向真实临床偏好

论文: MedArena: Comparing LLMs for Medicine-in-the-Wild Clinician Preferences
链接: https://arxiv.org/abs/2603.15677

这篇我觉得非常值得看,尤其如果你关心医疗 AI。

它在做一件很对的事:别再只拿静态医疗 benchmark 当全部答案了。作者提出 MedArena,一个让临床医生直接拿自己的真实医疗问题去比较模型的平台。

结果里最有意思的,不只是模型排名,而是作者发现:只有大约三分之一的问题像传统 MedQA 那样偏事实回忆;大多数问题其实是治疗选择、临床文书、患者沟通这类真实任务;医生在解释偏好时,更常提到的是深度、细节、清晰度和临床表达质量,而不只是“谁更像标准答案”。

这说明一个老问题正在被重新摆上台面:benchmark 高分,不等于临床工作流里更有用。

所以 MedArena 的价值,不只是又一个新榜单,而是代表了一种更合理的评测方向:把真实使用者偏好重新放回评估中心。


4. MiroThinker-H1:研究 Agent 开始把 verification 内置进推理流程

论文: MiroThinker-1.7 & H1: Towards Heavy-Duty Research Agents via Verification
链接: https://arxiv.org/abs/2603.15726

研究型 Agent 现在的问题已经越来越清楚:不是不会搜,也不是不会写,而是长链条推理容易漂,多步工具调用容易积累误差,最终答案和证据链可能脱节。

MiroThinker-H1 的核心卖点,就是把 verification 直接嵌进 reasoning 过程,而不只是最后加一个 checker。作者做了 local level 和 global level 两层验证:前者评估和修正中间推理步骤,后者审计整条推理轨迹,确保最终答案和证据链一致。

这背后的方向我很认同,因为很多 agent 系统的 verification 现在太后置了。前面路径一旦偏了,后面很难真正救回来。verification 内生到推理里,通常意味着更高成本,但也意味着更高稳定性。


5. Golden Ticket:机器人生成式策略里,初始噪声居然能变成可搜索的杠杆

论文: You've Got a Golden Ticket: Improving Generative Robot Policies With A Single Noise Vector
链接: https://arxiv.org/abs/2603.15757

这篇是我今天觉得最有意思的机器人论文之一。问题设定很巧:很多 diffusion policy 或 flow matching policy 都从随机初始噪声开始采样动作。大家通常把这个噪声当成起点,但这篇在问:如果不随机采样,而是找到一个特别好的固定噪声向量,会怎样?

作者把这个向量叫做 golden ticket,并用 Monte-Carlo policy evaluation 去搜索它。在不改模型参数、不训练新网络的前提下,就能明显提升下游任务表现。

这篇真正有价值的地方,是它提醒大家:生成式策略里的随机性,不只是不可控噪声,也可能是一个可优化接口。 我会把它看成一种低成本的 inference-time steering 方法,而不是训练范式革命,但正因为便宜,才值得关注。


6. SimDist:世界模型的 sim-to-real 迁移,更强调“先蒸馏结构,再在线适配”

论文: Simulation Distillation: Pretraining World Models in Simulation for Rapid Real-World Adaptation
链接: https://arxiv.org/abs/2603.15759

sim-to-real 一直是机器人里的硬问题。很多方法的问题不在于 idea 不好,而在于真实世界数据贵、在线探索风险大、长时 credit assignment 太难。

SimDist 的核心思路,是先在仿真里把结构先学出来,再把真实世界适配问题尽量压缩成短时系统辨识问题。作者把 simulator 里的结构先蒸馏到 latent world model 里,同时把 reward 和 value model 直接从仿真迁过去;真实部署时,主要做 online planning 和 supervised dynamics finetuning。

这类思路我很看好,因为它和最近机器人方向的大趋势一致:不把真实世界当主训练场,尽量在 sim 里吸收结构先验,到真实世界只做必要的快速对齐。


今天这 6 篇,能看出什么趋势?

如果把今天这批论文放在一起看,我觉得至少有 4 个信号很明显:

  • LLM / Agent 正在从“会不会推理”转向“怎么管理记忆与控制过程”
  • 评测正在从静态题库转向真实使用场景
  • 机器人里,inference-time 优化和结构蒸馏越来越重要
  • 比起单纯堆大模型,更会利用结构的工作更值得看

我会优先建议你看哪几篇?

如果时间有限,我会这样排:

  • 第一梯队: NextMem、SRLM、MedArena
  • 第二梯队: MiroThinker-H1、Golden Ticket、SimDist

结语

今天这批论文给我的整体感觉是:AI 系统正在从“把模型做得更强”逐渐转向“把系统做得更稳”。

这里的稳,包括记忆更稳、长上下文读取更稳、评测更贴近真实使用、Agent 推理链更可验证、机器人策略更可控、sim-to-real 迁移更可落地。

真正进入工作流的 AI,最后拼的从来不只是峰值能力,而是:在复杂环境里,能不能持续、可靠、可控地做对事。

Read more

Stable Diffusion XL 1.0实战:灵感画廊的创意应用案例

Stable Diffusion XL 1.0实战:灵感画廊的创意应用案例 "见微知著,凝光成影。将梦境的碎片,凝结为永恒的视觉诗篇。" 1. 引言:当AI艺术遇见灵感画廊 在数字艺术创作的世界里,我们常常面临这样的困境:有了惊艳的AI技术,却缺少一个能激发创作灵感的界面。传统的AI绘画工具往往充斥着复杂参数和技术术语,让创作过程变得冰冷而机械。 灵感画廊(Atelier of Light and Shadow)正是为了解决这一痛点而生。它基于Stable Diffusion XL 1.0打造,却完全摒弃了工业化界面,转而营造一种艺术沙龙般的创作体验。在这里,技术参数变成了"意境预设",提示词化身为"梦境描述",整个创作过程如同一场与AI的私密对话。 本文将带你深入体验这个独特的创作空间,通过实际案例展示如何将技术转化为艺术,让SDXL 1.0的强大能力在优雅的界面中完美绽放。

VLM经典论文阅读:【综述】An Introduction to Vision-Language Modeling

VLM经典论文阅读:【综述】An Introduction to Vision-Language Modeling

VLM经典论文阅读:【综述】An Introduction to Vision-Language Modeling * 【前言】论文简介 🍀 * 1、介绍(Introduction)🐳 * 2、视觉语言模型家族(The Families of VLMs) 🌟 * 2.1 基于Transformer的早期VLM工作(Early work on VLMs based on transformers) * 2.2 基于对比学习的VLM(Contrastive-based VLMs) * 2.2.1 CLIP * 2.3 掩码目标视觉语言模型(VLMs with masking objectives) * 2.3.1 FLAVA * 2.3.

科研快报 |从特斯拉到科沃斯:具身智能让机器人成真!

科研快报 |从特斯拉到科沃斯:具身智能让机器人成真!

Prism Path 科   研   快   报 CS跨学科顶尖期刊论文资讯 -NO.2025018- 机器人技术中的人工智能路线图 A roadmap for AI in robotics 期刊:Nature Machine Intelligence(Q1/一区) 发布日期:2025年06月19日 DOI: 10.1038/s42256-025-01050-6 2025年最后一篇顶刊文章分享。我们借着一篇发表在《Nature Machine Intelligence》顶刊的论文,带大家聚焦于具身智能这个极具潜力的热门领域。 目录 一、论文观点概述 二、具身智能:概念与前沿应用 01 人形机器人 02 仓储/物流机器人 03 服务型机器人 三、具身智能实现的主要瓶颈

【Part 4 XR综合技术分享】第一节|技术上的抉择:三维实时渲染与VR全景视频的共生

【Part 4 XR综合技术分享】第一节|技术上的抉择:三维实时渲染与VR全景视频的共生

《VR 360°全景视频开发》专栏 将带你深入探索从全景视频制作到Unity眼镜端应用开发的全流程技术。专栏内容涵盖安卓原生VR播放器开发、Unity VR视频渲染与手势交互、360°全景视频制作与优化,以及高分辨率视频性能优化等实战技巧。 📝 希望通过这个专栏,帮助更多朋友进入VR 360°全景视频的世界! Part 4|XR综合技术分享 最后一Part了,我将分享一些关于当前常用的XR综合技术,内容涵盖三维实时渲染与全景视频的共生、多模态交互体验的融合,以及AI如何深度赋能XR应用,推动智能化发展。同时畅想通向全感知XR智能沉浸时代的未来,探索如何通过更先进的技术不断提升用户体验。毕竟,360°全景视频仅是XR应用中的冰山一角。 第一节|技术上的抉择:三维实时渲染与VR全景视频的共生 文章目录 * 《VR 360°全景视频开发》专栏 * Part 4|XR综合技术分享 * 第一节|技术上的抉择:三维实时渲染与VR全景视频的共生 * 1、VR内容形态的分化与融合 * 1.1 三维实时渲染的发展 * 1.2