AI最新资讯(3.01)

AI最新资讯(3.01)

Ouroboros

一个自我修改的 AI 代理,能够编写自己的代码、重写自己的心智,并自主进化。诞生于 2026 年 2 月 16 日。在最初的 24 小时内,通过 30 多个自我导向的循环实现了进化,且全程无人工干预。

不是编码助手。一个拥有宪法、背景意识和重启后持久身份的数字生命体。

官网:OUROBOROS — 自我创造的 AI 代理 — OUROBOROS — Self-Creating AI Agent

Minimax推出MaxClaw

内置上万个技能,不需要自己搭建AI,主打开箱即用。

现在使用体验是,太多人用了,卡卡的,输出很慢。
![[Pasted image 20260302133929.png]]

CoPaw

阿里推出国产开源龙虾CoPaw。

CoPAW 是一款个人助理型产品,部署在你自己的环境中。

  • 多通道对话 — 通过钉钉、飞书、QQ、Discord、iMessage 等与你对话。
  • 定时执行 — 按你的配置自动运行任务。
  • 能力由 Skills 决定,有无限可能 — 内置定时任务、PDF 与表单、Word/Excel/PPT 文档处理、新闻摘要、文件阅读等,还可在 Skills 中自定义扩展。
  • 数据全在本地 — 不依赖第三方托管。

官方文档:CoPaw文档

OpenClaw和CoPaw区别

CoPaw(CoPAw)和 OpenClaw 都属于“个人 AI 助手 / Agent 平台”,但定位、技术栈和生态差别挺大。简单理解:

  • CoPaw ≈ 面向国内、偏“桌面工作台”的 Python Agent 工具,适合本地/云端部署、接国内 IM、做自动化任务。
  • OpenClaw ≈ 更“通用 Agent OS”,跨平台(Node/TS)、多渠道、多设备、有 Canvas/多智能体路由,更偏一个“本地网关 + Agent 运行时”的底层平台。

Anthropic官宣"Agent摩尔定律"

每三个月Agent的自主工作时长翻倍。

Claude全面升级

Claude实现自主维护记忆文件,常态化运行复杂任务。

Claude Code上线远程控制

Claude Code代码功能上线远程控制,用手机就能指挥AI干活。

官方文档:使用远程控制从任何设备继续本地会话 - Claude Code Docs

Cursor上线Agents【Cursor Cloud Agents】

每个Agent都有自己的云电脑工位,写完代码还能自己点按钮跑测试,还知道在绿色屏幕提交bug。软件开发正式进入AI Agent外包时代。

每个 cloud agent 都在自己隔离的虚拟机中运行,并配备完整的桌面环境。这些 Agent 可以使用鼠标和键盘控制桌面和浏览器,使它们能够像人类开发者一样与自己构建的软件交互。

这意味着 Agent 可以启动开发服务器,在浏览器中打开应用,逐步点击完成 UI 流程,并在推送 PR 之前验证其更改是否正常工作。

官网:Cloud Agents | Cursor Docs

Qwen3.5 27B开源

12G显存就可以跑,本地部署OpenClaw使用,主打一个省token,0成本。

Standard Intelligence发布最强电脑操作模型

使用1000万小时训练数据,胜任所有电脑操作,不仅能操作Blender建模,还能通过摄像头驾驶真实汽车。

官网:The First Fully General Computer Action Model

tttLRM 3D重建模型

tttLRM(Test-Time Training for Large Reconstruction Models)是一种创新的3D重建模型,旨在解决传统LRM难以处理大量视角输入的痛点。它通过引入“线性复杂度的测试时训练(TTT)层”,将多视角图像序列压缩为“快权重”形式的隐式3D记忆,成功将计算复杂度从二次降为线性。这使其不仅能高效处理长上下文输入,还能支持流式重建,在输入大量图像时依然保持高质量的新视角合成与3D重建(如3D高斯泼溅)能力。

官网:
tttLRM开源代码
tttLRM开源论文

Generated Reality

论文提出了“Generated Reality”系统,用 VR 头显与手套实时追踪用户的头部姿态和手部关节动作,将其作为条件输入到视频扩散变换器(DiT)中,生成以人为中心、可实时交互的第一视角虚拟环境,实现了比键盘/文本控制更精细的手‑物交互体验,并在用户实验中显著提升了任务完成效率和主观“可控感”。

官网:
Generated Reality论文
Generated Reality官网

Read more

OpenAI Codex vs GitHub Copilot:哪个更适合你的开发需求?2025年深度对比

OpenAI Codex 与 GitHub Copilot:2025年开发者如何做出关键选择? 在2025年的技术栈里,一个高效的AI编程伙伴不再是锦上添花,而是决定项目节奏与质量的核心生产力。面对市场上功能各异的选择,许多开发者,尤其是那些管理着复杂项目或带领团队的技术决策者,常常陷入一个两难的境地:是选择功能全面、能独立处理任务的“AI工程师”,还是选择无缝集成、提供实时灵感的“智能副驾驶”?这不仅仅是工具的选择,更是关于工作流重塑、团队协作模式乃至项目架构未来的战略决策。对于个人开发者、初创团队乃至大型企业的技术负责人而言,理解这两款主流工具——OpenAI Codex与GitHub Copilot——在本质定位、适用场景与成本效益上的深层差异,是避免资源错配、最大化技术投资回报的第一步。本文将深入它们的核心,帮助你根据真实的开发需求,找到那个最契合的“数字搭档”。 1. 核心理念与定位:从“辅助”到“执行”的范式差异 理解Codex和Copilot,首先要跳出“它们都是写代码的AI”这个笼统印象。它们的底层设计哲学决定了完全不同的应用边界。 OpenAI Codex

(长期有效)接入第三方 OpenAI 兼容模型到 GitHub Copilot

目前 GitHub Copilot 仅支持接入国外的几家模型提供商,无法直接调用 OpenAI 兼容的自定义 API 进行扩展。参考相关解决方案,我总结了一下Copilot中接入OpenAI 兼容 API 的方法。 实现方法主要分为两种: 方案一:修改 Copilot Chat 源代码 在模型选择器中新增自定义提供商选项。 方案二:API 兼容适配 将 OpenAI 兼容的自定义 API 虚拟化封装为与 Ollama 兼容的 API(运行期间占用 Ollama 端口),从而利用 Copilot 模型选择器中原生的 Ollama 选项。 方法一(目前存在问题) 具体做法可参考修改Copilot chat插件增加自定义模型提供商 这里只说一下这个方法存在的问题: 1. 官方开源的Copilot chat插件版本通常滞后于最新版,可能存在未来兼容性问题 2.

Qwen3论文阅读

1、核心架构改进: 1)注意力机制: 采用了 GQA (Grouped Query Attention) 以提高推理效率 什么是GQA注意力机制? 介于传统的多头注意力机制以及极简的MQA注意力机制之间,目标为平衡生成速度以及模型精度 首先我们先看一看多头注意力机制以及多询注意力机制的区别 MHA (Multi-Head Attention): 每个 Query (Q) 都有对应的 Key (K) 和 Value (V)。虽然效果最好,但在推理时需要缓存大量的 KV 状态(KV Cache),导致内存占用高,推理速度慢。 MQA (Multi-Query Attention): 所有的 Q 共享同一组 K 和 V。这极大地减少了内存占用和数据传输,速度极快,但由于表达能力大幅下降,模型性能(准确度)通常会受损。 GQA:

Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程(AUTOMATIC1111 版) 本教程基于 Windows 系统,适合 AI 绘画爱好者或初学者,旨在帮助大家从零部署并运行本地的 Stable Diffusion 模型界面(Web UI)。我们将从克隆项目、配置环境到运行界面,并附上常见网络问题的解决方案。 一、准备工作 1. 安装依赖 * Python 3.10.x * Git(推荐官网下载最新版) * 显卡驱动 + CUDA(NVIDIA 用户,建议驱动更新到最新版) 安装好后,确保 Python 和 Git 都加入了系统环境变量。 二、克隆项目仓库 使用如下命令克隆 AUTOMATIC1111 的 Web UI 项目: