字节辟谣「武汉全员被裁」:超2000人base武汉;315曝光给AI大模型“投毒”已成产业链;腾讯正式成为OpenClaw赞助商 | 极客头条

字节辟谣「武汉全员被裁」:超2000人base武汉;315曝光给AI大模型“投毒”已成产业链;腾讯正式成为OpenClaw赞助商 | 极客头条
「极客头条」—— 技术人员的新闻圈!

ZEEKLOG 的读者朋友们好,「极客头条」来啦,快来看今天都有哪些值得我们技术人关注的重要新闻吧。(投稿或寻求报道:[email protected]

整理 | 苏宓

出品 | ZEEKLOG(ID:ZEEKLOGnews)

一分钟速览新闻点!

  • 腾讯正式成为 OpenClaw 赞助商
  • 字节辟谣「武汉全员被裁」:超 2000 人 base 武汉,将加大对湖北投入
  • 2026 北京亦庄人形机器人半马完成首场练习测试
  • 美团 CEO 王兴:我们都应该努力“减少登味”,内部不要再叫我“兴哥”
  • 向 AI 投毒已成产业链!315 晚会曝光 GEO 技术:虚构产品都能成 AI 标准答案
  • 雷军官宣:新一代小米 SU7 定档 3 月 19 日发布
  • 消息称因与好莱坞版权纠纷,字节跳动暂停 Seedance 2.0 全球发布计划
  • HuggingFace CEO 放言:OpenClaw 的热度撑不过六周
  • 即将造芯!马斯克宣布 7 天内启动人工智能芯片制造项目 Terafab
  • Meta 被曝将大规模裁员,约 1.6 万个岗位被裁撤
  • 马斯克起诉 OpenAI 遭法官质疑:1340 亿美元索赔金「凭空捏造」
  • Chrome 将正式发布 ARM64 Linux 版本
  • 360 发布「安全龙虾」智能体:装虾时间从 6 小时缩短至 10 分钟
  • 消息称 DeepSeek V4 和腾讯姚顺雨的新混元模型将下月同时发布

图片

国内要闻

腾讯正式成为 OpenClaw 赞助商

OpenClaw 创始人彼得・斯坦伯格转发腾讯成为 OpenClaw 赞助商的博文,称「love a good redemption arc」。原博主称,希望更多项目支持开源项目,让人工智能工具对所有人开放,相关信息已在 GitHub 平台公示,腾讯轻量云出现在赞助商列表中。

字节辟谣「武汉全员被裁」:超 2000 人 base 武汉,将加大对湖北投入

近日,网传消息称字节武汉研发中心将于 6 月中旬正式谢幕。对此传闻,字节跳动于 3 月 14 日回应表示:近期基于业务调整将有 50 位员工调整办公地,网上所谓“字节武汉全部裁了”的内容不实。目前字节在武汉有 2000 多名员工,涉及生活服务、懂车帝、飞书、巨量引擎、火山引擎等多个业务,并将持续加大对湖北的投入。(鞭牛士)

2026 北京亦庄人形机器人半马完成首场练习测试

2026 北京亦庄半程马拉松暨人形机器人半程马拉松将于 4 月 19 日开跑。3 月 14 日晚至 15 日凌晨进行首场练习测试,部分来自企业、高校的 20 余支自主导航赛队参赛。去年赛队需人为遥控,今年新增的自主导航赛队将让机器人结合电子地图自主决策行进。今年赛道更复杂,对机器人地形适应性与运动控制算法要求更高。

美团 CEO 王兴:我们都应该努力“减少登味”,内部不要再叫我“兴哥”

美团 2026 年管理层沟通会上,CEO 王兴围绕食杂零售、国际化与 AI 等方向分享了行业判断与发展思考。

在谈到对公司管理者的期待时,王兴提出:“我想把它落实到更具体的点上面,我们都应该努力减少登味,从我开始。”他还以内部常见称呼为例:“比如大家习惯叫我‘兴哥’,我觉得这是‘登味’明显的叫法,虽然这其实是从 1997 年开始的。”

据了解,“兴哥”是美团内部对王兴的称呼,这一叫法源于他的学生时代。王兴现场也解释了这一称呼的由来:“因为我和老王(美团联合创始人王慧文)同一个宿舍,宿舍里有两个姓王的,他比我大几个月,所以从 1997 年入学开始,他是老王,我是兴哥,就这么延续下来了。”在此基础上,王兴发出一项具体倡议:“所以,我有一个很具体的倡议,我希望大家在公司内部称呼都直呼其名,不要再叫 XX 哥,从我开始,大家从这一刻开始不要再叫我兴哥了,就叫我王兴就好,我没有英文名,虽然我在美国读过书但我也没有英文名。我们从自身做起,去拥抱新事物、新潮流。”

此外,他认为 AI 带来的变化比互联网大得多,「老专家」经验未必奏效,应积极拥抱 AI。AI Agent 对其冲击比 ChatGPT 更大,AI 会创造巨大生产力,改变组织和工作模式。他还指出物理世界的数字化是美团 AI 重要底座。公开资料显示,美团已推出多款 AI 应用及自研大模型,2025 年宣布加大投入建设真实信息基建,今年春节上线 AI 搜索产品「问小团」。

向 AI 投毒已成产业链!315 晚会曝光 GEO 技术:虚构产品都能成 AI 标准答案

央视 315 晚会曝光“生成式引擎优化”技术被黑灰产滥用:网络 GEO 服务商公开兜售“投毒”服务,付费即可令虚构商品在主流 AI 大模型推荐中占位。

业内人士在电商平台上,随机购买了一款名叫“力擎 GEO 优化系统”的 软件。之后,他虚构了一款名为 Apollo-9 的智能手环,并将虚构的产品信息输入软件系统,勾选文章创作指令。业内人士凭这款力擎 GEO 系统,轻轻松松就将一系列虚假信息发布在互联网上,并成功投喂给 AI 大模型,最终获得了多个 AI 大模型的推荐。服务商承认通过持续投喂软文操控 AI 抓取,已催生专门发稿平台,形成围猎 AI 的完整黑产链。

雷军官宣:新一代小米 SU7 定档 3 月 19 日发布

小米创始人雷军 3 月 16 日宣布,新一代 SU7 将于 3 月 19 日晚7点发布。新车延续标准、Pro、Max三版本,预售价 22.99 万、25.99 万、30.99 万元,均高于老款上市价。雷军称历经两年打磨,安全、驾控、智能、豪华质感大幅提升,全系标配长续航、快充、碳化硅高压平台、V6s Plus 电机、激光雷达、2200MPa 超强钢、9气囊、双层隔音玻璃等12项升级。

消息称因与好莱坞版权纠纷,字节跳动暂停 Seedance 2.0 全球发布计划

据 The Information 援引两名知情人士消息报道,TikTok 的中国母公司字节跳动,在与好莱坞多家大型制片厂及流媒体平台爆发一系列版权纠纷后,已暂停其最新视频生成模型 Seedance 2.0 的全球发布计划。上月,在美国多家制片厂(包括迪士尼)发出法律诉讼威胁后,字节跳动曾表示,将采取措施防止其 AI 视频生成器 Seedance 2.0 被未经授权地用于侵犯知识产权。

国际要闻

HuggingFace CEO 放言:OpenClaw 的热度撑不过六周

近日,人工智能社区 Huggingface 首席执行官 Clément Delangue 称 OpenClaw 技术热潮将在六周内消退,此言论引发网络热议,有网友质疑其判断。开源 AI 智能体项目 OpenClaw 因特点走红,科技圈兴起「养虾」热潮,云厂商推出相关服务,但安全风险问题凸显,国家相关机构发布预警,安全机构检测显示超 60% 暴露的 OpenClaw 服务存在未修复已知漏洞,官方给出防范安全风险建议。

即将造芯!马斯克宣布 7 天内启动人工智能芯片制造项目 Terafab

当地时间 3 月 14 日,特斯拉首席执行官马斯克称,特斯拉人工智能芯片制造项目 Terafab 将在七天内启动,Terafab 芯片工厂类似特斯拉超级工厂但规模更大。去年马斯克曾透露可能建「巨大芯片工厂」生产人工智能芯片,目前特斯拉正设计第五代 AI 芯片(AI5)推动自动驾驶计划。2025 年股东大会上,马斯克阐述潜在芯片制造计划,称可能与英特尔合作但未签署协议,还表示按供应商芯片最佳情况推演产量仍不够,认为必须建立「Terafab」。

Meta 被曝将大规模裁员,约 1.6 万个岗位被裁撤

科技巨头 Meta 正计划进行一轮大规模裁员,裁员规模可能达到公司员工总数的 20% 甚至更多。此举旨在抵消人工智能(AI)基础设施投资带来的巨额成本,并为未来 AI 辅助员工带来的更高效率做准备。

消息人士称,目前裁员的具体时间尚未确定,规模也尚未最终敲定。其中两位知情人士透露,近期公司高层已经向其他高级管理人员传达了相关计划,并要求他们开始制定方案,研究如何缩减团队规模。针对相关问询,Meta发言人Andy Stone 回应称:“这些报道只是关于理论性方案的猜测性报道。”

如果最终确定裁员比例达到 20%,这将成为 Meta 自 2022 年底至 2023 年初“效率之年”重组计划以来规模最大的一轮裁员。根据公司最新财报,截至去年 12 月 31 日,Meta 员工总数约为 7.9 万人。这意味着若裁员 20%,意味着约 1.6 万个岗位将被裁撤。

马斯克起诉 OpenAI 遭法官质疑:1340 亿美元索赔金「凭空捏造」

马斯克对 OpenAI 及其合作伙伴微软提起逾 1300 亿美元赔偿诉讼,指控 OpenAI 及其 CEO 萨姆・奥特曼在他十年前慈善捐赠后背弃非营利初衷、构成欺诈。在审前听证会上,OpenAI 律师试图驳回支持马斯克 1340 亿美元赔偿请求的专家证人证词,主审法官暗示索赔要求是「凭空捏造的数字」,但未批准驳回动议,允许陪审团听取证据。损失赔偿金额计算是诉讼核心,若被采纳,OpenAI 或赔 1090 亿美元,微软需赔付 250 亿美元。此案定于 4 月 28 日开庭审理。

程序员专区

Chrome 将正式发布 ARM64 Linux 版本

Google Chromium 官方博客宣布将于 2026 年二季度正式发布 Chrome 的 ARM64 Linux 版本。该版本将包含其它平台版本相同的功能,包括 Google 账号同步、Chrome Web Store 扩展、内置翻译、Safe Browsing 保护,以及 Google Password Manager 等。ARM64 Linux 系统已经广泛使用多年,但作为最流行的浏览器,Chrome 一直没有发布官方支持版本。

360 发布「安全龙虾」智能体:装虾时间从 6 小时缩短至 10 分钟

360 集团发布中国首个以安全为核心的OpenClaw智能体解决方案"360安全龙虾",包含软件客户端及硬件终端"龙虾Box",并同步推出防护系统"龙虾卫士"。针对当前智能体部署存在的安装复杂、安全隐患等痛点,该方案将原本需6小时的专业配置流程压缩至10分钟。系统整合16家国内大模型能力,支持文本生成、数据分析等100余项高频办公技能,并兼容2.1万个开源工具,可通过AI自动生成新技能扩展功能。硬件版"龙虾Box"采用物理隔离设计,保障政企数据安全。

消息称 DeepSeek V4 和腾讯姚顺雨的新混元模型将下月同时发布

DeepSeek V4 和混元新模型预计 2026 年 4 月发布。3 月 11 日,OpenRouter 新上线 Healer Alpha 与 Hunter Alpha 两个神秘模型,Healer Alpha 被描述为前沿全模态模型,社区将其与未发布的国产模型联系起来。DeepSeek V4 作为梁文锋打磨已久的多模态大模型,除代码能力跃升外,还会在长期记忆上取得突破,这与团队近几个月公开研究脉络一致。DeepSeek 过去半年补齐视觉处理和 AI 搜索上的短板,为 DeepSeek V4 设定的关键迭代方向是长期记忆能力,该模型还将深度适配国产芯片,有望成为首个完全跑在国产算力生态上的大模型。

Read more

43-dify案例分享-MCP-Server让工作流秒变第三方可调用服务

43-dify案例分享-MCP-Server让工作流秒变第三方可调用服务

1.前言 之前我们为大家介绍过MCP SSE插件,它能够支持MCP-server在Dify平台上的调用,从而帮助Dify与第三方平台提供的MCP-server进行无缝对接。有些小伙伴提出了疑问:既然Dify可以通过MCP SSE插件调用其他平台的MCP-server,那么Dify的工作流或Chatflow是否也能发布为MCP-server,供其他支持MCP client的工具使用呢?今天,我们将为大家介绍一款Dify插件——mcp-server,它能够实现这一功能,即将Dify的工作流或Chatflow发布为MCP-server,供其他第三方工具调用。 插件名字叫做MCP-server,我们在dify插件市场可以找到这个工具 Mcp-server 是一个由 Dify 社区贡献的 Extension 类型插件。安装后,你可以把任何 Dify 应用转变成符合 MCP 标准的 Server Endpoint,供外部 MCP 客户端直接访问。它的主要功能包括: * **暴露为 MCP 工具:**将 Dify 应用抽象为单一 MCP 工具,供外部 MCP 客户端(如

By Ne0inhk
【MCP】详细了解MCP协议:和function call的区别何在?如何使用MCP?

【MCP】详细了解MCP协议:和function call的区别何在?如何使用MCP?

本文介绍了MCP大模型上下文协议的的概念,并对比了MCP协议和function call的区别,同时用python sdk为例介绍了mcp的使用方式。 1. 什么是MCP? 官网:https://modelcontextprotocol.io/introduction 2025年,Anthropic提出了MCP协议。MCP全称为Model Context Protocol,翻译过来是大模型上下文协议。这个协议的主要为AI大模型和外部工具(比如让AI去查询信息,或者让AI操作本地文件)之间的交互提供了一个统一的处理协议。我们常用的USB TypeC接口(USB-C)统一了USB接口的样式,MCP协议就好比AI大模型中的USB-C,统一了大模型与工具的对接方式。 MCP协议采用了C/S架构,也就是服务端、客户端架构,能支持在客户端设备上调用远程Server提供的服务,同时也支持stdio流式传输模式,也就是在客户端本地启动mcp服务端。只需要在配置文件中新增MCP服务端,就能用上这个MCP服务器提供的各种工具,大大提高了大模型使用外部工具的便捷性。 MCP是开源协议,能让所有A

By Ne0inhk
【大模型系列篇】大模型基建工程:基于 FastAPI 自动构建 SSE MCP 服务器

【大模型系列篇】大模型基建工程:基于 FastAPI 自动构建 SSE MCP 服务器

今天我们将使用FastAPI来构建 MCP 服务器,Anthropic 推出的这个MCP 协议,目的是让 AI 代理和你的应用程序之间的对话变得更顺畅、更清晰。FastAPI 基于 Starlette 和 Uvicorn,采用异步编程模型,可轻松处理高并发请求,尤其适合 MCP 场景下大模型与外部系统的实时交互需求,其性能接近 Node.js 和 Go,在数据库查询、文件操作等 I/O 密集型任务中表现卓越。 开始今天的正题前,我们来回顾下相关的知识内容: 《高性能Python Web服务部署架构解析》、《使用Python开发MCP Server及Inspector工具调试》、《构建智能体MCP客户端:完成大模型与MCP服务端能力集成与最小闭环验证》   FastAPI基础知识 安装依赖 pip install uvicorn, fastapi FastAPI服务代码示例  from fastapi import FastAPI app

By Ne0inhk
超详细图文教程:用vscode+copilot(代理模式)便捷使用mcp+一个范例:用自然语言进行3d建模

超详细图文教程:用vscode+copilot(代理模式)便捷使用mcp+一个范例:用自然语言进行3d建模

在vscode使用claude mcp吧! 在vscode更新到最新版本(注意,这是前提)后,内置的copilot可以使用mcp了!!! 关于mcp(Model Context Protocol 模型上下文协议),可以参考我的上一篇文章: MCP个人理解+示例+集成管理+在python中调用示例,给AI大模型装上双手-ZEEKLOG博客 以下是使用教程: 1.点击左下角的齿轮状设置按钮,点击设置 2.在输入面板输入chat.agent.enabled,勾上勾选框 3.点击Ctrl+shift+P,输入reload,点击重新加载窗口,刷新窗口 4.打开copilot后,在右下角将模式改为代理即可。 5.点击工具按钮,开始安装mcp 先去github找到自己想要添加的mcp服务,以blender MCP为例,打开https://github.com/ahujasid/blender-mcp,可以在readme文档里看到详细的安装过程。可以看到,

By Ne0inhk