不止脑洞!移动云AIGC大赛正式启幕

不止脑洞!移动云AIGC大赛正式启幕

未来,是什么样子的?

是穿梭云端的智慧城市

还是人与AI共舞的创意工坊?

是赛博街区的霓虹闪烁

还是治愈系森林里的数字精灵?

当生活插上科技的翅膀

从智慧城市的精细运转

到数字生活的便捷体验

每一份改变世界的想象力

都值得被AI托举

这一次,我们诚挚邀请你——
把你脑海中的“智能新空间”变成现实

用移动云做创作引擎

发挥最天马行空的创想

让想象力不再停留于脑海

让创意被看见、被喝彩、被珍藏

十大创作主题:为你的灵感指明方向

本次大赛围绕移动云赋能的重点行业,设置十大创作主题:

图片

请从以上主题中选择你感兴趣的方向进行创作

描绘你心中的智能新空间。


*超出以上主题范围的作品,将不纳入本次大赛评选。

三步快速参与

从灵感到作品,从作品到出圈

STP1:一键上云·灵感即现

选择你感兴趣的主题方向

进入移动云绘制心中的“智能新空间”

畅想千行百业的数智体验

STEP2:云端晒作,即刻破圈

作品出炉?即刻分享!任选一种方式让创意出圈

带话题#移动云智能新空间AIGC大赛#

发微博/抖音并@移动云

选择你喜欢的方式,让创意出圈

STP3:发送作品,立即比拼

即日起至2026年4月20日

将作品发送至官方邮箱

[email protected]

邮件主题:作品主题+作品名称+参赛者名称+联系方式+移动云官网个人账号名称

多维专业评选:公平见证创意价值

图片

大赛激励:让你的创意闪耀云端

本次大赛将最终遴选10份优秀作品,获奖者将获得:

1

云电脑一年使用权限——办公型(公众版)

前10名优秀作品获得者,可获得价值528元的办公型公众版云电脑一年。

2

移动云大会线下展出

优秀作品将登上2026年移动云大会现场大屏,在行业盛会上被万千观众瞩目。

3

移动云大会线下通行权限

前3名优秀作品获得者,可解锁主论坛 + 所有分论坛、展区通行资格,一站式体验前沿技术展示、行业案例分享。还可享受大会当日一日游食宿福利。

让你的创意,不止于想象

你的作品,值得被看见
你的脑洞,值得被喝彩
这一次,让移动云成为你的灵感搭档

「移」起探索智能新空间的无限可能  

✨重磅福利来袭

AIGC创作,担心算力不够用、太耗tokens?不用急,速速扫描下方二维码领取重磅福利,移动云云主机首月0元,还能免费试用2500万Tokens,让你的灵感无需为成本设限!

Read more

VS-CODE 里的github copilot 不支持自己配置模型api

1. 关于配置自定义 Claude API 的支持情况 * 结论:不支持。 * 机制说明: * VS Code 官方 GitHub Copilot 扩展(包括 Agent 功能)强制通过 GitHub 的代理服务器进行鉴权和路由。 * 模型切换:GitHub Copilot 允许在订阅权限范围内切换底层模型(例如从 GPT-4o 切换至 Claude 3.5 Sonnet),但这使用的是 GitHub 的企业/个人订阅配额。 * API Key 限制:无法在官方扩展设置中输入个人的 sk-ant-... (Anthropic API Key) 或自定义 Endpoint。 * 替代方案(非官方扩展): * 若必须使用个人 Claude API

GLM-4.7-Flash实战教程:基于GLM-4.7-Flash构建本地Copilot工具

GLM-4.7-Flash实战教程:基于GLM-4.7-Flash构建本地Copilot工具 1. 为什么需要本地Copilot工具 在日常编程和工作中,我们经常需要代码建议、文档生成、问题解答等AI辅助功能。虽然云端AI服务很方便,但存在网络延迟、隐私安全、使用成本等问题。基于GLM-4.7-Flash构建本地Copilot工具,可以让你: * 完全离线运行:不依赖网络,响应速度极快 * 数据隐私安全:所有对话和代码都在本地处理 * 定制化能力强:可以根据自己的需求调整模型行为 * 成本可控:一次部署,长期使用,无按次付费 GLM-4.7-Flash作为最新的开源大模型,在代码理解和生成方面表现出色,特别适合作为本地编程助手。 2. 环境准备与快速部署 2.1 硬件要求 为了流畅运行GLM-4.7-Flash,建议准备以下硬件环境: * GPU:4张RTX 4090 D显卡(或同等算力) * 内存:至少128GB系统内存 * 存储:至少100GB可用空间(模型文件约59GB)

语音识别与说话人分离实践指南:基于Whisper的多说话人语音处理方案

语音识别与说话人分离实践指南:基于Whisper的多说话人语音处理方案 【免费下载链接】whisper-diarizationAutomatic Speech Recognition with Speaker Diarization based on OpenAI Whisper 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper-diarization 在现代语音技术应用中,同时实现高精度语音识别与说话人分离一直是行业难点。本文将系统介绍如何利用Whisper Diarization工具链,在实际场景中完成从音频文件到带说话人标签文本的全流程处理。通过本文的技术方案,用户可以快速搭建支持多说话人场景的语音分析系统,满足会议记录、客服质检等多样化业务需求。 从零开始:环境部署与项目配置 系统环境准备 成功运行Whisper Diarization需要确保基础环境满足以下要求: * Python 3.10及以上版本 * FFmpeg多媒体处理工具 * Cython编译环境 在Ubuntu/Debian系统中可通过

OpenClaw 和 Claude Code、Cursor、Copilot 有什么区别

在了解了 OpenClaw 的基本能力之后,很多人都会产生一个很自然的问题: 它和常见的 AI 编程工具到底有什么区别? 比如: * Claude Code * Cursor * GitHub Copilot 这些工具看起来都能: * 写代码 * 改代码 * 提供建议 但如果你真正用过一段时间,就会发现: 它们解决的问题,其实不在一个层面。 这一篇我们就从实际使用角度,把它们的区别讲清楚。 一、先说结论:它们不是“替代关系” 很多人会下意识认为: OpenClaw 是不是 Cursor / Copilot 的升级版? 其实不是。 更准确的理解是: 它们分属于不同类型的工具,可以配合使用,而不是互相替代。 简单划分一下: * Copilot / Cursor:写代码的助手 * Claude Code:理解和修改代码的助手 * OpenClaw:执行任务的 Agent 接下来我们分别看。 二、