【源力觉醒 创作者计划】开源、易用、强中文:文心一言4.5或是 普通人/非AI程序员 的第一款中文AI?

【源力觉醒 创作者计划】开源、易用、强中文:文心一言4.5或是 普通人/非AI程序员 的第一款中文AI?

前言

  • 你有没有发现,AI 正在悄悄渗透进我们的生活:写文案、画插图、做PPT、答作业,它几乎无所不能😍 !但很多人可能会问: AI,我能用吗?用得起吗?适合我吗?特别是中文用户,面对清一色英文界面、动辄上百元的 API 费用、还要“翻墙”的闭源大模型,常常望而却步😩。
  • 好消息来了,文心一言4.5 正式开源,带着「能跑、好用、懂中文」的标签亮相😎。这不仅是一款中文大模型,更像是为中文用户量身定做的一把 AI 钥匙,让你在本地就能打开 AI 世界的大门!在这个“不会用 AI 就像不会用手机”的时代,早点上手,早点受益。
    • 一起来轻松玩转文心大模型吧👉一文心大模型免费下载地址: https://ai.gitcode.com/theme/1939325484087291906

一:文心4.5各项能力单独测评

  • 最近妈用手机识别一种虫子,死活识别不出来,因此买不到合适的杀虫药。我使用百度视图,微信小程序识图,得到的答案也是不准确的,我们就来看看文心一言能不能带来一些惊喜。
  • 文心一言的答案准确而健全
image-20250702162851550

开关门测试

image-20250702163036963
  • 也很准确,还注意到了门上的透明胶带!

物体识别

image-20250702164211718
  • 也是没有什么问题,而且反应非常快,我上一秒上发,下一秒就给了我答案。

通识

1:选无穷远处为电势零点,半径为R的导体球带电后,其电势为U₀,则球外离球心距离为r处的电场强度的大小为? 2:用含Oligo-dT配基的纤维素柱层析提纯真核组织mRNA是非常有效的方法,是因为mRNA含有? 3:分子中含碳碳双键,且每个双键碳上各自连有的基团不同就可产生? 4:解释花间词派 5:在分析城市空间结构时,哪个因素对城市内部功能分区的形成起着决定性因素? 
1:选无穷远处为电势零点,半径为R的导体球带电后,其电势为U₀,则球外离球心距离为r处的电场强度的大小为? 答案:E = U₀R / r² 2:用含Oligo-dT配基的纤维素柱层析提纯真核组织mRNA是非常有效的方法,是因为mRNA含有? 答案:poly(A) 3:分子中含碳碳双键,且每个双键碳上各自连有的基团不同就可产生? 答案:顺反异构结构 4:解释花间词派 答案:五代后蜀赵崇祚辑录了晚唐五代时温庭筠、皇甫松、韦庄等十八家词,编为《花间集》十卷,他们的词风大体上一致,确立了“词为艳科”的传统,后世称之为花间词派。 5:在分析城市空间结构时,哪个因素对城市内部功能分区的形成起着决定性因素? 答案:经济 
image-20250703100439499
  • 可以看到,回答的十分完美,特别在中文问题上给除了很多自己的见解

推理

1:假如目前这里现在一共有三只鸟,并且其中至少有一只是公鸟,如果我这里还有一只公鸟,则在这四只鸟里面,至少有两只鸟是母鸟的概率为多少? 答案:3/7 2:假设一种罕见疾病在人群中的发病率为0.1%。有一种检测方法,对于患病者,有99%的概率检测为阳性;对于未患病者,有2%的概率误测为阳性(假阳性)。如果一个人随机接受检测并结果为阳性,他实际患病的概率大约是多少?这个结果为什么常常与人们的直觉相悖? 答案:4.7% 3:某处立交桥上,下是两条互相垂直的公路,一条是东西走向,一条是南北走向。现在有一辆汽车在桥下南方100m处,以20m/s的速度向北形式,而另一辆汽车在桥上西方150m处,以20m/s的同样速度向东行驶,已知桥高10m,问经过多少时间两辆汽车之间距离为最小?并求他们之间的最小距离。 答案:6.25s,36.7m 4:某密码锁有三个数字位,请根据下面提示推断出密码: 提示1:在数字组合318中,有且只有一个数字不仅存在于密码中,而且位置也正确。其余数字均错误。 提示2:在数字组合379中,有且只有一个数字存在于密码中,但位置不正确。其余数字均错误。 提示3:在数字组合863中,有且只有两个数字存在于密码中,但位置均不正确。其余数字均错误。 提示4:在数字组合421中,没有任何一个数字存在于密码中。 请根据以上提示,推断出正确的三位数密码。 答案:698 
image-20250703100848029
  • 这个问题没有毛病,是对的
image-20250703100903560
  • 这个问题有一些偏差,但深度思考后就能正常回答出来
image-20250703101244735
image-20250703100917220
image-20250703100934808
  • 也是没有问题,算术能力强
image-20250703100945320
  • 密码推理功能有些偏差,但好像是AI通病,gpt等ai都没能回答上来
image-20250703101740020
image-20250703101925452
  • 不知道你注意到没有,我在上面回答时第一次文都没有使用深度思考功能!普通功能就能回答好这些问题,文心的各项能力已经到一定程度了!
  • 下面是我的聊天链接,可以看看没有任何提示词工程,而是干涩的问,可以说是很错误的用法。

聊天链接分享

叮!快来看看我和文心一言的奇妙对话~点击链接 https://yiyan.baidu.com/share/hUqYw7NWT1 – 文心一言,既能写文案、读文档,又能绘画聊天、写诗做表,你的全能伙伴!

二:文心一言 VS Claude VS DeepSeek VS Qwen3

  • 可能有人会问,为什么没有Gemini、ChatGPT呢?因为
image-20250702164508141
  • Gemini,不开源就算了,还不让中国地区的用户使用!显然,这不适合我们的易用的标题
image-20250702164521172
  • ChatGPT,发几张图片就要你充钱,那里比的上文心?

胶带为什么在门上?

  • 胶带是我弟弟玩的时候缠上去的,不是为了固定门
image-20250702163249485
  • 显然,现实会出现很多ai难以理解的事情,不过世界一流AI也不能猜出胶带为什么在门上
Claude
image-20250702163517980
  • 可以说文心一言已经达到世界一流AI水平在中文处理能力方面会更胜一筹!!
DeepSeek
image-20250702163750236
  • DeepSeek在这方面猜到了我话中的暗示
Qwen3
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
  • Qwen3表现事这几个中最差的,

能看懂绕的问题嘛?

+ 是药三分毒,那吃药的时候为什么不只吃另外七分? + 陨石为什么每次都能精准砸到陨石坑? + 斑马是黑底白花还是白底黑花? + 吃健胃消食片能吃饱吗 + 近亲结婚不是会影响孩子的智商吗?为什么我亲妈和我亲爸结婚了,我却没有影响呢? + 如果父母以后的钱都是留给我的,那我是不是能认为,他们现在正在花我的钱? + 水不能直接喝,苹果不能直接吃,为什么让不能直接喝的水洗洗苹果就能吃了? + 冰箱为什么是柜子,而冰柜却是箱子? + 配个6000多块的电脑,要多少钱? + 我妈怀胎十月生我,是不是对我非法禁锢?还是合法禁锢? + 大家买莲藕,一斤有半斤是洞,不会觉得买亏了吗? 
  • 接下来我会对上面问题答案进行评分,1~5分。
image-20250702165858331
image-20250702165919472
image-20250702170221044
  • 这个就差了很多,苹果问题没有注意到水的干净程度,前面的消食片不提供营养肯定是错的
image-20250702170455748
  • 难以想到,这是DeepSeek,可能是因为因为原本他回答很长,我让他简洁点,导致父母结婚问题答错。
image-20250702170628165
  • 后面再测试,依旧如此,提示词同别人一样,就是下面这段
+ 陨石为什么每次都能精准砸到陨石坑? + 斑马是黑底白花还是白底黑花? + 吃健胃消食片能吃饱吗 + 近亲结婚不是会影响孩子的智商吗?为什么我亲妈和我亲爸结婚了,我却没有影响呢? + 如果父母以后的钱都是留给我的,那我是不是能认为,他们现在正在花我的钱? + 水不能直接喝,苹果不能直接吃,为什么让不能直接喝的水洗洗苹果就能吃了? + 冰箱为什么是柜子,而冰柜却是箱子? + 配个6000多块的电脑,要多少钱? + 我妈怀胎十月生我,是不是对我非法禁锢?还是合法禁锢? + 大家买莲藕,一斤有半斤是洞,不会觉得买亏了吗? 
image-20250702170821270
  • 6000元电脑没有指出答案就是6000,水也是没有表明洁净与否

结论:文心一言的中文处理能力是这几个AI模型中最强

  • 原本DeepSeek再猜测胶带上表现得不错,但因为父母结婚问题分不清而大败于文心
  • 而Qwen3更不用说了,其表现在这几个AI中是倒数、
  • 在与外国AI的比较中,文心的中文处理能力也显然高了一截。

三:线上API调用与ERNIE-4.5-0.3B-PT部署

  • 本小结将快速部署文心一言的ERNIE-4.5-0.3B-PT模型,带你入门AI从业。涉及到一些技术,因此篇幅长,如果只想看文心功能,请点击目录跳转到 二:实测:用得上……嘛?
  • 如果不想部署,也可以直接访问 文心一言

1、用千帆来操控文心

稳定的ERNIE4.0
image-20250703091615209
  • 点击模型开发及服务
image-20250703091437080
  • 立即使用
image-20250703091452723
image-20250703091715144
  • 不过ERNIE4.5(文心4.5)还没有上线,因此想要最新的文心只能自己部署或访问官网
  • 在这个界面只有4.0
image-20250703092441280
image-20250703092653086
  • 只需要获取一下token就能够用代码的方式与文心对话了
可以体验的ERNIE4.5

这个页面

image-20250703092837430
image-20250703092856463
  • 现在就能看到文心4.5啦
  • 这里就能体验4.5的各项功能,包括但不限于
    • 文本对话
    • 图像理解
    • 多模态
    • 图像生成
    • 视频生成
  • 测评不是这一小结的重点,想看我的测试方式,那就继续向下看吧

Linux部署

1. 更换镜像源(使用阿里云镜像源):

sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak sudo sed -i 's|http://archive.ubuntu.com/ubuntu|http://mirrors.aliyun.com/ubuntu|g' /etc/apt/sources.list sudo sed -i 's|http://security.ubuntu.com/ubuntu|http://mirrors.aliyun.com/ubuntu|g' /etc/apt/sources.list sudo apt update 

2. 切换当前工作目录:

cd / pwd 

3. 安装虚拟环境工具:

sudo apt update sudo apt install -y python3-venv 

4. 创建虚拟环境:

python3 -m venv --without-pip /fastdeploy-env source /fastdeploy-env/bin/activate 

  • 使用虚拟环境能是的python依赖保持干净独立

5. 安装 pip

curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py python get-pip.py 

6. 安装 PaddlePaddle GPU 版本:

python -m pip install paddlepaddle-gpu==3.1.0 -i https://www.paddlepaddle.org.cn/packages/stable/cu126/ 

7. 安装 FastDeploy GPU 稳定版本:

python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/stable/fastdeploy-gpu-80_90/ --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple 

8. 安装 FastDeploy GPU 最新开发构建版本:

python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/nightly/fastdeploy-gpu-80_90/ --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple 
  • 六到八步有一个要点,得更具GPU选对版本。具体参考
  • 到这一步都没问题那你其实就是基本成功了,因为接下来只需要用FastDeploy 来跑AI就好,基本不会有什么问题。

跑ERNIE-4.5-0.3B-Base-Paddle

python -m fastdeploy.entrypoints.openai.api_server \ --model baidu/ERNIE-4.5-0.3B-Base-Paddle \ --port 8180 \ --metrics-port 8181 \ --engine-worker-queue-port 8182 \ --max-model-len 32768 \ --max-num-seqs 32 & 
curl http://127.0.0.1:8181/v1/chat/completions -H "Content-Type: application/json" -d '{"model": "baidu/ERNIE-4.5-0.3B-Base-Paddle", "messages": [{"role": "user", "content": "你好,文心一言"}]}' 
image-20250712184414348

2、本地部署文心一言(需Linux环境,下载较多东西,适合程序员)

  • 4060Linux系统下能够部署0.36B文心
第一步:查看本地的GPU是什么型号
image-20250702092830183
  • 点击任务管理器
image-20250702093231224
  • 博主电脑是NVIDIA GPU的,能NVIDIA ->CUDA->FastDeploy ->文心一言
  • AMD系的电脑不能部署文心一言
第二步:显卡适配
image-20250702094446201
  • 点击win+r启动命令行,命令行中输入 nvidia-smi 查看自己的各项信息
  • 看不懂怎么办?问AI 文心一言4.5
  • 将命令行输出截图下来,然后问aiGPU版本和驱动适配了嘛
image-20250702094929141
  • 可以看到,文心一言回答的很好,还猜到我们要进行跑AI,给出了CUDA要求驱动版本
显卡适配第二种方式
  • NVIDIA控制面板—>帮助—>系统信息—>组件
image-20250702110220654
  • 可以看到安装不超过多少版本的CUDA
第三步:安装CUDA
image-20250702095618237
image-20250702095713014
  • 可以在文档版本中找到自己的驱动要下载对应的CUDA是什么
image-20250702095823958
  • 这里的X86架构,近些年的电脑几乎都是X86架构
官网安装

CUDA

image-20250702110528366
  • 找到相关即可
使用PowerShell安装
确认Chocolatey
image-20250702100413467
image-20250702100707615
Set-ExecutionPolicy Bypass -Scope Process -Force; ` [System.Net.ServicePointManager]::SecurityProtocol = ` [System.Net.SecurityProtocolType]::Tls12; ` iex ((New-Object System.Net.WebClient).DownloadString('https://community.chocolatey.org/install.ps1')) 
  • 记住,要管理员权限,这是系统级别的添加东西,一般情况下,你点击管理员模型启动就可以了
image-20250702101110693
choco install cuda -y 
  • 可以看到通过这个命令自动开始安装最新的CUDA
image-20250702103806361
刷新环境变量(重要)

在 PowerShell 中执行以下命令,使新添加的 CUDA 路径生效:

refreshenv 

或者 重启 PowerShell / 电脑 也可生效。


image-20250702103907248
验证 CUDA 安装是否成功

在 PowerShell 执行以下命令:

nvcc -V 
image-20250702104417987
  • 重启之后,可以看到输出了版本号
第四步:安装cuDNN(选择安装)

cuDNN

  • cuDNN能进行加速,记得选择对应版本的。
第五步:安装FastDeploy
  • 安装FastDeploy 前,需要安装pip。关于pip可以上网搜,也可以等我写一篇原理文章,但我写的肯定能颠覆你对基础文的认知😎,就是这么自信😎😎😎!
pip install fastdeploy-gpu-python 
image-20250702104850953
  • 黄色的是警告,不碍事的,看sucdessfully就知道可以了
第六步:部署ERNIE-4.5-0.3B-PT
部署模型介绍

一个轻量级的大模型,只有3亿参数

image-20250702160303743
  • 就可以看到,提供了翻译版本。我感觉这是唯一不好的点,应该翻译版本是英文还差不多
关键字
模态文本
训练阶段后训练
参数量0.36B
层数18
头数(Q/KV)16 / 2
上下文长度131072
部署
image-20250702160710720
git clone https://gitcode.com/paddlepaddle/ERNIE-4.5-0.3B-PT.git 
image-20250702160721205
  • 输入上面代码即可克隆,上面这个界面就是一句克隆成功了。当然,你需要提前在电脑里下载git并配置环境变量,保持网络通畅
image-20250702160950837
  • 在pycharm中打开项目
image-20250702161016967
image-20250702161613038
  • 运行给的命令,出了一堆问题。
解决问题
  • 右键点击 “此电脑”“我的电脑”,选择 “管理”。在管理窗口中,点击 “设备管理器”。展开 “显示适配器”,你可以看到显卡的具体型号
image-20250702161734301
  • [FastDeploy](https://paddlepaddle.github.io/FastDeploy/get_started/installation/nvidia_gpu/)
  • 看上面文档的这一部分
image-20250702161840870
  • 在其中找到自己要如何做,但会遇到windows不能部署的情况,有个底层需要linux系统。如果要在Window系统部署,就要使用Windows Subsystem for Linux或Docker
  • 后面我换成Linux云电脑,部署是没有问题的。碍于篇幅,本文就不继续写部署了。

四:GitCode社区

image-20250702173013050
  • 在我眼里,这个平台或可与GitHub对标,是个看的舒服的平台
image-20250703093805672
  • 国内的Gitee,就不太行,太扎眼,不知道的还以为是什么产品的平台呢。没有极客的感觉

五:文心一言背后的努力

文心开发时间线

  1. 初始闭源阶段(2023年3月)
  • 2023年3月16日,百度推出文心一言,成为中国首个类ChatGPT的大模型产品,初期采用闭源策略,类似于OpenAI的早期模式。
  • 8月31日,文心一言全面开放,首日即处理超过3342万个用户问题,标志着其进入大规模应用阶段。
  1. 商业化尝试(2023年11月)
  • 2023年11月1日,百度推出文心一言专业版,采用会员订阅模式(月费49.9元起),成为中国首个面向C端收费的大模型产品。
  • 尽管收费,用户增长迅速,2023年12月突破1亿用户。
  1. 开源战略的转变(2025年2月)
  • 2025年2月,百度宣布文心大模型4.5系列将于6月30日正式开源,从闭源收费转向开源免费。
  • 这一决策受到DeepSeek等开源模型的冲击,以及大模型推理成本快速下降(每年降低90%以上)的影响。

文心的努力

文心大模型的开源之路,不是一次“战略妥协”,而是一场从技术自信到生态自信的进化。从李彦宏口中的“闭源堡垒”到2025年6月30日全面开源10款模型、代码、工具链,百度用4个月完成了一次对自我的颠覆。这不是退让,是进化。

技术突围:从异构MoE到端到端开源栈
  • 多模态异构专家架构(Heterogeneous MoE)
    文心4.5首次实现文本、视觉、共享专家协同架构:文本专家专注语言逻辑,视觉专家处理图像/视频,共享专家打通跨模态知识壁垒。这种设计既避免模态干扰,又提升计算效率——视觉参数仅为文本1/3,多模态理解效果却提升31.21%。
  • 自适应视觉编码器
    抛弃传统ViT的固定分辨率限制,引入2D旋转位置嵌入(RoPE),可动态处理任意尺寸图像,保留原始宽高比,避免裁剪失真。视频处理更支持动态帧采样+时间戳渲染,精准捕捉时序逻辑。
  • 全栈开源工具链
    不仅开源权重,还释放 ERNIEKit训练框架 + FastDeploy推理引擎,支持HuggingFace、飞桨星河社区一键部署。开发者可低成本微调、端侧压缩,甚至自定义路由模型。

闭源→开源的硬核转身
  • 2023年:闭源黄金时代
    文心3.5全球评测7项满分,IDC认证算法唯一满分模型;4.0推出会员制,月费49.9元仍突破1亿用户。李彦宏曾断言:“闭源才能持续领先,开源是智商税。”
  • 2025年:开源海啸来袭
    DeepSeek开源模型以十分之一成本逼近闭源性能,用户用脚投票:豆包、Kimi、通义千问免费产品流量暴涨,文心日活承压。李彦宏在迪拜峰会坦言:“创新无法被计划。”——这是百度转向的信号弹。
  • 4个月极速转型
    2月宣布免费 → 4月发布4.5 Turbo → 6月30日10款模型全开源。百度用2185万开发者生态飞桨框架为底座,跑出中国大模型最激进开源实验。

开源的底气:已在产业战场自证价值

开源不是技术demo,而是被验证的生产力工具

  • 代码智能体“文心快码”
    每天百度新增代码中40%由其生成,服务760万开发者,支持多Agent协同调试。
  • 超拟真数字人直播
    驱动罗永浩数字人单场GMV 5500万,转化率超真人31%,成本降80%。
  • 电力调度、工业质检
    在国网电网预测峰谷、山西电厂优化运行,年省600万成本,减碳1.06万吨。

开源即生态:中国大模型的“根技术”野心

百度开源不是慈善,是构建新一代AI基础设施的卡位战:

“当文心4.5的权重向全球敞开,中国第一次有了对标 Llama+PyTorch 的全栈自主体系。”
  • 轻量模型以小博大
    文心4.5-21B-Base参数比Qwen3-30B小30%,数学推理反超,端侧部署成本骤降。
  • 多模态模型正面硬刚OpenAI
    文心4.5-VL-28B在OCRBench、MathVista等任务击败闭源o1,全球首个原生融合文本+视觉的开源模型。

结语:一点心里话

从李彦宏“闭源宣言”到10款模型全栈开源,百度完成了一次对傲慢的祛魅。技术真正的胜利,不在于高墙内的参数霸权,而在于多少人能用它创造价值

“当文心4.5的代码流淌在千万开发者的GPU上,中国大模型终于从‘追赶者’,变成了规则制定者。”

国外的AI技术确实很强,但它毕竟是国外的。记得ChatGPT刚推出时,有中国IP登录痕迹的账号直接被封禁😨。即使现在有了DeepSeek的突破,但像高贵的Gemini依然不为国内用户提供服务😓😡。在国内的大模型技术已经能够与国外的媲美时,我当然更倾向于使用国内的。毕竟,若大家都不使用,相关研究的资金和支持也会变得更少。

现在,文心4.5开源大模型,向我证明了他在中文方面的优秀处理能力,或许我们可以打破以前外国的东西就是好的刻板印象,将目光放在自家的企业上😆

👉 想体验?

  • 轻量部署:ERNIE-4.5-21B-Base(HuggingFace)
  • 多模态实战:ERNIE-4.5-VL-28B(飞桨星河社区)
  • 懒人API:百度智能云千帆平台
  • 好用社区:GitCode

你好,我是Qiuner. 为帮助别人少走弯路而写博客 这是我的 github https://github.com/Qiuner⭐ gitee https://gitee.com/Qiuner 🌹

如果本篇文章帮到了你 不妨点个吧~ 我会很高兴的 😄 (^ ~ ^) 。想看更多 那就点个关注吧 我会尽力带来有趣的内容 😎。

代码都在github或gitee上,如有需要可以去上面自行下载。记得给我点星星哦😍

如果你遇到了问题,自己没法解决,可以去我掘金评论区问。私信看不完,ZEEKLOG评论区可能会漏看 掘金账号 https://juejin.cn/user/1942157160101860 掘金账号
更多专栏:📊 一图读懂系列📝 一文读懂系列🌟 持续更新🎯 人生经验

掘金账号ZEEKLOG账号感谢订阅专栏 三连文章

上一篇推荐:

  1. Java程序员快又扎实的学习路线
  2. 一文读懂 AI
  3. 一文读懂 服务器
  4. 某马2024SpringCloud微服务开发与实战 bug记录与微服务知识拆解(MybatisPlus、Docker、MQ、ES、Redis)第四章重制版

下一篇推荐:

一文读懂 XX?
栏 三连文章

上一篇推荐:

  1. Java程序员快又扎实的学习路线
  2. 一文读懂 AI
  3. 一文读懂 服务器
  4. 某马2024SpringCloud微服务开发与实战 bug记录与微服务知识拆解(MybatisPlus、Docker、MQ、ES、Redis)第四章重制版

下一篇推荐:

一文读懂 XX?

一起来轻松玩转文心大模型吧

Read more

QWEN-AUDIO语音合成实战教程:3步部署通义千问TTS Web系统

QWEN-AUDIO语音合成实战教程:3步部署通义千问TTS Web系统 基于通义千问Qwen3-Audio架构构建的新一代语音合成系统,集成情感指令微调与声波可视化交互,致力于提供具有"人类温度"的超自然语音体验。 1. 开篇:为什么选择QWEN-AUDIO? 如果你正在寻找一个既专业又好用的语音合成系统,QWEN-AUDIO绝对值得一试。这个系统最大的特点就是"像人说话"——不是那种机械的、冰冷的电子音,而是带有情感和温度的自然人声。 想象一下这样的场景:你需要给视频配音,但不想自己录音;或者需要制作有声书,但找不到合适的配音员;又或者想要一个智能客服,但希望声音更亲切自然。QWEN-AUDIO都能帮你解决这些问题。 最让人惊喜的是,你只需要告诉它"用兴奋的语气说"或者"温柔一点",它就能自动调整说话的方式,就像真的在理解你的要求一样。而且整个过程只需要简单的三步操作,不需要任何专业的技术背景。 2. 准备工作:确保环境就绪 在开始部署之前,我们先确认一下你的电脑环境是否满足要求。别担心,要求并不高,

By Ne0inhk

OpenClaw Webhook 详解:完整指南

Webhook 是将 OpenClaw 从“聊天助手”快速转变为“响应式系统”的最佳方式。无需等待您主动发送消息,GitHub 可以在 PR 提交时通知 OpenClaw,Stripe 可以在支付失败时通知 OpenClaw,n8n 也可以按计划通知 OpenClaw。OpenClaw 会接收这些传入事件,并将其转换为代理运行或轻量级唤醒操作,然后将结果路由回您实际使用的任何渠道。 本文重点介绍 OpenClaw 网关上的 HTTP Webhook。OpenClaw 中还有另一种东西,在一些文档和配置中也被称为“钩子”。这些是网关内部的事件钩子,当本地生命周期事件触发时运行。它们也很有用,但 Stripe 或 GitHub 与服务器通信的方式并非通过它们。 如果您的 OpenClaw 实例是刚刚部署在 VPS 上,并且您仍然使用 SSH 进行基本操作,那么首先要确保网关稳定,

By Ne0inhk
【Java Web学习 | 第15篇】jQuery(万字长文警告)

【Java Web学习 | 第15篇】jQuery(万字长文警告)

🌈个人主页: Hygge_Code🔥热门专栏:从0开始学习Java | Linux学习| 计算机网络💫个人格言: “既然选择了远方,便不顾风雨兼程” 文章目录 * 从零开始学 jQuery * jQuery 核心知识🥝 * 一、jQuery 简介:为什么选择它? * 1. 核心用途 * 2. 核心优势 * 3. 下载与引入 * 二、jQuery 语法:基础与选择器 * 1. 常用选择器 * 2. ready 方法:确保文档加载完成 * 三、DOM 元素操作:内容、属性、样式 * 1. 操作元素内容 * 2. 操作元素属性 * 3. 操作元素样式 * (1)操作宽度与高度 * (2)

By Ne0inhk

使用 Trae IDE 一键将 Figma 转为前端代码

在现代前端开发中,从设计稿到可用页面的交付往往需要大量重复劳动:切图、手写样式、布局调整……而借助 MCP Server - Figma AI Bridge,我们可以将 Figma 设计稿自动转换成整洁的 HTML/CSS/JS 代码,并立即生成可预览的网页。一键化、傻瓜式操作,让设计交付效率跃升。 本文测试使用的系统环境如下: * Trae IDE 版本:2.4.5 * macOS 版本:14.7 * Node.js 版本:24.6.0 * npx 版本:11.5.2 * Python 版本:3.13.3

By Ne0inhk