阿里云的moltbot机器人使用钉钉的Stream流式接入

注意

  1. 这个不需要工作流
  2. 这个不需要开放外网

具体方法:

1.check代码https://github.com/DingTalk-Real-AI/dingtalk-moltbot-connector

2.package.json增加如下代码

"moltbot": { "extensions": ["./plugin.ts"], "channels": ["dingtalk-connector"], "installDependencies": true }

3.安装插件

moltbot plugins install dingtalk-moltbot-connector

4.增加钉钉配置~/.moltbot/moltbot.json;如果有了进行提花

{ "channels": { "dingtalk-connector": { "enabled": true, "clientId": "dingxxxxxxxxx", // 钉钉 AppKey "clientSecret": "your_secret_here", // 钉钉 AppSecret "gatewayToken": "", // 可选:Gateway 认证 token, opencode.json配置中 gateway.auth.token 的值 "gatewayPassword": "", // 可选:Gateway 认证 password(与 token 二选一) "sessionTimeout": 1800000 // 可选:会话超时(ms),默认 30 分钟 } }, "gateway": { // gateway通常是已有的节点,配置时注意把http部分追加到已有节点下 "http": { "endpoints": { "chatCompletions": { "enabled": true } } } } }

4.重启gateway

moltbot gateway restart

5.登录钉钉开发平台修改机器人配置

   切换成stream,关闭工作流

Read more

Qwen3-Embedding-4B推荐方案:llama.cpp集成部署教程

Qwen3-Embedding-4B推荐方案:llama.cpp集成部署教程 1. 引言 1.1 通义千问3-Embedding-4B:面向未来的文本向量化模型 Qwen3-Embedding-4B 是阿里云通义千问(Qwen)系列中专为「语义向量化」设计的中等规模双塔模型,于2025年8月正式开源。该模型以4B参数量、2560维输出向量、支持32k长文本上下文为核心亮点,定位为兼顾性能与效率的企业级语义理解基础设施组件。 其在MTEB(Multilingual Task Evaluation Benchmark)三大子集上表现优异:英文74.60、中文68.09、代码73.50,均优于同尺寸开源embedding模型。更重要的是,它支持119种自然语言及主流编程语言,在跨语言检索、bitext挖掘等任务中达到官方评估S级水平。 得益于Apache 2.0开源协议,Qwen3-Embedding-4B可直接用于商业场景,无需额外授权,极大降低了企业构建多语言知识库、智能客服、文档去重系统的门槛。 1.2 部署目标:轻量化 + 高性能

Llama-3.2V-11B-cot从零开始教程:GPU算力适配的视觉语言模型快速上手

Llama-3.2V-11B-cot从零开始教程:GPU算力适配的视觉语言模型快速上手 1. 认识Llama-3.2V-11B-cot Llama-3.2V-11B-cot是一个强大的视觉语言模型,它能同时理解图片内容和进行逻辑推理。想象一下,你给它一张照片,它不仅能告诉你照片里有什么,还能像人类一样分析照片背后的故事和逻辑关系。 这个模型基于Meta公司开源的Llama 3.2 Vision架构,拥有110亿参数,特别擅长处理需要分步推理的视觉任务。比如你给它一张天气预报图,它不仅能识别图中的天气符号,还能推断出未来几天的天气变化趋势。 2. 环境准备与安装 2.1 硬件要求 要运行这个模型,你需要准备: * 支持CUDA的NVIDIA显卡(建议RTX 3090或更高) * 至少24GB显存 * 16GB以上系统内存 * 50GB可用磁盘空间 2.2 软件依赖 首先确保你的系统已经安装: * Python 3.8或更高版本 * CUDA 11.7/11.8 * cuDNN 8.x

【优质开源项目】AIGC开源推荐-全球情报监控平台worldmonitor

【优质开源项目】AIGC开源推荐-全球情报监控平台worldmonitor

1.概述 World Monitor 是一个开源的实时情报/监测仪表盘,聚合多类数据源(新闻、地理/卫星、航运/空中、财经、威胁情报等),提供交互式地理视图、AI 摘要、事件聚合与报警,支持 Web / PWA / Tauri 桌面三种运行方式,并可通过变体(WORLD / TECH / FINANCE)切换功能集。 2. 总体技术架构(分层视角) 客户端层(Browser / PWA / Tauri desktop) * • React + TypeScript + Vite 构建。 * • 地图/可视化:deck.gl(WebGL 3D globe)、MapLibre GL、D3

5060Ti双显卡+LLaMA-factory大模型微调环境搭建

5060Ti双显卡+LLaMA-factory大模型微调环境搭建

* 查看环境 * 确定安装版本 * 安装CUDA12.8 * 安装Anaconda * 安装Visual Studio C++桌面开发环境(编译llama.cpp需要) * 安装cmake(编译llama.cpp需要) * 安装llama.cpp(用于量化) * 安装huggingface-cli * 安装llama-factory * 安装PyTorch2.7.0 * 安装bitsandbytes * 安装flash-attention加速(减少内存的) * 安装unsloth加速(减少显存的) * 安装deepspeed加速(分布式训练) * 测试环境 * 准备数据集 * 修改配置以适配多显卡 * 训练 参考链接 查看环境 CPU:R7 9800X3D RAM:96GB(5600) GPU:5060Ti 16GB * 2 nvidia-smi 我的显卡是5060Ti,CUDA最高支持的版本为12.9,理论上有11.