昇腾设备部署llama.cpp

硬件环境:

Atlas 800I A2

CPU:KunPeng920 * 192

NPU:Atlas 910B4-1 * 8

内存:1000G

软件环境

操作系统:OpenEuler22.03 LTS

内核:5.10.0-186.0.0.2.1.oe2203sp3.galaxy.aarch64

驱动:24.1.rc2

docker:26.1.3

为了不影响物理环境,安装是在docker容器环境中进行,

由于目前llama.cpp只支持openeuler22.03和ubuntu 22.04,可以下载一个对应操作系统的镜像

此处以vllm-ascend:0.9.1rc1-torch_npu2.5.1-cann8.1.rc1-python3.10-oe2203lts-linuxarm64镜像为例

拉取镜像:

docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/openeuler/vllm-ascend:0.9.1rc1-torch_npu2.5.1-cann8.1.rc1-python3.10-oe2203lts-linuxarm64

支持Atlas 300I Duo Atlas 300T A2(Ascend 910B4)

起容器:

docker run -it -d --net=host --shm-size=500g \ --privileged \ --name vllm-ascend \ --device=/dev/davinci_manager \ --device=/dev/hisi_hdc \ --device=/dev/devmm_svm \ -v /usr/local/Ascend/driver:/usr/local/

Read more

无需代码!10分钟玩转RetinaFace+CurricularFace人脸识别

无需代码!10分钟玩转RetinaFace+CurricularFace人脸识别 你是不是一直觉得人脸识别技术很高深,需要懂编程、会配置环境、还要处理复杂的模型部署?现在我要告诉你一个好消息:完全不需要!即使你没有任何技术背景,也能在10分钟内搭建一个专业级的人脸识别系统。 本文专为产品经理、业务人员和对AI感兴趣的非技术人员设计。我们将使用ZEEKLOG星图平台提供的预置镜像,全程无需编写任何代码,就像使用普通手机应用一样简单。你只需要点击几下鼠标,就能体验RetinaFace+CurricularFace这个强大的人脸识别组合。 RetinaFace负责精准定位人脸位置,就像一双敏锐的眼睛;CurricularFace则负责识别身份,就像一个聪明的大脑。这两个技术组合在一起,能够实现准确率高达99%的人脸识别效果,广泛应用于安防、金融、社交等领域。 更重要的是,ZEEKLOG星图已经帮我们把所有复杂的技术细节都打包好了。你不需要安装Python、配置CUDA、下载模型权重,所有这些繁琐的工作都已经完成。你只需要关注最核心的问题:这个技术能不能满足我的业务需求? 读完本文后

Fanuc机器人与PLC的Ethernet/IP通信

Fanuc机器人与PLC通过Ethernet/IP实现高速通信的技术实践 在现代智能制造产线中,机器人与上位控制系统之间的实时、稳定通信是保障生产节拍和设备协同的关键。Fanuc作为工业机器人领域的主流厂商,其控制系统虽然封闭性强,但通过标准工业以太网协议如Ethernet/IP,依然能够实现与第三方PLC(如罗克韦尔ControlLogix、西门子S7等)的高效数据交互。 尤其是在汽车焊装线、装配工站或物料搬运系统中,我们经常遇到这样的需求:用Allen-Bradley PLC统一调度多台Fanuc机器人执行不同动作序列,并实时监控其运行状态、报警信息及I/O反馈。这种场景下,传统的硬接线DI/DO方式已难以满足复杂逻辑与高响应要求,而基于Ethernet/IP的通信方案则展现出显著优势——不仅布线简化,更支持结构化数据传输和远程控制。 那么,如何让一台Fanuc LR Mate 200iD或M-20iA真正“听懂”ControlLogix控制器发出的指令?这背后涉及硬件配置、网络参数设置、标签映射以及KAREL程序的协同配合。本文将结合实际工程案例,深入剖析这一集成过程中的关

低代码AI化爆发:OpenClaw成企业数字化破局关键

低代码AI化爆发:OpenClaw成企业数字化破局关键

企业数字化转型喊了多年,却始终卡在两难境地:纯代码开发周期长、成本高、迭代慢,中小团队耗不起;传统低代码看似快捷,却只能做简单表单和固化流程,适配不了复杂业务,智能化更是形同虚设。        如今低代码AI化迎来全面爆发,行业彻底告别“拖拽凑数”的浅层次应用,可多数平台依旧停留在AI插件拼接的伪智能阶段。直到OpenClaw的落地,才真正打通了低代码、AI与企业业务的壁垒,凭借原生智能体能力,补齐企业数字化的最后一块短板,成为转型落地的核心抓手。 一、行业痛点:企业数字化的三座拦路大山        抛开浮华的概念,企业做数字化转型,最怕的不是没工具,而是工具不实用、不落地,当前市面上的方案普遍存在三大硬伤,卡死转型进度: * AI与业务割裂:低代码搭载的AI仅能做表层代码生成、问答交互,无法深度理解业务逻辑、对接企业现有系统,智能能力用不上、落地难; * 开发门槛仍偏高:即便用低代码,仍需专人配置流程、对接数据、调试权限,业务人员无法自主操作,技术团队负担依旧繁重; * 数据安全存隐患:多数AI能力依赖云端接口,企业核心业务数据、经营数据需要外发,隐

FPGA机器学习终极指南:hls4ml完整教程与快速上手技巧

FPGA机器学习终极指南:hls4ml完整教程与快速上手技巧 【免费下载链接】hls4mlMachine learning on FPGAs using HLS 项目地址: https://gitcode.com/gh_mirrors/hl/hls4ml 想象一下,你训练了一个强大的深度学习模型,但它只能在云端运行,响应延迟让你无法接受。现在,一个名为hls4ml的开源项目正在改变这一现状,让机器学习模型能够直接在FPGA上实现低延迟、高吞吐量的推理加速。这个项目正迅速成为FPGA机器学习领域的明星工具!✨ 为什么选择FPGA推理加速? 在人工智能应用爆炸式增长的今天,传统的CPU和GPU已经无法满足某些场景对低延迟和能效比的严苛要求。FPGA凭借其可重构性和并行处理能力,在边缘计算、实时处理等领域展现出巨大优势。 hls4ml的核心优势: * 🚀 超低延迟:模型直接在硬件上运行,无需操作系统开销 * ⚡ 高吞吐量:充分利用FPGA的并行计算能力 * 🔋 能效比优异:相比GPU,FPGA在特定任务上能效比更高 * 🎯 定制化程度高:可根据具体需求优化硬件实现