在 Windows 上安装和编译 llama.cpp

在 Windows 上安装和编译 llama.cpp

1.1 环境准备

1.1.1 安装mingw

下载地址:mingw-builds-binaries

在这里插入图片描述

解压后,将 bin 目录加入环境变量,例如:E:\dev\mingw64\bin

验证安装是否成功:

g++ -v

1.1.2 安装w64devkit

下载地址:w64devkit Releases

在这里插入图片描述

解压后,将 bin 目录添加到系统环境变量,例如:E:\dev\w64devkit\bin

1.1.3 安装 CMake

访问 CMake 官网,下载 Windows x64 ZIP(注意:不是安装包)。

在这里插入图片描述

解压后,将 bin 目录添加到环境变量,例如:E:\dev\cmake-4.0.3-windows-x86_64\bin

验证是否成功:

cmake --version

2.2 克隆 llama.cpp

git clone https://github.com/ggerganov/llama.cpp 

3.3 编译

3.3.1 使用 CMake 构建(新版)

说明:llama.cpp 官方已废弃原来的 Makefile 构建方式,推荐改用 CMake 构建方式 来编译模型工具和推理引擎。

编译 llama.cpp:

如果本地有安装Visual Studio,推荐使用 Visual Studio + CMake 进行构建(适用于 Windows 用户,兼容性最佳):
cd path/llama.cpp mkdir build cd build # 使用 Visual Studio 生成项目 cmake ..-G "Visual Studio 17 2022"-A x64 -DLLAMA_CURL=OFF # 或 使用 w64devkit和mingw 生成项目 cmake ..-G "MinGW Makefiles"-DLLAMA_CURL=OFF # 编译 Release 模式 cmake --build .--config Release 

如果一切正常,你会在 build/bin/Release 目录下看到生成的程序。

Read more

dify平台集成OCR:低代码+AI模型打造智能表单识别系统

dify平台集成OCR:低代码+AI模型打造智能表单识别系统 📖 项目背景与技术选型动因 在企业数字化转型过程中,大量纸质表单、发票、合同等非结构化文档需要转化为可处理的结构化数据。传统人工录入方式效率低、成本高、易出错,而通用OCR服务往往对中文支持不完善,尤其在复杂背景或手写体场景下识别准确率骤降。 为此,我们基于 dify 低代码平台,集成了一套轻量级但高精度的 OCR 文字识别系统。该系统采用经典的 CRNN(Convolutional Recurrent Neural Network)模型架构,专为中英文混合文本识别优化,在无GPU依赖的前提下实现 <1秒 的平均响应时间,真正做到了“开箱即用”的工业级OCR能力。 本方案的核心价值在于: - 低代码集成:通过dify平台快速接入AI能力,无需深度开发即可构建智能表单应用 - 高识别精度:相比传统轻量模型,CRNN在中文长文本、模糊图像、倾斜排版等复杂场景下表现更优 - 双模输出支持:同时提供可视化Web界面和标准REST API,

论文阅读:Training language models to follow instructions with human feedback

Ouyang L, Wu J, Jiang X, et al. Training language models to follow instructions with human feedback[J]. Advances in neural information processing systems, 2022, 35: 27730-27744. 引言 引言首先指出了当前大型语言模型(LMs)存在的一个核心问题:模型规模变大并不意味着它们能更好地遵循用户的意图 。具体而言,大型模型经常生成不真实、有毒或对用户毫无帮助的输出,这是因为语言模型的训练目标(预测网页上的下一个 token)与用户希望的目标(“有用且安全地遵循指令”)是错位的。作者的目标是让模型在“有用性”(Helpful)、“诚实性”(Honest)和“无害性”(Harmless)这三个方面与用户意图对齐。

Pi0模型微调入门教程:基于LoRA在自有机器人数据上进行动作策略适配

Pi0模型微调入门教程:基于LoRA在自有机器人数据上进行动作策略适配 重要提示:本文介绍的Pi0模型微调方法主要适用于研究和开发环境,在实际机器人部署前请充分测试验证安全性。 1. 教程概述 1.1 学习目标 本教程将带你从零开始,学习如何使用LoRA(Low-Rank Adaptation)技术对Pi0机器人控制模型进行微调。学完本教程后,你将能够: * 理解Pi0模型的基本架构和微调原理 * 准备自己的机器人数据集并处理成合适格式 * 使用LoRA方法高效微调Pi0模型 * 评估微调后的模型性能并部署使用 1.2 前置知识要求 为了更好理解本教程,建议具备以下基础知识: * Python编程基础(能看懂简单代码) * 了解机器学习基本概念(训练、验证、测试) * 有过PyTorch或类似框架的使用经验更佳 * 对机器人控制有基本了解(非必须,但有帮助) 1.3 为什么选择LoRA微调 LoRA是一种参数高效的微调方法,相比全参数微调有三大优势: 1. 训练速度快:只需要训练少量参数,大大缩短训练时间 2. 内存占用少:可以在消费级GPU

GoView + AI:低代码开发的新革命

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 输入框内输入如下内容: 使用GoView平台创建一个智能数据可视化仪表盘,能够根据用户输入的自然语言描述自动生成对应的图表和交互组件。要求支持多种数据源连接,包括Excel、API和数据库,并具备实时数据更新功能。仪表盘应包含折线图、柱状图和饼图,支持拖拽布局和主题自定义。 3. 点击'项目生成'按钮,等待项目生成完整后预览效果 最近在做一个数据可视化项目时,发现传统开发方式需要写大量重复代码,效率实在不高。后来尝试了GoView这个低代码平台,配合AI辅助开发,整个过程变得轻松多了。分享一下我的实践心得。 1. 自然语言描述生成界面 以前做数据可视化,光是设计图表布局就要花半天时间。现在只需要用自然语言描述需求,比如"创建一个展示近半年销售趋势的折线图,左侧显示销售额,右侧显示增长率",GoView的AI就能自动生成对应的图表框架。系统会智能识别时间字段、数值字段,并给出合理的默认配置。