如何在ubuntu上安装并使用llama.cpp

如何在ubuntu上安装使用llama.cpp

1.安装依赖

sudoapt update &&sudoapt upgrade -ysudoaptinstall build-essential cmake git libopenblas-dev libcurl4-openssl-dev 

2.获取llama.cpp的源文件

git clone https://github.com/ggerganov/llama.cpp 

3.开始编译

#进入目录cd llama.cpp/ mkdir build cd build #带openblas加速库进行编译# cmake .. -DLLAMA_BLAS=ON -DLLAMA_BLAS_VENDOR=OpenBLAS cmake ..-DGGML_CUDA=ON cmake --build.--config Release -j

4.模型格式转换

#进入工作目录cd llama.cpp/build/bin #将huggingface格式的模型转化从gguf python3 convert_hf_to_gguf.py /path/to/src_model \--outtype f16 --outfile /path/to/target_model.gguf 

注意此处src_model不是单个文件,包含包括模型结构配置,权重配置,分词器配置在内的完整模型目录。taget_model.gguf是单个文件

量化
如果需要运行更小的模型文件,可以使用llama.cpp自带的量化工具

#进入工作目录cd llama.cpp/build/bin #将原来的模型量化成Q3_K_S ./llama-quantize src_model.gguf target_model_Q3_K_S.gguf Q3_K_S #可以查看其他可用的量化方案 ./llama-quantize --help

如果上述工具运行报错,记得安装好依赖

#建议用conda做好环境隔离后再安装下列依赖,避免污染系统的基础环境 pip install transformers torch mistral_common sentencepiece \-i https://pypi.tuna.tsinghua.edu.cn/simple \ --trusted-host https://pypi.tuna.tsinghua.edu.cn 

5.运行
直接使用llama-server

./llama-server -m model.gguf -c4096--host0.0.0.0 

在浏览器上打开下列链接,即可开始对话

http://localhost:8080 

获取模型

由于huggingface下载太慢,本文选择使用阿里的魔塔社区

这里以下载llama3.1-8B的模型为例

#0.安装modelscope工具 pip install modelscope #1.下载完整模型文件 modelscope download --model LLM-Research/Meta-Llama-3-8B-Instruct #2.查看模型位置,默认会存放在缓存目录ls ~/.cache/modelscope/hub/ 

Read more

AI学习第一站:从感知到认知,AI到底是什么?

AI学习第一站:从感知到认知,AI到底是什么?

本文围绕 AI 的 “感知 - 认知” 双轮逻辑这一核心主题展开,系统阐述了 AI 的底层工作框架。首先界定了 “感知”(将物理世界连续信号转换为机器可处理的结构化数据)与 “认知”(对结构化数据进行分析、推理与决策)的核心内涵,剖析了两者的技术构成与实现路径,明确了 “感知→认知→行动→感知” 的闭环工作逻辑;随后结合美团外卖 AI 骑手调度系统、阿里云视觉 AI 医疗影像诊断系统、苹果 Siri 语音助手三个真实落地案例,具象化呈现了 “感知 - 认知” 在实际场景中的应用逻辑与效果;接着通过基于 MNIST 数据集的手写数字识别实战项目,详解了从数据加载预处理(感知)到模型搭建训练(认知)的完整代码实现与结果分析;最后梳理了 AI “感知

Lada v0.10.1最新版本地一键启动包教程:AI去马赛克神器实测 Lada去马赛克工具、AI视频去马赛克、本地AI视频修复、一键启动AI工具、视频像素恢复神器

Lada v0.10.1最新版本地一键启动包教程:AI去马赛克神器实测 Lada去马赛克工具、AI视频去马赛克、本地AI视频修复、一键启动AI工具、视频像素恢复神器

Lada v0.10.1最新版本地一键启动包教程:AI去马赛克神器实测 Lada去马赛克工具、AI视频去马赛克、本地AI视频修复、一键启动AI工具、视频像素恢复神器 下载地址:https://pan.quark.cn/s/7819816715d6?pwd=Pnbx 之前在网上刷视频的时候,经常会遇到一个特别让人崩溃的问题——关键画面总被打上厚厚的马赛克。 想认真看内容,却只能看到一堆像素块,体验直接拉满折磨值。 我前前后后试过不少所谓的去码工具,不是效果拉胯,就是要上传视频到云端处理,说实话这种私密视频谁敢随便传?直到最近发现了这个本地神器——Lada 本地一键启动包,才算是真正解决问题。 它直接在电脑本地跑AI模型,不联网、不上传、不限制,用起来相当舒服。 下载地址:https://pan.quark.cn/s/7819816715d6?pwd=Pnbx 一、Lada到底是干什么的? 简单概括一句话:

在trae、qoder、Claude Code、Cursor等AI IDE中使用ui-ux-pro-max-skill

ui-ux-pro-max-skill官方地址 全局安装 uipro-cli npm install -g uipro-cli 进入你的前端项目 cd /your/project 初始化并绑定 Claude Code 作为 AI uipro init --ai claude # 如果你用 Cursor 就用 --ai cursor uipro init --ai cursor # Cursor uipro init --ai qoder # qoder uipro init --ai all # 一次性启用全部支持的 AI 在qoder侧边栏中输入 : /ui-ux-pro-max 帮我设计一个 B2B SaaS 产品的官网首页,要求: 风格:Minimalism

OpenClaw 实战:5 分钟用 AI Agent 自动生成规范测试用例并写入 Excel

OpenClaw 实战:5 分钟用 AI Agent 自动生成规范测试用例并写入 Excel

OpenClaw 实战:5 分钟用 AI Agent 自动生成规范测试用例并写入 Excel 一、核心前提 OpenClaw 是轻量级 Agent 框架,核心聚焦: Skill 注册 → 工具选择 → 任务执行 * 没有 Dify 的可视化界面 * 没有知识库、没有复杂工作流 * 代码极简洁、上手极快 * 适合:测试开发 / 有编程能力的测试工程师 一句话定位: OpenClaw = 极简、轻量、只专注做工具调用的小 Agent 引擎 二、环境准备 1. 安装 OpenClaw 及依赖 # 安装 OpenClaw 核心框架 pip install openclaw # Excel 操作