深入 llama.cpp:llama-server-- 从命令行到HTTP Server(2)

深入 llama.cpp:llama-server-- 从命令行到HTTP Server(2)

 前言

       llama-server是llama.cpp中用于发布大模型服务的工具。它通过极简的命令行配置,将复杂的模型推理过程封装为通用的 HTTP 接口;在底层,它选择以纯 C++ 编写的 cpp-httplib 作为服务框架的底层。本章分为应用实战与底层架构两部分。首先,我们将介绍不同参数下的大模型服务发布;接着,我们将详细解析 cpp-httplib 在项目中的具体实现,帮助读者掌握该服务端在网络调度层面的运行逻辑。


目录

  • 1 应用实战:启动大模型服务
  • 2 架构解析:基于cpp-httplib的运行机制

1 应用实战:启动大模型服务

       llama-server是一款轻量级、兼容 OpenAI API、用于提供大语言模型服务的 HTTP 服务器。在上节中,我们启动了llama-server,构建了本地的大模型服务。本节将在此基础上,进一步深入llama-server启动过程的参数设置,同时演示如何利用curl工具发起网络请求,以实测并验证服务的接口响应。

1.1 模型服务参数设置

       llama-server支持自定义端口号,发布大模型服务。如下,llama-server通过--port参数设置端口号为8080。

llama-server -m gemma-3-1b-it-Q4_K_M.gguf --port 8080

       llama-server 支持多用户并行解码。多用户并行解码是指模型服务器通过资源切分,同时处理多路独立的用户推理请求,以实现任务的高并发生成。如下所示,llama-server 通过 -np 参数设置模型服务的并发请求数为 4,并配合 -c 参数指定全局最大上下文长度为 16384 个 Token,这意味着总上下文空间将被划分为 4 个独立的槽位(Slots),使每个并发请求所能占用的最大上下文配额为 4096 个 Token。

llama-server -m gemma-3-1b-it-Q4_K_M.gguf -c 16384 -np 4

       llama-server支持推测解码。推测解码是一种利用小型“草稿模型”先行预测、并由大型‘主模型’进行并行验证,从而在不损耗生成质量的前提下显著提升推理效率的技术。如下,llama-server通过参数指定“草稿模型”,辅助-m指定的“主模型”进行推理。

llama-server -m gemma-3-1b-it-f16.gguf -md gemma-3-1b-it-Q4_K_M.gguf

       llama-server 支持启用文本嵌入(embedding)模式。在此模式下,服务端用于接收文本输入并输出对应的特征向量,以实现对文本语义的数值化表征。如下所示,llama-server 通过添加 --embedding 标记激活该模式,并配合 --pooling cls 参数指定使用 CLS 池化策略来提取文本特征,同时利用 -ub 8192 参数将物理批处理大小(ubatch-size)设为 8192,以优化大规模文本处理时的执行效率。

llama-server -m gemma-3-1b-it-f16.gguf --embedding --pooling cls -ub 8192

       llama-server 支持启用重排序(Reranking)模式。在此模式下,服务端将开放重排序接口,用于接收查询请求及多个候选文档片段,并输出该查询与各片段之间的相关性分值。如下,llama-server通过添加--reranking标记启用重排序模式。

llama-server -m gemma-3-1b-it-f16.gguf --reranking

1.2 模型服务请求

       本小节将利用 curl 工具发起的网络请求,除涉及针对上节配置端口的基础访问以及重排序(Reranking)服务请求外,还将重点涵盖兼容 OpenAI 标准的接口调用,包括对话补全(Chat Completions)、数据响应(Responses)及文本嵌入(Embeddings)三类标准网络请求。其中curl工具(curl.exe)需读者自行下载,curl相关地命令行可在vscode中TERMINAL->Git Bash环境下运行,如下图所示,vscode中TERMINAL->Git Bash环境打开过程。

1.2.1 模型信息获取

       服务:

llama-server -m gemma-3-1b-it-Q4_K_M.gguf --port 8080

       请求:

curl http://127.0.0.1:8080/models

       响应:

1.2.2 Chat Completions

       服务:

llama-server -m gemma-3-1b-it-Q4_K_M.gguf --port 8080

       请求:

curl.exe http://127.0.0.1:8080/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "messages": [ { "role": "user", "content": "Hello!" } ] }'

       响应:

       返回内容为json字符串,其中"choices"->"messages"->"content"为模型返回的对话内容。

1.2.3 Responses

       服务:

llama-server -m gemma-3-1b-it-Q4_K_M.gguf --port 8080

       请求:

curl.exe http://127.0.0.1:8080/v1/responses \ -H "Content-Type: application/json" \ -d '{ "input": "Hello!" }'

       响应:

       返回内容为json字符串,其中"output"->"content"->"text"为模型返回的对话内容。

1.2.4 Embeddings

       服务:

llama-server -m gemma-3-1b-it-f16.gguf --embedding --pooling cls -ub 8192

       请求:

 curl.exe http://127.0.0.1:8080/v1/embeddings \ -H "Content-Type: application/json" \ -d '{ "input": "Hello!", "encoding_format": "float" }'

       响应:

       返回内容为json字符串,其中"data"->"embedding"为模型返回文本嵌入向量,维度为1*1152。

1.2.5 Reranking

       为了确保重排序(Reranking)服务的效果,本文选用轻量且专业的jina-reranker-v1-tiny-en模型进行本地快速实验,可通过 Hugging Face 官方仓库或国内镜像站(hf-mirror.com)将其克隆至本地。

git clone https://huggingface.co/jinaai/jina-reranker-v1-tiny-en git clone https://hf-mirror.com/jinaai/jina-reranker-v1-tiny-en#镜像地址

       随后,利用 llama.cpp 提供的工具链将模型转换为 GGUF 格式。首先定位至 llama.cpp 源码目录并配置所需的 Python 环境依赖;接着执行转换脚本convert_hf_to_gguf.py,将jina-reranker-v1-tiny-en模型完整输出为 jina.gguf。具体执行命令如下。一个已转换好的模型jina.gguf可从此下载

cd llama.cpp pip install -r requirements.txt python convert_hf_to_gguf.py ./jina-reranker-v1-tiny-en/ --outfile jina.gguf

       服务:

llama-server -m jina.gguf --reranking

       请求:

curl.exe http://127.0.0.1:8080/v1/rerank \ -H "Content-Type: application/json" \ -d '{ "model": "some-model", "query": "How much does a catty of apples cost?", "top_n": 3, "documents": [ "Apples are red.", "Apples are a type of fruit.", "Apples cost 3 yuan per catty.", "Apple leaves are oval or broadly elliptical." ] }'

       响应:

       返回内容为json字符串,包含排名前三的返回内容。其中第三个(index为2)得分最高。

2 架构解析:基于cpp-httplib的运行机制

       在上篇文章(初识llama.cpp - 轻量级推理引擎-ZEEKLOG博客)的最后,我们在浏览器中通过http://127.0.0.1:8080访问可视化交互界面,正式开启与本地大模型的零延迟对话体验。本章将深入llama-server与前端(UI)的交过过程,llama-server选择了轻量级的头文件库cpp-httplib作为llama-server的通信底层依赖,本节将深入代码具体的实现,探讨基于cpp-httplib的模型服务运行机制,进一步理解用户从输入对话文本到界面响应对话的交互逻辑。

       具体的代码实现将涉及到llama-server、server-context、cpp-httplib(底层依赖)三个项目。整体的架构如下图所示:

       整体的架构主要分为server_http_context与server_context,其中server_http_context用于接收用户输入文本以及向用户返回模型推理的结果(以文本的形式返回),server_context用于对模型的推理进行管理。

       server_context通过server_response_reader将模型推理生成的文本(Token)传递给server_http_context,而server_http_context通过httplib::DataSink将模型推理实时生成的文本以流式传输(streaming)的形式返回到客户端(UI),相较于传统的一次性整体响应,这种流式机制允许服务端将生成的Token实时推送到界面,从而确保了从用户输入到指令响应的极速交互体验。同时server_http_context将用户请求封装为模型推理的任务server_task,为后端模型推理提供输入。

       在 llama-server 项目中,通过为 httplib::Server 注册POST和GET类型的回调函数,实现了对特定网络请求的处理与响应。注册的回调函数如下:

       其中

横线处的文字表示网络请求名称。以get_health为例,用户可通过http://127.0.0.1:8080/health网络地址请求,而服务器则由get_health方法处理并响应,果如下图所示:

文末

       本文深入讲解了llama-server,从命令行到HTTP Server的过程,具体地从"应用实战:启动大模型服务"与"结构解析:基于cpp-httplib的运行机制"两方面说明,从工具的使用到模型服务框架的代码具体实现,由浅入深地说明了从用户输入对话文本到界面响应对话的交互逻辑。在下一章中,我们将进一步探索模型推理前的核心准备环节——模型加载与初始化。

Read more

【指南】Vibe Coding 前端搭建的最后一块拼图

【指南】Vibe Coding 前端搭建的最后一块拼图

Playwright,Vibe Coding前端搭建最好的测试伙伴 在2025年的今天,Vibe Coding(氛围编程)已经成为了最时髦的开发方式。作为开发者,我们只需要专注于提供创意和方向(Vibe),剩下的繁琐代码实现全部交给诸如 Claude Code、Cursor 等 AI 编程智能体来完成。 在后端开发中,Vibe Coding 体验极佳:只要逻辑正确、测试用例跑通,万事大吉。但在前端开发中,这套流程却经常“翻车”。 原因很简单:大模型(LLM)是“瞎子”。 它们能写出逻辑完美、毫无语法错误的 React/Vue 组件,也能熟练使用 Tailwind CSS,但它们看不到最终渲染出来的页面长什么样。于是我们经常遇到这样的灾难场景: * 按钮飞到了屏幕边缘; * 弹窗的 z-index 不对,被背后的元素遮挡; * Flex 布局元素挤在一起,

# 【Rust系统编程与WebAssembly】生态工具指南:从工程化到前端集成

# 【Rust系统编程与WebAssembly】生态工具指南:从工程化到前端集成

文章目录 * 1. 核心基础:Cargo 工作区配置(多项目工程化管理) * 1.1 工作区核心概念与适用场景 * 1.2 工作区创建与目录结构 * 步骤 1:创建工作区目录与配置文件 * 步骤 2:创建子包 * 步骤 3:最终目录结构 * 1.3 依赖共享与版本管理 * 1. 引用工作区共享依赖 * 2. 子包间依赖传递 * 1.4 多目标编译配置 * 1.5 工作区常用指令 * 2. 性能优化:Rust 程序性能剖析(perf 实战) * 2.1 perf 工具简介与环境准备 * 1. perf 工具功能 * 2. 环境安装(Linux

不仅是记忆:设计前端侧的AI对话历史存储与上下文回溯方案

不仅是记忆:设计前端侧的AI对话历史存储与上下文回溯方案 在当前的大模型应用浪潮中,很多前端开发者切入AI领域的第一步往往是封装一个ChatGPT般的对话界面。起初,我们可能只是简单地将用户输入和AI回复Push到一个数组中,并在页面上渲染。然而,随着应用场景的深入,这种“玩具级”的架构很快就会面临严峻挑战。 背景:被忽视的“记忆”成本 很多前端同学在开发AI应用时,最容易踩的坑就是“只顾眼前交互,忽视持久化与上下文管理”。 痛点主要体现在三个方面: 1. 数据脆弱性:用户不小心刷新页面,长达几十轮的深度对话瞬间灰飞烟灭。这种体验在Web端是致命的,用户无法接受自己的“思考过程”因误操作而丢失。 2. 上下文窗口限制:大模型都有Token限制(如GPT-3.5的4k,GPT-4的8k/32k)。如果前端只是无脑累加历史记录发给后端,很快就会报错context_length_exceeded。前端必须具备“上下文回溯”与“裁剪”的能力。 3. 多会话管理:现代AI应用往往是多会话并行的(类似ChatGPT左侧列表)。如何高效索引、

手把手js逆向断点调试&js逆向前端加密对抗&企业SRC实战分享

手把手js逆向断点调试&js逆向前端加密对抗&企业SRC实战分享

0x1 前言 哈咯,师傅们!最近在学习js逆向相关的知识点,跟着网上的师傅的课程已经很多相关文章探索学习,今天想着写一篇js逆向断点调试&js逆向前端加密对抗相关的文章出来,给师傅们分享下,有不正确的地方,希望大佬勿喷。 这篇文章主要是给没有学习过js逆向的师傅学习的,分享一些js逆向基础知识,js实战断点调试技巧以及后面分享js逆向靶场搭建以及js逆向前端加密对抗,拿微信小程序常用的AES、RSA和明文Sign 签名校验绕过几个方面给师傅们分享下操作技巧。 最后面给师傅们分享一个前段时间搞的一个企业src的商城优惠卷并发漏洞,也是拿到了一千块的赏金,漏洞都很详细的给师傅们分享了这个案例,师傅们看完我上面的js断点调试和js前端加解密靶场打法等,可以去尝试玩下,要是有地方写的有问题,大佬勿喷! 0x2 如何找到加密算法 这里我直接拿Google浏览器控制面板来给师傅们演示下这个流程,主要是通过F12调试控制js前端代码 其中里面的作用域,调用堆栈,XHR断点这三个功能需要了解认识下 一、作用域(Scope) 作用域是指变量、函数和对象在代码中可访问