【AI】大语言模型 (LLM) 产品的开发流程参考

【AI】大语言模型 (LLM) 产品的开发流程参考
在这里插入图片描述
🔥小龙报:个人主页
🎬作者简介:C++研发,嵌入式,机器人等方向学习者
❄️个人专栏:《AI》
永远相信美好的事情即将发生
在这里插入图片描述

文章目录


前言

随着大语言模型(LLM)技术的快速迭代,其应用场景不断拓展,个人与组织/商用级LLM产品开发需求日益增长。本文结合不同使用场景,详细梳理个人开发者与组织商用级LLM产品的完整开发流程,从准备工作到监控迭代,覆盖各核心环节,为不同需求的开发者提供清晰、可落地的参考指南,助力高效完成LLM产品开发与落地。

一、个人开发者的大语言模型 (LLM) 产品的开发流程参考

1.1 准备工作

○ 规划项目目标与核心功能
○ 进行技术调研,确认技术栈
○ 大模型
○ 向量数据库
○ 后端框架
○ 前端框架

1.2 构建知识库索引

○ 收集数据
○ 数据存入知识库
—○ 加载数据
—○ 读取数据
—○ 文本分割
○ 文本嵌入
○ 存入向量数据库

1.3 定制大模型

○ 创建大模型API密钥
○ 实现大模型对话互动
○ 通过提示工程优化大模型
○ 通过知识库实现定制化问答
○ 添加记忆,实现历史对话消息记录
○ 利用Agent,实现更多定制化功能

1.4 用户交互界面开发

○ 设计用户交互界面
○ 利用Streamlit、React等前端框架搭建用户交互界面

1.5 测试与部署上线

○ 进行产品测试
○ 部署产品到本地服务器或云服务器
○ 检查用户可访问性

1.6 监控结果

○ 跟踪用户参与度并收集数据
○ 根据数据结果和反馈,进行迭代和改进

二、组织/商用级别的大语言模型 (LLM) 产品开发流程参考

2.1 准备工作

○ 与选择的大模型提供商(比如OpenAI、百度等)沟通商议,或独立制定出产品目标
○ 收集大模型训练过程所需的资源和数据
○ 考虑数据局限性和隐私问题
○ 确定关键利益相关者:CEO、CTO、产品经理、数据工程师、法律团队等

2.2 定制大模型

○ 与大模型提供商沟通商议,选择合适的语言模型
○ 定义从输入到输出的用户使用流程
○ 策划和准备数据,确保数据安全和隐私
○ 通过提示工程、增强索引生成等方式,进一步定制大模型
○ 细化模型响应并评估性能

2.3 模型部署与集成

○ 确定模型部署方法:API、SDK或云服务器
○ 将大模型集成到平台中
○ 如果使用第三方平台,比如亚马逊SageMaker等,需要确保兼容性○ 在发布前进行全面的测试

2.4 监控结果

○ 跟踪用户参与度并收集反馈
○ 分析大模型如何影响业务 KPI
○ 根据反馈和结果,进行迭代和改进

Read more

VR大空间项目内容规划与设计的市场经验总结(2023-2026)

VR大空间项目内容规划与设计的市场经验总结(2023-2026) 引言:从元年到爆发,VR大空间的三年演进 2023年,随着《消失的法老》在上海太古汇的惊艳亮相,中国VR大空间行业迎来了自己的“元年”。这部由HTC联合法国Emissive工作室、哈佛大学吉萨考古团队打造的沉浸式体验,以45分钟超长时长、800平方米自由移动空间、毫米级金字塔还原三大核心优势,在11个月运营期内吸引约11万人次参与,总票房突破3000万元。这一现象级作品不仅重新定义了VR体验的行业标准,更直接推动了上海文旅局将VR大空间纳入“智慧旅游创新示范工程”。 三年后的今天,VR大空间已从零星试点发展为遍地开花的成熟业态。据VR陀螺不完全统计,仅2025年上半年就有超100个VR大空间项目落地,叫得上名字的20家运营商门店总数突破1000家。国际数据公司(IDC)预测,2025年全球VR大空间解决方案市场规模将突破120亿美元,年复合增长率高达58%,其中中国市场规模占全球比重预计超40%。 然而,繁荣之下暗流涌动。行业在快速扩张的同时,也面临着内容同质化、复购率低、盈利模式单一等深层挑战。本文将从产品总

【论文阅读】Vision-skeleton dual-modality framework for generalizable assessment of Parkinson’s disease ga

【论文阅读】Vision-skeleton dual-modality framework for generalizable assessment of Parkinson’s disease ga

论文题目:《Vision-skeleton dual-modality framework for generalizable assessment of Parkinson’s disease gait》 论文链接:https://doi.org/10.1016/j.media.2025.103727  代码链接:https://github.com/FJNU-LWP/PD-gait-VSDF 视觉-骨架双模态框架:通过视频实现帕金森病步态的泛化评估 研究背景介绍 帕金森病评估与帕金森病评分量表(MDS-UPDRS) 帕金森病步态评估 研究内容 总体方法流程 关键点视觉 Transformer (KVT) 图像块嵌入 (Patches embedding) 位置与连接嵌入 (Positions and connections embedding) 关键点自注意力 (Keypoints Self-Attention,

Pi0模型微调入门教程:基于LoRA在自有机器人数据上进行动作策略适配

Pi0模型微调入门教程:基于LoRA在自有机器人数据上进行动作策略适配 重要提示:本文介绍的Pi0模型微调方法主要适用于研究和开发环境,在实际机器人部署前请充分测试验证安全性。 1. 教程概述 1.1 学习目标 本教程将带你从零开始,学习如何使用LoRA(Low-Rank Adaptation)技术对Pi0机器人控制模型进行微调。学完本教程后,你将能够: * 理解Pi0模型的基本架构和微调原理 * 准备自己的机器人数据集并处理成合适格式 * 使用LoRA方法高效微调Pi0模型 * 评估微调后的模型性能并部署使用 1.2 前置知识要求 为了更好理解本教程,建议具备以下基础知识: * Python编程基础(能看懂简单代码) * 了解机器学习基本概念(训练、验证、测试) * 有过PyTorch或类似框架的使用经验更佳 * 对机器人控制有基本了解(非必须,但有帮助) 1.3 为什么选择LoRA微调 LoRA是一种参数高效的微调方法,相比全参数微调有三大优势: 1. 训练速度快:只需要训练少量参数,大大缩短训练时间 2. 内存占用少:可以在消费级GPU

用ms-swift做AI绘画理解?多模态微调就这么简单

用ms-swift做AI绘画理解?多模态微调就这么简单 你有没有试过让大模型看懂一张画?不是简单识别“这是猫”,而是真正理解画面里光影的流动、构图的张力、风格的情绪表达——甚至能根据描述精准修改细节。过去这需要复杂的视觉编码器+语言解码器联合训练,调参像在迷宫里找出口。但现在,用ms-swift,一个多模态微调框架,你可能只需要一条命令、一个数据集、不到一小时,就能让Qwen2.5-VL这样的模型学会“看画说话”。 这不是概念演示,而是真实可复现的工程实践。本文不讲抽象架构,不堆技术参数,就带你从零开始,用最贴近实际工作流的方式,完成一次完整的AI绘画理解能力微调:准备数据、启动训练、验证效果、部署推理。全程聚焦“怎么做”,所有操作都在单卡3090上实测通过,代码可直接复制运行。 1. 为什么是ms-swift?它到底解决了什么痛点 在动手之前,先说清楚:为什么不用HuggingFace Transformers自己搭?为什么不用Llama-Factory?ms-swift的不可替代性,藏在三个被多数教程忽略的现实细节里。 1.1 多模态数据格式,从来不是“