使用trae进行本地ai对话机器人的构建

使用trae进行本地ai对话机器人的构建

前言

在人工智能技术快速发展的今天,构建本地AI对话机器人已成为开发者和技术爱好者的热门选择。使用 trae可以高效地实现这一目标,确保数据隐私和响应速度。本文将详细介绍如何利用 Trae 搭建本地AI对话机器人,涵盖环境配置、模型加载、对话逻辑实现以及优化技巧,帮助读者从零开始构建一个功能完整的AI助手。
本地化AI对话机器人的优势在于完全离线运行,避免网络延迟和数据泄露风险,同时支持自定义训练模型以适应特定场景需求。无论是用于个人助理、客服系统,还是智能家居控制,Trae 都能提供灵活的解决方案。

获取api相关信息

打开蓝耘进行登录,如果你是新人的话需要进行注册操作,输入你相关的信息就能进行注册成功


在平台顶部导航栏可以看到Maas平台,点击进入模型广场

在这里插入图片描述


来到模型广场可以看到很多的ai模型,比如就有我们的kimi k2模型

在这里插入图片描述

点击进去可以看到kimi k2模型的相关信息,我们将模型的id进行复制,等会儿我们是要用到的
/maas/kimi/Kimi-K2-Instruct

在这里插入图片描述


并且这里还具有在线体验的功能,生成回答速度快

在这里插入图片描述


https://archive.lanyun.net/#/maas/%E6%96%87%E6%9C%AC%E6%A8%A1%E5%9E%8BAPI这里还有详细的api调用方法,我们这里使用python进行调用,这里可以看到我们框出来的两个变量,等调用的时候我们是需要进行更改的,model我们填写/maas/kimi/Kimi-K2-Instruct

在这里插入图片描述


api我们在Maas平台首页的api创建页就能进行生成

在这里插入图片描述


固然示例代码如下:

from openai import OpenAI # 构造 client client = OpenAI( api_key="sk-xxxxxxxxxxx", # APIKey base_url="https://maas-api.lanyun.net/v1", ) # 流式 stream = True # 请求 chat_completion = client.chat.completions.create( model="/maas/kimi/Kimi-K2-Instruct", messages=[ { "role": "user", "content": "你是谁", } ], stream=stream, ) if stream: for chunk in chat_completion: # 打印思维链内容 if hasattr(chunk.choices[0].delta, 'reasoning_content'): print(f"{chunk.choices[0].delta.reasoning_content}",) # 打印模型最终返回的content if hasattr(chunk.choices[0].delta, 'content'): if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0: print(chunk.choices[0].delta.content,) else: result = chat_completion.choices[0].message.content 

使用trae进行实战

在获取到了调用的示例代码之后我们就可以让ai帮我们生成对应的程序了
打开trae,将我们的需求写入到README文件中,效果如下:

在这里插入图片描述

接下来我们就可以开始进行提问了,如果你们有其他新鲜的想法都是可以写到这个README文件中的,这里他是给我们生成一个网页端的

在这里插入图片描述


我们这里首先得先进行代码依赖的安装操作

在这里插入图片描述
Flask==2.3.3 openai==1.3.0 Werkzeug==2.3.7 

在终端输入命令将文件中对应的依赖进行安装

pip install -r requirements.txt 

然后我们运行对应的文件,效果如下

在这里插入图片描述


可以在终端输入命令

python simple_server.py 

这样我们就能在网页端进行体验了,在本机的8080端口开放

  • 主要地址 : http://localhost:8000/index.html
  • 服务器地址 : http://localhost:8000

这里我们可以在终端看到我们的程序是正常运行的,但是因为favicon.ico导致了报错现象,所以我们让ai改改代码忽略下这个文件

在这里插入图片描述


修改后的效果如下:

在这里插入图片描述


后期稍微把生成的效果格式改改就差不多了,有一说一这个生成的速度还是很快的

总结

蓝耘深刻理解到了企业在智能化转型中的痛点:部署难、成本高、效率低。蓝耘以极致的易用性卓越的性价比破局而来!平台界面非常的清晰直观,功能模块化设计,让非技术背景的人员也能轻松驾驭AI的力量,大幅降低技术门槛。同时,其智能化的资源管理和弹性伸缩能力,进一步确保了每一分投入都精准高效,显著降本增效,加速业务价值落地。蓝耘致力于打破技术鸿沟,让先进的算力与智能如同水电般触手可及。

在蓝耘,通过 trae 构建本地AI对话机器人不仅能提升技术能力,还能深入理解自然语言处理和机器学习模型的底层逻辑。本文详细介绍了环境搭建、模型集成、交互逻辑设计等关键步骤,帮助开发者快速实现本地化AI对话应用。

最后,希望本文能为读者提供清晰的指引,助力实现更强大的本地AI应用。如果有任何问题或改进建议,欢迎进一步交流探讨!

Read more

Hunyuan-MT-7B-WEBUI快速上手:10分钟完成翻译服务部署

Hunyuan-MT-7B-WEBUI快速上手:10分钟完成翻译服务部署 1. 这不是普通翻译工具,是能开箱即用的专业级多语种翻译服务 你有没有遇到过这些情况: * 需要快速把一份维吾尔语产品说明书转成中文,但主流翻译API不支持; * 客户发来一封西班牙语技术邮件,想立刻看懂又不想反复粘贴到网页版; * 团队在做跨境内容运营,每天要处理日、法、葡、西四语种的社媒文案,但人工翻译成本太高…… Hunyuan-MT-7B-WEBUI 就是为这类真实需求而生的——它不是另一个需要调接口、写代码、配环境的“半成品模型”,而是一个预装好、点开就能用、连GPU显存都帮你算好了的完整翻译服务。 它背后跑的是腾讯混元团队开源的 Hunyuan-MT-7B 模型,专为高质量机器翻译设计,在 WMT2025 多语种翻译评测中拿下30个语种综合第一。更关键的是,它不是只支持“中英日韩”这种常见组合,而是实打实覆盖了38种语言互译,包括日语、法语、西班牙语、葡萄牙语、阿拉伯语、俄语、越南语、泰语、印尼语,以及维吾尔语、藏语、蒙古语、壮语、

美食推荐商城设计与实现信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

美食推荐商城设计与实现信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

摘要 随着互联网技术的快速发展和电子商务的普及,线上美食推荐商城逐渐成为消费者获取美食信息和购买相关产品的重要渠道。传统的美食推荐方式存在信息分散、个性化不足等问题,难以满足用户多样化的需求。基于此,开发一个高效、智能的美食推荐信息管理系统具有重要的现实意义。该系统能够整合各类美食资源,通过数据分析为用户提供精准推荐,同时优化商城的运营管理流程,提升用户体验和商业价值。关键词:美食推荐、电子商务、信息管理、个性化推荐、数据分析。 本系统采用前后端分离的架构设计,后端基于SpringBoot框架实现,具备高效的数据处理和接口服务能力;前端采用Vue.js框架开发,提供流畅的用户交互体验;数据库选用MySQL,确保数据存储的安全性和稳定性。系统主要功能包括用户管理、美食分类展示、智能推荐算法、订单管理及数据分析等模块。通过JWT实现用户身份认证,结合协同过滤算法提升推荐精准度,同时利用ECharts实现数据可视化,为管理员提供决策支持。系统源码完整,可直接运行,便于二次开发和实际部署。关键词:SpringBoot、Vue.js、MySQL、JWT、协同过滤、数据可视化。 数据表 用

Flutter 三方库 deepyr 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、高颜值的类型安全 daisyUI 响应式 Web 应用架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 deepyr 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、高颜值的类型安全 daisyUI 响应式 Web 应用架构 在鸿蒙(OpenHarmony)系统的分布式 Web 容器、轻量级 JS 服务或高性能 Web 控制台中,如何快速搭建一套既符合现代审美又具备强类型约束的 UI?deepyr 做为对 daisyUI 组件库的类型安全(Typesafe)封装,为鸿蒙上的 Jaspr Web 应用提供了极致流畅的开发体验。本文将带您领略其在鸿蒙生态中的美学实战。 前言 什么是 Deepyr?它是一套基于 Jaspr(下一代 Dart Web 框架)的 UI

从零开始玩转PaddleOCR-VL-WEB:Jupyter一键启动教程

从零开始玩转PaddleOCR-VL-WEB:Jupyter一键启动教程 1. 简介与学习目标 PaddleOCR-VL-WEB 是基于百度开源的 PaddleOCR-VL 技术构建的一款高效、多语言支持的文档解析系统。该模型融合了动态分辨率视觉编码器与轻量级语言模型,能够在低资源消耗下实现对文本、表格、公式和图表等复杂元素的高精度识别,广泛适用于全球化场景下的智能文档处理任务。 本文将带你从零开始部署并使用 PaddleOCR-VL-WEB 镜像,通过 Jupyter Notebook 实现一键启动网页推理服务。无论你是 AI 初学者还是有一定工程经验的开发者,都能快速上手,完成本地化 OCR 大模型的部署与调用。 学习目标 * 掌握 PaddleOCR-VL-WEB 镜像的基本结构与核心能力 * 完成镜像部署与环境配置 * 在 Jupyter 中执行一键启动脚本 * 使用 Web 界面进行图像 OCR 推理 * 理解常见问题及解决方案 前置知识 * 基础 Linux 操作命令(cd、ls、chmod 等)