开源AI桌宠AIRI完整部署指南

开源AI桌宠AIRI完整部署指南
本文手把手记录了 AIRI 的快速部署全流程:从设置中文界面、接入阿里百炼 API,到配置本地 TTS 服务,适合想低成本体验多模态 AI 桌宠的普通用户。

序言

最近在用一个叫 AIRI 的开源 AI 项目,部署简单、还能生成一个可调形象的桌面桌宠。我花了一整天_time_实测了从模型接入、TTS 语音、到跨平台联动的全过程——没有花哨概念,只有真实可用的细节。如果你也想拥有一个能聊天、会说话、还能接入 Discord 或游戏的“数字伙伴”,这篇就是你想要的落地指南。

演示

该项目支持ios、windwos、linux下载,看清型号配置点击下载即可安装,下载链接放在文章最后了。

637


打开软件,桌面上就会出现一个桌宠,这里的形象、大小都是可以调整的,感兴趣的可以尝试自定义,可以先连接上大模型再优化这个形象。

在设置>外观>通用>选择语言,切换成中文,然后重启应用即可生效,启动安全连接WebSocket是开启AIRI的实时加密通信,可以把Web版安装成手机APP


在模型提供商里可以选择很多服务商,如果电脑配置够的话可以选择ollama跑一个开源的qwen3.5 27B是最佳选择,如果配置不够可以调用api。

这里我使用的是阿里百炼的API,新出的套餐每月18000次调用,新用户才7块钱一个月,用处还是挺大的,使用下面链接还能领到10元优惠券:https://www.aliyun.com/benefit/ai/aistar?userCode=d5a2juv7&clubBiz=subTask…12391167…10263…

在设置中提供商里找到chat模型,这里面没有百炼或者千问的,但是这里可以选择minimax,软件虽然带了OpenAI Compatible兼容openai的选项,我测试了暂时不支持百炼的api。


接入模型后,这里就可以测试了,让她介绍一下自己,还是很可爱的。


在卡片编辑里可以设置角色的身份,描述它的是什么样子的以及它的行为等。

安装语音工具

我没有选择调用语音模型,如果为了方便省事可以去调用TTS模型的API,也可以在huggingface上下载Kokoro-82M这个模型,在这里使用的是一个开源的工具openai-edge-tts,这是一个免费的 OpenAI TTS 仿真器,下面是安装过程,下载连接放在文章最后了


下面这张图是安装环境,然后启动/app/server.py文件,这里出现Server running on http://localhost:5050 ,这个就可以了


回到AIRI,选择设置,在语音设置中填入http://localhost:5050/v1,注意这里不需要后面/audio/speech,API密钥随便填就可以了,因为上面的配置已经把API_KEY的验证给关闭了。


然后回到对话里就可以听到她的声音了,因为是免费的TTS,声音比较一般,对声音有要求的可以试试调用minimax或者百炼的TTS模型。

在设置里选择机体模块,这里可以配置连接Discord、X、我的世界、异星工厂,我这里虽然配置了Discord,里面只要填入一个Bot-token,比openclaw配置还要简单。剩下的我没有配置,有感兴趣的朋友可以自己试试。

总结

这个开源项目发布到现在时间还很短,但是官方的更新维护频率特别高,而且开源社区也很活跃,相信不久之后这个项目一定能更好,如果你也在找一个蹲在你桌面上、和你聊天的AI桌宠、虚拟伴侣,可以考虑这个开源项目。

项目开源链接:
https://github.com/moeru-ai/airi/releases/tag/v0.9.0-alpha.1
https://github.com/travisvn/openai-edge-tts

Read more

告别996:GitHub Copilot将我的开发效率提升300%的实战记录

告别996:GitHub Copilot将我的开发效率提升300%的实战记录

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕AI这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * 告别996:GitHub Copilot将我的开发效率提升300%的实战记录 * 引言:从疲惫到高效 * 什么是GitHub Copilot?🤖 * 效率提升300%的核心场景 * 1. 快速生成样板代码 * 2. 自动编写单元测试 * 3. 智能调试与注释 * 集成Copilot到工作流 * 步骤1:设置合理的期望 * 步骤2:结合IDE使用 * 步骤3:代码审查与调整 * 高级用法:超越代码生成 * 数据库查询优化 * API接口设计 * 正则表达式助手 * 数据支撑:效率提升分析 * 避坑指南:常见问题与解决 * 1. 可能生成过时或不安全代码

llama-cpp-python Windows部署实战:从编译失败到一键运行

llama-cpp-python Windows部署实战:从编译失败到一键运行 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python 作为一名在Windows平台折腾llama-cpp-python部署的老手,我深知大家在初次接触这个项目时会遇到的各种坑。今天就来分享我的实战经验,帮你避开那些让人头疼的编译错误和环境配置问题。 痛点直击:Windows部署的三大难关 编译环境配置复杂:Visual Studio、MinGW、CMake...光是选择哪个工具链就让人眼花缭乱。更别提各种环境变量设置和路径配置了。 动态链接库缺失:运行时报错找不到libopenblas.dll或llama.dll,这种问题在Windows上特别常见。 CUDA加速配置困难:想用GPU加速却总是遇到nvcc命令找不到或者架构不匹配的问题。 核心解决方案:三种部署路径任你选 新手首选:预编译wheel一键安装 这是最简单快捷

【保姆级教程】llama.cpp大模型部署全攻略:CPU/GPU全兼容,小白也能轻松上手!

【保姆级教程】llama.cpp大模型部署全攻略:CPU/GPU全兼容,小白也能轻松上手!

一、简介 * • llama.cpp 是一个在 C/C++ 中实现大型语言模型(LLM)推理的工具 * • 支持跨平台部署,也支持使用 Docker 快速启动 * • 可以运行多种量化模型,对电脑要求不高,CPU/GPU设备均可流畅运行 * • 开源地址参考:https://github.com/ggml-org/llama.cpp • 核心工作流程参考: 二、安装与下载模型(Docker方式) 1. 搜索可用模型 • 这里以 qwen3-vl 模型为例,提供了多种量化版本,每种版本的大小不一样,根据自己的电脑性能做选择,如选择(模型+量化标签):Qwen/Qwen3-VL-8B-Instruct-GGUF:Q8_0 • 可以在huggingface官网中搜索可用的量化模型:https://huggingface.co/models?search=

知网AIGC检测又双叒更新了!论文AI率太高怎么降?3招教你快速降低aigc率(附工具测评)

知网AIGC检测又双叒更新了!论文AI率太高怎么降?3招教你快速降低aigc率(附工具测评)

知网AIGC检测在2025年12月28日又双叒更新了! 今天就把我的压箱底经验都拿出来,讲讲怎么降低AI率?怎么通过知网aigc检测?顺便实测几款我用过的降ai率工具,帮你省点冤枉钱。 一、为什么你会被判为AI? 先搞清楚一个事:AIGC检测查的不是你抄没抄,而是查的逻辑惯性。 AI生成的文章有个特征:它太完美了,逻辑永远是“背景-分析-结论”,没有任何废话。而我们人类写东西,通常充满了纠结、跳跃和不完美的断句。 想要降低ai率,简单说就是:把你的文章从“完美的机器语言”改成“有瑕疵的人类语言”。 二、手动降AI的三招方法(亲测有效) 如果你离交稿还有半个月,建议先手动改。根据我改了十几篇高AI率文章的经验看,这三招最稳: 1、强行打乱三段式逻辑 AI写东西特喜欢用“首先...其次...最后...”或者“因为A,所以B”,这种顺滑的逻辑在降ai检测里一抓一个准。所以你别顺着说,学会插着说,把因果关系倒过来,或者中间插一句废话。 AI写法:“由于技术限制,本实验未能覆盖所有样本。” 人话写法: