开源AI桌宠AIRI完整部署指南

开源AI桌宠AIRI完整部署指南
本文手把手记录了 AIRI 的快速部署全流程:从设置中文界面、接入阿里百炼 API,到配置本地 TTS 服务,适合想低成本体验多模态 AI 桌宠的普通用户。

序言

最近在用一个叫 AIRI 的开源 AI 项目,部署简单、还能生成一个可调形象的桌面桌宠。我花了一整天_time_实测了从模型接入、TTS 语音、到跨平台联动的全过程——没有花哨概念,只有真实可用的细节。如果你也想拥有一个能聊天、会说话、还能接入 Discord 或游戏的“数字伙伴”,这篇就是你想要的落地指南。

演示

该项目支持ios、windwos、linux下载,看清型号配置点击下载即可安装,下载链接放在文章最后了。

637


打开软件,桌面上就会出现一个桌宠,这里的形象、大小都是可以调整的,感兴趣的可以尝试自定义,可以先连接上大模型再优化这个形象。

在设置>外观>通用>选择语言,切换成中文,然后重启应用即可生效,启动安全连接WebSocket是开启AIRI的实时加密通信,可以把Web版安装成手机APP


在模型提供商里可以选择很多服务商,如果电脑配置够的话可以选择ollama跑一个开源的qwen3.5 27B是最佳选择,如果配置不够可以调用api。

这里我使用的是阿里百炼的API,新出的套餐每月18000次调用,新用户才7块钱一个月,用处还是挺大的,使用下面链接还能领到10元优惠券:https://www.aliyun.com/benefit/ai/aistar?userCode=d5a2juv7&clubBiz=subTask…12391167…10263…

在设置中提供商里找到chat模型,这里面没有百炼或者千问的,但是这里可以选择minimax,软件虽然带了OpenAI Compatible兼容openai的选项,我测试了暂时不支持百炼的api。


接入模型后,这里就可以测试了,让她介绍一下自己,还是很可爱的。


在卡片编辑里可以设置角色的身份,描述它的是什么样子的以及它的行为等。

安装语音工具

我没有选择调用语音模型,如果为了方便省事可以去调用TTS模型的API,也可以在huggingface上下载Kokoro-82M这个模型,在这里使用的是一个开源的工具openai-edge-tts,这是一个免费的 OpenAI TTS 仿真器,下面是安装过程,下载连接放在文章最后了


下面这张图是安装环境,然后启动/app/server.py文件,这里出现Server running on http://localhost:5050 ,这个就可以了


回到AIRI,选择设置,在语音设置中填入http://localhost:5050/v1,注意这里不需要后面/audio/speech,API密钥随便填就可以了,因为上面的配置已经把API_KEY的验证给关闭了。


然后回到对话里就可以听到她的声音了,因为是免费的TTS,声音比较一般,对声音有要求的可以试试调用minimax或者百炼的TTS模型。

在设置里选择机体模块,这里可以配置连接Discord、X、我的世界、异星工厂,我这里虽然配置了Discord,里面只要填入一个Bot-token,比openclaw配置还要简单。剩下的我没有配置,有感兴趣的朋友可以自己试试。

总结

这个开源项目发布到现在时间还很短,但是官方的更新维护频率特别高,而且开源社区也很活跃,相信不久之后这个项目一定能更好,如果你也在找一个蹲在你桌面上、和你聊天的AI桌宠、虚拟伴侣,可以考虑这个开源项目。

项目开源链接:
https://github.com/moeru-ai/airi/releases/tag/v0.9.0-alpha.1
https://github.com/travisvn/openai-edge-tts

Read more

蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

蓝耘 × 通义万相 2.1,AIGC 双雄合璧,点燃数字艺术新引擎

目录 一、本篇背景: 二、蓝耘与通义万相 2.1 概述: 2.1蓝耘简介: 2.2通义万相 2.1 简介: 注册并使用蓝耘元生代智算平台: 完成通义万相 2.1部署并调用:  个人代码调用过程及感受: 环境准备: 代码实现: 保存生成的图像: 三、蓝耘与通义万相 2.1 结合的优势: 3.1强大的计算力支撑: 3.2高效的数据处理与传输: 3.3定制化与优化: 四、蓝耘调用通义万相 2.1 API 的实际代码演示: 4.1环境搭建: 4.2图像生成代码示例: 4.3文本生成代码示例: 五、蓝耘与通义万相 2.1

本地多模型切换利器——Llama-Swap全攻略

本地多模型切换利器——Llama-Swap全攻略

运行多个大语言模型(LLM)非常有用: 无论是用于比较模型输出、设置备用方案(当一个模型失败时自动切换)、还是实现行为定制(例如一个模型专注写代码,另一个模型专注技术写作),实践中我们经常以这种方式使用 LLM。 一些应用(如 poe.com)已经提供了多模型运行的平台。但如果你希望完全在本地运行、多省 API 成本,并保证数据隐私,情况就会复杂许多。 问题在于:本地设置通常意味着要处理多个端口、运行不同进程,并且手动切换,不够理想。 这正是 Llama-Swap 要解决的痛点。它是一个超轻量的开源代理服务(仅需一个二进制文件),能够让你轻松在多个本地 LLM 之间切换。简单来说,它会在本地监听 OpenAI 风格的 API 请求,并根据请求的模型名称,自动启动或停止对应的模型服务。客户端无需感知底层切换,使用体验完全透明。 📌 Llama-Swap 工作原理 概念上,Llama-Swap 就像一个智能路由器,

打通任督二脉:让你的 GitHub Copilot 瞬间学会 Claude Code 的所有绝招

打通任督二脉:让你的 GitHub Copilot 瞬间学会 Claude Code 的所有绝招

打通任督二脉:让你的 GitHub Copilot 瞬间学会 Claude Code 的所有绝招 目标读者:希望在 VSCode/Zed 编辑器中直接复用 Claude Code 强大本地能力的开发者、DevOps 工程师、AI 工具流搭建者。 核心价值:通过自动化映射机制,打破 Claude Code CLI 与编辑器 Copilot 之间的"生殖隔离",实现一套 Skills/Agents 双端复用。 阅读时间:8 分钟 引言 你是否遇到过这种割裂的体验:在终端里,Claude Code 配置了强大的 tech-blog 技能,能一键生成高质量博客;配置了 code-review

我用多智能体架构做了一个智能写作系统

我用多智能体架构做了一个智能写作系统

最近项目比较忙,没太多时间发文章。不过也没闲着,一直也在研究和思考多智能体架构的事,因为我觉得这是后面智能体发展的一条大主线。所以还是想发这篇文章,看是否会有感兴趣的朋友可以一起交流。 其实单智能体的能力总归是有上限的,而多智能体的协同则会产生巨大的乘数效应,每个智能体之间都可以互相交流,就像人类的合作生产一样,这种方式最终能达到的高度不可想象。 但是当前的各个主流智能体平台的工作流模式只能实现信息的单向流动(输入->输出),无法做到真正的多智能体协同,也就是双向,甚至多向交流。这也是为什么我觉得现在的工作流不是未来的大方向,智能体平台也需要进化了。 那怎么才能实现多智能体协同呢? 其实现在已经有不少多智能体框架可以选择,研究过的朋友一定知道,比如:LangGraph,AutoGen,CrewAI,AgentFlow,Automic Agents,等等。我在调研了一圈后发现这些框架各有各的优势和问题,有些框架要么太过复杂,要么偏学术研究,要么工程化能力差,最后我选择LangGraph作为落地实操的框架,因为它是目前最可工程化,最可落地的框架。 最近我就用LangGraph做了