『NAS』在飞牛部署 Solara 开源音乐播放器,无损音乐听下两不误!

『NAS』在飞牛部署 Solara 开源音乐播放器,无损音乐听下两不误!

点赞 + 关注 + 收藏 = 学会了

整理了一个 NAS 专属玩法专栏,感兴趣的工友可以戳这里👉 《NAS邪修》 关注,,更多干货持续更新~

Solara 这款开源本地音乐播放器真的太香了,不仅能在线播放音乐,还能下载无损音质,亲测好用🐂🍺!

在这里插入图片描述

本次实操以飞牛 NAS 为例,群晖、绿联、极空间等其他品牌 NAS 的操作逻辑基本一致,跟着步骤来就能搞定~

打开 NAS 的「文件管理」,找到docker文件夹,在其内部新建solara-music文件夹。

接着在solara-music文件夹中,再创建一个logs子文件夹,用于存放播放器日志文件。

在这里插入图片描述

打开 NAS 的「Docker」应用,切换至「Compose」面板,点击「新增项目」。

  • 项目名称:Solara
  • 路径:选择第一步创建的docker/solara-music文件夹
  • 来源:选择创建 docker-compose.yml
在这里插入图片描述

在编辑器输入以下代码:

services: solara-music: image: aexus/solara-music:latest container_name: solara-music ports: - 3456:3001 # 项目打开端口,冒号前面请勿和本地冲突 environment: - SOLARA_PASSWORD=123456 # 登录密码密码 volumes: - /vol1/1000/docker/solara-music/logs:/app/logs restart: unless-stopped 

⚠️ 关键配置注意事项

  • 端口:3456可自定义;3001为容器固定端口,禁止修改
  • 密码:SOLARA_PASSWORD后可替换为自己的专属密码,提升安全性。
  • 目录:在 volumes 里配置一下 /app/logs ,将其指向刚刚创建的 /docker/solara-music/logs ,具体位置目录根据你设备的来。

代码填写保存后,等待项目自动构建完成即可。

构建成功后,切换到 Docker 的「容器」面板,找到Solara容器,点击链接按钮,就能在浏览器中打开 Solara 播放器。

在这里插入图片描述

首次打开会弹出密码输入框,输入刚才在 docker-compose.yml 中配置的SOLARA_PASSWORD值,即可登录。

在这里插入图片描述

首次使用面板空空如也。

在这里插入图片描述

在顶部搜索框输入歌曲名 / 歌手名,就能检索想听的音乐。

在这里插入图片描述

没想到周杰伦的歌也可以播放😍

在这里插入图片描述

除此之外,Solara 还有两大实用功能。

✅ 支持切换音乐源,多源检索不愁没歌听。

在这里插入图片描述

✅ 部分音乐提供无损音质

在这里插入图片描述

而且还能直接下载到本地,听歌自由实现了!🐂🍺

在这里插入图片描述
在这里插入图片描述

以上就是 NAS 部署 Solara 开源音乐播放器的全部实操步骤啦,有任何问题都可以在评论区留言讨论~

想解锁更多 NAS 新奇玩法,记得关注《NAS 邪修》👏,后续持续更新干货教程!

点赞 + 关注 + 收藏 = 学会了

Read more

Whisper-large-v3从零开始:非AI工程师也能30分钟搭好语音识别服务

Whisper-large-v3从零开始:非AI工程师也能30分钟搭好语音识别服务 作者:by113小贝 | 10年+AI工程实践经验 1. 开篇:为什么你需要这个语音识别服务 你是不是遇到过这些情况: * 会议录音需要整理成文字,手动打字要花好几个小时 * 外语视频想了解内容,但听不懂也找不到字幕 * 采访录音需要转录,外包服务又贵又慢 现在,你可以用OpenAI的Whisper Large v3模型,自己搭建一个专业的语音识别服务。这个模型支持99种语言,能自动检测语言类型,还能把外语翻译成中文。 最棒的是,即使你不是AI工程师,也能在30分钟内搞定。我会手把手带你完成整个部署过程,从环境准备到服务启动,每个步骤都有详细说明。 2. 准备工作:需要什么硬件和软件 在开始之前,我们先看看需要准备什么。别担心,要求并不高: 2.1 硬件要求 硬件组件推荐配置最低要求GPUNVIDIA RTX 4090 D (23GB显存)任何支持CUDA的NVIDIA显卡(8GB+显存)内存16GB或更多8GB存储空间10GB可用空间5GB可用空间系统Ubuntu 2

By Ne0inhk
详解如何复现LLaMA 4:从零开始利用Python构建

详解如何复现LLaMA 4:从零开始利用Python构建

🧠 向所有学习者致敬! “学习不是装满一桶水,而是点燃一把火。” —— 叶芝 我的博客主页:https://lizheng.blog.ZEEKLOG.net 🌐 欢迎点击加入AI人工智能社区! 🚀 让我们一起努力,共创AI未来! 🚀 LLaMA 4 发布以来已经面临了大量的批评,但LLaMA 4 是继 Mistral 之后的一个新进展,展示了基于 MoE(Mixture-of-Experts,混合专家)模型的优势。 在本博客中,我们从零开始构建 LLaMA 4 的 MoE 架构,以了解它是如何实际构建的。 更多LLM图解内容可以查看 详解如何复现DeepSeek R1:从零开始利用Python构建 详解如何从零用 Python复现类似 GPT-4o 的多模态模型 复现BPE 以下是我们在GPU 上训练的 220 万参数的 LLaMA MoE 在一个微小的英语数据集上训练

By Ne0inhk

在Windows11利用llama.cpp调用Qwen3.5量化模型测试

1.下载llama.cpp二进制文件 访问 https://github.com/ggml-org/llama.cpp/releases 或者 https://bgithub.xyz/ggml-org/llama.cpp/releases 选择适合自己平台的。我没有独立显卡,所以选择CPU版本 https://bgithub.xyz/ggml-org/llama.cpp/releases/download/b8192/llama-b8192-bin-win-cpu-x64.zip 解压到\d\llama8\目录。 2.下载量化模型 按照 章北海mlpy 公众号:Ai学习的老章~ID:mindszhang666 写的知乎文章Qwen3.5 0.8B/2B/

By Ne0inhk
Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告

Llama-2-7b在昇腾NPU上的六大核心场景性能基准报告

引言 随着大语言模型(LLM)技术的飞速发展,其底层算力支撑硬件的重要性日益凸显。传统的GPU方案之外,以华为昇腾(Ascend)为代表的NPU(神经网络处理单元)正成为业界关注的焦点。为了全面、深入地评估昇腾NPU在实际LLM应用中的性能表现,我们进行了一项针对性的深度测评。本次测评选用业界广泛应用的开源模型Llama-2-7b,在 Atlas 800T A2 训练卡 平台上进行部署、测试与分析,旨在为开发者和决策者提供一份详实的核心性能数据、深度的场景性能剖析、以及可靠的硬件选型与部署策略参考。 模型资源链接:本项目测评使用的模型权重及相关资源可在 GitCode 社区获取:https://gitcode.com/NousResearch/Llama-2-7b-hf 一、 测评环境搭建与准备 扎实的前期准备是确保测评数据准确可靠的基石。本章节将详细记录从激活昇腾NPU计算环境到完成所有依赖库安装的全过程,确保测试流程的透明与可复现性。 1.1 激活NPU Notebook实例 我们通过GitCode平台进行本次操作。首先,需要进入项目环境并激活一个Notebook实例,这

By Ne0inhk