手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

Hello,大家好!

今天给大家分享一款GitHub上1.4k星标的开源神器——手机端AI绘画工具,

软件已经整理在文末,有需要的朋友记得获取保存哦~

 链接:https://pan.quark.cn/s/fa5abdb93460

一、软件打开方式

这款工具为安卓APK安装包,共提供两个版本:带过滤器版本和不带过滤器版本,大家可以根据自己的需求选择。下载后直接安装到手机上即可运行,无需复杂配置。

二、软件的功能介绍

这是一款让安卓手机直接运行Stable Diffusion的AI绘画工具,主要特色包括:

全功能AI绘画

支持文生图:输入提示词一键生成图像

支持图生图:导入参考图片二次创作

支持图像修复:模糊图片一键变清晰

多模式加速

支持CPU/GPU/NPU三种运行模式

高通骁龙处理器可启用NPU加速,生成速度极快

非骁龙处理器也可用CPU/GPU流畅运行

开源免费

GitHub开源项目,完全免费无限制

模型可自由下载切换

三、使用指南

第一步:安装与首次设置

下载APK文件并安装至安卓手机

打开软件,首次使用会弹出处理器识别提示

高通骁龙处理器可开启NPU加速,非骁龙选择CPU/GPU模式

重要设置:点击「设置」→ 将下载源从默认地址切换为hf开头的镜像源,否则模型无法下载

第二步:下载模型

根据处理器类型选择对应模型

骁龙用户选择NPU模型(推荐1.1GB版本)

点击确定,软件自动下载并解压

等待解压完成即可使用

第三步:文生图操作

选择已下载的模型

输入提示词(支持中文)

点击「生成图像」

NPU加速下,生成一张图仅需3秒以内

生成完成后点击右上角保存按钮,图片保存至手机相册

点击「历史」可查看过往生成记录

第四步:图像修复

点击软件右上角魔法棒图标

选择需要变清晰的图片

选择动漫或真实模型

一键优化,模糊图秒变高清

第五步:图生图操作

选择模型

导入参考图片

软件自动基于参考图生成新图像

支持高级设置:分辨率、调度器等参数可手动调整

四、使用体验

以前想在手机上跑Stable Diffusion,要么得租云端服务器,要么得折腾PC远程连接。现在好了,一个APK装完,手机直接变身AI画室。

骁龙用户开NPU,三秒一张图,丝滑得不像是在跑AI;非骁龙用户用CPU模式,虽然慢一点,但也能完整跑通。文生图、图生图、老照片修复,桌面端能做的事手机一样不少。整套工具已打包整理,方便大家一次性获取使用,有需要的朋友快去下载试试吧!

五、下载链接

链接:https://pan.quark.cn/s/fa5abdb93460

Read more

AI小白也能快速用五分钟复现的ERNIE-4.5系列模型单卡部署与心理健康机器人实战案例

AI小白也能快速用五分钟复现的ERNIE-4.5系列模型单卡部署与心理健康机器人实战案例

* 本文重点在于文心大模型的微调 * 一起来轻松玩转文心大模型吧👉一文心大模型免费下载地址: https://ai.gitcode.com/theme/1939325484087291906 计算机配置 * 在国内部署选个自带CUDA的会快一点,不自带还得去NVIDIA下载,而其提供的CUDA依赖需要科学上网才能下载快。换阿里清华源也没用。 * 文心模型汇总 环境配置与部署 1. 更换镜像源(使用阿里云镜像源): sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak sudo sed -i 's|http://archive.ubuntu.com/ubuntu|http://mirrors.aliyun.com/ubuntu|g' /etc/apt/sources.

Flutter 三方库 angular_bloc 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致响应、工业级的 AngularDart 与 BLoC 协同架构实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 angular_bloc 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致响应、工业级的 AngularDart 与 BLoC 协同架构实战 在鸿蒙(OpenHarmony)系统的桌面级协同(如分布式办公网页版)、后台管理终端或高度复杂的 Web 仪表盘开发中,如何将经典的 BLoC 状态管理应用于 AngularDart 环境?angular_bloc 为开发者提供了一套天衣无缝的组件化连接器。本文将实战演示其在鸿蒙 Web 生态中的深度应用。 前言 什么是 Angular BLoC?它是一套专门为 AngularDart 框架设计的 BLoC 实现。通过指令(Directives)和管道(Pipes),它实现了由于数据流变化触发的 UI

【大模型应用篇】用 OpenClaw + 飞书打造 7x24 小时服务器运维机器人

【大模型应用篇】用 OpenClaw + 飞书打造 7x24 小时服务器运维机器人

前言 本文基于OpenClaw,也是最近超火的可在本地运行的AI Agent网关,记录从零搭建通过飞书对话管理服务器运维机器人的全过程。该机器人支持随时随地通过飞书查看服务器状态、检索日志、管理进程,其核心机制在于:由OpenClaw将聊天平台(飞书等)的消息路由至大模型,模型调用本地工具(如Shell、文件系统、浏览器)执行相应任务,最终将结果自动返回至飞书会话中,实现自动化运维交互。 架构概览 飞书 App (WebSocket 长连接)         ↕ OpenClaw Gateway (服务器上 systemd 常驻)         ↕ AI 模型 (DeepSeek v3.2/GLM 4.7)         ↕ 服务器 Shell (受白名单限制的命令执行) 核心组件: * OpenClaw Gateway:Agent 网关,管理会话、工具调用、渠道连接 * 飞书插件:通过

ubuntu上安装OpenClaw并接入飞书机器人

ubuntu上安装OpenClaw并接入飞书机器人

大家好,我是一根甜苦瓜。今天来分享如何在本地安装openclaw并接入飞书,实现让AI给我打工。 最近AI圈更新太快了,从github copilot到cursor 到claud code ,再到codex,然后是最近火爆了的小龙虾(OpenClaw),可谓是百花齐放,应接不暇。本人也是github copilot+codex的深度用户,确实不错,所以最近打算折腾一下小龙虾,顺带教大家如何把智谱GLM 接入OpenClaw。 1. 前言 1.1 什么是openclaw 2026 年开年,AI 圈突然冒出一匹“野生黑马”——OpenClaw。这个开源个人 AI 助手项目在 GitHub 上只用了 两周时间就狂揽 15 万 Star,速度堪比开挂。 简单说,它就像给你配了一个 24 小时不下班的数字打工人: 把它部署在自己的电脑或服务器上,它就能接入 WhatsApp、Telegram、