手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

手机上也能运行Stable Diffusion?Github上开源且完全免费的AI生图软件!斩获1.4K Stars

Hello,大家好!

今天给大家分享一款GitHub上1.4k星标的开源神器——手机端AI绘画工具,

软件已经整理在文末,有需要的朋友记得获取保存哦~

 链接:https://pan.quark.cn/s/fa5abdb93460

一、软件打开方式

这款工具为安卓APK安装包,共提供两个版本:带过滤器版本和不带过滤器版本,大家可以根据自己的需求选择。下载后直接安装到手机上即可运行,无需复杂配置。

二、软件的功能介绍

这是一款让安卓手机直接运行Stable Diffusion的AI绘画工具,主要特色包括:

全功能AI绘画

支持文生图:输入提示词一键生成图像

支持图生图:导入参考图片二次创作

支持图像修复:模糊图片一键变清晰

多模式加速

支持CPU/GPU/NPU三种运行模式

高通骁龙处理器可启用NPU加速,生成速度极快

非骁龙处理器也可用CPU/GPU流畅运行

开源免费

GitHub开源项目,完全免费无限制

模型可自由下载切换

三、使用指南

第一步:安装与首次设置

下载APK文件并安装至安卓手机

打开软件,首次使用会弹出处理器识别提示

高通骁龙处理器可开启NPU加速,非骁龙选择CPU/GPU模式

重要设置:点击「设置」→ 将下载源从默认地址切换为hf开头的镜像源,否则模型无法下载

第二步:下载模型

根据处理器类型选择对应模型

骁龙用户选择NPU模型(推荐1.1GB版本)

点击确定,软件自动下载并解压

等待解压完成即可使用

第三步:文生图操作

选择已下载的模型

输入提示词(支持中文)

点击「生成图像」

NPU加速下,生成一张图仅需3秒以内

生成完成后点击右上角保存按钮,图片保存至手机相册

点击「历史」可查看过往生成记录

第四步:图像修复

点击软件右上角魔法棒图标

选择需要变清晰的图片

选择动漫或真实模型

一键优化,模糊图秒变高清

第五步:图生图操作

选择模型

导入参考图片

软件自动基于参考图生成新图像

支持高级设置:分辨率、调度器等参数可手动调整

四、使用体验

以前想在手机上跑Stable Diffusion,要么得租云端服务器,要么得折腾PC远程连接。现在好了,一个APK装完,手机直接变身AI画室。

骁龙用户开NPU,三秒一张图,丝滑得不像是在跑AI;非骁龙用户用CPU模式,虽然慢一点,但也能完整跑通。文生图、图生图、老照片修复,桌面端能做的事手机一样不少。整套工具已打包整理,方便大家一次性获取使用,有需要的朋友快去下载试试吧!

五、下载链接

链接:https://pan.quark.cn/s/fa5abdb93460

Read more

SGLang+Stable Diffusion联动教程:2小时省千元显卡钱

SGLang+Stable Diffusion联动教程:2小时省千元显卡钱 你是不是也遇到过这种情况?作为一名内容创作者,想用AI生成点创意图、做个短视频脚本,结果刚打开Stable Diffusion,再启动一个大语言模型写文案,电脑就直接卡死。显存爆了、程序崩溃、风扇狂转……最后只能无奈放弃,或者咬牙花几千块升级显卡。 别急,今天我要分享一个“神操作”——用SGLang和Stable Diffusion联动,让你在家用低配显卡上也能流畅跑两个AI模型,而且整个过程2小时内就能搞定,省下至少上千元的硬件升级费。 这个方法的核心思路是:把“思考”和“画画”这两个任务分开,让它们在不同的计算资源上运行。就像你不需要自己动手做饭也能吃到美食一样,AI模型也不一定要全部塞进你的显卡里。通过ZEEKLOG星图镜像广场提供的预置镜像,我们可以一键部署SGLang作为“大脑”,负责理解需求、生成提示词;再用另一个镜像运行Stable Diffusion作为“画手”,专注出图。两者通过API无缝对接,既不占用你本地显存,又能高效协作。 这篇文章就是为像你我这样的普通用户写的。我会从零开始,手

AI 辅助编程革命:如何利用 GitHub Copilot 等工具重塑开发效率

AI 辅助编程革命:如何利用 GitHub Copilot 等工具重塑开发效率

AI 辅助编程革命:如何利用 GitHub Copilot 等工具重塑开发效率 在2026年的软件开发领域,人工智能已不再是“锦上添花”的玩具,而是工程师手中的“第二大脑”。以 GitHub Copilot、Cursor、Amazon Q Developer 为代表的AI编程助手,正从根本上重构代码编写、调试和维护的全流程。 据统计,熟练运用AI辅助工具的开发者,其编码效率平均提升了40%-55%,且在样板代码(Boilerplate)和单元测试生成上效率提升甚至超过80%。然而,工具的强大并不意味着可以“无脑依赖”。本文将深入探讨如何利用AI辅助编程提高开发效率,涵盖代码补全、错误检测、文档生成及架构设计等核心场景,并揭示人机协作的最佳实践。 一、智能代码补全:从“打字员”到“指挥官” 传统的IDE补全仅基于语法提示,而现代AI助手能理解上下文语义、项目结构甚至业务逻辑,实现“意图级”补全。 1.

Qt Creator配置AI编程插件GitHub Copilot

Qt Creator配置AI编程插件GitHub Copilot

第一步:GitHub Copilot插件安装 QtCreator18.0为例,点击左侧Extensions菜单,在上方搜索栏搜索 GitHub Copilot, 然后点击右上角Active启动后重启QtCreator即可完成该工具安装. 第二步:copilot.vim 环境配置 去GitHub下载copilot.vim压缩包:copilot.vim。下载地址:https://github.com/github/copilot.vim 随后解压到自定义位置。 将其目录下.\dist\language-server.js地址填入设置的Path to language-serverjs项。 第三步:安装Node.js 去Node.js官网下载并安装node.js:node.js官网。 同样将node.exe地址链接到设置的Node.js path项。下载地址:https://nodejs.org/zh-cn 第四步:

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

Copilot 指令文件全解析:copilot-instructions.md vs AGENTS.md vs .instructions.md 作为常年和 VS Code 打交道的研发,最近在折腾 Copilot Agent 时,我发现很多同学和我一样,被 .github/copilot-instructions.md、AGENTS.md 和 .instructions.md 这三个文件绕晕了。 明明都是给 Copilot 写的 “指令”,为什么要分三个文件?它们的生效范围有啥区别?什么时候该用哪一个? 带着这些疑问,我翻遍了官方文档,又在自己的 AI Agent 项目里反复实测,终于把这三者的关系理得清清楚楚。这篇文章就用最直白的语言,结合实战配置,帮你彻底搞懂 Copilot 指令文件的使用逻辑。 一、先搞懂核心: