【FastapiAdmin V2.0.0】一套现代、开源、全栈融合的中后台快速开发平台,后端采用Fastapi + SQLAlchemy,前端采用基于 Vue3 + Typescript

【FastapiAdmin V2.0.0】一套现代、开源、全栈融合的中后台快速开发平台,后端采用Fastapi + SQLAlchemy,前端采用基于 Vue3 + Typescript

FastapiAdmin v2.0.0

一套现代、开源、全栈融合的中后台快速开发平台,给个⭐️支持一下

📘 项目介绍(作者:@1014TaoTao)

FastapiAdmin 是一套 完全开源、高度模块化、技术先进的现代化快速开发平台,旨在帮助开发者高效搭建高质量的企业级中后台系统。该项目采用 前后端分离架构,融合 Python 后端框架 FastAPI 和前端主流框架 Vue3 实现多端统一开发,提供了一站式开箱即用的开发体验。

代码地址
github:https://github.com/1014TaoTao/FastapiAdmin
giee:https://gitee.com/tao__tao/FastapiAdmin
gitcode: https://gitcode.com/qq_36002987/fastapi_vue3_admin
设计初心: 以模块化、松耦合为核心,追求丰富的功能模块、简洁易用的接口、详尽的开发文档和便捷的维护方式。通过统一框架和组件,降低技术选型成本,遵循开发规范和设计模式,构建强大的代码分层模型,搭配完善的本地中文化支持,专为团队和企业开发场景量身定制。
FastapiAdmin ├─ backend # 后端工程 ├─ frontend # 前端工程 ├─ devops # 部署工程 ├─ docker-compose.yaml # 部署文件 ├─ start.sh # 一键部署脚本 ├─ LICENSE # 许可协议 |─ README.en.md # 英文文档 └─ README.md # 中文文档 

✨ 核心亮点

特性描述
🔭 快速开发一套完全开源的现代化快速开发平台,旨在帮助开发者高效搭建高质量的中后台系统。
🌐 全栈整合前后端分离,融合 Python (FastAPI) + Vue3 多端开发
🧱 模块化设计系统功能高度解耦,便于扩展和维护
⚡️ 高性能异步使用 FastAPI 异步框架 + Redis 缓存优化接口响应速度
🔒 安全认证支持 JWT OAuth2 认证机制,保障系统安全
📊 权限管理RBAC 模型实现菜单、按钮、数据级别的细粒度权限控制
🚀 快速部署支持 Docker/Docker Compose/Nginx 一键部署
📄 开发友好提供完善的中文文档 + 中文化界面 + 可视化工具链,降低学习成本
🚀 快速接入基于 Vue3、Vite5、Pinia、Ant Design Vue 等主流前端技术栈,开箱即用。

🛠️ 技术栈概览

类型技术选型描述
后端框架FastAPI / Uvicorn / Pydantic 2.0 / Alembic现代、高性能的异步框架,强制类型约束,数据迁移。
ORMSQLAlchemy 2.0强大的 ORM 库。
定时任务APScheduler轻松实现定时任务。
权限认证PyJWT实现 JWT 认证。
前端框架Vue3 / Vite5 / Pinia / TypeScript快速开发 Vue3 应用。
UI 库Ant Design Vue快速开发美观的 UI 组件。
数据库MySQL / MongoDB强大的数据库。
缓存Redis强大的缓存数据库。
文档Swagger / Redoc自动生成 API 文档。
部署Docker / Nginx / Docker Compose快速部署项目。

📌 内置模块

模块名子模块名描述
仪表盘工作台 、分析页常用功能入口
系统管理包含菜单、部门、岗位、角色、用户、日志、配置、公告、字典、任务等子模块系统主功能
监控管理在线用户、服务器监控、缓存监控系统监控管理功能
公共管理接口管理、文档管理项目接口文档

🍪 演示环境


👷 安装和使用

版本说明

类型技术栈版本
后端Python3.10(大于3.10的版本, 会有兼容问题, 将来升级,暂时不考虑升级)
后端FastAPI0.109
前端Node.js>= 20.0(推荐使用最新版)
前端npm16.14
前端Vue33.3
数据库MySQL8.0 (推荐使用最新版)
中间件Redis7.0 (推荐使用最新版)

获取代码

# 克隆代码到本地 git clone https://gitee.com/tao__tao/fastapi_vue3_admin.git 或 git clone https://github.com/1014TaoTao/fastapi_vue3_admin.git 

本地后端启动

# 进入后端工程目录 cd backend # 安装依赖 pip3 install -r requirements.txt # 启动后端服务 python3 main.py run 或 python3 main.py run--env=dev # 生成迁移文件 python3 main.py revision "初始化迁移" --env=dev(不加默认为dev) # 应用迁移 python3 main.py upgrade --env=dev(不加默认为dev) 

本地前端启动

# 进入前端工程目录 cd frontend # 安装依赖 npm install # 启动前端服务 npm run dev # 构建前端, 生成 `frontend/dist` 目录 npm run build 

本地访问地址


docker 部署

# 复制脚本 `fastapi_vue3_amdin/start.sh` 脚本文件到服务器, 并赋予执行权限 chmod +x start.sh # 执行脚本 ./start.sh # 查看镜像: docsker images -a # 查看容器: docsker compose ps # 查看日志 docker logs -f <容器名> # 服务停止 docsker compose down # 删除镜像 docker rmi <镜像名> # 删除容器 docker rm <容器名> # 后端配置文件目录 fastapi_vue3_amdin/backend/env/.env.prod.py # 前端配置文件目录 fastapi_vue3_amdin/frontend/vite.config.ts 和 fastapi_vue3_amdin/frontend/.env.production # 部署文件目录 fastapi_vue3_amdin/docker-compose.yaml 和 fastapi_vue3_amdin/devops/devops/nginx/nginx.conf 

🔧 模块展示

登陆仪表盘菜单管理部门管理
岗位管理角色管理用户管理日志管理
配置管理在线用户管理服务器监控缓存监控
任务管理字典管理分析管理接口管理
系统主题在线文档系统锁屏

🙏 特别鸣谢

感谢以下项目的贡献和支持,使本项目得以顺利完成:


❤️ Star 支持我

如果你喜欢这个项目,请给我一个 ⭐️ Star 支持一下吧!非常感谢!

Read more

Matlab Copilot_AI代码生成工具:基于DeepSeek-V3.1的Matlab AI编程实战(附多版本代码,不限于Matlab 2025a)

Matlab Copilot_AI代码生成工具:基于DeepSeek-V3.1的Matlab AI编程实战(附多版本代码,不限于Matlab 2025a)

🔥 为什么需要这款工具? * Matlab 2025a虽支持Copilot,但由于地区和许可证的限制,无法使用; * 在MATLAB和ChatGPT、DeepSeek等AI工具之间来回切换,无法所见即所得。 这款Matlab Copilot_AI工具基于 DeepSeek,直接在Matlab平台运行,无须切换其他软件,支持一键生成、运行、调试、修复、导出全流程,且使用成本低,让编程效率提升,并保持持续更新。 这款工具不限于Matlab 2025a运行Copilot,集成了: 1️⃣ AI生成代码: * 输入需求:在界面输入区输入自然语言指令; * 一键生成:点击“生成”按钮,调用DeepSeek大模型,即可输出含注释说明的完整代码; * 即用即得:生成的代码自动填充到代码区,无需手动调整格式,直接运行! 2️⃣ 报错自动修复: * 错误捕获:运行代码时,工具自动记录报错信息(含文件名、行号、具体错误描述); * 智能修复:点击“修复”

【AIGC】ChatGPT 记忆功能揭秘:使用与管理的全方位指南

【AIGC】ChatGPT 记忆功能揭秘:使用与管理的全方位指南

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯记忆功能的概念与作用 * 概念解析 * 作用详述 * 总结 * 💯记忆功能的开启与关闭 * 开启记忆功能 * 关闭记忆功能 * 关闭记忆功能的影响 * 注意事项 * 总结 * 💯查看与管理记忆 * 查看已保存的记忆: * 删除特定记忆 * 删除全部记忆 * 记忆的隐私保护 * 总结 * 💯记忆功能的隐私保护 * 用户控制权 * 安全与隐私保障 * 隐私政策的透明度 * 后端操作的透明度 * 总结 * 💯记忆功能与GPTs的关系 * 当前状态 * 拓展理解 * 未来展望 * 潜在影响 * 隐私与安全考虑 * 总结 * 💯记忆功能的训练应用 * 记忆数据的训练用途 * 行为模式识别 * 记忆功能的训练影响 * 用户选择与数据使用 * 长期影响和道德考量 * 总结 *

极致压缩:Whisper.cpp 量化版本清单与 ggml 格式模型下载

Whisper.cpp 量化模型下载指南 Whisper.cpp 是 OpenAI Whisper 语音识别模型的高效 C++ 实现,支持量化技术来减小模型尺寸,实现“极致压缩”。量化通过降低模型参数的精度(如从 32 位浮点数到 4 位整数)来减少存储和计算需求,同时保持合理的准确性。ggml 格式是一种轻量级模型格式,专为资源受限设备优化。以下信息基于 Whisper.cpp 官方 GitHub 仓库(真实可靠),我将逐步引导您获取量化版本清单和下载链接。 1. 量化版本清单 Whisper.cpp 支持多种量化级别,每种对应不同的压缩率和精度权衡。以下是常见量化版本清单(基于最新官方数据): * q4_0:4 位量化,极致压缩,模型尺寸最小,适合内存受限设备(如嵌入式系统)。精度损失较高。

OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp

文章目录 * 背景:Memory不生效的问题 * OpenClaw的Memory配置 * Ubuntu24.04安装CUDA和cuDNN * 编译llama.cpp * 验证方案1: * 验证方案2:下载并运行Llama-2 7B模型 * 安装node-llama-cpp * 验证Memory * sqlite-vec unavailable * 踩过的坑 * 安装node-llama-cpp的一些提示 * 安装node-llama-cpp的前置条件 * Using `node-llama-cpp` With Vulkan 承接上文:Windows11基于WSL2首次运行Openclaw,并对接飞书应用,我已经在电脑上安装了OpenClaw,接下来解决Memory问题。走了很多弯路,下面主要讲我总结的正确的安装过程。 总结来说:针对Memory不生效的问题,又不想用OpenAI或Gemini,或者只想单纯的节省token,可以按照如下的方式,设置为local模式: * 修改openclaw.json配置 * 安装CUDA和cu