如何在服务器 Ubuntu 22.04 上部署 FastAPI + Uvicorn + Nginx 生产级 Python Web 服务指南

本文从基础环境准备、部署架构设计、性能调优、安全配置到监控指标采集,全流程讲解如何在 Ubuntu 22.04 服务器 上构建一个可用于生产环境的 FastAPI + Uvicorn + Nginx Python Web 服务平台。A5数据重点聚焦实战细节、系统参数配置、性能评测与问题排查方法,适合有一定 Linux / 网络 / Python 经验的开发与运维人员阅读。

一、目标架构与适用场景

在生产环境下,单纯使用 Uvicorn 监听外部请求存在性能和安全风险,因此我们采用如下部署架构:

Internet │ ▼ Nginx (反向代理 + SSL/TLS) │ proxy_pass ▼ Uvicorn Workers (基于 uvloop + Gunicorn 管理) │ FastAPI Application │ PostgreSQL / Redis / 后端微服务 

适用场景包括:

  • 高并发 API 服务
  • 微服务架构中 HTTP 接口部署
  • 需要TLS/HTTPS安全访问的生产环境

二、香港服务器www.a5idc.com硬件与系统建议

项目推荐配置说明
CPU4 核及以上并发请求更稳定
内存8GB 以上Python GC + 缓存空间
磁盘NVMe 150GB 以上快速日志写入
网络公网带宽 100MbpsAPI 对外访问
系统Ubuntu 22.04 LTS最新稳定版
外网访问建议部署具有 DDoS 防护的 BGP 线路服务器,例如 CN2 / 电信直连方案,以降低网络抖动和丢包率。

三、系统初始化与依赖安装

3.1 系统更新

sudoapt update &&sudoapt upgrade -y sudoreboot

3.2 安装 Python 环境与必备工具

# 安装 Python3.10sudoaptinstall -y python3.10 python3.10-venv python3.10-dev python3-pip build-essential # 常用工具sudoaptinstall -y nginx ufw git

3.3 建立虚拟环境

进入应用目录 /opt/fastapi_app

sudomkdir -p /opt/fastapi_app sudochown$USER:$USER /opt/fastapi_app cd /opt/fastapi_app python3.10 -m venv venv source venv/bin/activate 

四、应用代码结构与示例

4.1 最简 FastAPI 项目结构

fastapi_app/ ├── app/ │ ├── main.py │ ├── api/ │ │ └── v1.py ├── requirements.txt └── logging.conf 

4.2 示例代码

app/main.py

from fastapi import FastAPI import uvicorn app = FastAPI(title="示例 FastAPI 服务")@app.get("/health")defhealth_check():return{"status":"OK"}@app.get("/items/{item_id}")defread_item(item_id:int, q:str=None):return{"item_id": item_id,"q": q}

app/api/v1.py

from fastapi import APIRouter router = APIRouter(prefix="/v1")@router.get("/ping")defping():return{"message":"pong"}

requirements.txt

fastapi==0.99.1 uvicorn==0.23.2 gunicorn==20.1.0 

五、使用 Gunicorn 管理 Uvicorn Workers

5.1 Gunicorn + Uvicorn 配置

创建启动脚本 gunicorn_conf.py

import multiprocessing workers = multiprocessing.cpu_count()*2+1 worker_class ="uvicorn.workers.UvicornWorker" bind ="127.0.0.1:8000" timeout =30 keepalive =5# 日志 errorlog ="/opt/fastapi_app/logs/gunicorn.error.log" accesslog ="/opt/fastapi_app/logs/gunicorn.access.log" loglevel ="info"

5.2 启动命令

mkdir -p logs gunicorn app.main:app -c gunicorn_conf.py 

六、Nginx 反向代理配置

6.1 Nginx 配置文件

创建 /etc/nginx/sites-available/fastapi

server { listen 80; server_name example.com; location / { proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header Host $host; proxy_http_version 1.1; proxy_set_header Connection ""; proxy_pass http://127.0.0.1:8000; } location /static/ { alias /opt/fastapi_app/app/static/; } } 

启用配置:

sudoln -s /etc/nginx/sites-available/fastapi /etc/nginx/sites-enabled/ sudo nginx -t sudo systemctl restart nginx 

七、生产环境 SSL/TLS

使用 Certbot 获取免费 Let’s Encrypt 证书:

sudoaptinstall -y certbot python3-certbot-nginx sudo certbot --nginx -d example.com 

自动续期检查:

sudo systemctl status certbot.timer 

八、防火墙与安全

启用 UFW 并允许必要端口:

sudo ufw allow OpenSSH sudo ufw allow 'Nginx Full'sudo ufw enable

九、日志、监控与性能指标

9.1 日志策略

# 日志目录 /opt/fastapi_app/logs/ # Nginx access log /var/log/nginx/access.log 

可结合 logrotate 做定期清理:

sudonano /etc/logrotate.d/fastapi 

内容示例:

/opt/fastapi_app/logs/*.log { daily rotate 14 compress missingok notifempty copytruncate } 

9.2 监控指标

指标采集方式
CPU 利用率top / htop / vmstat
内存使用free -m
进程状态ps aux
网络延迟MTR / traceroute
99% 响应时间external 接口监控

十、压力测试与性能评测

使用 wrk 压测:

wrk -t4 -c500 -d60s http://example.com/health 
并发连接数平均响应时间(ms)吞吐 (req/s)
10018.55200
30042.74800
50096.33500
结果受网络环境、服务器硬件及应用逻辑影响,上表为参考数据。

十一、故障排查与常见问题

11.1 502 Bad Gateway

检查:

  • Uvicorn/Gunicorn 是否运行
  • Nginx 配置 proxy_pass 是否正确
  • 端口是否被防火墙阻断

11.2 超时

Gunicorn timeout 可适当调大,或优化业务逻辑减少阻塞调用。


十二、后续优化建议

12.1 使用 Supervisor 管理进程

sudoaptinstall supervisor sudonano /etc/supervisor/conf.d/fastapi.conf 

内容:

[program:fastapi] command=/opt/fastapi_app/venv/bin/gunicorn app.main:app -c /opt/fastapi_app/gunicorn_conf.py directory=/opt/fastapi_app autostart=true autorestart=true stderr_logfile=/opt/fastapi_app/logs/fastapi.err.log stdout_logfile=/opt/fastapi_app/logs/fastapi.out.log 

重载:

sudo supervisorctl reread sudo supervisorctl update 

12.2 HTTPS 强制 HSTS

在 Nginx SSL 配置中添加:

add_header Strict-Transport-Security "max-age=31536000; includeSubDomains" always; 

结语

通过A5数据的教程,你已经完成了一个基于 Ubuntu 22.04 + FastAPI + Uvicorn + Nginx 的生产级 Python Web 服务部署,涵盖架构设计、配置细节、性能测试、日志监控等关键内容。接下来可根据业务规模,结合 Redis 缓存、PostgreSQL 数据库以及 CI/CD 自动化部署进一步提升系统稳定性与可维护性。

如需更深入的性能调优或结合 Kubernetes / Docker 部署方案,也可以在此基础上拓展讨论。

Read more

前端监控:别等用户告诉你应用崩了

前端监控:别等用户告诉你应用崩了 毒舌时刻 这代码写得跟网红滤镜似的——仅供参考。 各位前端同行,咱们今天聊聊前端监控。别告诉我你还在等用户截图告诉你应用崩了,那感觉就像等邻居来告诉你你家着火了——能知道,但已经晚了。 为什么你需要前端监控 最近看到一个项目,生产环境崩溃了 3 小时,开发团队却一无所知。我就想问:你是在做应用还是在做猜谜游戏? 反面教材 // 反面教材:没有监控 // components/Checkout.jsx export default function Checkout() { const [loading, setLoading] = useState(false); const handleSubmit = async () => { setLoading(true); try { await api.checkout(); // 成功处理 } catch (error) { // 只在控制台打印错误 console.error(

我用 OpenClaw 搭建了一个「有灵魂」的私人 AI 助手,这是完整的配置指南

我用 OpenClaw 搭建了一个「有灵魂」的私人 AI 助手,这是完整的配置指南

一、为什么我们需要「有性格」的 AI 助手 在 ChatGPT、Claude 普及的今天,大多数人与 AI 的交互依然是「提问-回答」的机械循环。但你有没有想过: 如果 AI 能记住你的偏好、理解你的工作方式、甚至形成自己的「性格」,会是什么体验? 这就是 OpenClaw 吸引我的地方 —— 它不仅仅是一个 AI 框架,更是一个能让你「养成」专属助手的平台。 本文将分享如何用 OpenClaw 搭建一个有记忆、有性格、懂你的私人 AI 助手。 二、OpenClaw 是什么 OpenClaw 是一个开源的 AI 助手框架,核心特点包括: 特性说明多平台接入支持 Telegram、Discord、

国产桌面AI代理天花板!天工Skywork桌面版完整部署+实战指南(Windows原生+双模型+100+Skills)

国产桌面AI代理天花板!天工Skywork桌面版完整部署+实战指南(Windows原生+双模型+100+Skills)

一、前置准备(零门槛,Windows 专属,命令直接复制) 1.1 硬件要求(普通办公电脑可跑) * CPU:≥4 核(Intel i3/i5、AMD Ryzen 3/5 及以上) * 内存:≥8G(推荐 16G,多任务无卡顿) * 存储:SSD 剩余≥20G(含模型缓存 + 工具依赖) * 网络:可正常联网(国内网络即可,已适配国内镜像) 1.2 软件要求(固定版本,避免兼容问题) * 操作系统:Windows 10 21H2+/Windows 11(64 位,原生支持,

国内AI开发者必备:HuggingFace镜像站hf-mirror.com的4种高效下载方法(附避坑指南)

国内AI开发者高效使用HuggingFace镜像站的完整指南 作为一名长期在AI领域耕耘的技术从业者,我深知模型和数据集下载速度对开发效率的影响。特别是在国内网络环境下,直接从HuggingFace官方源下载大型模型常常会遇到速度慢、连接不稳定等问题。经过多次实践和比较,我发现hf-mirror.com这个镜像站确实能显著改善下载体验。本文将分享四种经过验证的高效使用方法,以及你可能遇到的典型问题解决方案。 1. 为什么需要HuggingFace镜像站 对于国内开发者来说,访问国际AI资源平台时常面临网络延迟和带宽限制。以HuggingFace为例,一个几GB的模型文件可能需要数小时才能完成下载,严重影响了开发迭代速度。hf-mirror.com作为专门为国内开发者优化的镜像服务,通过国内服务器加速访问,通常能将下载速度提升3-5倍。 镜像站的工作原理并不复杂:它在国内部署了与HuggingFace官方保持同步的服务器节点,当用户发起下载请求时,数据会从最近的节点传输,避免了国际带宽的瓶颈。这种技术方案在开源社区并不少见,比如我们熟悉的PyPI和Docker Hub都有类似的