【Java 开发日记】设计一个支持万人同时抢购商品的秒杀系统?

【Java 开发日记】设计一个支持万人同时抢购商品的秒杀系统?

目录

一、系统架构设计

1. 分层架构

2. 具体组件

二、核心问题解决方案

1. 超卖问题

解决方案一:Redis原子操作

解决方案二:数据库乐观锁

解决方案三:预扣库存

2. 高并发请求处理

2.1 流量削峰

2.2 分层过滤

3. 系统性能优化

3.1 缓存策略

3.2 读多写少优化

4. 详细实现方案

4.1 秒杀流程

4.2 库存同步方案

三、高可用保障

1. 限流降级策略

2. 熔断降级

四、监控与告警

1. 关键监控指标

2. 监控实现

五、部署与扩展

1. 弹性扩展策略

2. 压测方案

六、安全考虑

总结要点

面试回答


一、系统架构设计

1. 分层架构

客户端层 → 接入层 → 业务服务层 → 数据层 ↓ ↓ ↓ ↓ 限流 缓存 队列 数据库

2. 具体组件

  • 客户端:静态资源CDN、倒计时校准、防重复提交
  • 接入层:Nginx+Lua/OpenResty,做第一层限流和缓存
  • 业务层
    • 秒杀服务集群(无状态)
    • 消息队列(Kafka/RocketMQ)
    • 缓存集群(Redis Cluster)
  • 数据层
    • 主从数据库(读写分离)
    • 分库分表(按商品/时间)

二、核心问题解决方案

1. 超卖问题

解决方案一:Redis原子操作
# 使用Redis的DECR原子操作扣减库存 def deduct_stock(product_id, user_id): stock_key = f"stock:{product_id}" # Lua脚本保证原子性" local stock = tonumber(redis.call('GET', KEYS[1])) if stock and stock > 0 then redis.call('DECR', KEYS[1]) return 1 end return 0 """ result = redis.eval(lua_script, 1, stock_key) return result == 1
解决方案二:数据库乐观锁
UPDATE products SET stock = stock - 1, version = version + 1 WHERE id = ? AND stock > 0 AND version = ?
解决方案三:预扣库存
// 先预扣Redis库存,再异步同步到DB public boolean preDeductStock(String productId, int count) { String key = "seckill:stock:" + productId; Long remaining = redisTemplate.opsForValue().decrement(key, count); if (remaining >= 0) { // 发送MQ消息异步扣减数据库 sendStockDeductMessage(productId, count); return true; } else { // 库存不足,回滚 redisTemplate.opsForValue().increment(key, count); return false; } }

2. 高并发请求处理

2.1 流量削峰
// 使用消息队列缓冲请求 @Component public class SeckillService { @Autowired private RocketMQTemplate mqTemplate; public SeckillResult seckill(SeckillRequest request) { // 1. 校验用户和商品状态 if (!validate(request)) { return SeckillResult.fail("校验失败"); } // 2. 生成唯一请求ID String requestId = generateRequestId(request); // 3. 请求入队,立即返回 mqTemplate.sendOneWay("seckill-topic", MessageBuilder.withPayload(request).build()); // 4. 返回排队中状态,前端轮询结果 return SeckillResult.processing(requestId); } }
2.2 分层过滤
所有请求 → 合法性校验 → 库存校验 → 频率控制 → 实际下单 ↓ ↓ ↓ ↓ ↓ 100万 50万 10万 5万 1万

3. 系统性能优化

3.1 缓存策略
# 多级缓存配置 缓存层级: 一级: JVM本地缓存 (Caffeine) - 热点商品 二级: Redis集群 - 库存信息 三级: 数据库 - 最终一致性
3.2 读多写少优化
// 商品信息缓存预热 @Service public class CacheWarmUpService { @PostConstruct public void warmUpSeckillProducts() { List<Product> hotProducts = loadHotProducts(); for (Product product : hotProducts) { // 库存信息 redisTemplate.opsForValue().set( "stock:" + product.getId(), product.getStock() ); // 商品详情 redisTemplate.opsForValue().set( "product:" + product.getId(), JSON.toJSONString(product) ); // 使用布隆过滤器存储可售商品ID bloomFilter.add(product.getId()); } } }

4. 详细实现方案

4.1 秒杀流程
class SeckillSystem: def process_seckill(self, user_id, product_id): # 1. 恶意请求拦截 if not self.check_risk(user_id): return {"code": 403, "msg": "访问过于频繁"} # 2. 布隆过滤器快速判断 if not bloom_filter.contains(product_id): return {"code": 404, "msg": "商品不存在"} # 3. 内存标记(已售罄的商品直接返回) if sold_out_flags.get(product_id): return {"code": 400, "msg": "已售罄"} # 4. Redis原子扣减库存 if not self.deduct_stock_in_redis(product_id): sold_out_flags[product_id] = True return {"code": 400, "msg": "库存不足"} # 5. 生成订单ID(雪花算法) order_id = snowflake.generate() # 6. 订单信息入队 mq.send({ "order_id": order_id, "user_id": user_id, "product_id": product_id, "time": time.time() }) # 7. 返回排队中 return { "code": 200, "msg": "排队中", "order_id": order_id, "queue_position": get_queue_position(order_id) }
4.2 库存同步方案
@Component @Slf4j public class StockSyncService { // 数据库最终扣减 @Transactional public void syncStockToDB(String productId, int count) { try { // 数据库扣减(带重试机制) boolean success = productDAO.deductStock(productId, count); if (success) { // 更新Redis中的最终库存状态 redisTemplate.opsForValue().set( "stock_final:" + productId, getDBStock(productId) ); // 删除售罄标记 soldOutCache.remove(productId); } } catch (Exception e) { log.error("库存同步失败", e); // 记录异常,人工介入处理 alertService.sendAlert(e); } } // 库存对账任务 @Scheduled(cron = "0 */5 * * * ?") public void stockReconciliation() { List<Product> products = productDAO.getAllSeckillProducts(); for (Product product : products) { Integer redisStock = getRedisStock(product.getId()); Integer dbStock = product.getStock(); if (!Objects.equals(redisStock, dbStock)) { log.warn("库存不一致: productId={}, redis={}, db={}", product.getId(), redisStock, dbStock); // 自动修复或报警 fixStockInconsistency(product.getId(), dbStock); } } } }

三、高可用保障

1. 限流降级策略

# 多维度限流配置 限流规则: 用户维度: 每个用户10次/分钟 IP维度: 每个IP 1000次/分钟 商品维度: 每个商品 10000次/分钟 总QPS: 系统最大承受50000 QPS

2. 熔断降级

@RestController @Slf4j public class SeckillController { @GetMapping("/seckill/{productId}") @HystrixCommand( fallbackMethod = "seckillFallback", commandProperties = { @HystrixProperty(name = "execution.isolation.thread.timeoutInMilliseconds", value = "1000"), @HystrixProperty(name = "circuitBreaker.requestVolumeThreshold", value = "20") } ) public Response seckill(@PathVariable String productId, @RequestParam String userId) { return seckillService.process(userId, productId); } // 降级方法 public Response seckillFallback(String productId, String userId) { return Response.error("系统繁忙,请稍后重试"); } }

四、监控与告警

1. 关键监控指标

  • 系统层面:QPS、RT、错误率、CPU/内存使用率
  • 应用层面:库存扣减成功率、消息堆积量
  • 业务层面:抢购成功率、用户排队时长

2. 监控实现

@Component public class SeckillMonitor { private final MeterRegistry meterRegistry; // 记录关键指标 public void recordSeckill(String productId, boolean success, long cost) { // QPS监控 meterRegistry.counter("seckill.requests.total").increment(); if (success) { meterRegistry.counter("seckill.success.total").increment(); } else { meterRegistry.counter("seckill.fail.total").increment(); } // 耗时分布 meterRegistry.timer("seckill.process.time") .record(cost, TimeUnit.MILLISECONDS); // 库存变化 meterRegistry.gauge("seckill.stock." + productId, getCurrentStock(productId)); } }

五、部署与扩展

1. 弹性扩展策略

  • 水平扩展:无状态服务可快速扩容
  • 自动伸缩:基于CPU使用率或QPS自动扩缩容
  • 异地多活:重要业务支持多机房部署

2. 压测方案

压测场景: 场景1: 库存预热,10万用户同时抢1万商品 场景2: 持续高压,5万QPS持续5分钟 场景3: 峰值冲击,瞬间20万QPS 压测目标: 成功率: >99.9% 平均RT: <100ms 错误率: <0.1%

六、安全考虑

  • 防刷机制
    1. 验证码(峰值时降级)
    2. 设备指纹
    3. 行为分析
  • 数据安全
    1. 关键数据加密
    2. 操作日志记录
    3. 防篡改校验

总结要点

  1. 架构核心:分层过滤 + 异步处理 + 最终一致
  2. 库存核心:Redis原子操作 + 消息队列 + 数据库乐观锁
  3. 性能核心:缓存预热 + 流量削峰 + 读写分离
  4. 稳定核心:熔断降级 + 限流隔离 + 快速失败

面试回答

首先,架构设计上要动静分离、分层削峰。我会把系统分为:

  1. 静态资源分离:商品图片、描述页等提前推送到CDN,请求直接走边缘节点,不给后端压力。
  2. 网关层限流:在入口用Nginx或网关(如Sentinel)做恶意请求拦截和总流量限制,比如对同一UID限速,超过阈值直接返回“请求频繁”。
  3. 业务逻辑后置,请求队列化:秒杀的核心——“下单扣库存”这个最重要的逻辑,绝不放在前台实时处理。用户点击“抢购”后,前端直接返回“排队中”,请求进入一个消息队列(比如RabbitMQ、Kafka或RocketMQ)。这样一来,海量并发就被平滑成顺序处理的流量,后端服务按照自己的能力从队列里慢慢消费,实现削峰填谷
  4. 服务独立部署:把秒杀相关的功能(验资格、扣库存)单独做成一个微服务,避免影响商城其他正常功能(如浏览、普通下单)。

其次,针对如何解决超卖、库存扣减和高并发请求这三个核心问题,我的解决方案是:

  • 解决超卖和库存扣减:这是秒杀的核心。我的方案是:
    • 预扣库存:活动开始前,把商品的库存从主库加载到Redis中。Redis是单线程内存操作,可以保证原子性。
    • 原子化操作:在Redis里,使用 DECRLUA 脚本来扣减库存。DECR 命令会直接返回扣减后的值,如果返回值小于0,就说明库存没了,后续流程直接返回售罄。LUA脚本可以打包多个操作(检查库存、扣减),确保整个过程原子性,彻底杜绝超卖。、
    • 最终同步:后台服务从队列消费,成功扣减Redis库存后,生成一个订单ID(但状态是“未支付”),再异步去更新数据库的库存。这里数据库的库存更多是用于后续对账和长尾查询。
  • 应对高并发请求
    • 限流:除了网关层的总限流,在秒杀服务本身也要做限流,比如用信号量或令牌桶控制处理线程数,只服务自己能承受的流量,多的直接拒绝,快速失败。
    • 无状态化与扩容:秒杀服务做成无状态的,方便用K8s或云服务快速横向扩容,扛过峰值后再缩容,控制成本。
    • 热点数据隔离:对于“爆款”商品,它的库存Key在Redis里是热点Key。可以做两件事:一是提前对它进行Key散列,把压力分散到多个Redis节点;二是使用Redis集群模式,并开启读写分离。

最后,还有一些关键的细节和兜底策略

  • 防刷与验证:前端加入计算型验证码或答题,防止机器人;下单前必须校验用户资格(是否登录、地址完善等)。
  • 异步下单与结果轮询:用户提交后,服务端返回一个“排队ID”,前端用这个ID轮询后端,查询最终结果(成功、失败或等待)。用户体验上是“排队等待”,而不是一直卡住或报错。
  • 数据一致性对账:因为用了Redis和消息队列,可能出现极端情况下的数据不一致(比如Redis扣成功,但下游服务挂了,订单没生成)。需要有一个定时对账任务,核对Redis、数据库库存和订单状态,进行修复。
  • 降级与熔断:如果Redis或数据库访问慢,要有熔断机制,防止服务被拖垮。比如可以快速降级到“返回售罄”的静态页面。

总结一下,我的设计思路是:前端限流拦截,请求队列削峰;Redis原子扣减防超卖;服务无状态化应对高并发;再通过异步、对账等手段保证最终一致性和用户体验

如果小假的内容对你有帮助,请点赞评论收藏。创作不易,大家的支持就是我坚持下去的动力!

Read more

Flutter 三方库 langchain_google 的鸿蒙化适配指南 - 链接 Gemini 智慧中枢、LangChain AI 实战、鸿蒙级智能应用专家

Flutter 三方库 langchain_google 的鸿蒙化适配指南 - 链接 Gemini 智慧中枢、LangChain AI 实战、鸿蒙级智能应用专家

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 langchain_google 的鸿蒙化适配指南 - 链接 Gemini 智慧中枢、LangChain AI 实战、鸿蒙级智能应用专家 在鸿蒙跨平台应用迈向“智能化”的今天,接入生成式 AI(AIGC)已不再是加分项,而是必选项。如果你想在鸿蒙端利用 Google Gemini 的强大推理能力打造智能助手、自动化翻译或垂直领域 RAG 系统。今天我们要深度解析的 langchain_google——一个通过 LangChain 标准协议封装的 Google AI 适配器,正是帮你构建“大模型大脑”的核心插件。 前言 langchain_google 是 LangChain.

By Ne0inhk
未来的鸿蒙 App,还需要“首页”吗?

未来的鸿蒙 App,还需要“首页”吗?

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名) 大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。 我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案, 在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。 技术方向:前端 / 跨端 / 小程序 / 移动端工程化 内容平台:掘金、知乎、ZEEKLOG、简书 创作特点:实战导向、源码拆解、少空谈多落地 文章状态:长期稳定更新,大量原创输出 我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、

By Ne0inhk
macOS 平台 AI CLI 工具安装与配置避坑指南(OpenClaw、Gemini CLI、Claude Code)

macOS 平台 AI CLI 工具安装与配置避坑指南(OpenClaw、Gemini CLI、Claude Code)

前提条件:macOS(M系列芯片) 测试时间:2026年2月 本文涵盖 OpenClaw、Gemini CLI、Claude Code 三款主流 AI CLI 工具的安装、配置与调试。 第一章:OpenClaw 安装与配置 OpenClaw 依赖树庞大(709个包,2026.2x版本),安装过程涉及网络下载、本地服务启动、LaunchAgent 注册等多个环节,任何一环的网络异常都会导致安装失败或运行时报错。 1.1 npm install 网络卡死 问题描述:执行 npm install -g openclaw 后,终端长时间无输出,看起来像卡死。 问题思路:npm 安装依赖包时需要从 npm 官方仓库下载大量文件,下载速度极慢甚至超时,容易误判为程序卡死。

By Ne0inhk