作者:Tom哥
公众号:微观技术
博客:https://offercome.cn
人生理念:知道的越多,不知道的越多,努力去学
随着中国消费认知的不断升级,网购走近千家万户,越来越被人们所接受。淘宝、唯品会、考拉、京东、拼多多等逐渐成为我们生活的重要组成部分。
除了常规的购物下单外,这些电商平台还经常搞一些双十一活动,秒杀、大促、限时购,各种营销玩法,层出不穷。
今天就来跟大家聊一聊电商技术里的库存扣减
当有很多人同时在买一件商品时(假设库存充足),每个人几乎同时下单成功,给人一种并行的感觉。但真实情况,库存只是一个数值,无论是存在mysql数据库还是redis缓存,减值时都要控制顺序,只能串行来扣减,当然为了保证安全性,会设计一些锁控制操作。
超卖
现象,引发资损交易退款
,保证库存扣减可以返还
主要是依赖数据库特性来保证扣减的一致性,逻辑简单,开发部署成本很低。
依赖的数据库特性:
最上面会查询当前的剩余库存(可能不准确,但没关系,这里只是第一步粗略校验),前置校验,如果已经没有库存,前置拦截生效,减少对数据库的写操作。毕竟
读操作
不涉及加锁,并发性能高。数据库包含两张表:库存表、流水表。
1、库存表
字段 | 说明 |
---|---|
sku_id | 商品规格id |
leaved_amount | 剩余可购买数量 |
2、 流水表
字段 | 说明 |
---|---|
id | 主键id |
sku_id | 商品规格id |
order_detail_id | 订单明细id |
quantity_trade | 本次购买扣减的数量 |
单条商品的扣减SQL大致如下:
update inventory
set leaved_amount = leaved_amount - #{count}
where sku_id='123' and leaved_amount >= #{count}
此 SQL 采用 类似乐观锁的方式实现了原子性,在 where 条件里判断此次购买的数量小于等于剩余的数量。在扣减服务的代码里,判断此 SQL 的返回值,如果值为 1 ,表示扣减成功。否则,返回 0 ,表示库存不足,需要回滚。
扣减成功后,需要记录扣减流水,并与订单明细记录做关联。
当用户归还数量时,需要带回此编号,用来标识此次返还属于历史上的具体哪次扣减。
进行幂等性控制。当用户调用扣减接口出现超时时,因为用户不知道是否成功,用此编号进行重试或反查。在重试时,使用此编号进行标识防重。
举个极端的例子:最新款iPhone秒杀,库存只有5件,活动期间峰值QPS预估在10W,活动结束后,上面的流水表最终只会插入5条记录,但是查询的QPS却接近 10W QPS
,读的压力非常大。
所以,数据库扣减方案第一次升级主要是针对库存前置校验
模块的优化,作为前置拦截器,承载的流量很大,如果将流量全部压到主库上,很容易把数据压垮。我们考虑把数据库架构升级。
采用了读写分离
方式,新增加了一套从库,借助mysql自带的数据同步能力。库存校验
时读取从数据库。
当然,数据同步有一定的时间延迟,从库的数据新鲜度有一定的滞后性,所以这个库存校验
结果并不一定准确,但却能拦截大部分的无效流量
。最终能不能成功购买,由主库的乐观扣减SQL
来控制,并不会影响最终扣减的准确性。大大减轻主库的查询压力。
引入了从库,确实能分摊主库很大一部分压力,但是面对秒杀这种万级QPS流量,mysql的千级TPS
根本支撑不了,需要进一步升级读取的性能。
库存校验
模块,从redis中查询剩余的库存数据。由于缓存基于内存操作,性能比数据库高出几个数量级,单台redis实例可以达到10W QPS的读性能该方案升级后,基本上解决了在前置库存校验
环节及获取库存数量接口
的性能问题,提高了系统整体性能,提供较好的用户体验。
补充说明:
如果并发量还是很高的话,可以考虑引入缓存集群
,将不同的秒杀商品sku
尽量均匀分布在多个redis节点中,从而分摊掉整体的峰值QPS压力。(参考缓存热点的解决方案)
数据库方案的优点:
ACID
特性,业务上不会出现超卖
、少买
现象数据库方案的不足:
库存主库
,性能压力会比较大。Redis采用单线程的事件模型,具有原子性
的特性。当有多个客户端给Redis发送命令时,Redis会按照接收到的顺序串行化
执行。对于还未被调度的命令,则放在队列里排队等待
。
库存扣减为了保证数据并发安全,要求原子性,而Redis
正好满足扣减类的特殊性要求,是个不错的技术选型。
下面,我们简单来看看基于Redis
如何来设计库存扣减?
首先,设计Redis的数据模型:
剩余库存(k-v结构):
key:sku_leaved_amount_{sku_id}
value:剩余的库存数值
流水(hash结构):
key:inventory_flow_{sku_id}
hash—key:订单明细id(不同业务场景的全局性id,用来做幂等控制)
hash—value:本次购买的数量
对于购物车下单,多个sku批量扣减,我们需要按单个sku循环发起Redis调用。但是多个Redis命令无法保证原子性。我们可以采用lua脚本
形式,将这些命令打包到一个脚本中,作为一个命令发送给Redis执行,从而保证了原子性。
lua 是一个类似 JavaScript、Shell 等的解释性语言,它可以完成 Redis 已有命令不支持的功能。用户在编写完 lua 脚本之后,将此脚本上传至 Redis 服务端,服务端会返回一个标识码代表此脚本。在实际执行具体请求时,将数据和此标识码发送至 Redis 即可。Redis 会和执行普通命令一样,采用单线程执行此 lua 脚本和对应数据。
Lua 脚本执行流程:
批量扣减是对单个扣减的循环调用,所以这里介绍的流程只讲单次扣减的处理步骤。
订单明细id
查询扣减流水,是否已经操作过,做幂等性校验下单购买数
做校验,只要有一个sku 数量不足,则返回失败当Redis扣减成功后,应用程序再将此次扣减异步化
保存到数据库中,持久化存储,毕竟Redis只是临时性存储,有宕机风险,会丢失数据。
缓存方案利弊分析:
Redis
缓存方案,借助了缓存的高性能
,承载更高的并发。但是没有数据库的ACID
特性,极端情况下,可能出现少卖
情况少卖
情况发生,纯缓存方案
需要做大量的对账、异常处理的设计,系统复杂度增加很多。纯缓存方案
适合一些高并发、大流量场景,但对数据准确度要求不是特别苛刻的业务场景。风险:
上述Lua脚本
把多条命令打包在一起,虽然保证了原子性,但不具备事务回滚
特性。比如,库存扣减成功了,此时Redis宕机
,扣减流水并没有插入成功,应用程序认为本次Redis调用
是失败
的,前台给用户反馈错误提示,但是已经扣减的数量不会回滚。当Redis故障修复后,再次启动,此时恢复的数据已经存在不一致了。需要结合Redis
和数据库
做数据核对check,并结合扣减服务的日志,做数据的增量修复。
上面提到的数据库方式是基于单库单表
玩法,虽然借助ACID
特性能保证数据的一致性,但是单台mysql的并发能力有限,如何提升性能?
除了纯缓存
化方案外,我们还可以考虑将库存表
进行水平拆分
,分摊洪峰压力。
假如库存表的QPS要求是1.6万,经过拆分成16张表后,如果数据分布均匀,每个物理表预计处理1000 QPS,处于mysql单实例的承载范围之内。
另外拆分后,单表的数据量也会相应减少很多,假如分表前有一个亿数据,分表后每张表不到1千万,索引查询性能也会快很多。
注意:
同一次扣减业务,
库存扣减
和插入流水
要放在同一个分库中,通过事务保证一致性,满足同时成功或同时失败。如果数据分布和业务请求足够均匀,理论上经过分库分表设计后,整个系统的吞吐量将会是线性的增长,主要取决于分表实例的数量。
还有其他的一些解决方案,这里只是提供一些思路,方案细节就不展开了
1、如果某个sku_id的库存扣减过热,单台实例支撑不了(mysql官方测评:一般单行更新的QPS在500以内),可以考虑将一个sku的大库存拆分成N份,放在不同的库中(也就是说所有子库的库存数总和才是一件sku的真实库存),由于前台的访问流量非常大,按照均分原则
,每个子库分到的流量应该差不多。上层路由时只需要在sku_id
后面拼接一个范围内的随机数
,即可找到对应的子库,有效减轻系统压力。
2、单条sku库存记录更新过热,也可以采用批量提交方式,将多次扣减累计计数,集中成一次扣减,从而实现了将串行处理变成了批处理,也可以大大减轻数据库压力。
3、引入RocketMQ
消息队列,经过前置校验后,如果有剩余库存,则把创建订单的操作封装成消息发送给MQ,订单系统从RocketMQ中以特定的频率消费,创建订单,该方案有一定的延迟性。