位置 帝国网站管理系统>职场>笔试面试>场景设计

如何优雅地处理重复请求(并发请求)_(完结)

如何优雅地处理重复请求(并发请求)_(完结)
如何优雅地处理重复请求(并发请求)_(完结)
如何优雅地处理重复请求(并发请求)_(完结)
如何优雅地处理重复请求(并发请求)_(完结)
如何优雅地处理重复请求(并发请求)_(完结)

如何优雅地处理重复请求(并发请求)?(完结)

对于一些用户请求,在某些情况下是可能重复发送的,如果是查询类操作并无大碍,但其

中有些是涉及写入操作的,一旦重复了,可能会导致很严重的后果,例如交易的接口如果

重复请求可能会重复下单。

重复的场景有可能是:

1. 黑客拦截了请求,重放

2. 前端/客户端因为某些原因请求重复发送了,或者用户在很短的时间内重复点击了

3. 网关重发

4. ….

本文讨论的是如何在服务端优雅地统一处理这种情况,如何禁止用户重复点击等客户端操

作不在本文的讨论范畴。

利用唯一请求编号去重

可能会想到的是,只要请求有唯一的请求编号,那么就能借用 Redis 做这个去重——只要

这个唯一请求编号在 redis 存在,证明处理过,那么就认为是重复的

代码大概如下:

String KEY = "REQ12343456788";//请求唯一编号

long expireTime = 1000;// 1000 毫秒过期,1000ms 内的重复请求会认为重复

long expireAt = System.currentTimeMillis() + expireTime;

String val = "expireAt@" + expireAt;

//redis key 还存在的话要就认为请求是重复的

Boolean firstSet = stringRedisTemplate.execute((RedisCallback<Boolean>) connec

tion -> connection.set(KEY.getBytes(), val.getBytes(), Expiration.milliseconds(expir

eTime), RedisStringCommands.SetOption.SET_IF_ABSENT));

final boolean isConsiderDup;

if (firstSet != null && firstSet) {// 第一次访问

isConsiderDup = false;

} else {// redis 值已存在,认为是重复了

isConsiderDup = true;

}

业务参数去重

上面的方案能解决具备唯一请求编号的场景,例如每次写请求之前都是服务端返回一个唯

一编号给客户端,客户端带着这个请求号做请求,服务端即可完成去重拦截。

但是,很多的场景下,请求并不会带这样的唯一编号!那么我们能否针对请求的参数作为

一个请求的标识呢?

先考虑简单的场景,假设请求参数只有一个字段 reqParam,我们可以利用以下标识去判

断这个请求是否重复。用户 ID:接口名:请求参数

String KEY = "dedup:U="+userId + "M=" + method + "P=" + reqParam;

那么当同一个用户访问同一个接口,带着同样的 reqParam 过来,我们就能定位到他是重

复的了。

但是问题是,我们的接口通常不是这么简单,以目前的主流,我们的参数通常是一个

JSON。那么针对这种场景,我们怎么去重呢?

计算请求参数的摘要作为参数标识

假设我们把请求参数(JSON)按 KEY 做升序排序,排序后拼成一个字符串,作为 KEY 值

呢?但这可能非常的长,所以我们可以考虑对这个字符串求一个 MD5 作为参数的摘要,

以这个摘要去取代 reqParam 的位置。

String KEY = "dedup:U="+userId + "M=" + method + "P=" + reqParamMD5;

这样,请求的唯一标识就打上了!

注:MD5 理论上可能会重复,但是去重通常是短时间窗口内的去重(例如一秒),一个

短时间内同一个用户同样的接口能拼出不同的参数导致一样的 MD5 几乎是不可能的。

继续优化,考虑剔除部分时间因子

上面的问题其实已经是一个很不错的解决方案了,但是实际投入使用的时候可能发现有些

问题:某些请求用户短时间内重复的点击了(例如 1000 毫秒发送了三次请求),但绕过

了上面的去重判断(不同的 KEY 值)。

原因是这些请求参数的字段里面,是带时间字段的,这个字段标记用户请求的时间,服务

端可以借此丢弃掉一些老的请求(例如 5 秒前)。如下面的例子,请求的其他参数是一样

的,除了请求时间相差了一秒:

//两个请求一样,但是请求时间差一秒

String req = "{n" +

""requestTime" :"20190101120001",n" +

""requestValue" :"1000",n" +

""requestKey" :"key"n" +

"}";

String req2 = "{n" +

""requestTime" :"20190101120002",n" +

""requestValue" :"1000",n" +

""requestKey" :"key"n" +

"}";

这种请求,我们也很可能需要挡住后面的重复请求。所以求业务参数摘要之前,需要剔除

这类时间字段。还有类似的字段可能是 GPS 的经纬度字段(重复请求间可能有极小的差

别)。

请求去重工具类,Java 实现

public class ReqDedupHelper {

/**

*

* @param reqJSON 请求的参数,这里通常是 JSON

* @param excludeKeys 请求参数里面要去除哪些字段再求摘要

* @return 去除参数的 MD5 摘要

*/

public String dedupParamMD5(final String reqJSON, String... excludeKeys) {

String decreptParam = reqJSON;

TreeMap paramTreeMap = JSON.parseObject(decreptParam, TreeMap.class);

if (excludeKeys!=null) {

List<String> dedupExcludeKeys = Arrays.asList(excludeKeys);

if (!dedupExcludeKeys.isEmpty()) {

for (String dedupExcludeKey : dedupExcludeKeys) {

paramTreeMap.remove(dedupExcludeKey);

}

}

}

String paramTreeMapJSON = JSON.toJSONString(paramTreeMap);

String md5deDupParam = jdkMD5(paramTreeMapJSON);

log.debug("md5deDupParam = {}, excludeKeys = {} {}", md5deDupParam, A

rrays.deepToString(excludeKeys), paramTreeMapJSON);

return md5deDupParam;

}

private static String jdkMD5(String src) {

String res = null;

try {

MessageDigest messageDigest = MessageDigest.getInstance("MD5");

byte[] mdBytes = messageDigest.digest(src.getBytes());

res = DatatypeConverter.printHexBinary(mdBytes);

} catch (Exception e) {

log.error("",e);

}

return res;

}

}

下面是一些测试日志:

public static void main(String[] args) {

//两个请求一样,但是请求时间差一秒

String req = "{n" +

""requestTime" :"20190101120001",n" +

""requestValue" :"1000",n" +

""requestKey" :"key"n" +

"}";

String req2 = "{n" +

""requestTime" :"20190101120002",n" +

""requestValue" :"1000",n" +

""requestKey" :"key"n" +

"}";

//全参数比对,所以两个参数 MD5 不同

String dedupMD5 = new ReqDedupHelper().dedupParamMD5(req);

String dedupMD52 = new ReqDedupHelper().dedupParamMD5(req2);

System.out.println("req1MD5 = "+ dedupMD5+" , req2MD5="+dedupMD52);

//去除时间参数比对,MD5 相同

String dedupMD53 = new ReqDedupHelper().dedupParamMD5(req,"requestTim

e");

String dedupMD54 = new ReqDedupHelper().dedupParamMD5(req2,"requestTi

me");

System.out.println("req1MD5 = "+ dedupMD53+" , req2MD5="+dedupMD54);

}

日志输出:

req1MD5 = 9E054D36439EBDD0604C5E65EB5C8267 ,

req2MD5=A2D20BAC78551C4CA09BEF97FE468A3F

req1MD5 = C2A36FED15128E9E878583CAAAFEFDE9 ,

req2MD5=C2A36FED15128E9E878583CAAAFEFDE9

日志说明:

• 一开始两个参数由于 requestTime 是不同的,所以求去重参数摘要的时候可以发现两

个值是不一样的

• 第二次调用的时候,去除了 requestTime 再求摘要(第二个参数中传入

了”requestTime”),则发现两个摘要是一样的,符合预期。

总结

至此,我们可以得到完整的去重解决方案,如下:

String userId= "12345678";//用户

String method = "pay";//接口名

String dedupMD5 = new ReqDedupHelper().dedupParamMD5(req,"requestTime");

//计算请求参数摘要,其中剔除里面请求时间的干扰

String KEY = "dedup:U=" + userId + "M=" + method + "P=" + dedupMD5;

long expireTime = 1000;// 1000 毫秒过期,1000ms 内的重复请求会认为重复

long expireAt = System.currentTimeMillis() + expireTime;

String val = "expireAt@" + expireAt;

// NOTE:直接 SETNX 不支持带过期时间,所以设置+过期不是原子操作,极端情况下可能设置

了就不过期了,后面相同请求可能会误以为需要去重,所以这里使用底层 API,保证

SETNX+过期时间是原子操作

Boolean firstSet = stringRedisTemplate.execute((RedisCallback<Boolean>) connec

tion -> connection.set(KEY.getBytes(), val.getBytes(), Expiration.milliseconds(expir

eTime),

RedisStringCommands.SetOption.SET_IF_ABSENT));

final boolean isConsiderDup;

if (firstSet != null && firstSet) {

isConsiderDup = false;

} else {

isConsiderDup = true;

}