File tree 1 file changed +12
-12
lines changed
docs/system-design/distributed-system/message-queue
1 file changed +12
-12
lines changed Original file line number Diff line number Diff line change @@ -207,18 +207,18 @@ acks 的默认值即为1,代表我们的消息被leader副本接收之后就
207
207
208
208
### Kafka 如何保证消息不重复消费
209
209
210
- 1 . ** kafka出现消息重复消费的原因**
211
- * 服务端侧 已经消费的数据没有成功提交 offset(根本原因)
212
- * kafka 侧 由于服务端处理业务时间长或者网络链接等等原因让 kafka 认为服务假死,触发了分区 rebalance
213
- 2 . ** 解决方案 **
214
- * 最有效:消费消息服务做幂等校验,比如redis的set、mysql的主键等天然的幂等功能
215
- * 将 ** enable.auto.commit ** 参数设置为 false,关闭自动提交,开发者在代码中手动提交 offset。那么这里会有个< br >
216
- 问题:
217
- ** 什么时候提交offset合适? **
218
- * 处理完消息再提交:依旧有消息重复消费的风险,和自动提交一样
219
- * 拉取到消息即提交:会有消息丢失的风险。允许消息延时的场景,一般会采用这种方式。然后通过定时任< br >
220
- 务在业务不繁忙的时候做数据兜底,一般是基建较好的公司会通过大数据部门在晚上兜底
221
-
210
+ ** kafka出现消息重复消费的原因: **
211
+
212
+ - 服务端侧已经消费的数据没有成功提交 offset(根本原因)。
213
+ - Kafka 侧 由于服务端处理业务时间长或者网络链接等等原因让 Kafka 认为服务假死,触发了分区 rebalance。
214
+
215
+ ** 解决方案: **
216
+
217
+ - 消费消息服务做幂等校验,比如 Redis 的set、MySQL 的主键等天然的幂等功能。这种方法最有效。
218
+ - 将 ** ` enable.auto.commit ` ** 参数设置为 false,关闭自动提交,开发者在代码中手动提交 offset。那么这里会有个问题: ** 什么时候提交offset合适? **
219
+ * 处理完消息再提交:依旧有消息重复消费的风险,和自动提交一样
220
+ * 拉取到消息即提交:会有消息丢失的风险。允许消息延时的场景,一般会采用这种方式。然后,通过定时任务在业务不繁忙(比如凌晨)的时候做数据兜底。
221
+
222
222
### Reference
223
223
224
224
- Kafka 官方文档: https://kafka.apache.org/documentation/
You can’t perform that action at this time.
0 commit comments