1、数据丢失和重复
kafka ack
设置为0 不等leader落盘直接确认回复 leader挂了 数据丢失
设置为1 时 leader落盘后不等所有副本全部落盘 确认回复 leader 挂了 选举新leader 无此数据 数据丢失
ACK设置为-1 leader和副本都落盘后确认回复 如果在落盘完成之后 leader回复之前leader挂了 数据会重复读取
2、Kafka压测
用Kafka官方自带的脚本,对Kafka进行压测。Kafka压测时,可以查看到哪个地方出现了瓶颈(CPU,内存,网络IO)。一般都是网络IO达到瓶颈。
kafka-consumer-perf-test.sh
kafka-producer-perf-test.sh
1)Kafka Producer压力测试
(1)在/opt/module/kafka/bin目录下面有这两个文件。我们来测试一下
[1@hadoop102 kafka]$ bin/kafka-producer-perf-test.sh --topic test --record-size 1000 --num-records 100000 --