#指定kafka节点的列表,用于获取metadata,不必全部指定
metadata.broker.list=kafka01:9092,kafka02:9092,kafka03:9092
#指定分区处理类,默认kafka.prodicer.DefaultPartitioner,表通过key哈希到对应的分区
#partitioner.class=kafka.producer.DefaultPartitioner
#是否压缩,0代表不压缩,1代表用gzip压缩,2代表用snappy压缩
compression.codec=0
- #指定序列化处理类
- serializer.class=kafka.serializer.DefaultEncoder
- #如果要压缩消息,这里指定哪些topic要压缩消息,默认是empty,表示不压缩
- #compressed.topics=
- #设置发送数据是否需要服务端的反馈,有三个值0,1,-1
- # 0:producer不会等待broker发送ack
- # 1:当leader接收到消息后发送ack
- # -1:当所有的follower都同步消息成功后发送ack
- request.required.acks=0
- #在向producer发送ack之前,broker均需等待的最大时间
- request.timeout.ms=10000
- #同步还是异步
- producer.type=sync
- #在async模式下,当message被缓存的时间超过此值后,将会批量发送给broker,默认为5000ms
- quene.buffering.max.ms=5000
- #在async模式下,produce端允许buffer的最大消息量,此时如果消息的条数达到阈值将会导致producer端柱塞,或者消息被抛弃。默认为10000
- queue.buffering.max.messages=20000
- #如果是异步,指定每次批量发送的数据量,默认为200
- batch.num.messages=500
- #当消息在producer端沉淀的条数达到“queue.buffering.max.messages”后柱塞一定的时间后队列任然没有发送任何消息
- #-1屋柱塞超时限制。消息不会被抛弃
- #0立即清空队列 消息被抛弃
- queue.enqueue.timeout.ms=-1
#当producer接受到error ack或者没有接受到ack的时候允许消息重发的次数
message.send.max.retries=3
#procucer刷新topic metada的时间间隔
topic.metadata.refresh.interval.ms=60000
来源:oschina
链接:https://my.oschina.net/u/4381733/blog/4055261