Kafka 是最初由 Linkedin 公司开发,是一个分布式、支持分区的(partition)、多副本的(replica),基于 zookeeper 协调的分布式消息系统,它的最大的特性就是可以实时的处理大量数据以满足各种需求场景:比如基于 hadoop 的批处理系统、低延迟的实时系统、Storm/Spark 流式处理引擎,web/nginx 日志、访问日志,消息服务等等,用 scala 语言编写,Linkedin 于 2010 年贡献给了 Apache 基金会并成为顶级开源项目。(分布式的流处理平台)

Kafka 的使用场景

Kafka 基本概念

kafka 是一个分布式的,分区的消息 (官方称之为 commit log) 服务。它提供一个消息系统应该具备的功能,但是确有着独特的设计。可以这样来说,Kafka 借鉴了 JMS 规范的思想,但是确并没有完全遵循 JMS 规范。

首先,让我们来看一下基础的消息 (Message) 相关术语:

名称 解释
Broker 消息中间件处理节点,一个 Kafka 节点就是一个 broker,一个或者多个 Broker 可以组成一个 Kafka 集群
Topic Kafka 根据 topic 对消息进行归类,发布到 Kafka 集群的每条消息都需要指定一个 topic
Producer 消息生产者,向 Broker 发送消息的客户端
Consumer 消息消费者,从 Broker 读取消息的客户端
ConsumerGroup 每个 Consumer 属于一个特定的 Consumer Group,一条消息可以被多个不同的 Consumer Group 消费,但是一个 Consumer Group 中只能有一个 Consumer 能够消费该消息
Partition 物理上的概念,一个 topic 可以分为多个 partition,每个 partition 内部消息是有序的

因此,从一个较高的层面上来看,producer 通过网络发送消息到 Kafka 集群,然后 consumer 来进行消费,如下图:集群架构,broker 就相当于服务端,处理消息的节点;producer 将消息 push,consumer 将消息 pull

依赖第三方的 zk,类似 nameserver;topic 类似消息队列,最终存放的是在 topic 下面的 partition 里面。

服务端 (brokers) 和客户端 (producer、consumer) 之间通信通过TCP 协议来完成。

kafka 基本使用 (2.4)

https://kafka.apache.org/documentation/

安装前的环境准备

由于 Kafka 是用 Scala 语言开发的,运行在 JVM 上,因此在安装 Kafka 之前需要先安装 JDK。

yum install java-1.8.0-openjdk* -y




kafka 依赖 zookeeper,所以需要先安装 zookeeper

wget https://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.5.8/apache-zookeeper-3.5.8-bin.tar.gz
tar -zxvf apache-zookeeper-3.5.8-bin.tar.gz
cd  apache-zookeeper-3.5.8-bin
cp conf/zoo_sample.cfg conf/zoo.cfg




# 启动 zookeeper

bin/zkServer.sh start
bin/zkCli.sh 
ls /            #查看zk的根目录相关节点




查看 zk 的目录树:

第一步:下载安装包

下载 2.4.1 release 版本,并解压:

wget https://mirror.bit.edu.cn/apache/kafka/2.4.1/kafka_2.11-2.4.1.tgz  # 2.11是scala的版本,2.4.1是kafka的版本
tar -xvf kafka_2.11-2.4.1.tgz
cd kafka_2.11-2.4.1




第二步:修改配置

修改配置文件 config/server.properties:

#broker.id属性在kafka集群中必须要是唯一
broker.id=0
#kafka部署的机器ip和提供服务的端口号
listeners=PLAINTEXT://192.168.65.60:9092   
#kafka的消息存储文件
log.dir=/usr/local/data/kafka-logs
#kafka连接zookeeper的地址
zookeeper.connect=192.168.65.60:2181




第三步:启动服务

现在来启动 kafka 服务:

启动脚本语法:kafka-server-start.sh [-daemon] server.properties

可以看到,server.properties 的配置路径是一个强制的参数,-daemon 表示以后台进程运行,否则 ssh 客户端退出后,就会停止服务。(注意,在启动 kafka 时会使用 linux 主机名关联的 ip 地址,所以需要把主机名和 linux 的 ip 映射配置到本地 host 里,用 vim /etc/hosts)

 # 启动kafka,运行日志在logs目录的server.log文件里
bin/kafka-server-start.sh -daemon config/server.properties   #后台启动,不会打印日志到控制台
或者用
bin/kafka-server-start.sh config/server.properties &

# 我们进入zookeeper目录通过zookeeper客户端查看下zookeeper的目录树
bin/zkCli.sh 
ls /        #查看zk的根目录kafka相关节点
ls /brokers/ids    #查看kafka节点

# 停止kafka
bin/kafka-server-stop.sh




kafka 启动的时候,会把自己的信息注册到 zk 里面去

server.properties 核心配置详解:

  Property Default Description
  broker.id 0 每个 broker 都可以用一个唯一的非负整数 id 进行标识;这个 id 可以作为 broker 的 “名字”,你可以选择任意你喜欢的数字作为 id,只要 id 是唯一的即可。
  log.dirs /tmp/kafka-logs kafka 存放数据的路径。这个路径并不是唯一的,可以是多个,路径之间只需要使用逗号分隔即可;每当创建新 partition 时,都会选择在包含最少 partitions 的路径下进行。
  listeners PLAINTEXT://192.168.65.60:9092 server 接受客户端连接的端口,ip 配置 kafka 本机 ip 即可
  zookeeper.connect localhost:2181 zooKeeper 连接字符串的格式为:hostname:port,此处 hostname 和 port 分别是 ZooKeeper 集群中某个节点的 host 和 port;zookeeper 如果是集群,连接方式为 hostname1:port1, hostname2:port2, hostname3:port3
  log.retention.hours 168 每个日志文件删除之前保存的时间。默认数据保存时间对所有 topic 都一样。
  num.partitions 1 创建 topic 的默认分区数
  default.replication.factor 1 自动创建 topic 的默认副本数量,建议设置为大于等于 2
  min.insync.replicas 1 当 producer 设置 acks 为-1 时,min.insync.replicas 指定 replicas 的最小数目(必须确认每一个 repica 的写数据都是成功的),如果这个数目没有达到,producer 发送消息会产生异常
  delete.topic.enable false 是否允许删除主题

第四步:创建主题

现在我们来创建一个名字为 “test” 的 Topic,这个 topic 只有一个 partition,并且备份因子也设置为 1:

sh bin/kafka-topics.sh --create --bootstrap-server localhost:9092 
--topic test_topic --partitions 3 --replication-factor 1




现在我们可以通过以下命令来查看 kafka 中目前存在的 topic,主题的元数据在 zk 中,具体的消息在 kafka 中保存

bin/kafka-topics.sh --list --zookeeper 192.168.65.60:2181




除了我们通过手工的方式创建 Topic,当 producer 发布一个消息到某个指定的 Topic,这个 Topic 如果不存在,就自动创建。

删除主题

bin/kafka-topics.sh --delete --topic test --zookeeper 192.168.65.60:2181




第五步:发送消息

kafka 自带了一个 producer 命令客户端,可以从本地文件中读取内容,或者我们也可以以命令行中直接输入内容,并将这些内容以消息的形式发送到 kafka 集群中。在默认情况下,每一个行会被当做成一个独立的消息。

首先我们要运行发布消息的脚本,然后在命令中输入要发送的消息的内容:

bin/kafka-console-producer.sh --broker-list 192.168.65.60:9092 --topic test 
>this is a msg
>this is a another msg 




第六步:消费消息

对于 consumer,kafka 同样也携带了一个命令行客户端,会将获取到内容在命令中进行输出,默认是消费最新的消息

bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092 --topic test   




如果想要消费之前的消息可以通过--from-beginning 参数指定,如下命令:

bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092 --from-beginning --topic test 




如果你是通过不同的终端窗口来运行以上的命令,你将会看到在 producer 终端输入的内容,很快就会在 consumer 的终端窗口上显示出来。

以上所有的命令都有一些附加的选项;当我们不携带任何参数运行命令的时候,将会显示出这个命令的详细用法。

消费多主题

bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092 --whitelist "test|test-2




单播消费

一条消息只能被某一个消费者消费的模式,类似queue 模式,只需让所有消费者在同一个消费组里即可

分别在两个客户端执行如下消费命令,然后往主题里发送消息,结果只有一个客户端能收到消息

同一个消费组中,同一条消息,只能有一个消费者消费消息

bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092  --consumer-property group.id=testGroup --topic test 




多播消费

一条消息能被多个消费者消费的模式,类似publish-subscribe模式,针对 Kafka 同一条消息只能被同一个消费组下的某一个消费者消费的特性,要实现多播只要保证这些消费者属于不同的消费组即可。我们再增加一个消费者,该消费者属于 testGroup-2 消费组,结果两个客户端都能收到消息

bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092 --consumer-property group.id=testGroup-2 --topic test 




查看消费组名

bin/kafka-consumer-groups.sh --bootstrap-server 192.168.65.60:9092 --list




查看消费组的消费偏移量

bin/kafka-consumer-groups.sh --bootstrap-server 192.168.65.60:9092 --describe --group testGroup



current-offset:当前消费组的已消费偏移量

log-end-offset:主题对应分区消息的结束偏移量 (HW)

lag:当前消费组未消费的消息数

以组为单位保存消费的偏移量,组来决定消费情况

kafka 消息消费完不会删除,消息是存储在文件里面,消息会根据 offset 来进行逐个消费,还可以指定偏移量进行消费。每一个消费者,会维护自己的偏移量。在某一个地方存上一次消费的偏移量。

消费情况和组绑定,不同的消费者只影响当前的组

主题 Topic 和消息日志 Log

可以理解 Topic 是一个类别的名称,同类消息发送到同一个 Topic 下面。对于每一个 Topic,下面可以有多个分区 (Partition) 日志文件:

Partition 是一个有序的 message 序列,这些 message 按顺序添加到一个叫做commit log 的文件中。每个 partition 中的消息都有一个唯一的编号,称之为 offset,用来唯一标示某个分区中的 message。

为什么要多个分区?

真正大数据的系统,会有很多很多消息的,不会主动删除(最多可以保存 7 天),这里面会放很多的消息,如果一个分区,放在一起,存在一个磁盘同一台机器,肯定存不下,所以这个思想就是分布式存储,把一个主题划分很多分区,一个分区在一个文件里面,放在不同的机器上面去,达到分布式存储的效率。

不同的分区可以由不同的消费者消费,同时也提高了消费的能力。

每个 partition,都对应一个 commit log 文件。一个 partition 中的 message 的 offset 都是唯一的,但是不同的 partition 中的 message 的 offset 可能是相同的。

kafka 一般不会删除消息,不管这些消息有没有被消费。只会根据配置的日志保留时间 (log.retention.hours) 确认消息多久被删除,默认保留最近一周的日志消息。

针对业务场景,设置这个值。

kafka 的性能与保留的消息数据量大小没有关系,因此保存大量的数据消息日志信息不会有什么影响。

每个 consumer 是基于自己在 commit log 中的消费进度 (offset) 来进行工作的。在 kafka 中,消费 offset 由 consumer 自己来维护;一般情况下我们按照顺序逐条消费 commit log 中的消息,当然我可以通过指定 offset 来重复消费某些消息,或者跳过某些消息。

这意味 kafka 中的 consumer 对集群的影响是非常小的,添加一个或者减少一个 consumer,对于集群或者其他 consumer 来说,都是没有影响的,因为每个 consumer 维护各自的消费 offset。

创建多个分区的主题:

bin/kafka-topics.sh --create --zookeeper 192.168.65.60:2181 --replication-factor 1 --partitions 2 --topic test1



查看下 topic 的情况

bin/kafka-topics.sh --describe --zookeeper 192.168.65.60:2181 --topic test1



以下是输出内容的解释,第一行是所有分区的概要信息,之后的每一行表示每一个 partition 的信息。

我们可以运行相同的命令查看之前创建的名称为” test“的 topic

bin/kafka-topics.sh --describe --zookeeper 192.168.65.60:2181 --topic test 



之前设置了 topic 的 partition 数量为 1,备份因子为 1,因此显示就如上所示了。

消息日志文件的存储

可以进入 kafka 的数据文件存储目录查看我们创建的主题的消息日志文件:cd /tmpkafka-logs/

消息日志文件主要存放在分区文件夹里的以 log 结尾的日志文件里,如下是 test_topic-0 主题对应的分区 0 的消息日志:

分区的扩容

消费者消费肯定会发生变化,reblance 机制

当然我们也可以通过如下命令增加 topic 的分区数量 (目前 kafka 不支持减少分区)

bin/kafka-topics.sh -alter --partitions 3 --zookeeper 192.168.65.60:2181 --topic test




那么分区扩容之后,消费者会不会发生变化呢?肯定会触发它 rebalance 机制。

可以这么来理解 Topic,Partition 和 Broker

一个 topic,代表逻辑上的一个业务数据集,比如按数据库里不同表的数据操作消息区分放入不同 topic,订单相关操作消息放入订单 topic,用户相关操作消息放入用户 topic,对于大型网站来说,后端数据都是海量的,订单消息很可能是非常巨量的,比如有几百个 G 甚至达到 TB 级别,如果把这么多数据都放在一台机器上可定会有容量限制问题,那么就可以在 topic 内部划分多个 partition 来分片存储数据,不同的 partition 可以位于不同的机器上,每台机器上都运行一个 Kafka 的进程 Broker。

为什么要对 Topic 下数据进行分区存储?

1、commit log 文件会受到所在机器的文件系统大小的限制,分区之后可以将不同的分区放在不同的机器上,相当于对数据做了分布式存储,理论上一个 topic 可以处理任意数量的数据。

2、为了提高并行度

kafka 集群实战

对于 kafka 来说,一个单独的 broker 意味着 kafka 集群中只有一个节点。

所以 kafka 的集群,主要是根据分区来的,所以它单台机器也叫集群。

要想增加 kafka 集群中的节点数量,只需要多启动几个 broker 实例即可。为了有更好的理解,现在我们在一台机器上同时启动三个 broker 实例。注册到同一个 zk 上面。

首先,我们需要建立好其他 2 个 broker 的配置文件:

cp config/server.properties config/server-1.properties
cp config/server.properties config/server-2.properties




配置文件的需要修改的内容分别如下:

config/server-1.properties:

#broker.id属性在kafka集群中必须要是唯一
broker.id=1
#kafka部署的机器ip和提供服务的端口号
listeners=PLAINTEXT://192.168.65.60:9093   
log.dir=/usr/local/data/kafka-logs-1
#kafka连接zookeeper的地址,要把多个kafka实例组成集群,对应连接的zookeeper必须相同
zookeeper.connect=192.168.65.60:2181




config/server-2.properties:

broker.id=2
listeners=PLAINTEXT://192.168.65.60:9094
log.dir=/usr/local/data/kafka-logs-2
zookeeper.connect=192.168.65.60:2181




目前我们已经有一个 zookeeper 实例和一个 broker 实例在运行了,现在我们只需要在启动 2 个 broker 实例即可:

bin/kafka-server-start.sh -daemon config/server-1.properties
bin/kafka-server-start.sh -daemon config/server-2.properties




查看 zookeeper 确认集群节点是否都注册成功:

现在我们创建一个新的 topic,副本数设置为 3,分区数设置为 2:

bin/kafka-topics.sh --create --zookeeper 192.168.65.60:2181 --replication-factor 3 --partitions 2 --topic my-replicated-topic



查看下 topic 的情况

bin/kafka-topics.sh --describe --zookeeper 192.168.65.60:2181 --topic my-replicated-topic



kafka 一启动,都会注册到 zk 的对应的节点下面去

以下是输出内容的解释,第一行是所有分区的概要信息,之后的每一行表示每一个 partition 的信息。

容灾

把每一个分区放到不同的 broker 上去,如果有一个节点挂了,那么其他的还可以继续写数据。

写消息都是往 leader 上面写

副本被分配到三台机器上

现在我们向新建的 my-replicated-topic 中发送一些 message,kafka 集群可以加上所有 kafka 节点:

bin/kafka-console-producer.sh --broker-list 192.168.65.60:9092,192.168.65.60:9093,192.168.65.60:9094 --topic my-replicated-topic
>my test msg 1
>my test msg 2




现在开始消费:

bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092,192.168.65.60:9093,192.168.65.60:9094 --from-beginning --topic my-replicated-topic
my test msg 1
my test msg 2




现在我们来测试我们容错性,因为 broker1 目前是 my-replicated-topic 的分区 0 的 leader,所以我们要将其 kill

ps -ef | grep server.properties
kill 14776




现在再执行命令:

bin/kafka-topics.sh --describe --zookeeper 192.168.65.60:9092 --topic my-replicated-topic



我们可以看到,分区 0 的 leader 节点已经变成了 broker 0。要注意的是,在 Isr 中,已经没有了 1 号节点。leader 的选举也是从 ISR(in-sync replica) 中进行的。

此时,我们依然可以 消费新消息:

bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092,192.168.65.60:9093,192.168.65.60:9094 --from-beginning --topic my-replicated-topic
my test msg 1
my test msg 2




查看主题分区对应的 leader 信息:

kafka 将很多集群关键信息记录在 zookeeper 里,保证自己的无状态,从而在水平扩容时非常方便。

集群消费

log 的 partitions 分布在 kafka 集群中不同的 broker 上,每个 broker 可以请求备份其他 broker 上 partition 上的数据。kafka 集群支持配置一个 partition 备份的数量。

针对每个 partition,都有一个 broker 起到 “leader” 的作用,0 个或多个其他的 broker 作为 “follwers” 的作用。leader 处理所有的针对这个 partition 的读写请求,而 followers 被动复制 leader 的结果,不提供读写 (主要是为了保证多副本数据与消费的一致性)。如果这个 leader 失效了,其中的一个 follower 将会自动的变成新的 leader。

Producers

生产者将消息发送到 topic 中去,同时负责选择将 message 发送到 topic 的哪一个 partition 中。通过 round-robin 做简单的负载均衡。也可以根据消息中的某一个关键字来进行区分。通常第二种方式使用的更多。

Consumers

传统的消息传递模式有 2 种:队列 ( queue) 和(publish-subscribe)

Kafka 基于这 2 种模式提供了一种 consumer 的抽象概念:consumer group。

上图说明:由 2 个 broker 组成的 kafka 集群,某个主题总共有 4 个 partition(P0-P3),分别位于不同的 broker 上。这个集群由 2 个 Consumer Group 消费, A 有 2 个 consumer instances ,B 有 4 个。

通常一个 topic 会有几个 consumer group,每个 consumer group 都是一个逻辑上的订阅者( logical subscriber )。每个 consumer group 由多个 consumer instance 组成,从而达到可扩展和容灾的功能。

消费顺序

一个 partition 同一个时刻在一个 consumer group 中只能有一个 consumer instance 在消费,从而保证消费顺序。

consumer group 中的 consumer instance 的数量不能比一个 Topic 中的 partition 的数量多,否则,多出来的 consumer 消费不到消息。

Kafka 只在 partition 的范围内保证消息消费的局部顺序性,不能在同一个 topic 中的多个 partition 中保证总的消费顺序性。

如果有在总体上保证消费顺序的需求,那么我们可以通过将 topic 的 partition 数量设置为 1,将 consumer group 中的 consumer instance 数量也设置为 1,但是这样会影响性能,所以 kafka 的顺序消费很少用。

Java 客户端访问 Kafka

引入 maven 依赖

<dependency>
   <groupId>org.apache.kafka</groupId>
   <artifactId>kafka-clients</artifactId>
   <version>2.4.1</version>
</dependency>




消息发送端代码

package com.tuling.kafka.kafkaDemo;

import com.alibaba.fastjson.JSON;
import org.apache.kafka.clients.producer.*;
import org.apache.kafka.common.serialization.StringSerializer;

import java.util.Properties;
import java.util.concurrent.CountDownLatch;
import java.util.concurrent.ExecutionException;
import java.util.concurrent.TimeUnit;

public class MsgProducer {
    private final static String TOPIC_NAME = "my-replicated-topic";

    public static void main(String[] args) throws InterruptedException, ExecutionException {
        Properties props = new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.65.60:9092,192.168.65.60:9093,192.168.65.60:9094");
         /*
         发出消息持久化机制参数
        1acks=0 表示producer不需要等待任何broker确认收到消息的回复,就可以继续发送下一条消息。性能最高,但是最容易丢消息。
        2acks=1 至少要等待leader已经成功将数据写入本地log,但是不需要等待所有follower是否成功写入。就可以继续发送下一
             条消息。这种情况下,如果follower没有成功备份数据,而此时leader又挂掉,则消息会丢失。
        3acks=-1all 需要等待 min.insync.replicas(默认为1,推荐配置大于等于2) 这个参数配置的副本个数都成功写入日志,这种策略会保证
            只要有一个备份存活就不会丢失数据。这是最强的数据保证。一般除非是金融级别,或跟钱打交道的场景才会使用这种配置。
         */
        /*props.put(ProducerConfig.ACKS_CONFIG, "1");
         *//*
        发送失败会重试,默认重试间隔100ms,重试能保证消息发送的可靠性,但是也可能造成消息重复发送,比如网络抖动,所以需要在
        接收者那边做好消息接收的幂等性处理
        *//*
        props.put(ProducerConfig.RETRIES_CONFIG, 3);
        //重试间隔设置
        props.put(ProducerConfig.RETRY_BACKOFF_MS_CONFIG, 300);
        //设置发送消息的本地缓冲区,如果设置了该缓冲区,消息会先发送到本地缓冲区,可以提高消息发送性能,默认值是33554432,即32MB
        props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432);
        *//*
        kafka本地线程会从缓冲区取数据,批量发送到broker
        设置批量发送消息的大小,默认值是16384,即16kb,就是说一个batch满了16kb就发送出去
        *//*
        props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);
        *//*
        默认值是0,意思就是消息必须立即被发送,但这样会影响性能
        一般设置10毫秒左右,就是说这个消息发送完后会进入本地的一个batch,如果10毫秒内,这个batch满了16kb就会随batch一起被发送出去
        如果10毫秒内,batch没满,那么也必须把消息发送出去,不能让消息的发送延迟时间太长
        *//*
        props.put(ProducerConfig.LINGER_MS_CONFIG, 10);*/
        //把发送的key从字符串序列化为字节数组
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
        //把发送消息value从字符串序列化为字节数组
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());

        Producer<String, String> producer = new KafkaProducer<String, String>(props);

        int msgNum = 5;
        final CountDownLatch countDownLatch = new CountDownLatch(msgNum);
        for (int i = 1; i <= msgNum; i++) {
            Order order = new Order(i, 100 + i, 1, 1000.00);
            //指定发送分区
            /*ProducerRecord<String, String> producerRecord = new ProducerRecord<String, String>(TOPIC_NAME
                    , 0, order.getOrderId().toString(), JSON.toJSONString(order));*/
            //未指定发送分区,具体发送的分区计算公式:hash(key)%partitionNum
            ProducerRecord<String, String> producerRecord = new ProducerRecord<String, String>(TOPIC_NAME
                    , order.getOrderId().toString(), JSON.toJSONString(order));

            //等待消息发送成功的同步阻塞方法
            /*RecordMetadata metadata = producer.send(producerRecord).get(); 
            System.out.println("同步方式发送消息结果:" + "topic-" + metadata.topic() + "|partition-"
                    + metadata.partition() + "|offset-" + metadata.offset());*/

            //异步回调方式发送消息
            producer.send(producerRecord, new Callback() {
                public void onCompletion(RecordMetadata metadata, Exception exception) {
                    if (exception != null) {
                        System.err.println("发送消息失败:" + exception.getStackTrace());

                    }
                    if (metadata != null) {
                        System.out.println("异步方式发送消息结果:" + "topic-" + metadata.topic() + "|partition-"
                                + metadata.partition() + "|offset-" + metadata.offset());
                    }
                    countDownLatch.countDown();
                }
            });



        }

        countDownLatch.await(5, TimeUnit.SECONDS);
        producer.close();
    }
}




作者:京东零售 王雷

来源:京东云开发者社区 转载请注明来源


↙↙↙阅读原文可查看相关链接,并与作者交流