转载

[Apache Kafka]构建Kafka集群

现在我们构建Kafka消息订阅发布系统。Kafka支持多种集群方式,例如:

  • 单节点单broker集群
  • 单节点多broker集群
  • 多节点多broker集群

一个Kafka集群主要包含以下五个组件:

  • topic:topic是producer发布的消息的类别。在Kafka中,topic是分区的,每个partition内是顺序不可变的消息序列。Kafka集群维护每个topic的partition日志。partition内每个消息分配了一个被称为offset的唯一序列ID。
  • broker:一个Kafka集群包含一个或多个服务器,每个服务器有一个或多个运行的被称为broker的服务进程。topic是在broker进程的上下文中创建的。
  • zookeeper:Kafka使用ZooKeeper来协调broker和cunsumers。ZooKeeper允许分布式进程通过一个共享的层级数据寄存器命名空间相互协调(这些数据寄存器被称为znode),就像文件系统一样。它跟标准文件系统的区别是,每个znode可以拥有关联的数据,且数据量有限制。ZooKeeper是被设计用来存储协调数据的,如状态信息、配置信息、位置信息等。关于ZooKeeper详见 Hadoop Wiki 。
  • producers:producer选择topic内的合适的partition并向其发布数据。为了负载均衡,可以基于循环的方式或者自定义方法来关联信息与topic partition。
  • consumer:consumer是订阅topics并处理发布的消息的应用或进程。

单节点单broker集群

在上篇中,我们在单台机器上部署了Kafka,现在将其设置为单节点单broker集群。架构如图所示:

[Apache Kafka]构建Kafka集群

启动ZooKeeper服务:

Kafka提供了一个默认的简单的ZooKeeper配置文件,可启动本地的单ZooKeeper实例。

bin/zookeeper-server-start.sh config/zookeeper.properties &

zookeeper.properties配置文件中定义了以下的关键属性:

# Data directory where the zookeeper snapshot is stored. dataDir=/tmp/zookeeper # The port listening for client request clientPort=2181 # disable the per-ip limit on the number of connections since this is a non-production config maxClientCnxns=0

在默认的配置中,ZooKeeper监听2181端口。关于构建多ZooKeeper服务,详见 http://zookeeper.apache.org/ .

启动Kafka broker

bin/kafka-server-start.sh config/server.properties &

server.properties配置文件中定义了以下的关键属性:

# The id of the broker. This must  be set to a unique integer for each broker. Broker.id=0 # The port the socket server listens on port=9092 # The directory under which to store log files log.dir=/tmp/kafka8-logs # The default number of log partitions per topic.   num.partitions=2 # Zookeeper connection string   zookeeper.connect=localhost:2181

创建一个Kafka topic

创建一个名为 kafkatopic 的topic,单partitoin且只有一个副本:

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic kafkatopic

查看topic列表:

bin/kafka-topics.sh --list --zookeeper localhost:2181

启动producer发送信息

Kafka提供了一个命令行producer,可接收命令行输入并将其作为消息发布到Kafka集群。默认每一行是一个消息。

bin/kafka-console-producer.sh --broker-list localhost:9092 --topic kafkatopic

其中,broker-list和topic这两个参数是必须的,broker-list指定要连接的broker,格式为 node_address:port 。topic是必须的,因为需要发送消息给订阅了该topic的consumer group。

现在可以在命令行里输入一些信息,每一行会被作为一个消息。

默认的属性配置在/config/producer.properties文件中:

# list of brokers used for bootstrapping knowledge about the rest of the format: host1:port1,host2:port2... metadata.broker.list=localhost:9092 # specify the compression codec for all data generated: none , gzip, snappy. compression.codec=none

启动consumer接收消息

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic kafkatopic --from-beginning

consumer加载完成后,会输出刚才在producer里输入消息。

默认的属性配置在/config/consumer.properties文件中:

# consumer group id (A string that uniquely identifies a set of consumers within the same consumer group) group.id=test-consumer-group

在不同的终端里分别启动zookeeper,broker,producer,consumer后,在producer终端里输入消息,消息就会在consumer终端中显示了。

单节点多broker集群

接下来构建一个单节点多broker集群:

[Apache Kafka]构建Kafka集群

启动ZooKeeper

同上。

bin/zookeeper-server-start.sh config/zookeeper.properties &

启动broker

在单节点上配置多个bbroker时,需要为每个broker指定单独的属性配置文件,其中 broker.idportlog.dir 这三个属性必须时不同的。

在broker1的配置文件server-1.properties中,定义参数为:

broker.id=1 port=9093 log.dir=/tmp/kafka-logs-1

在broker2的配置文件server-2.properties中,定义参数为:

broker.id=2 port=9094 log.dir=/tmp/kafka-logs-2

我们为每个broker指定了不同的端口,是因为我们在同一台机器上搭建多个broker,实际生产环境中,broker可能分布在多台机器上。

启动每个broker:

bin/kafka-server-start.sh config/server-1.properties & bin/kafka-server-start.sh config/server-2.properties &

创建topic

创建一个名为 replicated-kafkatopic 的topic:

bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic replicated-kafkatopic

启动producer

如果一个producer连接多个broker,需要传递参数 broker-list

bin/kafka-console-producer.sh --broker-list localhost:9093, localhost:9094 --topic replicated-kafkatopic

多个producer时,为每个指定 broker-list

启动consumer

bin/kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic replicated-kafkatopic

多节点多broker集群

在多节点多broker集群中,每个节点都需要安装Kafka,且所有的broker都连接到同一个ZooKeeper。

[Apache Kafka]构建Kafka集群

参考资料

Learing Apache Kafka-Second Edition

正文到此结束
Loading...