Kafka集成到使用
Kafka首先是中文文档一、概念1.1、Kafka的功能Kafka是个分布式流处理平台,有如下功能:1、可以发布和订阅流式的记录。这一方面与消息列队或者企业消息系统类型2、储存流失记录,并且具有较好的容错性3、可以让你发布和订阅流1.2、它是如何工作kafka作为一个集群,运行在一台或者多台服务器上,通过topic对存储的数据进行分类。每条记录包含一个key,一个value和一个timestamp
Kafka
一、概念
1.1、Kafka的功能
Kafka是个分布式流处理平台,有如下功能:
- 1、可以发布和订阅流式的记录。这一方面与消息列队或者企业消息系统类型
- 2、储存流失记录,并且具有较好的容错性
- 3、可以让你发布和订阅流
1.2、它是如何工作
kafka作为一个集群,运行在一台或者多台服务器上,通过topic对存储的数据进行分类。每条记录包含一个key,一个value和一个timestamp(时间戳)
1.3、 四个核心的API
-
使用Producer API发布一串流式的数据到一个或者多个kafka topic
-
使用Consumer API 订阅一个或者多个topic,并且对发布给它的流式数据进行处理
-
使用 Streams API 充当一个流处理器,消费一个或者多个topic产生的输入流,然后生产一个输出流到一个或多个topic中去。在输入输出流中进行有效的转换。
-
使用Connector API充当一个连接器,可以构建和运行可重复使用的生产者或者消费者,将Topic连接到应用程序或者数据系统,比如,连接到一个关系型数据库,捕捉表(table)的所有变更内容。
1.4、Topics和日志
Topic 就是数据主题,记录发布地方,用来区分业务系统,对于每一个Topic,Kafka集群都会维护一个分区日志。每个分区都是有序且顺序不可变的记录集,并且不断追加到结构化的commit log文件。分区中的每个记录都分配一个id来表示顺序,我们使用offset,offset用来唯一的标识分区中的每条记录。
Kafka集群保留所有发布的记录,无论他们是否已被消费,然后通过一个可配置的参数来确定保留的期限。举个例子,如果设置保留两天,这条记录在两天内可以随时被消费,两天后这条记录就会被删除并且释放内存。Kafka的性能与数据大小无关,所以长时间存储数据没有什么问题。
在每个消费者中唯一保存的元数据是offset(在这里理解为偏移量)即消费在log中的位置。由消费者控制,在读取记录后,以线性的方式增加偏移量。消费者也可以通过重置到某个旧的偏移量,从而处理过去的数据,也可以跳过最近的记录。
1.5、使用
1.5.1、作为消息系统
支持广播和列队消息,Kafka相比于传统消息队列还具有更严格的顺序保证
1.5.2、作为消息系统作为存储系统
Kafka可以作为一个优秀的存储系统,数据写入Kafka后被写到磁盘,并且进行备份以便容错。直到完全备份,Kafka才让生产者认为完成写入。可以存储大量数据,并且可通过客户端控制它读取数据的位置,您可认为Kafka是一种高性能、低延迟、具备日志存储、备份和传播功能的分布式文件系统。
1.5.3、流处理
Kafka 流处理不仅仅用来读写和存储流式数据,它最终的目的是为了能够进行实时的流处理。在Kafka中,流处理器不断地从输入的topic获取流数据,处理数据后,再不断生产流数据到输出的topic中去。简单的数据处理可以直接用生产者和消费者的API。对于复杂的数据变换,Kafka提供了Streams API。 Stream API 允许应用做一些复杂的处理,比如将流数据聚合或者join。
1.5.4、流处理
将消息、存储和流处理结合起来,像HDFS这样的分布式文件系统可以存储用于批处理的静态文件。 一个系统如果可以存储和处理历史数据是非常不错的。
二、安装
2.1、下载地址
http://kafka.apache.org/downloads
2.2、修改的配置
#broker实例标识,集群时要保证唯一
broker.id=1
# kafka存放数据的目录
log.dirs=./data/kafka-logs
# 注册中心zookeeper的地址
zookeeper.connect=localhost:2181
# 访问IP,需要保证服务能够通信
advertised.listeners=PLAINTEXT://101.200.155.94:9092
##超时将被删除,也就是说7天之前的数据将被清理掉。
log.retention.hours=168
# 是否允许自动创建topic ,若是false,就需要通过命令创建topic
delete.topic.enable=true
2.3、命令
##kafka启动命令
./bin/kafka-server-start.sh config/server.properties
# 后台启动
./bin/kafka-server-start.sh -daemon config/server.properties
##zookeeper启动
./bin/zookeeper-server-start.sh config/zookeeper.properties
# 后台启动
./bin/zookeeper-server-start.sh -daemon config/zookeeper.properties
## topic列表查询
bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --list
# 查询集群描述
bin/kafka-topics.sh --describe --zookeeper 127.0.0.1:2181
## topic列表查询
bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --list
## 创建一个名为test0 的 topic
bin/kafka-topics.sh --create --topic test0 --zookeeper 127.0.0.1:2181 --config max.message.bytes=12800000 --config flush.messages=1 --partitions 5 --replication-factor 1
三、SpringBoot集成使用
3.1、maven
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
3.2、配置文件
spring:
kafka:
bootstrap-servers: 101.200.155.94:9092,8.136.207.24:9092
producer:
# 发生错误后,消息重发的次数。
retries: 1
#当有多个消息需要被发送到同一个分区时,生产者会把它们放在同一个批次里。该参数指定了一个批次可以使用的内存大小,按照字节数计算。
batch-size: 16384
# 设置生产者内存缓冲区的大小。
buffer-memory: 33554432
# 键的序列化方式
key-serializer: org.apache.kafka.common.serialization.StringSerializer
# 值的序列化方式
value-serializer: org.apache.kafka.common.serialization.StringSerializer
# acks=0 : 生产者在成功写入消息之前不会等待任何来自服务器的响应。
# acks=1 : 只要集群的首领节点收到消息,生产者就会收到一个来自服务器成功响应。
# acks=all :只有当所有参与复制的节点全部收到消息时,生产者才会收到一个来自服务器的成功响应。
acks: 1
consumer:
# 自动提交的时间间隔 在spring boot 2.X 版本中这里采用的是值的类型为Duration 需要符合特定的格式,如1S,1M,2H,5D
auto-commit-interval: 1S
# 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:
# latest(默认值)在偏移量无效的情况下,消费者将从最新的记录开始读取数据(在消费者启动之后生成的记录)
# earliest :在偏移量无效的情况下,消费者将从起始位置读取分区的记录
auto-offset-reset: earliest
# 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
enable-auto-commit: false
# 键的反序列化方式
key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
# 值的反序列化方式
value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
# 批量一次最大拉取数据量
max-poll-records: 10
listener:
# 在侦听器容器中运行的线程数。
concurrency: 5
#listner负责ack,每调用一次,就立即commit
ack-mode: manual_immediate
missing-topics-fatal: false
3.3、初始化topic
fafka可以自动创建,但是默认分区和副本都是为1
package com.sy.ex.kafka.config;
import org.apache.kafka.clients.admin.NewTopic;
import org.springframework.context.annotation.Bean;
import org.springframework.stereotype.Component;
/**
* @Author: sy
* @Date: Created by 2021/7/13 10:22
* @description:
*/
@Component
public class KafkaInitialConfiguration {
/**
* 修改分区数并不会导致数据的丢失,但是分区数只能增大不能减小
* 创建一个分区为3,两个副本为2的topic, 副本的数量不能超过broker的数量,否则创建主题时会失败。
* @return topic
*/
@Bean
public NewTopic updateTopic() {
return new NewTopic("testTopic",3, (short) 1);
}
}
3.4、消费
package com.sy.ex.kafka.consumer;
import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.kafka.support.Acknowledgment;
import org.springframework.kafka.support.KafkaHeaders;
import org.springframework.messaging.handler.annotation.Header;
import org.springframework.stereotype.Component;
/**
* @Author: sy
* @Date: Created by 2021/7/9 15:34
* @description:
*/
@Slf4j
@Component
public class KafkaConsumer {
/**
*
* topics 可配置多个 topic
*/
@KafkaListener(topics = "testTopic", groupId = "testGroup")
public void testTopic(ConsumerRecord<?, ?> record, Acknowledgment ack, @Header(KafkaHeaders.RECEIVED_TOPIC) String topic) {
System.out.println("testGroup , top: ->"+topic);
System.out.println(record.value());
ack.acknowledge();
}
}
3.5、其他
kafka主要的两套接口,kafkaProducer为消息处理。adminClient主要为topic的管理
private final KafkaProducer kafkaProducer;
private final AdminClient adminClient;
参考文献
中文官方文档
更多推荐
所有评论(0)