Springboot集成Kafka進行批量消費及踩坑點
引入依賴
<dependency> <groupId>org.springframework.kafka</groupId> <artifactId>spring-kafka</artifactId> <version>1.3.11.RELEASE</version> </dependency>
因為我的項目的 springboot 版本是 1.5.22.RELEASE,所以引的是 1.3.11.RELEASE 的包。讀者可以根據(jù)下圖來自行選擇對應(yīng)的版本。圖片更新可能不及時,詳情可查看spring-kafka 官方網(wǎng)站。
注:這里有個踩坑點,如果引入包版本不對,項目啟動時會拋出org.springframework.core.log.LogAccessor 異常:
java.lang.ClassNotFoundException: org.springframework.core.log.LogAccessor
創(chuàng)建配置類
/** * kafka 配置類 */ @Configuration @EnableKafka public class KafkaConsumerConfig { private static final org.slf4j.Logger LOGGER = LoggerFactory.getLogger(KafkaConsumerConfig.class); @Value("${kafka.bootstrap.servers}") private String kafkaBootstrapServers; @Value("${kafka.group.id}") private String kafkaGroupId; @Value("${kafka.topic}") private String kafkaTopic; public static final String CONFIG_PATH = "/home/admin/xxx/BOOT-INF/classes/kafka_client_jaas.conf"; public static final String LOCATION_PATH = "/home/admin/xxx/BOOT-INF/classes/kafka.client.truststore.jks"; @Bean public KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, String>> kafkaListenerContainerFactory() { ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>(); factory.setConsumerFactory(consumerFactory()); // 設(shè)置并發(fā)量,小于或者等于 Topic 的分區(qū)數(shù) factory.setConcurrency(5); // 設(shè)置為批量監(jiān)聽 factory.setBatchListener(Boolean.TRUE); factory.getContainerProperties().setPollTimeout(30000); return factory; } public ConsumerFactory<String, String> consumerFactory() { return new DefaultKafkaConsumerFactory<>(consumerConfigs()); } public Map<String, Object> consumerConfigs() { Map<String, Object> props = new HashMap<>(); //設(shè)置接入點,請通過控制臺獲取對應(yīng)Topic的接入點。 props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, kafkaBootstrapServers); //設(shè)置SSL根證書的路徑,請記得將XXX修改為自己的路徑。 //與SASL路徑類似,該文件也不能被打包到j(luò)ar中。 System.setProperty("java.security.auth.login.config", CONFIG_PATH); props.put(SslConfigs.SSL_TRUSTSTORE_LOCATION_CONFIG, LOCATION_PATH); //根證書存儲的密碼,保持不變。 props.put(SslConfigs.SSL_TRUSTSTORE_PASSWORD_CONFIG, "KafkaOnsClient"); //接入?yún)f(xié)議,目前支持使用SASL_SSL協(xié)議接入。 props.put(CommonClientConfigs.SECURITY_PROTOCOL_CONFIG, "SASL_SSL"); //SASL鑒權(quán)方式,保持不變。 props.put(SaslConfigs.SASL_MECHANISM, "PLAIN"); // 自動提交 props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, Boolean.TRUE); //兩次Poll之間的最大允許間隔。 //消費者超過該值沒有返回心跳,服務(wù)端判斷消費者處于非存活狀態(tài),服務(wù)端將消費者從Consumer Group移除并觸發(fā)Rebalance,默認30s。 props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 30000); //設(shè)置單次拉取的量,走公網(wǎng)訪問時,該參數(shù)會有較大影響。 props.put(ConsumerConfig.MAX_PARTITION_FETCH_BYTES_CONFIG, 32000); props.put(ConsumerConfig.FETCH_MAX_BYTES_CONFIG, 32000); //每次Poll的最大數(shù)量。 //注意該值不要改得太大,如果Poll太多數(shù)據(jù),而不能在下次Poll之前消費完,則會觸發(fā)一次負載均衡,產(chǎn)生卡頓。 props.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, 30); //消息的反序列化方式。 props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringDeserializer"); //當前消費實例所屬的消費組,請在控制臺申請之后填寫。 //屬于同一個組的消費實例,會負載消費消息。 props.put(ConsumerConfig.GROUP_ID_CONFIG, kafkaGroupId); //Hostname校驗改成空。 props.put(SslConfigs.SSL_ENDPOINT_IDENTIFICATION_ALGORITHM_CONFIG, ""); return props; } }
注:此處通過 factory.setConcurrency(5); 配置了并發(fā)量為 5 ,假設(shè)我們線上的 Topic 有 12 個分區(qū)。那么將會是 3 個線程分配到 2 個分區(qū),2 個線程分配到 3 個分區(qū),3 * 2 + 2 * 3 = 12。
Kafka 消費者
/** * kafka 消息消費類 */ @Component public class KafkaMessageListener { private static final Logger LOGGER = LoggerFactory.getLogger(KafkaMessageListener.class); @KafkaListener(topics = {"${kafka.topic}"}) public void listen(List<ConsumerRecord<String, String>> recordList) { for (ConsumerRecord<String,String> record : recordList) { // 打印消息的分區(qū)以及偏移量 LOGGER.info("Kafka Consume partition:{}, offset:{}", record.partition(), record.offset()); String value = record.value(); System.out.println("value = " + value); // 處理業(yè)務(wù)邏輯 ... } } }
因為我在配置類中設(shè)置了批量監(jiān)聽,所以此處 listen 方法的入?yún)⑹荓ist:List<ConsumerRecord<String, String>>。
到此這篇關(guān)于Springboot集成Kafka進行批量消費及踩坑點的文章就介紹到這了,更多相關(guān)Springboot Kafka批量消費內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Spring監(jiān)聽器及定時任務(wù)實現(xiàn)方法詳解
這篇文章主要介紹了Spring監(jiān)聽器及定時任務(wù)實現(xiàn)方法詳解,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-07-07Java程序中使用JavaMail發(fā)送帶圖片和附件的郵件
這篇文章主要介紹了Java程序中使用JavaMail發(fā)送帶圖片和附件的郵件,JavaMail是專門用來處理郵件的Java API,需要的朋友可以參考下2015-11-11Java實現(xiàn)Word/Pdf/TXT轉(zhuǎn)html的示例
這篇文章主要介紹了Java實現(xiàn)Word/Pdf/TXT轉(zhuǎn)html的示例,幫助大家方便的進行文件格式轉(zhuǎn)換,完成需求,感興趣的朋友可以了解下2020-11-11SpringBoot如何通過webjars管理靜態(tài)資源文件夾
這篇文章主要介紹了SpringBoot如何通過webjars管理靜態(tài)資源文件夾,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-10-10Java數(shù)據(jù)結(jié)構(gòu)之稀疏矩陣定義與用法示例
這篇文章主要介紹了Java數(shù)據(jù)結(jié)構(gòu)之稀疏矩陣定義與用法,結(jié)合實例形式分析了java稀疏矩陣的定義、運算、轉(zhuǎn)換等相關(guān)操作技巧,需要的朋友可以參考下2018-01-01