TechBlog
首页分类标签搜索关于
← 返回标签列表
加载中...

© 2025 TechBlog. All rights reserved.

#标签

共 147 篇文章
Hadoop如何用Flink支持实时数据分析需求

Hadoop如何用Flink支持实时数据分析需求

摘要:ClouderaCDP7.3通过集成Kafka、Flink、Kudu等组件构建批流融合架构,支持毫秒级实时数据分析。其核心方案包括Kafka作为消息总线、Flink/SparkStreaming流处理、Kudu+Impala实时存储查询组合,适用于金融风控、实时监控等场景。该平台通过资源隔离、Checkpoint优化等手段提升性能,并支持ML模型实时推理。尽管在ARM架构下存在组件兼容性问题,但整体提供了企业级可治理的实时分析解决方案,尤其适合强监管行业的低延迟需求。

时间:12/22/2025

Kafka-分布式配置动态更新之微服务总线实现

Kafka-分布式配置动态更新之微服务总线实现

服务总线核心原理与NestJS集成方案服务总线(ServiceBus)作为微服务架构的核心通信层,通过Kafka实现节点连接与事件广播。NestJS集成方案采用@nestjs/microservices模块,建立事件驱动架构:核心机制:通过KafkaTopic实现配置变更事件的发布/订阅,服务节点动态监听并刷新配置技术实现:包含Kafka连接配置、事件控制器和动态配置加载器,支持与SpringCloud等效功能迁移实战方案:提供三种实现方式,包括基础环境配置、配置中心客户端和动态模块加载该方

时间:12/22/2025

动态线程池kafka自定义拒绝策略,做到任务不丢失

动态线程池kafka自定义拒绝策略,做到任务不丢失

本文介绍了基于动态线程池和Kafka自定义拒绝策略实现任务不丢失的方案。项目采用JDK8开发环境,使用Nacos和Kafka作为中间件,其中Nacos用于实现线程池参数的动态配置,Kafka则作为任务持久化存储保证任务不丢失。

时间:12/21/2025

Kafka-的认证机制

Kafka-的认证机制

Kafka的认证机制主要围绕之间的身份验证展开,官方及社区主流支持的认证方式可分为。

时间:12/17/2025

Kafka单机搭建二

Kafka单机搭建二

Kafka的system模式运行+补之前遗留的问题

时间:12/16/2025

Kafka副本管理核心机制全解析

Kafka副本管理核心机制全解析

它实现了KafkaBroker如何动态响应Controller指令,完成分区Leader/Follower角色切换,并维护副本同步、读写分离、限流、ISR等核心机制。你可以把它看作Kafka副本生命周期管理的中枢神经。“为什么makeFollower要先truncate日志?“ReplicaSelector是怎么工作的?“HW和LEO的关系是什么?欢迎继续提问!我可以深入某一部分详细解释。

时间:12/15/2025

深入解析Kafka-Broker核心读写机制

深入解析Kafka-Broker核心读写机制

机制说明根据客户端类型控制可见性(HW/LSO/LEO)使用Purgatory实现“条件满足再响应”(Produce/Fetch/Delete)细粒度监控(成功/失败请求、字节速率、消息速率)区分“预期异常”(如NotLeader)和“系统异常”(如IO错误)支持副本同步限流(支持KIP-392:消费者可从Follower读(需ClientMetadata)你看到的这段代码,是Kafka高可靠、高性能、多租户写入路径:安全追加+多级ACK+延迟确认读取路径。

时间:12/15/2025

Kafka副本管理核心ReplicaManager揭秘

Kafka副本管理核心ReplicaManager揭秘

ApacheKafkaBroker端核心组件它是Kafka实现副本管理、ISR(In-SyncReplicas)维护、Leader/Follower同步、日志存储协调的中枢。下面我将从整体定位、关键字段、核心机制、工作流程四个维度,帮你系统性理解这段代码的含义和设计思想。每个KafkaBroker启动时都会创建一个实例,它::本Broker所有托管分区的容器。是一个密封类(sealedtrait),有三种状态::正常在线:所在日志目录故障,分区不可用:

时间:12/15/2025

爬虫消息队列RabbitMQ-vs-Kafka-vs-RocketMQ选型

爬虫消息队列RabbitMQ-vs-Kafka-vs-RocketMQ选型

摘要:本文对比分析RabbitMQ、Kafka和RocketMQ三种主流消息队列在爬虫系统中的应用。爬虫系统需要高吞吐量、削峰填谷、可靠持久化等特性,三款消息队列各有优势:RabbitMQ适合中小型爬虫,路由灵活;Kafka吞吐量高,适合海量数据;RocketMQ功能全面,适合企业级应用。建议根据爬虫规模选择匹配方案,小型选RabbitMQ,大型分布式选Kafka,企业级选RocketMQ,也可采用混合架构发挥各自优势。实践中需注意消息分片、批量处理、重试机制和系统监控。

时间:12/13/2025

kafka-基础知识点-3.1-生产者架构

kafka-基础知识点-3.1-生产者架构

在生产端主要有两个线程:main和sender,两者通过共享内存RecordAccumulator通信。

时间:12/11/2025

6.Kafka-生产者发送到Broker分区策略和常见配置

6.Kafka-生产者发送到Broker分区策略和常见配置

摘要:本文详细介绍了Kafka生产者分区选择策略和核心配置参数。分区策略包括指定PartitionID、Key哈希、轮询和自定义四种方式,分别适用于不同场景。核心配置参数涵盖集群连接(bootstrap.servers)、消息确认机制(acks)、重试机制(retries/retry.backoff.ms)和批处理优化(batch.size/linger.ms/buffer.memory)等方面,并针对高吞吐和低延迟场景给出了具体参数建议。通过合理配置这些参数,可以优化Kafka生产者的性能和可靠性。

时间:12/09/2025

-PostgreSQL-Debezium-Kafka-时间戳机制-附对照表

-PostgreSQL-Debezium-Kafka-时间戳机制-附对照表

表示该行变更(INSERT/UPDATE/DELETE)在PostgreSQL中被写入WALbuffer的时间。Debezium解析WAL并封装Kafka消息的时间。它来自PostgreSQL本身,记录在WAL日志中。因此这个时间可能比source.ts_ms晚很多。数据库WAL记录的时间(变更发生时的真实时间)立刻生成,包含timestamp。正常情况下几乎不可能出现分钟级延迟。不是Debezium读取时间。不是Kafka写入时间。不是commit时间。

时间:12/09/2025

Kafka在-Spring-Boot-项目中的完整配置指南

Kafka在-Spring-Boot-项目中的完整配置指南

本文介绍了SpringBoot集成Kafka的完整配置方案,包括Maven依赖、YAML配置和Java配置类。主要内容涵盖:1)基础依赖配置;2)生产者配置(序列化、可靠性、性能优化等);3)消费者配置(反序列化、消费组、分区策略等);4)监听器配置(批量处理、确认模式、并发控制等)。通过详细的YAML示例和Java配置类代码,提供了从基础连接到高级特性(如事务、幂等性)的完整解决方案,适合不同业务场景下的Kafka集成需求。

时间:12/08/2025

kafka高吞吐持久化方案1

kafka高吞吐持久化方案1

/equals和hashCode用于map去重@Overrideif(cmp!//equals(),hashCode(),constructor省略这种方式使用WorkPool并发消费,但自己在每个消费者内部管理,对于同一个key,必须队列顺序处理,不如方式一清晰可靠。我们不为每个key分配一个(太耗内存),而是用固定数量的ReentrantLock数组,根据uid+cidhash映射到某一个锁。//根据并发量设置i++){特性。

时间:12/07/2025

尚硅谷-Kafka01-介绍-安装-ZK和Broker工具-Kafka系统架构-启动和竞争管理者controller

尚硅谷-Kafka01-介绍-安装-ZK和Broker工具-Kafka系统架构-启动和竞争管理者controller

1.为什么分布式系统之间需要Kafka来完成数据交换?线程和线程之间的交互是通过共享的堆内存来完成数据交换的如果都往堆中放,就会数据大量积压,内存空间是非常宝贵的,不推荐用内存来存储;进程和进程之间的数据交互Java进程和进程之间的采用消息中间件来解耦合Java中定义了一个规范,JMSP2P点对点模型:1条消息只能被1个消费者消费到并响应PS发布订阅模型-用Topic(主题)进行分类,1条消息可以被多个消费者同时消费到并响应其他消息中间件kafka的完整流程。

时间:12/06/2025

linux-安装Kafka-和springboot-kaka实战

linux-安装Kafka-和springboot-kaka实战

快速了解Kafka产品,搭建Kafka服务,并开始了解Kafka的基础功能以及整合springboot实现消息队列生产和消费

时间:12/06/2025

flink从kafka读取数据

flink从kafka读取数据

好的,我们来讲解如何在ApacheFlink中从ApacheKafka读取数据。这是构建实时流处理应用的一个常见场景。

时间:12/06/2025

4.Kafka-LEOHW的定义与特性工作流程

4.Kafka-LEOHW的定义与特性工作流程

Kafka的LEO(日志末端偏移量)和HW(高水位线)是保证数据一致性的关键机制。LEO表示副本当前写入位置,每个副本独立维护;HW则是所有ISR副本中最小LEO,代表已安全提交的消息边界。工作流程中,Leader先写入新消息并更新LEO,待所有ISR副本同步后才提升HW,确保只有被完整复制的消息才对消费者可见。HW的计算遵循min(ISR_LEO)原则,这种机制有效防止了数据丢失,同时控制消息的可见性。

时间:12/05/2025

Apache-Hadoop生态组件部署分享-Kafka

Apache-Hadoop生态组件部署分享-Kafka

说明:kafaka4.1.0已经脱离了zk的依赖,因此你可以把它当成独立的组件去使用.(这里需要提高java版本,在启动脚本加上。A.apache230.hadoop.com配置内容。B.apache231.hadoop.com配置内容。C.apache232.hadoop.com配置内容。3、生成UUI并格式化kafka。即可,这样也不会影响其他组件)5、kafka相关操作验证。1、上传并解压并分发。

时间:12/05/2025

Apache-Kafka-Docker-容器化部署指南

Apache-Kafka-Docker-容器化部署指南

本文详细介绍了ApacheKafka的Docker容器化部署方案。主要内容包括:Kafka简介及其应用场景;基于Docker的部署环境准备与镜像获取;单节点、自定义配置、多节点集群等多种部署模式的具体实现方法;功能测试验证流程;生产环境配置建议(数据持久化、资源限制、安全设置等);常见故障排查方法。该方案通过容器化技术简化Kafka部署,提供从开发测试到生产环境的完整指导,强调高可用性、性能优化和安全配置,帮助用户快速构建可靠的消息流处理平台。

时间:12/05/2025

互联网大厂JavaAgent面试Spring-BootJVM微服务RAG与向量检索实战问答

互联网大厂JavaAgent面试Spring-BootJVM微服务RAG与向量检索实战问答

简介:本次面试围绕一个AIGC驱动的内容社区与智能检索服务展开,系统涉及Java基础、JVM调优、SpringBoot微服务、数据库与缓存、消息队列、CI/CD、观测性以及AI相关的Agent与RAG等。挑战:对外部工具调用的幂等性与超时处理、权限与安全、调用链可观测性、错误补偿策略、避免模型幻觉(验证和来源回溯)。牢:因为Java生态成熟,线程模型、工具链(Maven/Gradle)、大量成熟库(Spring生态、Kafka、Hibernate)和企业级运维支持,适合高并发、长期维护的互联网大厂项目。

时间:12/04/2025

Kafka深度解析从日志处理到流处理的数据管道扛把子

Kafka深度解析从日志处理到流处理的数据管道扛把子

项目诞生时间主要特点适用场景Kafka2010日志式存储+高吞吐+流处理日志收集、实时分析、流处理RocketMQ2012顺序写+高吞吐+低延迟电商、金融、日志同步RabbitMQ2007AMQP协议+易用性传统企业应用💡关键点:Kafka不是"为了做消息队列而做消息队列",而是为了解决LinkedIn的海量用户活动日志实时处理问题而诞生的,所以它从基因上就带有"高吞吐+流处理"的DNA。

时间:12/04/2025

2.Kafka-命令行操作两种消息模型

2.Kafka-命令行操作两种消息模型

本文介绍了Kafka命令行常用操作和JMS消息模型。Kafka操作包括创建/查看/删除Topic、生产消费消息等命令,其中消费者可使用--from-beginning参数读取历史数据。JMS支持两种消息模型:点对点模式确保消息只被一个消费者消费;发布订阅模式实现一对多广播,允许多个订阅者接收相同消息。这些操作和模型为消息队列系统提供了基础功能支持。

时间:12/03/2025

java-实现-flink-读-kafka-写-delta

java-实现-flink-读-kafka-写-delta

java实现flink读kafka写delta

时间:12/03/2025

上一页
1234567
下一页第 1 / 7 页