全文搜索
标题搜索
全部时间
1小时内
1天内
1周内
1个月内
默认排序
按时间排序
为您找到相关结果234,045个

Java消息队列Kafka的简单概述_java_脚本之家

Kafka代理是无状态的,所以他们使用ZooKeeper来维护它们的集群状态。 一个Kafka代理实例可以每秒处理数十万次读取和写入,每个Broker可以处理TB的消息,而没有性能影响。 Kafka经纪人领导选举可以由ZooKeeper完成。 (2)ZooKeeper: ZooKeeper用于管理和协调Kafka代理。 ZooKeeper服务主要用于通知生产者和消费者Kafka系统中存在任何...
www.jb51.net/program/2930651...htm 2023-7-24

kafka安装过程与可视化工具kafka-eagle_相关技巧_脚本之家

至此,说明kafka的启用就完成了。 四、可视化工具 EFAK(kafka-eagle) 同我们在前面讲解的ZK安装一样,kafka本身也没有提供可视化页面,但是市面上有很多开源的可视化工具,我们接下来就讲讲他们的安装及使用,我们选取其中的 EFAK来说, 请注意,在安装EFAK之前,你至少需要安装了JDK、kafka、mysql的环境后,再进行后续操作。
www.jb51.net/program/3040446...htm 2024-6-1

Java中的Kafka消费者详解_java_脚本之家

这篇文章主要介绍了Java中的Kafka消费者详解,Kafka是一个分布式流行消息系统,通常用于大规模数据处理和实时数据流应用程序,它具有高吞吐量、可扩展性和容错性的特点,需要的朋友可以参考下− 目录 一、消费者工作流程 1.1 总体工作流程 1.2 消费者组初始化流程 1.3 消费者组详细消费流程 二、消费者消费消息方式 2.1...
www.jb51.net/program/297775b...htm 2024-6-2

深入解析kafka 架构原理_java_脚本之家

日志收集:一个公司可以用Kafka收集各种服务的log,通过kafka以统一接口开放给各种消费端,例如hadoop、Hbase、Solr等。 消息系统:解耦生产者和消费者、缓存消息等。 用户活动跟踪:Kafka经常被用来记录web用户或者app用户的各种活动,如浏览网页、搜索记录、点击等活动,这些活动信息被各个服务器发布到kafka的topic中,然后订阅...
www.jb51.net/article/2304...htm 2024-6-1

Java消息队列中的Kafka如何保证幂等性_java_脚本之家

kafka默认情况下,提供的是至少一次的可靠性保障。即broker保障已提交的消息的发送,但是遇上某些意外情况 如:网络抖动,超时等问题,导致Producer没有收到broker返回的数据ack,则Producer会继续重试发送消息,从而导致消息重复发送。 如果我们禁止Producer的失败重试发送功能,消息要么写入成功,要么写入失败,但绝不会重复发送。
www.jb51.net/program/293061p...htm 2024-6-2

大数据Kafka:消息队列和Kafka基本介绍_java_脚本之家

4) kafka 五、Kafka的基本介绍 一、什么是消息队列 消息队列,英文名:Message Queue,经常缩写为MQ。从字面上来理解,消息队列是一种用来存储消息的队列 。来看一下下面的代码 上述代码,创建了一个队列,先往队列中添加了一个消息,然后又从队列中取出了一个消息。这说明了队列是可以用来存取消息的 ...
www.jb51.net/article/2195...htm 2024-6-1

关于Kafka消息队列原理的总结_java_脚本之家

Kafka消息队列原理 最近在测试kafka的读写性能,所以借这个机会了解了kafka的一些设计原理,既然作为分布式系统,我们还是按照分布式的套路进行分析。 Kafka的逻辑数据模型 生产者发送数据给服务端时,构造的是ProducerRecord<Integer, String>(String topic, Integer key,String value)对象并发送,从这个构造函数可以看到,kafka...
www.jb51.net/article/2468...htm 2024-6-1

Kafka利用Java实现数据的生产和消费实例教程_java_脚本之家

kafka核心Api kafka有四个核心API 应用程序使用producer API发布消息到1个或多个topic中。 应用程序使用consumer API来订阅一个或多个topic,并处理产生的消息。 应用程序使用streams API充当一个流处理器,从1个或多个topic消费输入流,并产生一个输出流到1个或多个topic,有效地将输入流转换到输出流。
www.jb51.net/article/1338...htm 2024-6-1

Kafka 日志存储实现过程_java_脚本之家

Kafka 中存在一个ConcurrentSkipListMap来保存在每个日志分段,通过跳跃表方式,定位到在00000000000000000000.index,通过二分法在偏移量索引文件中找到不大于 23 的最大索引项,即 offset 20 那栏,然后从日志分段文件中的物理位置为320 开始顺序查找偏移量为 23 的消息。
www.jb51.net/article/284587w...htm 2024-5-29

带你玩转Kafka之初步使用_java_脚本之家

[root@iZ2ze4m2ri7irkf6h6n8zoZlocal]# mv kafka_2.11-1.0.0 kafka-2.11 3 基本使用 3.1 启动Kafka 首先检查下自己的jdk 是否安装: 1 2 3 4 [root@iZ2ze4m2ri7irkf6h6n8zoZlocal]# java -version java version"1.8.0_144" Java(TM) SE Runtime Environment (build 1.8.0_144-b01) ...
www.jb51.net/article/2297...htm 2021-11-21