新書推薦:
《
技术统治(未来哲学系列)
》
售價:HK$
53.8
《
中考热点作家孙道荣2024年散文精选集三册
》
售價:HK$
127.7
《
全球城市案例研究2023:基于网络的合作与竞争国际经验借鉴
》
售價:HK$
199.4
《
引爆:炸药、硝酸盐和现代世界的形成
》
售價:HK$
85.1
《
人类星球:我们如何创造了人类世(企鹅·鹈鹕丛书013)
》
售價:HK$
91.8
《
伏候圣裁:中国古代的君主与政治
》
售價:HK$
98.6
《
艺术图像学研究(第一辑)
》
售價:HK$
188.2
《
摆脱强迫的人生(修订版)
》
售價:HK$
88.5
|
編輯推薦: |
本书第1版出版时,有超过30%的《财富》世界500强公司使用Kafka。5年后,这个比例已经达到70%。毋庸置疑,作为大数据时代的核心技术,Kafka已然成为所有动态数据平台的事实基础。本书为使用Kafka的软件工程师、架构师和运维工程师勾勒出一条完整的学习曲线,并强调原理剖析和应用实践。来自Confluent和LinkedIn的一线Kafka开发人员将为你解释如何部署生产级Kafka集群、编写可靠的事件驱动微服务,以及使用Kafka构建可伸缩的流处理应用程序。通过详细的示例,你将了解Kafka的设计原则、可靠性保证,以及架构细节,包括复制协议、控制器和存储层。* 部署和配置Kafka的良好实践* Kafka生产者和消费者如何读写消息* 确保可靠传递数据的模式和用例要求* 用Kafka构建数据管道和应用程序* 用Kafka在生产环境中执行监控、调优和维护任务* Kafka的关键运维指标* Kafka针对流处理系统的交付能力
|
內容簡介: |
本书介绍Kafka的技术原理和应用技巧。内容包括如何安装和配置Kafka、如何使用Kafka API、Kafka的设计原则和可靠性保证,以及Kafka的一些架构细节,如复制协议、控制器和存储层。本书列举了一些非常流行的Kafka应用场景,比如基于事件驱动的微服务系统的消息总线、流式处理应用程序和大规模数据管道。通过学习本书,你不仅能够深入理解这项大数据核心技术,还能够将所学知识付诸实践,在生产环境中更好地运行Kafka,并基于它构建稳健的高性能应用程序。
|
關於作者: |
【作者介绍】格温·沙皮拉(Gwen Shapira)是Kafka项目的Committer和PMC成员,也是Confluent的工程主管,领导云原生Kafka团队,致力于打造更具弹性和可伸缩性的Kafka云服务。托德·帕利诺(Todd Palino)是LinkedIn的站点可靠性工程师,他开发了Kafka消费者监控工具Burrow。拉吉尼·西瓦拉姆(Rajini Sivaram)是Kafka项目的Committer和PMC成员。她在Confluent为Kafka设计和开发跨集群复制和安全功能。克里特·佩蒂(Krit Petty)是LinkedIn的Kafka站点可靠性工程经理,曾负责将LinkedIn的大规模Kafka集群迁移到微软的Azure云。【译者介绍】薛命灯,毕业于厦门大学软件学院,十余年软件开发和架构经验,InfoQ高级社区编辑。另译有《硅谷革命》《生产微服务》等书。微信公众号CodeDeep。
|
目錄:
|
本书赞誉 xvii第 2 版序 xix第 1 版序 xxi前言 xxiii第 1 章 初识Kafka 11.1 发布与订阅消息系统 11.1.1 如何开始 21.1.2 独立的队列系统 31.2 Kafka登场 31.2.1 消息和批次 41.2.2 模式 41.2.3 主题和分区 41.2.4 生产者和消费者 51.2.5 broker和集群 61.2.6 多集群 71.3 为什么选择Kafka 81.3.1 多个生产者 81.3.2 多个消费者 81.3.3 基于磁盘的数据保留 91.3.4 伸缩性 91.3.5 高性能 91.3.6 平台特性 91.4 数据生态系统 91.5 起源故事 111.5.1 LinkedIn的问题 111.5.2 Kafka的诞生 121.5.3 走向开源 121.5.4 商业化 131.5.5 命名 131.6 开始Kafka之旅 13第 2 章 安装Kafka 142.1 环境配置 142.1.1 选择操作系统 142.1.2 安装Java 142.1.3 安装ZooKeeper 152.2 安装broker 172.3 配置broker 182.3.1 常规配置参数 182.3.2 主题的默认配置 202.4 选择硬件 242.4.1 磁盘吞吐量 252.4.2 磁盘容量 252.4.3 内存 252.4.4 网络 252.4.5 CPU 262.5 云端的Kafka 262.5.1 微软Azure 262.5.2 AWS 262.6 配置Kafka集群 272.6.1 需要多少个broker 272.6.2 broker配置 282.6.3 操作系统调优 282.7 生产环境的注意事项 312.7.1 垃圾回收器选项 312.7.2 数据中心布局 322.7.3 共享ZooKeeper 322.8 小结 33第 3 章 Kafka生产者——向Kafka写入数据 343.1 生产者概览 353.2 创建 Kafka生产者 363.3 发送消息到Kafka 373.3.1 同步发送消息 383.3.2 异步发送消息 393.4 生产者配置 393.4.1 client.id 403.4.2 acks 403.4.3 消息传递时间 413.4.4 linger.ms 433.4.5 buffer.memory 433.4.6 compression.type 433.4.7 batch.size 433.4.8 max.in.flight.requests.per.connection 433.4.9 max.request.size 443.4.10 receive.buffer.bytes和send.buffer.bytes 443.4.11 enable.idempotence 443.5 序列化器 453.5.1 自定义序列化器 453.5.2 使用Avro序列化数据 473.5.3 在Kafka中使用Avro记录 483.6 分区 513.7 标头 523.8 拦截器 533.9 配额和节流 543.10 小结 56第 4 章 Kafka消费者——从Kafka读取数据 574.1 Kafka消费者相关概念 574.1.1 消费者和消费者群组 574.1.2 消费者群组和分区再均衡 604.1.3 群组固定成员 624.2 创建 Kafka消费者 634.3 订阅主题 634.4 轮询 644.5 配置消费者 664.5.1 fetch.min.bytes 664.5.2 fetch.max.wait.ms 664.5.3 fetch.max.bytes 664.5.4 max.poll.records 674.5.5 max.partition.fetch.bytes 674.5.6 session.timeout.ms和heartbeat.interval.ms 674.5.7 max.poll.interval.ms 674.5.8 default.api.timeout.ms 684.5.9 request.timeout.ms 684.5.10 auto.offset.reset 684.5.11 enable.auto.commit 684.5.12 partition.assignment.strategy 684.5.13 client.id 694.5.14 client.rack 694.5.15 group.instance.id 704.5.16 receive.buffer.bytes和send.buffer.bytes 704.5.17 offsets.retention.minutes 704.6 提交和偏移量 704.6.1 自动提交 714.6.2 提交当前偏移量 724.6.3 异步提交 734.6.4 同步和异步组合提交 744.6.5 提交特定的偏移量 754.7 再均衡监听器 764.8 从特定偏移量位置读取记录 784.9 如何退出 794.10 反序列化器 804.10.1 自定义反序列化器 814.10.2 在消费者里使用Avro反序列器 834.11 独立的消费者:为什么以及怎样使用不属于任何群组的消费者 834.12 小结 84第 5 章 编程式管理Kafka 855.1 AdminClient概览 855.1.1 异步和最终一致性API 865.1.2 配置参数 865.1.3 扁平的结构 865.1.4 额外的话 865.2 AdminClient生命周期:创建、配置和关闭 875.2.1 client.dns.lookup 875.2.2 request.timeout.ms 885.3 基本的主题管理操作 885.4 配置管理 915.5 消费者群组管理 925.5.1 查看消费者群组 935.5.2 修改消费者群组 945.6 集群元数据 955.7 高级的管理操作 965.7.1 为主题添加分区 965.7.2 从主题中删除消息 965.7.3 首领选举 975.7.4 重新分配副本 985.8 测试 995.9 小结 101第 6 章 深入Kafka 1026.1 集群的成员关系 1026.2 控制器 1036.3 复制 1056.4 处理请求 1076.4.1 生产请求 1096.4.2 获取请求 1096.4.3 其他请求 1116.5 物理存储 1126.5.1 分层存储 1136.5.2 分区的分配 1146.5.3 文件管理 1156.5.4 文件格式 1156.5.5 索引 1176.5.6 压实 1176.5.7 压实的工作原理 1186.5.8 被删除的事件 1196.5.9 何时会压实主题 1196.6 小结 120第 7 章 可靠的数据传递 1217.1 可靠性保证 1217.2 复制 1227.3 broker配置 1237.3.1 复制系数 1237.3.2 不彻底的首领选举 1257.3.3 最少同步副本 1267.3.4 保持副本同步 1267.3.5 持久化到磁盘 1267.4 在可靠的系统中使用生产者 1277.4.1 发送确认 1277.4.2 配置生产者的重试参数 1287.4.3 额外的错误处理 1297.5 在可靠的系统中使用消费者 1297.5.1 消费者的可靠性配置 1307.5.2 手动提交偏移量 1307.6 验证系统可靠性 1327.6.1 验证配置 1327.6.2 验证应用程序 1337.6.3 在生产环境中监控可靠性 1337.7 小结 134第 8 章 精确一次性语义 1358.1 幂等生产者 1358.1.1 幂等生产者的工作原理 1368.1.2 幂等生产者的局限性 1378.1.3 如何使用幂等生产者 1388.2 事务 1388.2.1 事务的应用场景 1398.2.2 事务可以解决哪些问题 1398.2.3 事务是如何保证精确一次性的 1408.2.4 事务不能解决哪些问题 1418.2.5 如何使用事务 1438.2.6 事务ID和隔离 1458.2.7 事务的工作原理 1468.3 事务的性能 1488.4 小结 148第 9 章 构建数据管道 1499.1 构建数据管道时需要考虑的问题 1509.1.1 及时性 1509.1.2 可靠性 1509.1.3 高吞吐量和动态吞吐量 1519.1.4 数据格式 1519.1.5 转换 1529.1.6 安全性 1529.1.7 故障处理 1539.1.8 耦合性和灵活性 1539.2 何时使用Connect API或客户端API 1549.3 Kafka Connect 1549.3.1 运行Connect 1559.3.2 连接器示例:文件数据源和文件数据池 1579.3.3 连接器示例:从MySQL到ElasticSearch 1599.3.4 单一消息转换 1649.3.5 深入理解Connect 1679.4 Connect之外的选择 1699.4.1 其他数据存储系统的数据摄入框架 1699.4.2 基于图形界面的ETL工具 1699.4.3 流式处理框架 1709.5 小结 170第 10 章 跨集群数据镜像 17110.1 跨集群镜像的应用场景 17110.2 多集群架构 17210.2.1 跨数据中心通信的一些现实情况 17310.2.2 星型架构 17310.2.3 双活架构 17510.2.4 主备架构 17610.2.5 延展集群 18010.3 MirrorMaker 18110.3.1 配置MirrorMaker 18310.3.2 多集群复制拓扑 18410.3.3 保护MirrorMaker 18510.3.4 在生产环境中部署MirrorMaker 18610.3.5 MirrorMaker调优 18910.4 其他跨集群镜像方案 19010.4.1 Uber的uReplicator 19010.4.2 LinkedIn的Brooklin 19110.4.3 Confluent的跨数据中心镜像解决方案 19110.5 小结 193第 11 章 保护Kafka 19411.1 锁住 Kafka 19411.2 安全协议 19611.3 身份验证 19711.3.1 SSL 19811.3.2 SASL 20111.3.3 重新认证 21011.3.4 安全更新不停机 21111.4 加密 21211.5 授权 21411.5.1 AclAuthorizer 21411.5.2 自定义授权 21711.5.3 安全方面的考虑 21911.6 审计 21911.7 保护ZooKeeper 22011.7.1 SASL 22011.7.2 SSL 22111.7.3 授权 22111.8 保护平台 22211.9 小结 223第 12 章 管理Kafka 22512.1 主题操作 22512.1.1 创建新主题 22612.1.2 列出集群中的所有主题 22712.1.3 列出主题详情 22712.1.4 增加分区 22812.1.5 减少分区 22912.1.6 删除主题 22912.2 消费者群组 23012.2.1 列出并描述消费者群组信息 23012.2.2 删除消费者群组 23112.2.3 偏移量管理 23212.3 动态配置变更 23312.3.1 覆盖主题的默认配置 23312.3.2 覆盖客户端和用户的默认配置 23412.3.3 覆盖broker的默认配置 23512.3.4 查看被覆盖的配置 23612.3.5 移除被覆盖的配置 23612.4 生产和消费 23612.4.1 控制台生产者 23712.4.2 控制台消费者 23812.5 分区管理 24112.5.1 首选首领选举 24112.5.2 修改分区的副本 24212.5.3 转储日志片段 24612.5.4 副本验证 24812.6 其他工具 24812.7 不安全的操作 24912.7.1 移动集群控制器 24912.7.2 移除待删除的主题 24912.7.3 手动删除主题 25012.8 小结 250第 13 章 监控Kafka 25113.1 指标基础 25113.1.1 指标来自哪里 25113.1.2 需要哪些指标 25213.1.3 应用程序健康检测 25313.2 服务级别目标 25413.2.1 服务级别定义 25413.2.2 哪些指标是好的SLI 25513.2.3 将SLO用于告警 25513.3 broker的指标 25613.3.1 诊断集群问题 25713.3.2 非同步分区的艺术 25713.3.3 broker指标 26113.3.4 主题的指标和分区的指标 26813.3.5 Java虚拟机监控 26913.3.6 操作系统监控 27013.3.7 日志 27213.4 客户端监控 27213.4.1 生产者指标 27213.4.2 消费者指标 27413.4.3 配额 27613.5 滞后监控 27713.6 端到端监控 27713.7 小结 278第 14 章 流式处理 27914.1 什么是流式处理 28014.2 流式处理相关概念 28214.2.1 拓扑 28214.2.2 时间 28214.2.3 状态 28414.2.4 流和表 28414.2.5 时间窗口 28514.2.6 处理保证 28714.3 流式处理设计模式 28714.3.1 单事件处理 28714.3.2 使用本地状态 28814.3.3 多阶段处理和重分区 28914.3.4 使用外部查找:流和表的连接 29014.3.5 表与表的连接 29114.3.6 流与流的连接 29114.3.7 乱序事件 29214.3.8 重新处理 29314.3.9 交互式查询 29414.4 Streams示例 29414.4.1 字数统计 29414.4.2 股票市场统计 29614.4.3 填充点击事件流 29814.5 Streams架构概览 30014.5.1 构建拓扑 30014.5.2 优化拓扑 30114.5.3 测试拓扑 30114.5.4 扩展拓扑 30214.5.5 在故障中存活下来 30414.6 流式处理应用场景 30514.7 如何选择流式处理框架 30614.8 小结 307附录 A 在其他操作系统中安装Kafka 309附录 B 其他Kafka工具 314
|
|