当前位置: 首页 > java >正文

Elasticsearch索引机制与Lucene段合并策略深度解析

引言

在现代分布式搜索引擎Elasticsearch中,文档的索引、更新和删除操作不仅是用户交互的核心入口,更是底层存储架构设计的关键挑战。本文围绕以下核心链路展开:

  1. 文档生命周期管理:从客户端请求路由到分片定位,从内存缓冲区(Buffer)到事务日志(Translog)的双重写入机制,揭示数据持久化的完整路径;
  2. 实时性与可靠性平衡:通过剖析Translog同步/异步刷盘策略、内存缓冲区刷新(Refresh)与持久化刷盘(Flush)的触发逻辑,解读搜索可见性与故障恢复的底层保障;
  3. Lucene段合并优化:深入对比分层合并(TieredMergePolicy)、字节大小合并(LogByteSizeMergePolicy)和文档数量合并(LogDocMergePolicy)等策略,探讨如何通过段合并提升查询效率、释放磁盘空间并优化I/O负载。

通过系统性梳理,本文将为开发者提供从API操作到底层存储的全视角技术图谱,助力高性能搜索服务的设计与调优。

索引文档的过程

索引文档:将新的文档添加到索引中或者覆盖已经存在的文档。

并非只有协调节点可能进行数据转发,可以将请求发送到任何一个数据节点,该节点都可以处理请求或将请求转发给适当的节点以完成请求处理。

  1. 客户端向 Node 1 (任意一个节点)发送新建、覆盖请求。
  2. 节点使用文档ID(文档ID可以人工指定,不指定将自动创建唯一值) 确定文档属于分片 0(hash(_id)%number_of_primary_shards) 。请求会被转发到 Node 3,因为分片 0 的主分片目前被分配在 Node 3 上。
  3. Node 3 写入操作不仅保存在内存缓冲区中,同时也被记录到事务日志(Translog)中。Translog是一个位于磁盘上的追加日志,它记录了所有对索引的更改,以确保在发生故障时能够恢复数据。
  4. 当内存缓冲区达到一定大小,或者Translog达到一定大小时。Flush操作会将内存缓冲区中的数据以及Translog中的更改持久化到磁盘上的Lucene索引文件的Segment中,并且会清空旧的Translog。

number_of_primary_shards:索引的主分片数量。

更新和删除文档的过程

  1. 客户端向任意节点发送更新、删除请求,协调节点并根据文档ID确定要更新的分片(Shard),将请求转发到分片的主节点上。
  2. 主分片会创建一个新的文档,保留相同的文档ID和一个更高的版本号。同时在段对应的.del文件中记录旧版本的文档。(更新文档)
  3. 在段对应的.del文件中记录旧版本的文档。(删除文档)
  4. 修改操作不仅保存在内存缓冲区中,同时也被记录到事务日志(Translog)中。Translog是一个位于磁盘上的追加日志,它记录了所有对索引的更改,以确保在发生故障时能够恢复数据。
  5. 当内存缓冲区达到一定大小,或者Translog达到一定大小时。Flush操作会将内存缓冲区中的数据以及Translog中的更改持久化到磁盘上的Lucene索引文件的Segment中,并且会清空旧的Translog。
  6. 废弃的文档由后台线程在段合并阶段进行删除,释放磁盘空间。

Translog刷盘(Flush)时机

Translog的刷盘:是指将Translog内存中的数据写入到Translog日志中(磁盘)。

Translog的刷盘方式有两种:同步(request)和异步(async),index.translog.durability为request表示同步(默认同步),为async表示异步。

同步方式:意味着每次写操作之后会立即将 Translog 刷新到磁盘。

异步方式:可以通过index.translog.sync_interval(默认5s),当达到配置值时触发刷盘。

Lucene中的段(Segment)

Segment是物理日志,而TransLog是逻辑日志,在Lucene中,每当有新的文档被添加时,数据首先写入内存缓冲区(buffer)。当缓冲区达到一定大小或满足特定条件时,数据会被刷新到磁盘,形成一个新的段。这个初始段的大小依赖于缓冲区的大小和写入的文档数量。多个索引的修改都会被分开写入多个段中。

Lucene中的段生成

只有生成Luence段之后,才能被搜索到。

refresh操作:index.refresh_interval(默认1s),可以适当调大例如30s。定时将内存缓冲区数据写入到新的Lucene段文件中,不会清空translog。

flush操作:当translog大小达到index.translog.flush_threshold_size(默认512m),会将translog中的数据写入到磁盘上的 Lucene 段文件中,并创建一个新的 translog 文件,并清空旧的translog。

Lucene中的段合并

段合并的好处

  1. 提高查询效率:多个小段可能导致查询时需要访问多个索引文件,使查询效率降低。合并段可以减少段的数量,从而减少查询过程中需要读取的文件,提高查询速度。
  2. 释放磁盘空间:删除文档不会立即从段中移除,而是标记为已删除。通过段合并,可以彻底清除这些标记为删除的文档,释放磁盘空间。

段合并策略

TieredMergePolicy(分层合并策略)

默认段合并策略,根据段的大小和数量将段分为不同的层级(Tiers),并在合适的时机触发段合并。

通过设置segments_per_tier参数控制每层的最大段数,每层段数超过时触发合并。通过设置max_merge_at_once参数控制一次合并的最大段数。

通过段的大小对段进行分层。具体来说,它会将段按照大小分为不同的层,每一层中的段大小范围不同。层的划分并不是固定的,而是动态调整的。

LogByteSizeMergePolicy(基于字节大小的合并策略)

基于段的字节大小来决定合并。它会尝试将小段合并成较大的段,以控制合并后的段大小。

通过设置min_merge_size参数控制段合并操作的最小段大小(小于min_merge_size优先合并)。max_merge_size参数控制段合并操作的最大段大小,当段的大小超过这个阈值时,不再参与合并。

LogDocMergePolicy(基于文档数量的合并策略)

基于段中的文档数量来决定合并。它会尝试将包含少量文档的段合并成包含更多文档的段。

通过设置min_merge_docs参数控制段合并操作的最小段的文档数量(小于min_merge_docs优先合并)。和max_merge_docs参数控制段合并操作的最大段的文档数量,当段的文档数量超过这个阈值时,不再参与合并。


感谢您的阅读!如果文章中有任何问题或不足之处,欢迎及时指出,您的反馈将帮助我不断改进与完善。期待与您共同探讨技术,共同进步!

http://www.xdnf.cn/news/9315.html

相关文章:

  • 纺织品应该做OEKO还是GRS呢
  • vllm server返回404的一种可能得解决方案
  • 怎么查找idea插件的下载位置,并更改
  • 牛客周赛Round93
  • vue+threeJs 设置模型默认的旋转角度
  • 应用层协议http(无代码版)
  • element的el-table翻页选中功能
  • 《重塑认知:Django MVT架构的多维剖析与实践》
  • #RabbitMQ# 消息队列进阶
  • yolo最终笔记
  • 《棒球特长生》棒球升学途径·棒球1号位
  • 梯度消失和梯度爆炸的原因及解决办法
  • torch cuda 版本安装
  • Java 各版本核心新特性的详细说明
  • 2025软考软件设计师题目
  • 【CATIA的二次开发12】根对象Application的Documents集合概述
  • IEEE出版|2025人工智能驱动图像处理与计算机视觉技术国际学术研讨会 (AIPCVT 2025)
  • MobaXterm连接Docker Desktop中的容器(shell)
  • 人脸识别打卡项目
  • MySQL问题:什么是MySQL的中的最左匹配原则?
  • RY2200 One Cell Li-ion and Li-poly Battery Protection IC
  • 【运维实战】Linux 内存调优之进程内存深度监控
  • 基于深度学习双塔模型的食堂菜品推荐系统
  • 【MQTT】TLS证书双向验证
  • 天大《电视原理》背诵考点整理+计算/框图/作业题 (个人整理)
  • FPGA中的“BPI“指什么
  • 软件项目交付阶段,验收报告记录了什么?有哪些标准要求?
  • centos7.5安装kubernetes1.25.0
  • 随叫随到的电力补给:移动充电服务如何重塑用户体验?
  • cursor-stats 实时监控 Cursor IDE 的使用情况和订阅状态