ES 的集群模式和 kafka 很像,kafka 又和 redis 的集群模式很像。總之就是相互借鑒!
不管你用沒用過 ES,今天我們一起聊聊它。就當擴展大家的知識廣度了!

認識倒排索引
「正排索引 VS 倒排索引:」
正排索引 VS 倒排索引「倒排索引包括兩個部分:」
-
單詞詞典(
Term Dictionary):記錄所有文檔的單詞,記錄單詞到倒排列表的關聯關系?
單詞詞典一般比較大,可以通過
B+樹 或 哈希拉鏈法實現,以滿足高性能的插入與查詢?
-
倒排列表(
Posting List):記錄了單詞對應的文檔結合,由倒排索引項(Posting)組成: -
-
文檔
ID
-
文檔
-
詞頻
TF:該單詞在文檔中出現的次數,用于相關性評分 -
位置(
Position):單詞在文檔中分詞的位置。用于語句搜索(Phrase Query) -
偏移(
Offset):記錄單詞的開始結束位置,實現高亮顯示
倒排索引
「ElasticSearch 的倒排索引:」
-
ElasticSearch的JSON文檔中的每個字段,都有自己的倒排索引
-
可以針對某些字段不做索引
- 優點:節省存儲空間
- 缺點:字段無法被搜索
基于 Spring Boot + MyBatis Plus + Vue & Element 實現的后臺管理系統 + 用戶小程序,支持 RBAC 動態權限、多租戶、數據權限、工作流、三方登錄、支付、短信、商城等功能
- 項目地址:https://github.com/YunaiV/ruoyi-vue-pro
- 視頻教程:https://doc.iocoder.cn/video/
分布式架構原理
「分片 shard:一個索引可以拆分成多個 shard 分片。」
-
主分片
primary shard:每個分片都有一個主分片。 -
備份分片
replica shard:主分片寫入數據后,會將數據同步給其他備份分片。
將 ES 集群部署在 3個 機器上(esnode1、esnode2、esnode3):
「創建個索引,分片為 3 個,副本數設置為 1:」
PUT/sku_index/_settings
{
"settings":{
"number_of_shards":3,
"number_of_replicas":1
}
}
響應:
{
"acknowledged":true
}
分布式架構原理
「ES 集群中有多個節點,會自動選舉一個節點為 master 節點,如上圖的 esnode2節點:」
-
主節點(
master):管理工作,維護索引元數據、負責切換主分片和備份分片身份等。 -
從節點(
node):數據存儲。
「集群中某節點宕機:」
- 主節點宕機:會重新選舉一個節點為 主節點。
- 從節點宕機:由 主節點,將宕機節點上的 主分片身份轉移到其他機器上的 備份分片上。
基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 實現的后臺管理系統 + 用戶小程序,支持 RBAC 動態權限、多租戶、數據權限、工作流、三方登錄、支付、短信、商城等功能
- 項目地址:https://github.com/YunaiV/yudao-cloud
- 視頻教程:https://doc.iocoder.cn/video/
寫入數據的工作原理
「寫單個文檔所需的步驟:」
-
客戶端選擇一個
Node發送請求,那么這個Node就稱為 「協調節點(Coorinating Node)」 。 -
Node使用文檔ID來確定文檔屬于分片 0,通過集群狀態中的內容路由表信息獲知分片0 的主分片在Node1上,因此將請求轉發到Node1上。 -
Node1上的主分片執行寫操作。如果寫入成功,則將請求并行轉發到Node3的副分片上,等待返回結果。當所有的副分片都報告成功,
Node1將向Node(協調節點)報告成功。
寫入數據的工作原理
「Tips:客戶端收到成功響應時,意味著寫操作已經在主分片和所有副分片都執行完成。」
寫數據底層原理
寫數據底層原理「寫操作可分為 3 個主要操作:」
-
寫入新文檔: 這時候搜索,是搜索不到。
- 將數據寫入內存
-
將這操作寫入
translog文件中
-
refresh操作: 默認每隔 1s ,將內存中的文檔寫入文件系統緩存(filesystem cache)構成一個segment?
這時候搜索,可以搜索到數據。
?
-
「
1s時間:ES是近實時搜索,即數據寫入1s后可以搜索到。」
-
flush操作: 默認每隔 30 分鐘 或者translog文件512MB,將文件系統緩存中的segment寫入磁盤,并將translog刪除。
「translog 文件:」 來記錄兩次 flush(fsync) 之間所有的操作,當機器從故障中恢復或者重啟,可以根據此還原
-
translog是文件,存在于內存中,如果掉電一樣會丟失。 - 「默認每隔 5s 刷一次到磁盤中」
讀取數據的工作原理
「讀取文檔所需的步驟:」
-
客戶端選擇一個
Node發送請求,那么這個Node就稱為 「協調節點(Coorinating Node)」 。 -
Node使用文檔ID來確定文檔屬于分片 0,通過集群狀態中的內容路由表信息獲知分片0 有 2 個副本數據(一主一副),會使用隨機輪詢算法選擇出一個分片,這里將請求轉發到Node1 -
Node1將文檔返回給Node,Node將文檔返回給客戶端。
讀取數據的工作原理「在讀取時,文檔可能已經存在于主分片上,但還沒有復制到副分片,這種情況下:」
- 讀請求命中副分片時,可能會報告文檔不存在。
- 讀請求命中主分片時,可能成功返回文檔。
搜索工作原理
「搜索數據過程:」
-
客戶端選擇一個
Node發送請求,那么這個Node就稱為 「協調節點(Coorinating Node)」 。 -
Node協調節點將搜索請求轉發到所有的 分片(shard):主分片 或 副分片,都可以。 -
「
query階段」 :每個分片shard將自己的搜索結果(文檔ID)返回給協調節點,由協調節點進行數據的合并、排序、分頁等操作,產出最終結果。 -
「
fetch階段」 :由協調節點根據 文檔ID去各個節點上拉取實際的文檔數據。
搜索工作原理舉個栗子: 有 3 個分片,查詢返回前 10 個匹配度最高的文檔
-
每個分片都查詢出當前分片的
TOP 10數據 -
「協調節點」 將
3 * 10 = 30的結果再次排序,返回最終TOP 10的結果。
刪除/更新數據底層原理
-
「刪除操作」 :
commit的時候會生成一個.del文件,里面將某個doc標識為deleted狀態,那么搜索的時候根據.del文件就知道這個 doc 是否被刪除了。 -
「更新操作」 :就是將原來的
doc標識為deleted狀態,然后新寫入一條數據。
「底層邏輯是:」
-
Index Buffer每次refresh操作,就會產生一個segment file。(默認情況:1秒1次) -
定制執行
merge操作:將多個segment file合并成一個,同時將標識為deleted的doc「物理刪除」 ,將新的segment file寫入磁盤,最后打上commit point標識所有新的segment file。
審核編輯 :李倩
-
數據
+關注
關注
8文章
7335瀏覽量
94755 -
spring
+關注
關注
0文章
341瀏覽量
15935
原文標題:一文輕松圖解搞懂Elasticsearch原理!
文章出處:【微信號:芋道源碼,微信公眾號:芋道源碼】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
一文帶你徹底搞懂K8s網絡
從0到1搭建實時日志監控系統:基于WebSocket + Elasticsearch的實戰方案
紅外鏡頭是什么?一篇文章讓你輕松搞懂它
Jtti.ccVPS和IP的關系是什么?一文講清服務器背后的網絡邏輯
圖解單片機功能與應用(完整版)
漫畫圖解 電感器 抗干擾元器件指南(全彩PDF版)
PCB封裝圖解
一文搞懂波峰焊工藝及缺陷預防
一文輕松圖解搞懂Elasticsearch原理!
評論