国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

elasticsearch檢索原理與優化案例

工程師鄧生 ? 來源:博客園 ? 作者:mikevictor ? 2022-09-30 17:25 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、前言

數據平臺已迭代三個版本,從頭開始遇到很多常見的難題,終于有片段時間整理一些已完善的文檔,在此分享以供所需朋友的

實現參考,少走些彎路,在此篇幅中偏重于ES的優化,關于HBase,Hadoop的設計優化估計有很多文章可以參考,不再贅述。

基于 Spring Boot + MyBatis Plus + Vue & Element 實現的后臺管理系統 + 用戶小程序,支持 RBAC 動態權限、多租戶、數據權限、工作流、三方登錄、支付、短信、商城等功能

二、需求說明

項目背景:

在一業務系統中,部分表每天的數據量過億,已按天分表,但業務上受限于按天查詢,并且DB中只能保留3個月的數據(硬件高配),分庫代價較高。

改進版本目標:

數據能跨月查詢,并且支持1年以上的歷史數據查詢與導出。

按條件的數據查詢秒級返回。

基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 實現的后臺管理系統 + 用戶小程序,支持 RBAC 動態權限、多租戶、數據權限、工作流、三方登錄、支付、短信、商城等功能

三、elasticsearch檢索原理

3.1 關于ES和Lucene基礎結構

談到優化必須能了解組件的基本原理,才容易找到瓶頸所在,以免走多種彎路,先從ES的基礎結構說起(如下圖):

e89c4d76-3970-11ed-9e49-dac502259ad0.jpg

一些基本概念:

Cluster 包含多個Node的集群

Node 集群服務單元

Index 一個ES索引包含一個或多個物理分片,它只是這些分片的邏輯命名空間

Type 一個index的不同分類,6.x后只能配置一個type,以后將移除

Document 最基礎的可被索引的數據單元,如一個JSON串

Shards 一個分片是一個底層的工作單元,它僅保存全部數據中的一部分,它是一個Lucence實例 (一個lucene索引最大包含2,147,483,519 (= Integer.MAX_VALUE - 128)個文檔數量)

Replicas 分片備份,用于保障數據安全與分擔檢索壓力

ES依賴一個重要的組件Lucene,關于數據結構的優化通常來說是對Lucene的優化,它是集群的一個存儲于檢索工作單元,結構如下圖:

e8d7e336-3970-11ed-9e49-dac502259ad0.jpg

在Lucene中,分為索引(錄入)與檢索(查詢)兩部分,索引部分包含 分詞器過濾器字符映射器 等,檢索部分包含 查詢解析器 等。

一個Lucene索引包含多個segments,一個segment包含多個文檔,每個文檔包含多個字段,每個字段經過分詞后形成一個或多個term。

通過Luke工具查看ES的lucene文件如下,主要增加了_id和_source字段:

e91f2804-3970-11ed-9e49-dac502259ad0.jpg

3.2 Lucene索引實現

Lucene 索引文件結構主要的分為:詞典、倒排表、正向文件、DocValues等,如下圖:

e93e9a68-3970-11ed-9e49-dac502259ad0.jpge98bfaf6-3970-11ed-9e49-dac502259ad0.jpg

注:整理來源于lucene官方

Lucene 隨機三次磁盤讀取比較耗時。其中.fdt文件保存數據值損耗空間大,.tim和.doc則需要SSD存儲提高隨機讀寫性能。

另外一個比較消耗性能的是打分流程,不需要則可屏蔽。

關于DocValues:

倒排索引解決從詞快速檢索到相應文檔ID, 但如果需要對結果進行排序、分組、聚合等操作的時候則需要根據文檔ID快速找到對應的值。

通過倒排索引代價缺很高:需迭代索引里的每個詞項并收集文檔的列里面 token。這很慢而且難以擴展:隨著詞項和文檔的數量增加,執行時間也會增加。Solr docs對此的解釋如下:

For other features that we now commonly associate with search, such as sorting, faceting, and highlighting, this approach is not very efficient. The faceting engine,

for example, must look up each term that appears in each document that will make up the result set and pull the document IDs in order to build the facet list. In Solr, this is maintained in memory, and can be slow to load (depending on the number of documents, terms, etc.)

在lucene 4.0版本前通過FieldCache,原理是通過按列逆轉倒排表將(field value ->doc)映射變成(doc -> field value)映射,問題為逐步構建時間長并且消耗大量內存,容易造成OOM。

DocValues是一種列存儲結構,能快速通過文檔ID找到相關需要排序的字段。在ES中,默認開啟所有(除了標記需analyzed的字符串字段)字段的doc values,如果不需要對此字段做任何排序等工作,則可關閉以減少資源消耗。

3.3 關于ES索引與檢索分片

ES中一個索引由一個或多個lucene索引構成,一個lucene索引由一個或多個segment構成,其中segment是最小的檢索域。

數據具體被存儲到哪個分片上:

shard=hash(routing)%number_of_primary_shards

默認情況下 routing參數是文檔ID (murmurhash3),可通過 URL中的 _routing 參數指定數據分布在同一個分片中,index和search的時候都需要一致才能找到數據

如果能明確根據_routing進行數據分區,則可減少分片的檢索工作,以提高性能。

四、優化案例

在我們的案例中,查詢字段都是固定的,不提供全文檢索功能,這也是幾十億數據能秒級返回的一個大前提:

ES僅提供字段的檢索,僅存儲HBase的Rowkey不存儲實際數據。

實際數據存儲在HBase中,通過Rowkey查詢,如下圖。

一些細節優化項官方與其他的一些文章都有描述,在此文章中僅提出一些本案例的重點優化項。

e9bcafde-3970-11ed-9e49-dac502259ad0.jpg

4.1 優化索引性能

1、批量寫入 ,看每條數據量的大小,一般都是幾百到幾千。

2、多線程寫入 ,寫入線程數一般和機器數相當,可以配多種情況,在測試環境通過Kibana觀察性能曲線。

3、增加segments的刷新時間 ,通過上面的原理知道,segment作為一個最小的檢索單元,比如segment有50個,目的需要查10條數據,但需要從50個segment分別查詢10條,共500條記錄,再進行排序或者分數比較后,截取最前面的10條,丟棄490條。

在我們的案例中將此 "refresh_interval": "-1" ,程序批量寫入完成后進行手工刷新(調用相應的API即可)。

4、內存分配方面 ,很多文章已經提到,給系統50%的內存給Lucene做文件緩存,它任務很繁重,所以ES節點的內存需要比較多(比如每個節點能配置64G以上最好)。

5、磁盤方面配置SSD機械盤做陣列RAID5 RAID10雖然看上去很快,但是隨機IO還是SSD好。

6、 使用自動生成的ID ,在我們的案例中使用自定義的KEY,也就是與HBase的ROW KEY,是為了能根據rowkey刪除和更新數據,性能下降不是很明顯。

7、關于段合并 ,合并在后臺定期執行,比較大的segment需要很長時間才能完成,為了減少對其他操作的影響(如檢索),elasticsearch進行閾值限制,默認是20MB/s,

可配置的參數:"indices.store.throttle.max_bytes_per_sec" : "200mb" (根據磁盤性能調整)

合并線程數默認是:Math.max(1, Math.min(4, Runtime.getRuntime().availableProcessors() / 2)),

如果是機械磁盤,可以考慮設置為1:index.merge.scheduler.max_thread_count: 1,在我們的案例中使用SSD,配置了6個合并線程。

4.2 優化檢索性能

1、關閉不需要字段的doc values。

2、盡量使用keyword替代一些long或者int之類,term查詢總比range查詢好 (參考lucene說明 )。

http://lucene.apache.org/core/7_4_0/core/org/apache/lucene/index/PointValues.html

3、關閉不需要查詢字段的_source功能,不將此存儲僅ES中,以節省磁盤空間。

4、評分消耗資源,如果不需要可使用filter過濾來達到關閉評分功能,score則為0,如果使用constantScoreQuery則score為1。

5、關于分頁:

from + size: 每分片檢索結果數最大為 from + size,假設from = 20, size = 20,則每個分片需要獲取20 * 20 = 400條數據,多個分片的結果在協調節點合并(假設請求的分配數為5,則結果數最大為 400*5 = 2000條) 再在內存中排序后然后20條給用戶。

這種機制導致越往后分頁獲取的代價越高,達到50000條將面臨沉重的代價,默認from + size默認如下:index.max_result_window :10000

search_after: 使用前一個分頁記錄的最后一條來檢索下一個分頁記錄

在我們的案例中,首先使用from+size,檢索出結果后再使用search_after,在頁面上我們限制了用戶只能跳5頁,不能跳到最后一頁。

scroll: 用于大結果集查詢,缺陷是需要維護scroll_id

6、關于排序:我們增加一個long字段,它用于存儲時間和ID的組合(通過移位即可),正排與倒排性能相差不明顯。

7、關于CPU消耗,檢索時如果需要做排序則需要字段對比,消耗CPU比較大,如果有可能盡量分配16cores以上的CPU,具體看業務壓力。

8、關于合并被標記刪除的記錄,我們設置為0表示在合并的時候一定刪除被標記的記錄,默認應該是大于10%才刪除:"merge.policy.expunge_deletes_allowed": "0"。

{
"mappings":{
"data":{
"dynamic":"false",
"_source":{
"includes":["XXX"]--僅將查詢結果所需的數據存儲僅_source中
},
"properties":{
"state":{
"type":"keyword",--雖然state為int值,但如果不需要做范圍查詢,盡量使用keyword,因為int需要比keyword增加額外的消耗。
"doc_values":false--關閉不需要字段的doc values功能,僅對需要排序,匯聚功能的字段開啟。
},
"b":{
"type":"long"--使用了范圍查詢字段,則需要用long或者int之類(構建類似KD-trees結構)
}
}
}
},
"settings":{......}
}

五、性能測試

優化效果評估基于基準測試,如果沒有基準測試無法了解是否有性能提升,在這所有的變動前做一次測試會比較好。在我們的案例中:

單節點5千萬到一億的數據量測試,檢查單點承受能力。

集群測試1億-30億的數量,磁盤IO/內存/CPU/網絡IO消耗如何。

隨機不同組合條件的檢索,在各個數據量情況下表現如何。

另外SSD與機械盤在測試中性能差距如何。

性能的測試組合有很多,通常也很花時間,不過作為評測標準時間上的投入有必要,否則生產出現性能問題很難定位或不好改善。

對于ES的性能研究花了不少時間,最多的關注點就是lucene的優化,能深入了解lucene原理對優化有很大的幫助。

六、生產效果

目前平臺穩定運行,幾十億的數據查詢100條都在3秒內返回,前后翻頁很快,如果后續有性能瓶頸,可通過擴展節點分擔數據壓力。


審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • SSD
    SSD
    +關注

    關注

    21

    文章

    3111

    瀏覽量

    122236
  • 過濾器
    +關注

    關注

    1

    文章

    444

    瀏覽量

    20972
  • RBAC
    +關注

    關注

    0

    文章

    44

    瀏覽量

    10413

原文標題:Elasticsearch 億級數據檢索性能優化案例實戰

文章出處:【微信號:芋道源碼,微信公眾號:芋道源碼】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    RAG(檢索增強生成)原理與實踐

    text-embedding-3-small/large :性能強大,支持多語言 sentence-transformers :開源方案,適合中文 BGE系列 :國內優秀的開源模型 m3e :專門針對中文優化 2.2 向量檢索的工作流
    發表于 02-11 12:46

    從0到1搭建實時日志監控系統:基于WebSocket + Elasticsearch的實戰方案

    低成本、實時性高的日志監控系統。 2. 技術選型 數據存儲 :Elasticsearch(高效檢索與聚合) 實時推送 :WebSocket(全雙工通信,避免HTTP輪詢) 后端服務 :Node.js
    發表于 01-09 16:43

    請問Keil的優化等級到底該如何選擇?

    在Keil MDK(Microcontroller Development Kit)中,優化等級是編譯器的核心設置之一,它直接影響生成代碼的大小、執行速度和調試便利性。選擇合適的優化等級是平衡性
    發表于 11-20 07:51

    蜂鳥E203內核優化方法

    對蜂鳥E203內核進行優化可以考慮以下幾個方面: 編譯器優化:使用適合蜂鳥E203的編譯器選項和指令集,優化編譯器的選項和參數,開啟對硬件的特定支持,比如使用-O2等優化選項,以提高代
    發表于 10-21 07:55

    格靈深瞳突破文本人物檢索技術難題

    格靈深瞳參與研究的GA-DMS框架,為攻破上述技術難題提供了全新解決方案。研究團隊通過數據構建和模型架構的協同改進,推動CLIP在人物表征學習中的應用,顯著提升了基于文本的人物檢索效果。該成果已入選EMNLP 2025 主會(自然語言處理領域的頂級國際會議之一)。
    的頭像 發表于 09-28 09:42 ?631次閱讀
    格靈深瞳突破文本人物<b class='flag-5'>檢索</b>技術難題

    孔夫子舊書網開放平臺接口實戰:古籍圖書檢索與商鋪數據集成

    本文詳解孔夫子舊書網古籍數據接口的實戰調用,涵蓋認證簽名、古籍檢索、商鋪集成與特色數據處理四大場景,提供可復用的Python代碼及避坑指南,助力學術研究、舊書商管理與古籍數字化落地。
    的頭像 發表于 09-23 13:59 ?679次閱讀

    阿里巴巴開放平臺關鍵字搜索商品接口實戰詳解:OAuth2.0 認證落地 + 檢索效率優化(附避坑代碼)

    、簽名失敗、檢索頻率超限三大坑,導致接口調用成功率低、數據獲取效率差。本文結合 10 年電商 API 對接經驗,從 “認證落地 - 參數優化 - 效率提升 - 錯誤排查” 全流程拆解,所有代碼均經實戰驗證,可直接復用,幫你避開 90% 的調用問題。
    的頭像 發表于 09-16 16:26 ?943次閱讀

    如何二進制安裝Linux集群

    ElasticSearch是使用Java語言開發的,所以運行時依賴JDK。
    的頭像 發表于 06-17 14:49 ?675次閱讀

    VirtualLab:光柵的優化與分析

    光柵是光學工程師使用的最基本的工具。為了設計和分析這類組件,快速物理光學建模和設計軟件VirtualLab Fusion為用戶提供了許多有用的工具。其中包括參數優化,以輕松優化系統,以及參數運行,它
    發表于 05-23 08:49

    VirtualLab 應用:傾斜光柵的參數優化及公差分析

    ,也稱為RCWA)對傾斜光柵的優化方法。優化后的光柵的衍射效率超過90%。此外,還研究了其對光柵的傾角偏差和圓角邊緣的影響。 建模任務 **優化 ** 為了為傾斜光柵找到一組優化
    發表于 05-22 08:52

    單節點Elasticsearch+Filebeat+Kibana安裝指南

    單節點Elasticsearch+Filebeat+Kibana安裝指南
    的頭像 發表于 05-21 11:06 ?1193次閱讀
    單節點<b class='flag-5'>Elasticsearch</b>+Filebeat+Kibana安裝指南

    如何在CentOS系統中部署ELK日志分析系統

    日志分析已成為企業監控、故障排查和性能優化的重要組成部分。ELK(Elasticsearch、Logstash 和 Kibana)堆棧作為一種強大的開源解決方案,提供了高效的日志收集、存儲和可視化
    的頭像 發表于 05-08 11:47 ?1036次閱讀
    如何在CentOS系統中部署ELK日志分析系統

    DevEco Studio AI輔助開發工具兩大升級功能 鴻蒙應用開發效率再提升

    。 主要實現技術: (1) 使用大型語言模型(LLM):結合檢索到的上下文生成回答 (2) 提示工程(Prompt Engineering):通過優化提示模板,引導生成模型合理利用檢索結果。 (3
    發表于 04-18 14:43

    將NXP RT1166更換為RT1064,可以使用JTAG/SWD存儲和檢索其閃存上的數據嗎?

    我在我的項目中使用了 RT1166,但是,其中一個要求是芯片應該具有可被 JTAG/SWD 訪問的內部閃存。 RT1166 有,但 RT1064 有 4MB 的內部 Flash。 我可以使用 JTAG/SWD 存儲和檢索其閃存上的數據嗎?
    發表于 04-07 06:29

    《AI Agent 應用與項目實戰》閱讀心得3——RAG架構與部署本地知識庫

    分析模型在不同類型數據上的表現,來優化文本分割策略和檢索參數,使系統在保持響應速度的同時,能夠提供更準確的查詢結果。 經過對第6-7章的深入學習,我對RAG技術在工程實踐中的應用有了更系統的認識。這一
    發表于 03-07 19:49