国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

ClickHouse內幕(3)基于索引的查詢優化

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2024-06-11 10:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

ClickHouse索引采用唯一聚簇索引的方式,即Part內數據按照order by keys有序,在整個查詢計劃中,如果算子能夠有效利用輸入數據的有序性,對算子的執行性能將有巨大的提升。本文討論ClickHouse基于索引的查詢算子優化方式。

在整個查詢計劃中Sort、Distinct、聚合這3個算子相比其他算子比如:過濾、projection等有如下幾個特點:1.算子需要再內存中保存狀態,內存代價高;2.算子計算代價高;3.算子會阻斷執行pipeline,待所有數據計算完整后才會向下游輸出數據。所以上算子往往是整個查詢的瓶頸算子。

本文詳細討論,3個算子基于索引的查詢優化前后,在計算、內存和pipeline阻斷上的影響。

實驗前準備:

后續的討論主要基于實驗進行。

CREATE TABLE test_in_order
(
    `a` UInt64,
    `b` UInt64,
    `c` UInt64,
    `d` UInt64
)
ENGINE = MergeTree
ORDER BY (a, b);

表中總共有3個part,每個part數據量4條。

PS: 用戶可以在插入數據前提前關閉后臺merge,以避免part合并成一個,如果part合并成一個將影響查詢并行度,可能對實驗有影響,以下查詢可以關閉后臺merge:system stop merges test_in_order

一、Sort算子

如果order by查詢的order by字段與表的order by keys的前綴列匹配,那么可以根據數據的有序特性對Sort算子進行優化。

1.Sort算子實現方式

首先看下不能利用主鍵有序性的場景,即對于order by查詢的order by字段與表的order by keys的前綴列不匹配。比如下面的查詢:

query_1: EXPLAIN PIPELINE SELECT b FROM read_in_order ORDER BY b ASC

它的執行計劃如下:

┌─explain───────────────────────────────┐
│ (Expression)                          │
│ ExpressionTransform                   │
│   (Sorting)                           │
│   MergingSortedTransform 3 → 1        │
│     MergeSortingTransform × 3         │
│       LimitsCheckingTransform × 3     │
│         PartialSortingTransform × 3   │
│           (Expression)                │
│           ExpressionTransform × 3     │
│             (ReadFromMergeTree)       │
│             MergeTreeThread × 3 0 → 1 │
└───────────────────────────────────────┘

排序算法由3個Transform組成,其中

1)PartialSortingTransform對單個Chunk進行排序;

2)MergeSortingTransform對單個stream進行排序;

3)MergingSortedTransform合并多個有序的stream進行全局sort-merge排序

wKgaomZnupqAPI15AAB2MeV7qvk592.png


如果查詢的order by字段與表的order by keys的前綴列匹配,那么可以根據數據的有序特性對查詢進行優化,優化開關:optimize_read_in_order。

2.匹配索引列的查詢

以下查詢的order by字段與表的order by keys的前綴列匹配

query_3: EXPLAIN PIPELINE SELECT b FROM test_in_order ORDER BY a ASC, b ASCSETTINGS optimize_read_in_order = 0 -- 關閉read_in_order優化

查看order by語句的pipeline執行計劃

┌─explain───────────────────────────┐
│ (Expression)                      │
│ ExpressionTransform               │
│   (Sorting)                       │
│   MergingSortedTransform 3 → 1    │
│     MergeSortingTransform × 3     │
│       (Expression)                │
│       ExpressionTransform × 3     │
│         (ReadFromMergeTree)       │
│         MergeTreeThread × 3 0 → 1 │
└───────────────────────────────────┘

此時order by算子的算法

1)首先MergeSortingTransform對輸入的stream進行排序

2)然后MergingSortedTransform將多個排好序的stream進行合并,并輸出一個整體有序的stream,也是最終的排序結果。

這里有個疑問在關閉read_in_order優化的查詢計劃中,系統直接默認了MergeSortingTransform的輸入在Chunk內是有序的,這里其實是一個默認優化,因為order by查詢的order by字段與表的order by keys的前綴列匹配,所以數據在Chunk內部一定是有序的。

3. 開啟優化optimize_read_in_order

┌─explain──────────────────────────┐
│ (Expression)                     │
│ ExpressionTransform              │
│   (Sorting)                      │
│   MergingSortedTransform 3 → 1   │
│     (Expression)                 │
│     ExpressionTransform × 3      │
│       (ReadFromMergeTree)        │
│       MergeTreeInOrder × 3 0 → 1 │
└──────────────────────────────────┘

4. 優化分析

打開optimize_read_in_order后:

1.對于計算方面:算法中只有一個MergingSortedTransform,省略了單個stream內排序的步驟

2.由于內存方面:由于MergeSortingTransform是消耗內存最大的步驟,所以優化后可以節約大量的內存

3.對于poipeline阻塞:MergeSortingTransform會阻塞整個pipeline,所以優化后也消除了對pipeline的阻塞

二、Distinct算子

如果distinct查詢的distinct字段與表的order by keys的前綴列匹配,那么可以根據數據的有序特性對Distinct算子進行優化,優化開關:optimize_distinct_in_order。通過以下實驗進行說明:

1. Distinct算子實現方式

查看distinct語句的pipeline執行計劃

query_2: EXPLAIN PIPELINE SELECT DISTINCT * FROM woo.test_in_order SETTINGS optimize_distinct_in_order = 0 -- 關閉distinct in order優化
┌─explain─────────────────────────────┐
│ (Expression)                        │
│ ExpressionTransform                 │
│   (Distinct)                        │
│   DistinctTransform                 │
│     Resize 3 → 1                    │
│       (Distinct)                    │
│       DistinctTransform × 3         │
│         (Expression)                │
│         ExpressionTransform × 3     │
│           (ReadFromMergeTree)       │
│           MergeTreeThread × 3 0 → 1 │
└─────────────────────────────────────┘

Distinct算子采用兩階段的方式,首先第一個DistinctTransform在內部進行初步distinct,其并行度為3,可以簡單的認為有3個線程在同時執行。然后第二個DistinctTransform進行final distinct。

每個DistinctTransform的計算方式為:首先構建一個HashSet數據結構,然后根據HashSet,構建一個Filter Mask(如果當前key存在于HashSet中,則過濾掉),最后過濾掉不需要的數據。

2.開啟優化optimize_distinct_in_order

┌─explain────────────────────────────────┐
│ (Expression)                           │
│ ExpressionTransform                    │
│   (Distinct)                           │
│   DistinctTransform                    │
│     Resize 3 → 1                       │
│       (Distinct)                       │
│       DistinctSortedChunkTransform × 3 │
│         (Expression)                   │
│         ExpressionTransform × 3        │
│           (ReadFromMergeTree)          │
│           MergeTreeThread × 3 0 → 1    │
└────────────────────────────────────────┘

可以看到初步distinct和final distinct采用了不同的transform,DistinctSortedChunkTransform和DistinctTransform。

DistinctSortedChunkTransform:對單個stream內的數據進行distinct操作,因為distinct列跟表的order by keys的前綴列匹配,scan算子讀取數據的時候一個stream只從一個part內讀取數據,那么每個distinct transform輸入的數據就是有序的。所以distinct算法有:

DistinctSortedChunkTransform算法一:

Transform中保留最后一個輸入的數據作為狀態,對于每個輸入的新數據如果跟保留的狀態相同,那么忽略,如果不同則將上一個狀態輸出給上一個算子,然后保留當前的數據最為狀態。這種算法對于在整個stream內部全局去重時間和空間復雜度都有極大的降低。

wKgaomZnup2AV9P5AAAkb6cOov0046.png


DistinctSortedStreamTransform算法二:(ClickHouse采用的)

Transform對與每個Chunk(ClickHouse中Transform數據處理的基本單位,默認大約6.5w行),首先將相同的數據劃分成多個Range,并設置一個mask數組,然后將相同的數據刪除掉,最后返回刪除重復數據的Chunk。

wKgZomZnup2AVsteAAA1RbKTsnk642.png


3. 優化分析

打開optimize_distinct_in_order后:主要對于第一階段的distinct步驟進行了優化,從基于HashSet過濾的算法到基于連續相同值的算法。

1.對于計算方面:優化后的算法,省去了Hash計算,但多了判斷相等的步驟,在不同數據基數集大小下,各有優劣。

2.由于內存方面:優化后的算法,不需要存儲HashSet

3.對于poipeline阻塞:優化前后都不會阻塞pipeline

三、聚合算子

如果group by查詢的order by字段與表的order by keys的前綴列匹配,那么可以根據數據的有序特性對聚合算子進行優化,優化開關:optimize_aggregation_in_order。

1.聚合算子實現方式

查看group by語句的pipeline執行計劃:

query_4: EXPLAIN PIPELINE SELECT a FROM test_in_order GROUP BY a SETTINGS optimize_aggregation_in_order = 0 -- 關閉read_in_order優化
┌─explain─────────────────────────────┐
│ (Expression)                        │
│ ExpressionTransform × 8             │
│   (Aggregating)                     │
│   Resize 3 → 8                      │
│     AggregatingTransform × 3        │
│       StrictResize 3 → 3            │
│         (Expression)                │
│         ExpressionTransform × 3     │
│           (ReadFromMergeTree)       │
│           MergeTreeThread × 3 0 → 1 │
└─────────────────────────────────────┘

對于聚合算子的整體算法沒有在執行計劃中完整顯示出來,其宏觀上采用兩階段的聚合算法,其完整算法如下:1.AggregatingTransform進行初步聚合,這一步可以并行計算;2.ConvertingAggregatedToChunksTransform進行第二階段聚合。(PS:為簡化起見,忽略two level HashMap,和spill to disk的介紹)。

2.開啟優化optimize_aggregation_in_order

執行計劃如下:

┌─explain───────────────────────────────────────┐
│ (Expression)                                  │
│ ExpressionTransform × 8                       │
│   (Aggregating)                               │
│   MergingAggregatedBucketTransform × 8        │
│     Resize 1 → 8                              │
│       FinishAggregatingInOrderTransform 3 → 1 │
│         AggregatingInOrderTransform × 3       │
│           (Expression)                        │
│           ExpressionTransform × 3             │
│             (ReadFromMergeTree)               │
│             MergeTreeInOrder × 3 0 → 1        │
└───────────────────────────────────────────────┘

可以看到打開optimize_aggregation_in_order后aggregating算法由三個步驟組成:

1)首先AggregatingInOrderTransform會將stream內連續的相同的key進行預聚合,預聚合后在當前stream內相同keys的數據只會有一條;

2)FinishAggregatingInOrderTransform將接收到的多個stream內的數據進行重新分組使得輸出的chunk間數據是有序的,假設前一個chunk中group by keys最大的一條數據是5,當前即將輸出的chunk中沒有大于5的數據;

3)MergingAggregatedBucketTransform的作用是進行最終的merge aggregating。

wKgaomZnup2ARICmAABfrfxtQaI394.png


FinishAggregatingInOrderTransform的分組算法如下:

假設有3個stream當前算子會維護3個Chunk,每一次選取在當前的3個Chunk內找到最后一條數據的最小值,比如初始狀態最小值是5,然后將3個Chunk內所有小于5的數據一次性取走,如此反復如果一個Chunk被取光,需要從改stream內拉取新的Chunk。

wKgZomZnup6AEeZ2AABVTVDACO0969.png


這種算法保證了每次FinishAggregatingInOrderTransform向下游輸出的Chunk的最大值小于下一次Chunk的最小值,便于后續步驟的優化。

3.優化分析

打開optimize_aggregation_in_order后:主要對于第一階段的聚合步驟進行了優化,從基于HashMap的算法到基于連續相同值的算法。

1.對于計算方面:優化后的算法,減少了Hash計算,但多了判斷相等的步驟,在不同數據基數集大小下,各有優劣。

2.由于內存方面:優化前后無差別

3.對于poipeline阻塞:優化前后無差別

四、優化小結

在整個查詢計劃中Sort、Distinct、聚合這3個算子算子往往是整個查詢的瓶頸算子,所以值得對其進行深度優化。ClickHouse通過利用算子輸入數據的有序性,優化算子的算法或者選擇不同的算法,在計算、內存和pipeline阻塞三個方面均有不同程度的優化。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Pipeline
    +關注

    關注

    0

    文章

    29

    瀏覽量

    9960
  • 算子
    +關注

    關注

    0

    文章

    16

    瀏覽量

    7408
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    從0到1搭建實時日志監控系統:基于WebSocket + Elasticsearch的實戰方案

    + Express(輕量級,適合快速開發) 前端展示 :Vue.js + ECharts(可視化日志趨勢) 3. 核心實現步驟(附代碼片段與關鍵配置) 3.1 Elasticsearch索引設計 json
    發表于 01-09 16:43

    5分鐘了解SEO優化服務器對網站加載速度的影響

    一個為SEO優化過的服務器,能顯著提升網站性能,從而在搜索引擎排名中占據有利位置。
    的頭像 發表于 12-02 10:27 ?331次閱讀

    訂單實時狀態查詢接口技術實現

    、可靠的訂單實時狀態查詢接口,涵蓋接口設計、技術選型、代碼實現和性能優化。我們將使用Python和Flask框架作為示例,確保內容真實可靠,適合開發人員參考。 1. 接口設計原則 訂單實時狀態查詢接口需要滿足以下要求: 實時性
    的頭像 發表于 10-21 17:58 ?730次閱讀
    訂單實時狀態<b class='flag-5'>查詢</b>接口技術實現

    Hudi系列:Hudi核心概念之索引(Indexs)

    上的Instant action操作類型 ?1.4 時間線上State狀態類型 ?1.5 時間線官網實例 ?二. 文件布局 ?三. 索引 3.1 簡介 3.2 對比其它(Hive)沒有索引的區別 3.2
    的頭像 發表于 10-21 09:47 ?387次閱讀
    Hudi系列:Hudi核心概念之<b class='flag-5'>索引</b>(Indexs)

    華納云香港服務器數據庫索引優化策略

    在香港服務器環境中,數據庫索引優化是提升整體性能的關鍵因素。隨著企業數據量的不斷增長,高效的索引管理能顯著提高查詢速度并降低服務器負載。本文將深入探討如何針對香港服務器(特別是其獨特的
    的頭像 發表于 10-16 17:06 ?518次閱讀

    常用PromQL查詢案例總結

    在云原生時代,Prometheus已經成為監控領域的事實標準。作為一名資深運維工程師,我見過太多團隊在PromQL查詢上踩坑,也見過太多因為監控不到位導致的生產事故。今天分享10個實戰中最常用的PromQL查詢案例,每一個都是血淚經驗的總結。
    的頭像 發表于 09-18 14:54 ?717次閱讀

    MySQL性能優化實戰

    你是否遇到過這些場景:凌晨3點被告警電話吵醒,數據庫CPU飆到100%?一條簡單的查詢語句要跑30秒?明明加了索引查詢還是慢如蝸牛?
    的頭像 發表于 09-17 16:19 ?514次閱讀

    Simcenter FLOEFD擴展設計探索模塊:通過設計探索和優化擴展CFD功能

    優勢與功能優勢:通過設計探索和優化擴展CFD功能確定更高性能的設計系列更快探索更出色的設計使用仿真推動創新顯著縮減仿真時間和成本功能:強大的設計探索引擎使用SHERPA算法的穩健優化和搜索功能利用
    的頭像 發表于 09-11 11:43 ?661次閱讀
    Simcenter FLOEFD擴展設計探索模塊:通過設計探索和<b class='flag-5'>優化</b>擴展CFD功能

    數據庫慢查詢分析與SQL優化實戰技巧

    今天,我將分享我在處理數千次數據庫性能問題中積累的實戰經驗,幫助你系統掌握慢查詢分析與SQL優化的核心技巧。無論你是剛入門的運維新手,還是有一定經驗的工程師,這篇文章都將為你提供實用的解決方案。
    的頭像 發表于 09-08 09:34 ?974次閱讀

    MySQL慢查詢優化案例

    凌晨3點,手機瘋狂震動。監控告警顯示:核心業務接口響應時間超過20秒,用戶投訴如潮水般涌來。這是每個運維工程師的噩夢時刻。
    的頭像 發表于 08-27 14:49 ?711次閱讀

    MySQL慢查詢終極優化指南

    作為一名在生產環境摸爬滾打多年的運維工程師,我見過太多因為慢查詢導致的線上故障。今天分享一套經過實戰檢驗的MySQL慢查詢分析與索引優化方法論,幫你徹底解決數據庫性能瓶頸。
    的頭像 發表于 08-13 15:55 ?843次閱讀

    鴻蒙5開發寶藏案例分享---優化應用時延問題

    ;gt; this.data = result) } 效果 : 4000條數據從 780ms → 172ms ! 注意 :小于1000條數據時差異不大,大數據量必用 ?** 案例3:數據庫查詢優化
    發表于 06-13 10:08

    鴻蒙5開發寶藏案例分享---Grid性能優化案例

    鴻蒙提供了****GridLayoutOptions布局選項,通過預定義規則直接計算位置,避免遍歷! ?核心優化原理 提前聲明不規則項 :將需要跨列的Item索引(如每4個中的第1個)存入數組
    發表于 06-12 17:47

    ClickHouse 的“獨孤九劍”:極速查詢的終極秘籍

    引言 在大數據時代的江湖,數據量呈爆炸式增長,如何高效地處理和分析海量數據成為了一個關鍵問題。各路英雄豪杰紛紛亮出自己的絕技,爭奪數據處理的巔峰寶座。而在這場激烈的角逐中,ClickHouse 以其
    的頭像 發表于 04-07 13:34 ?704次閱讀
    <b class='flag-5'>ClickHouse</b> 的“獨孤九劍”:極速<b class='flag-5'>查詢</b>的終極秘籍

    《AI Agent 應用與項目實戰》閱讀心得3——RAG架構與部署本地知識庫

    的片段,再利用預訓練模型進行向量化,建立高效的檢索索引。在檢索階段,系統計算查詢與文檔片段的向量相似度,篩選出最相關的內容。這些內容會通過注入提示的方式提供給LLM,指導其生成準確且符合上下文的回答
    發表于 03-07 19:49