国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Spark優(yōu)化:小文件合并的步驟

如意 ? 來源:segmentfault.com ? 作者:華為云開發(fā)者社區(qū) ? 2020-08-13 17:53 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

我們知道,大部分Spark計算都是在內存中完成的,所以Spark的瓶頸一般來自于集群(standalone, yarn, mesos, k8s)的資源緊張,CPU,網絡帶寬,內存。Spark的性能,想要它快,就得充分利用好系統(tǒng)資源,尤其是內存和CPU。有時候我們也需要做一些優(yōu)化調整來減少內存占用,例如將小文件進行合并的操作。

一、問題現(xiàn)象

我們有一個15萬條總數(shù)據量133MB的表,使用SELECT * FROM bi.dwd_tbl_conf_info全表查詢耗時3min,另外一個500萬條總數(shù)據量6.3G的表ods_tbl_conf_detail,查詢耗時23秒。兩張表均為列式存儲的表。

大表查詢快,而小表反而查詢慢了,為什么會產生如此奇怪的現(xiàn)象呢?

二、問題探詢

數(shù)據量6.3G的表查詢耗時23秒,反而數(shù)據量133MB的小表查詢耗時3min,這非常奇怪。我們收集了對應的建表語句,發(fā)現(xiàn)兩者沒有太大的差異,大部分為String,兩表的列數(shù)也相差不大。

CREATE TABLE IF NOT EXISTS `bi`。`dwd_tbl_conf_info` ( `corp_id` STRING COMMENT ‘’, `dept_uuid` STRING COMMENT ‘’, `user_id` STRING COMMENT ‘’, `user_name` STRING COMMENT ‘’, `uuid` STRING COMMENT ‘’, `dtime` DATE COMMENT ‘’, `slice_number` INT COMMENT ‘’, `attendee_count` INT COMMENT ‘’, `mr_id` STRING COMMENT ‘’, `mr_pkg_id` STRING COMMENT ‘’, `mr_parties` INT COMMENT ‘’, `is_mr` TINYINT COMMENT ‘R’, `is_live_conf` TINYINT COMMENT ‘’ ) CREATE TABLE IF NOT EXISTS `bi`。`ods_tbl_conf_detail` ( `id` string, `conf_uuid` string, `conf_id` string, `name` string, `number` string, `device_type` string, `j_time` bigint, `l_time` bigint, `media_type` string, `dept_name` string, `UPDATETIME` bigint, `CREATETIME` bigint, `user_id` string, `USERAGENT` string, `corp_id` string, `account` string )

因為兩張表均為很簡單的SELECT查詢操作,無任何復雜的聚合join操作,也無UDF相關的操作,所以基本確認查詢慢的應該發(fā)生的讀表的時候,我們將懷疑的點放到了讀表操作上。通過查詢兩個查詢語句的DAG和任務分布,我們發(fā)現(xiàn)了不一樣的地方。

查詢快的表,查詢時總共有68個任務,任務分配比如均勻,平均7~9s左右,而查詢慢的表,查詢時總共1160個任務,平均也是9s左右。如下圖所示:

Spark優(yōu)化:小文件合并的步驟

至此,我們基本發(fā)現(xiàn)了貓膩所在。大表6.3G但文件個數(shù)小,只有68個,所以很快跑完了。而小表雖然只有133MB,但文件個數(shù)特別多,導致產生的任務特別多,而由于單個任務本身比較快,大部分時間花費在任務調度上,導致任務耗時較長。

那如何才能解決小表查詢慢的問題呢?

三、業(yè)務調優(yōu)

那現(xiàn)在擺在我們面前就存在現(xiàn)在問題:

為什么小表會產生這么小文件 已經產生的這么小文件如何合并

帶著這兩個問題,我們和業(yè)務的開發(fā)人員聊了一個發(fā)現(xiàn)小表是業(yè)務開發(fā)人員從原始數(shù)據表中,按照不同的時間切片查詢并做數(shù)據清洗后插入到小表中的,而由于時間切片切的比較小,導致這樣的插入次數(shù)特別多,從而產生了大量的小文件。

那么我們需要解決的問題就是2個,如何才能把這些歷史的小文件進行合并以及如何才能保證后續(xù)的業(yè)務流程中不再產生小文件,我們指導業(yè)務開發(fā)人員做了以下優(yōu)化:

使用INSERT OVERWRITE bi.dwd_tbl_conf_info SELECT * FROM bi.dwd_tbl_conf_info合并下歷史的數(shù)據。由于DLI做了數(shù)據一致性保護,OVERWRITE期間不影響原有數(shù)據的讀取和查詢,OVERWRITE之后就會使用新的合并后的數(shù)據。合并后全表查詢由原來的3min縮短到9s內完成。 原有表修改為分區(qū)表,插入時不同時間放入到不同分區(qū),查詢時只查詢需要的時間段內的分區(qū)數(shù)據,進一步減小讀取數(shù)據量。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    11279

    瀏覽量

    224993
  • 數(shù)據庫
    +關注

    關注

    7

    文章

    4020

    瀏覽量

    68353
  • SPARK
    +關注

    關注

    1

    文章

    108

    瀏覽量

    21239
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    全新軟件與模型優(yōu)化為NVIDIA DGX Spark注入強大動力

    自發(fā)布以來,NVIDIA 通過持續(xù)的軟件優(yōu)化以及與軟件合作伙伴和開源社區(qū)的緊密協(xié)作,不斷提升基于 Grace Blackwell 架構的 DGX Spark 的性能。這些舉措在推理、訓練和創(chuàng)意工作流方面都取得了顯著的成效。
    的頭像 發(fā)表于 01-09 10:17 ?581次閱讀

    如何在DGX Spark上運行NVIDIA Omniverse

    首先感謝 Vigor 同學第一時間的分享,以下是具體如何在 DGX Spark 上運行 Omniverse 的方法。
    的頭像 發(fā)表于 12-17 10:13 ?616次閱讀
    如何在DGX <b class='flag-5'>Spark</b>上運行NVIDIA Omniverse

    如何在CANape合并多個MDF格式的測量文件

    實現(xiàn)步驟:1、點擊Tools|FunctionsEditor進入函數(shù)編輯界面:2、新建腳本,展開Scripts,右鍵單擊Projectdirectory并選擇New:3、創(chuàng)建腳本,給腳本命名,按下圖
    的頭像 發(fā)表于 12-02 10:21 ?318次閱讀
    如何在CANape<b class='flag-5'>合并</b>多個MDF格式的測量<b class='flag-5'>文件</b>

    NVIDIA DGX Spark系統(tǒng)恢復過程與步驟

    在使用 NVIDIA DGX Spark 的過程中,可能會出現(xiàn)配置故障,而導致開發(fā)中斷的問題,本篇教程將帶大家了解如何一步步完成系統(tǒng)恢復。
    的頭像 發(fā)表于 11-28 09:46 ?5203次閱讀
    NVIDIA DGX <b class='flag-5'>Spark</b>系統(tǒng)恢復過程與<b class='flag-5'>步驟</b>

    系統(tǒng)c盤滿了怎么清理不需要文件

    統(tǒng)c盤滿了怎么清理不需要文件 ? 你的 c: 驅動已經滿了, 電腦變慢或者無法安裝更新, 這是 windows 機器常見的問題, 不用當技術專家也能騰出空間, 這篇指南用簡單安全的步驟幫你找到并刪除
    的頭像 發(fā)表于 11-22 09:30 ?1013次閱讀

    NVIDIA DGX Spark助力構建自己的AI模型

    2025 年 1 月 6 日,NVIDIA 正式宣布其 Project DIGITS 項目,并于 3 月 18 日更名為 NVIDIA DGX Spark,進一步公布了產品細節(jié)。DGX Spark
    的頭像 發(fā)表于 11-21 09:25 ?1167次閱讀
    NVIDIA DGX <b class='flag-5'>Spark</b>助力構建自己的AI模型

    NVIDIA DGX Spark快速入門指南

    NVIDIA DGX Spark 已正式向 AI 開發(fā)者交付,對于剛入手的全新 DGX Spark,該如何進行初始化設置?本篇文章將引導您完成 DGX Spark 首次設置。在初始設置的過程中,您
    的頭像 發(fā)表于 11-17 14:11 ?6052次閱讀
    NVIDIA DGX <b class='flag-5'>Spark</b>快速入門指南

    程序運行速度很慢如何優(yōu)化

    頻率: 過高頻率的中斷會占用大量CPU時間。優(yōu)化ISR代碼,使其盡可能短小精悍。能合并的中斷盡量合并。 使用RTOS特性: 如果使用了RTOS,確保任務優(yōu)先級設置合理,避免高優(yōu)先級任務長時間阻塞低優(yōu)先級任務。利用信號量、消息隊列
    發(fā)表于 11-17 06:12

    安泰新能源發(fā)布新一代智能跟蹤支架AT-Spark,為大型光伏電站提供一體化解決方案

    發(fā)電效率和更低平準化度電成本(LCOE)日益增長的需求,通過提供一體化解決方案來優(yōu)化整個項目生命周期的性能。 結構設計升級后,穩(wěn)定性更強、安裝更快、成本效率更高 AT-Spark采用多回轉驅動系統(tǒng)和八角扭矩管,剛度提升40%,強度提升50%,同時材料成本降低30%。其
    的頭像 發(fā)表于 11-13 21:08 ?256次閱讀

    訂單拆單合并處理接口設計與實現(xiàn)

    ? 在電商或訂單管理系統(tǒng)中,訂單拆單和合并是常見的優(yōu)化操作。拆單指將一個訂單拆分成多個子訂單(例如基于庫存位置或物流需求),而合并則是將多個訂單整合成一個(例如減少配送成本)。一個高效的訂單拆單
    的頭像 發(fā)表于 10-16 14:47 ?638次閱讀
    訂單拆單<b class='flag-5'>合并</b>處理接口設計與實現(xiàn)

    NVIDIA DGX Spark桌面AI計算機開啟預訂

    DGX Spark 現(xiàn)已開啟預訂!麗臺科技作為 NVIDIA 授權分銷商,提供從產品到服務的一站式解決方案,助力輕松部署桌面 AI 計算機。
    的頭像 發(fā)表于 09-23 17:20 ?1310次閱讀
    NVIDIA DGX <b class='flag-5'>Spark</b>桌面AI計算機開啟預訂

    鴻蒙5開發(fā)寶藏案例分享---優(yōu)化應用包體積大小問題

    問題 :多個模塊依賴同一庫的不同版本,打包時全量合并,體積爆炸。優(yōu)化方案1 **(OHPM <1.5.0):在項目級 **<span class=\"ne-text
    發(fā)表于 06-13 10:09

    HarmonyOS優(yōu)化應用文件上傳下載慢問題性能優(yōu)化

    : 圖2 上傳數(shù)量和耗時對比圖表 由于上傳耗時受到網絡狀態(tài)影響,偏差較大,結果取的幾次測量結果的最小值。但是仍然可以從數(shù)據中看出,優(yōu)化前的耗時基本為線性增長,壓縮優(yōu)化后的耗時在上傳文件數(shù)量較低時并不
    發(fā)表于 05-27 16:19

    HarmonyOS優(yōu)化應用文件上傳下載慢問題性能優(yōu)化

    : 圖2 上傳數(shù)量和耗時對比圖表 由于上傳耗時受到網絡狀態(tài)影響,偏差較大,結果取的幾次測量結果的最小值。但是仍然可以從數(shù)據中看出,優(yōu)化前的耗時基本為線性增長,壓縮優(yōu)化后的耗時在上傳文件數(shù)量較低時并不
    發(fā)表于 05-22 10:54

    NVIDIA加速的Apache Spark助力企業(yè)節(jié)省大量成本

    隨著 NVIDIA 推出 Aether 項目,通過采用 NVIDIA 加速的 Apache Spark 企業(yè)得以自動加速其數(shù)據中心規(guī)模的分析工作負載,從而節(jié)省數(shù)百萬美元。
    的頭像 發(fā)表于 03-25 15:09 ?1161次閱讀
    NVIDIA加速的Apache <b class='flag-5'>Spark</b>助力企業(yè)節(jié)省大量成本