国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

緩存分區可提高安全關鍵型多核應用程序的CPU利用率

星星科技指導員 ? 來源:嵌入式計算設計 ? 作者:TIM KING ? 2022-11-08 14:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

緩存分區減少了關鍵任務的最壞情況下的執行時間,從而提高了 CPU 利用率,尤其是對于多核應用程序。

多核處理器 (MCP) 的可認證、安全關鍵型軟件應用程序的開發人員面臨的最大挑戰之一是管理對共享資源(如緩存)的訪問。MCP 顯著增加緩存爭用,導致最壞情況執行時間 (WCET) 超過平均案例執行時間 (ACET) 100% 或更多。由于安全關鍵型開發人員必須為 WCET 制定預算,因此平均分配的任務(關鍵和非關鍵)的時間超過了所需的時間,從而導致 CPU 利用率顯著降低。解決此問題的一種方法是利用支持緩存分區的 RTOS,它使開發人員能夠以減輕爭用和減少 WCET 的方式綁定和控制干擾模式,從而在不影響安全關鍵性的情況下最大化可用 CPU 帶寬。

緩存爭用

在簡單的雙核處理器配置(圖 1)中,每個內核都有自己的 CPU 和 L1 緩存。兩個內核共享一個二級緩存。(請注意,未顯示共享內存和可選 L3。

圖1:雙核配置,無需緩存分區

pYYBAGNp9jOAc1p6AAAzASo43tM277.jpg

在此配置中,在核心 0 上執行的應用程序與在核心 1 上執行的應用程序競爭整個二級緩存。(請注意,同一內核上的應用程序也會相互競爭 L2;緩存分區也適用于這種情況。如果核心 0 上的應用程序 A 使用的數據映射到與核心 1 上的應用程序 B 相同的緩存行,則會發生沖突。

例如,假設 A 的數據駐留在 L2 中;對該數據的任何訪問都將花費很少的處理器周期。但假設 B 訪問的數據恰好映射到與 A 的數據相同的 L2 緩存行。此時,必須從 L2 中逐出 A 的數據(包括對 RAM 的潛在“寫回”),并且必須將 B 的數據從 RAM 中引入緩存。處理此碰撞所需的時間通常由 B 收取。然后,假設 A 再次訪問其數據。由于該數據不再位于 L2 中(B 的數據在其位置),因此必須從 L2 中逐出 B 的數據(包括潛在的“寫回”到 RAM),并且 A 的數據必須從 RAM 中恢復到緩存中。處理此碰撞所需的時間通常由 A 收取。

大多數時候,A和B很少會遇到這樣的碰撞。在這些情況下,它們各自的執行時間可以被視為“平均情況”(ACET)。但是,有時,它們的數據訪問會以高頻率發生沖突。在這些情況下,它們各自的執行時間必須被視為“最壞情況”(WCET)。

在開發可認證的安全關鍵型軟件時,必須為最壞情況的行為預算應用程序的執行時間。此類軟件必須有足夠的時間預算才能在每次執行時完成其預期功能,以免導致不安全的故障情況。安全關鍵型 RTOS 必須強制實施時間分區,以便每個應用程序都有固定的 CPU 時間預算來執行。

由于多個內核上的多個應用程序可能會產生對 L2 緩存的爭用,因此 MCP 上的 WCET 通常比 ACET 高得多。由于可認證的安全關鍵型應用程序必須有時間預算來容納其 WCET,這種情況會導致大量預算但未使用的時間,從而導致 CPU 利用率顯著下降。

緩存分區

緩存分區通過減少 WCET 來提高 CPU 利用率,從而減少必須預算以容納 WCET 的時間量。同樣,在簡單的雙核處理器配置(圖 2)中,每個內核都有自己的 CPU 和 L1 緩存,并且兩個內核共享一個 L2 緩存。

圖2:具有緩存分區的雙核配置

poYBAGNp9jWAU6wnAABFE6kB0AU379.jpg

在此配置中,RTOS 對 L2 緩存進行分區,以便每個內核都有自己的 L2 段,這意味著內核 0 上的應用程序使用的數據將僅緩存在內核 0 的 L2 分區中。同樣,核心 1 上的應用程序使用的數據將僅緩存在核心 1 的 L2 分區中。這種分區消除了不同內核上的應用程序通過 L2 沖突相互干擾的可能性。如果沒有這種干擾,應用程序 WCET 和 ACET 之間的增量通常比沒有緩存分區的情況要低得多。通過限制和控制這些干擾模式,緩存分區使應用程序執行時間更具確定性,并使開發人員能夠更嚴格地預算執行時間,從而保持較高的處理器利用率。

測試環境和應用程序

為了演示緩存分區的優勢,DDC-I 使用 Deos(其可認證、安全關鍵、時間和空間分區的 RTOS)來運行一套四個內存密集型測試應用程序,所有這些應用程序都具有一系列數據/代碼大小、順序和隨機訪問策略以及各種工作集大小:

只讀

只寫

復制

代碼執行

測試是在具有 32 KB L1 數據緩存、24 KB L1 指令緩存和 512 KB 統一 L2 緩存的 1.6 GHz 凌動處理器 (x86) 上進行的。請注意,雖然這些測試使用了單核 x86 處理器,但 Deos 的緩存分區功能同樣適用于在同一內核上執行的應用程序(這些應用程序也競爭 L2)。此外,它不依賴于 x86 處理器所特有的任何功能,并且同樣適用于其他處理器類型(如 ARM 或 PowerPC)。

測試是在有和沒有“緩存垃圾箱”應用程序的情況下運行的,該應用程序從L2中逐出測試應用程序數據/代碼,并使用自己的數據/代碼“臟”L2。實際上,從測試應用程序的角度來看,緩存垃圾程序將 L2 置于最壞情況狀態。也就是說,緩存垃圾箱模擬真實場景,其中不同的應用程序同時運行并爭用共享的 L2 緩存。

每個測試應用程序在三種情況下執行。在場景 1 中,在沒有緩存分區或緩存垃圾的情況下執行,測試應用程序將競爭整個 512 KB 二級緩存以及 RTOS 內核和各種調試工具。此測試建立基線平均性能,其中每個測試都以“平均”數量的 L2 爭用執行。

在不使用緩存分區的場景 2 中,測試應用程序與 RTOS 內核、場景 1 中使用的同一組調試工具以及惡意緩存垃圾程序應用程序競爭整個 512 KB 二級緩存。此測試建立基線最壞情況性能,其中每個測試在來自其他應用程序(主要是緩存垃圾程序)的最壞情況下執行 L2 干擾。

在使用緩存分區和緩存垃圾的場景 3 中,將創建三個 L2 分區:

分配給測試應用程序的 256 KB 分區

分配給 RTOS 內核的 64 KB 分區以及方案 1 和方案 2 中使用的同一組調試工具

分配給惡意緩存垃圾程序應用程序的 192 KB 分區。

此方案建立了優化的最壞情況性能,其中每個測試在其自己的 L2 分區內執行,不受其他應用程序(包括緩存垃圾程序)的干擾。

緩存分區結果、優勢

圖 3 顯示了只讀測試應用程序的結果。

圖3:緩存分區對只讀測試的影響

pYYBAGNp9jaAJhwZAABLOKtqL98240.jpg

例如,在沒有緩存分區和緩存垃圾的情況下(方案 1,ACET),只讀測試在工作集大小為 512 KB 的情況下,每次執行的平均時間為 105 微秒。在方案 2(沒有分區的 WCET,添加了緩存垃圾箱)中,對于相同的 512 KB 工作集,測試平均每次執行 400 微秒,增加了 280%。添加緩存分區(方案 3,帶緩存垃圾的 WCET)時,平均執行時間降至 117 微秒,僅比 ACET 高 11%。

這些結果證明了緩存分區對于每個周期執行大量讀取的應用程序的有效性。盡管由于量級差異,此處很難辨別,但當應用程序的工作集大小適合其使用的緩存分區(在本例中為 256 KB)時,對邊界 WCET 的影響更為明顯。由于緩存的性質,此結果是預期的。也就是說,嵌入式實時應用程序的工作集大小往往相對較小,因此我們預計緩存分區將使大多數應用程序受益。

只寫測試的結果與只讀測試相似,但對于較小的工作集更明顯。對于較大的工作集,結果顯示具有和不具有緩存分區的 WCET 之間的差異相對較小。

復制測試的結果與只讀測試相似,但對于較小的工作集更明顯。對于較大的工作集,結果不那么顯著,但仍然顯示出具有緩存分區的 WCET 的顯著改進(大約 2 倍)。

代碼執行測試的結果與只讀測試類似,但稍微不那么引人注目。

請注意,在同一緩存分區中執行的應用程序可能會相互干擾。但是,與在具有共享緩存的不同內核上執行的應用程序之間可能發生的不可預測的干擾模式相比,此類干擾通常更容易分析和綁定。在這些情況下,如果干擾不可預測,則可以將應用程序映射到單獨的緩存分區。

基準測試結果清楚地表明,緩存分區提供了一種有效的方法來綁定和控制 MCP 上共享緩存中的干擾模式。特別是,在對緩存進行分區時,可以更嚴格地綁定和控制 WCET。這允許應用程序開發人員設置相對緊湊但安全的執行時間預算,從而最大限度地提高 MCP 利用率。

當然,不同的應用和硬件配置的結果會有所不同,并且需要額外的RTOS功能才能成功認證基于安全關鍵型MCP的系統。無論如何,這些結果代表了在使用MCP托管可認證的安全關鍵應用程序的目標方面的重大進步。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    20255

    瀏覽量

    252342
  • cpu
    cpu
    +關注

    關注

    68

    文章

    11279

    瀏覽量

    225024
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    GPU 利用率<30%?這款開源智算云平臺讓算力不浪費 1%

    作為 AI 開發者,你是否早已受夠這些困境:花數百萬采購的 GPU 集群,利用率常年低于 30%,算力閑置如同燒錢;跨 CPU/GPU/NPU 異構資源調度難如登天,模型訓練卡在資源分配環節;部署
    的頭像 發表于 01-26 14:20 ?186次閱讀

    華為發布AI容器技術Flex:ai,算力平均利用率提升30%

    決方案。 ? 當前,AI產業正處于高速發展的黃金時期,海量算力需求如潮水般涌來。然而,算力資源利用率偏低的問題卻成為了產業發展的關鍵桎梏。具體表現為,小模型任務常常獨占整卡,導致大量資源閑置;大模型任務又因單機算力不足而難以支撐;更有大量缺乏GPU
    的頭像 發表于 11-26 08:31 ?7606次閱讀

    內存與數據處理優化藝術

    ,避免了數組索引的額外計算。 選擇合適的數據類型同樣重要。如果一個變量只需要表示0或1,使用最小所需的數據類型就比使用較大的類型更好,因為它占用內存更少,可能提高緩存利用率。 對于浮點運算,在不需要
    發表于 11-14 07:46

    普迪飛 secureWISE 全鏈路守護方案:讓 Fab 生產 “遠程可控、數據管、安全溯”!

    PDF超高安全遠程監控激活設備全生命周期價值secureWISE是一款遠程設備監控與訪問系統,基于工業物聯網(IIoT)平臺,顯著提升設備運行時長、利用率的可視性,進而優化設備健康狀態與功能表
    的頭像 發表于 09-15 18:08 ?515次閱讀
    普迪飛 secureWISE 全鏈路守護方案:讓 Fab 生產 “遠程可控、數據<b class='flag-5'>可</b>管、<b class='flag-5'>安全</b><b class='flag-5'>可</b>溯”!

    設備利用率算不清?智能管理系統自動分析數據,生成可視化報表幫你降本

    當設備數據自動流轉生成可視化報表,企業才算真正掌握降本增效主動權。曾經 Excel 里的利用率 “糊涂賬”,變成清晰可追溯的 “明白錢”。制造業競爭日益激烈的今天,誰能讓設備數據說話,誰就能在成本控制上占先機。
    的頭像 發表于 09-12 10:04 ?646次閱讀
    設備<b class='flag-5'>利用率</b>算不清?智能管理系統自動分析數據,生成可視化報表幫你降本

    從 “被動維修” 到 “主動管理”:這套系統讓設備利用率提升 30%

    從 “被動維修” 到 “主動管理”,是設備管理模式的轉變,更是數字化轉型的關鍵一步。在激烈的市場競爭中,能讓設備穩定高效運行的企業,才能在效率與成本上占據優勢。這套提升設備利用率 30% 的系統,為企業高質量發展提供了有效路徑。
    的頭像 發表于 09-04 10:04 ?853次閱讀
    從 “被動維修” 到 “主動管理”:這套系統讓設備<b class='flag-5'>利用率</b>提升 30%

    高性能緩存設計:如何解決緩存偽共享問題

    多核高并發場景下, 緩存偽共享(False Sharing) 是導致性能驟降的“隱形殺手”。當不同線程頻繁修改同一緩存行(Cache Line)中的獨立變量時,CPU
    的頭像 發表于 07-01 15:01 ?765次閱讀
    高性能<b class='flag-5'>緩存</b>設計:如何解決<b class='flag-5'>緩存</b>偽共享問題

    海光DCU率先展開文心系列模型的深度技術合作 FLOPs利用率(MFU)達47%

    海光DCU實現文心4.5模型高效適配; FLOPs利用率突破47%。 2025年6月30日,在百度文心4.5系列大模型正式開源當日,海光信息技術股份有限公司宣布其深度計算單元(DCU)率先完成對該系
    的頭像 發表于 07-01 14:35 ?2297次閱讀

    Linux系統性能指南

    Linux服務器運行了很多應用,在高負載下,服務器可能會出現性能瓶頸,例如CPU利用率過高、內存不足、磁盤I/O瓶頸等,從而導致系統卡頓,服務無法正常運行等問題。所以針對以上問題,可以通過調整內核參數和系統的相關組件,優化應用程序
    的頭像 發表于 06-23 14:12 ?1788次閱讀
    Linux系統性能指南

    拼版怎么拼好,板廠經常說利用率太低,多收費用?

    做板的時候,板廠經常說我拼版利用率太低,要多收取費用,哪位大神知道怎么算利用率
    發表于 05-14 13:42

    mes工廠管理系統:如何讓設備利用率提升50%?

    在制造業競爭日益激烈的今天,設備利用率直接決定了企業的盈利能力。許多工廠管理者都在思考同一個問題:如何在不增加設備投資的情況下,讓現有產能發揮出最大價值?MES工廠管理系統正是解決這一難題的金鑰匙
    的頭像 發表于 05-09 15:55 ?815次閱讀
    mes工廠管理系統:如何讓設備<b class='flag-5'>利用率</b>提升50%?

    MCU緩存設計

    從Flash或外部存儲器讀取的指令,減少CPU因等待指令加載而停滯,適用于實時性要求高的場景(如中斷服務程序)。 D-Cache?:緩存從Flash、SRAM或外部存儲器讀取的數據,加速變量與堆棧的讀寫操作。 TCM(緊耦合內存
    的頭像 發表于 05-07 15:29 ?1116次閱讀

    DeepSeek MoE架構下的網絡負載如何優化?解鎖90%網絡利用率關鍵策略

    、All-to-All等),網絡面臨高并發、低延遲、無損傳輸的嚴苛需求。然而,傳統以太網的網絡利用率長期徘徊在35%~40%,成為制約AI算力釋放的關鍵瓶頸。
    的頭像 發表于 04-28 12:04 ?891次閱讀
    DeepSeek MoE架構下的網絡負載如何優化?解鎖90%網絡<b class='flag-5'>利用率</b>的<b class='flag-5'>關鍵</b>策略

    TECS OpenStack資源池主機磁盤分區使用率過高的問題處理

    某運營商TECS資源池上報“主機磁盤分區使用率過高”的告警,如下圖所示。
    的頭像 發表于 03-21 09:47 ?1027次閱讀
    TECS OpenStack資源池主機磁盤<b class='flag-5'>分區</b>使<b class='flag-5'>用率</b>過高的問題處理

    程序開發必須知道的5個技巧:提升效率與用戶體驗的權威指南

    提升1秒加載速度降低7%的用戶流失。 交互流暢性:利用微信小程序的setData合并更新機制,減少頻繁渲染導致的卡頓,并通過加載動畫緩解等待焦慮。 二、 80%的用戶僅使用小程序20
    發表于 03-14 14:51