国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型如何助力AIOps以保證高可靠的服務?

vliwulianw ? 來源:軟件質量報道 ? 2023-07-03 09:22 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

十多年來,微軟提供了世界上最流行的超大規(guī)模生產力套件之一,Office 365,它現在是Microsoft 365的一部分。微軟365包括數百種不同的服務,在全球數十個數據中心的數十萬臺服務器上每秒運行數十億次事務。它為數以億計的企業(yè)、教育和消費者用戶提供日常云服務。

這些服務永遠不會停止。我們的服務被醫(yī)院和創(chuàng)傷中心、電網提供商、國家、州和地方政府、主要銀行和金融服務提供商、航空公司、航運和物流提供商以及從最大到最小的企業(yè)所使用。為了滿足他們的需求,我們必須持續(xù)可用,這意味著在很長一段時間內100%可用。我們的服務應該在災難中無縫運行,因為災難往往是我們的服務最重要的時候;協(xié)調應急工作。

這是一個巨大的挑戰(zhàn)。我們的極端規(guī)模意味著,在我們的服務中,“十億分之一”的事件并不罕見,而是司空見慣。同時,我們不能允許那些“十億分之一”的事件損害我們服務的可用性。這種幾乎令人難以置信的大規(guī)模和極端臨界的組合要求我們不斷地重新思考和改進服務架構、設計、開發(fā)和運營的各個方面。實現持續(xù)可用性和高可靠性服務的一個重要方面是全面理解事件并減輕它們對客戶的影響。

除了使用人工智能(AI)和機器學習(ML)來開發(fā)新的生產特性和功能,以取悅我們的用戶,我們還利用人工智能和機器學習的力量來提高服務的可用性和可靠性,這對我們的超大規(guī)模服務至關重要。本文展示了將AI應用于管理生產事件生命周期的一個示例。我們計劃在以后的文章中分享更多示例。

——Jim Kleewein, Microsoft 365技術科學家

1. 介紹

微軟365(“M365”)是世界上最大的生產力云。成千上萬的各種規(guī)模的組織都在使用它。無論您是在召開團隊會議,在Outlook中編寫電子郵件還是與同事協(xié)作處理Word文檔,您都可以依靠M365來支持這些生產力工具和應用程序。M365由網絡規(guī)模和大規(guī)模分布式云服務提供支持,由全球幾十個數據中心、每個中心數十萬臺服務器處理艾字節(jié)(exabytes)量級的數據。

為了確保一流的生產力體驗,我們的工程基礎設施在高效的同時高度可靠是至關重要的。 在M365系統(tǒng)創(chuàng)新研究小組,我們利用人工智能(AI)的力量,將云智能和AIOps集成到我們的服務和產品中。我們正在使用創(chuàng)新的AI/ML技術和算法來幫助設計、構建和運營復雜的云基礎設施和服務,并在運營效率和可靠性方面提供逐步改進的功能,使我們能夠提供一流的生產力體驗。我們正在將AIOps應用于以下幾個領域:

系統(tǒng)AI使智能成為一種內置能力,在較少人為干預的情況下實現高質量、高效率、自我控制和自適應。

客戶利用AI/ML創(chuàng)造無與倫比的用戶體驗,并通過云服務實現卓越的用戶滿意度。

AI for DevOps將AI/ML注入到整個軟件開發(fā)生命周期中,以實現高開發(fā)人員生產力。

幫助構建高度可靠的云服務一直是我們關注的重點領域之一。其中一個挑戰(zhàn)是快速識別、分析和緩解事件。我們的研究從生產事件的基礎開始:我們分析事件的生命周期,了解常見的根本原因、緩解措施和解決方案的工程效益。

2. 了解生產事故

9255f5cc-1933-11ee-962d-dac502259ad0.jpg

圖1 大規(guī)模云服務中服務可靠性問題概述 我們的獲獎論文[1]對Microsoft Teams使用的大規(guī)模M365云上的生產事件進行了全面的多維實證研究。由于Microsoft-Teams支持實時通信,因此可靠性至關重要。從檢測、根因和緩解的角度理解生產事件,是構建更好的監(jiān)控和自動化工具的第一步。圖1顯示了大規(guī)模云服務的服務可靠性問題概述,來源于我們研究論文[1]的總結。

1) 事件背后的常見根本原因和緩解措施

928b53ca-1933-11ee-962d-dac502259ad0.jpg

圖2 根本原因分析(RCA)和風險緩解類別的細分 雖然代碼錯誤是最常見的事件原因,但大多數事件(約60%)是由基礎設施、部署和服務依賴關系中的非代碼/非配置相關問題引起的。我們還觀察到,在由代碼/配置錯誤引起的40%的事件中,近80%的事件在沒有代碼或配置修復的情況下得到了緩解。

2)TTD和TTM的根本原因和緩解措施

92a5004a-1933-11ee-962d-dac502259ad0.jpg

圖3 不同根本原因類別的平均TTD和TTM

92c49f5e-1933-11ee-962d-dac502259ad0.jpg

圖4 不同緩解步驟的平均TTD和TTM 由代碼錯誤和依賴失敗引起的事件的TTD和TTM明顯高于其他事件。此外,30%的緩解延遲是由手動緩解步驟造成的。 3)小結

由于監(jiān)控不力,軟件bug和外部依賴導致的事件檢測時間較長。這凸顯了對實用工具的需求,以實現細粒度、原位系統(tǒng)可觀測性。

某些根本原因類別導致的事件在確定其根本原因類別后會迅速緩解。這表明,使用能夠快速識別其根本原因類別的工具,可以縮短由這些類別引起的事件的總體緩解時間。

由某些根本原因引起的事件本身就難以自動監(jiān)控(例如,需要監(jiān)控全局狀態(tài))。這表明開發(fā)人員應該在測試中投入更多,以便在生產前發(fā)現這些根本原因類別,從而避免此類事件。

我們還設想,自動化將在未來用于進行事件診斷并確定根本原因和緩解步驟,以幫助快速解決事件并最大限度地減少客戶影響。此外,我們應該利用過去的經驗教訓,建立應對未來事件的韌性。我們假設采用AIOps和使用最先進的ML模型,如大型語言模型(LLM)可以幫助實現這兩個目標。

3. 使用LLM進行自動事件管理

最近人工智能的突破使大語言模型(LLM)對自然語言有了豐富的理解。他們已經變得善于從大量數據中理解和推理。它們還可以泛化各種任務和領域,如代碼生成、翻譯、問答等。考慮到事件管理的復雜性,我們有動力評估這些LLM在幫助分析根本原因和減輕生產事件方面的有效性。

92dcc80e-1933-11ee-962d-dac502259ad0.jpg

圖5 根因分析和風險緩解中充分利用GPT-3.X的能力 在最近的工作中,我們在ICSE 2023會議上首次展示了LLM對生產事故診斷的有用性。當創(chuàng)建一個事件時,作者將為事件指定一個標題,并描述任何相關細節(jié),如任何錯誤消息、異常行為和其他可能有助于解決的細節(jié)。我們使用給定事件的標題和摘要作為LLM的輸入,并生成根本原因和緩解步驟。

我們對4萬多起事件進行了認真的研究,并比較了幾家LLM在零樣本(zero-shot)、微調(fine-tuning)和多任務設置下的表現。我們發(fā)現,對GPT-3和GPT-3.5模型進行微調后,可以顯著提高LLM 處理事件數據的有效性。

1)在根因分析中GPT-3.x模型的有效性

表1 不同LLM的詞匯和語義性能

93000fda-1933-11ee-962d-dac502259ad0.png

在離線評估中,我們通過計算生成的建議與事件管理(IcM)系統(tǒng)中提到的根本原因或緩解步驟的基本事實之間的3個詞匯相似性進行度量,將GPT-3.5與三個GPT-3模型的性能進行了比較。不同任務的GPT-3.5指標的平均增益如下:

對于根本原因和緩解建議任務,davincici-002 (GPT-3.5)比所有GPT-3模型分別提供至少15.38%和11.9%的增益,如表1所示。

當我們通過將根本原因作為輸入添加到模型中來生成緩解計劃時,GPT-3.5模型比3個GPT-3模型至少高出11.16%。

我們觀察到,由于MRI(Machine Reported Incidents,機器報告的事件)的重復性,LLM模型在MRI上比客戶報告的事件(Customer Reported Incidents,CRIs)上表現更好。

使用事件數據對LLM進行微調可以顯著提高性能。優(yōu)化后的GPT-3.5模型在根本原因生成任務中提高了45.5%,在風險緩解生成任務中提高了131.3%(即直接在預訓練的GPT-3或GPT-3.5模型上進行推理)。

2)從事件所有者的角度看問題

除了使用語義和詞匯度量進行分析分析外,我們還采訪了事件所有者,以評估生成的建議的有效性。總體而言,GPT-3.5在大多數指標上都優(yōu)于GPT-3。在實時生產環(huán)境中,超過70%的OCEs給出了3分或以上的評分(滿分5分)。

4. 展望

雖然我們正處于使用LLM來幫助自動化事件解決的初始階段,但我們設想在這個領域有許多開放的研究問題,這些問題將大大提高LLM的有效性和準確性。例如,我們如何結合關于事件的其他上下文,如討論條目、日志、服務度量,甚至受影響服務的依賴關系圖,以改進診斷。

另一個挑戰(zhàn)是數據過時(staleness),因為模型需要經常使用最新的事件數據進行重新訓練。

為了解決這些挑戰(zhàn),我們正在利用最新的ChatGPT模型結合檢索增強方法,通過會話界面改進事件診斷。例如,ChatGPT可以通過提出假設,并通過反饋循環(huán)回答關鍵問題,幫助工程師有效地確定事件的根本原因

9342990e-1933-11ee-962d-dac502259ad0.jpg

圖6 檢索增強RCA的工作流程


此外,ChatGPT可以積極地融入到事件診斷的“討論”中。通過從可用的文檔和日志中收集證據,該模型可以對查詢生成連貫的、上下文相關的、聽起來自然的響應,并提供相應的建議,從而促進討論,并加速事件解決過程。我們相信,通過上下文和有意義的根本原因分析和風險緩解,這有可能在整個事件管理過程中實現逐步功能改進,從而減少大量人力勞動,提高我們的可靠性和客戶滿意度。







審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1817

    文章

    50098

    瀏覽量

    265433
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136962
  • ChatGPT
    +關注

    關注

    31

    文章

    1598

    瀏覽量

    10274

原文標題:大模型如何助力AIOps以保證高可靠的服務?

文章出處:【微信號:軟件質量報道,微信公眾號:軟件質量報道】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Altair CFD 技術賦能工程創(chuàng)新?

    費用,大幅降低軟件采購和維護成本,同時支持交鑰匙HPC和云部署,實現軟件、系統(tǒng)管理與基礎設施的一體化服務,提升成本利用率。? 精度可靠,貼合工業(yè)實際:所有求解器均經過大量工業(yè)試驗對標驗證,其中NS求解器
    發(fā)表于 02-28 14:47

    AIOps 智能化運維:讓 IT 運維從 “被動救火” 到 “主動防御”

    前言在數字化時代,企業(yè)的IT系統(tǒng)就像城市的交通網絡,支撐著業(yè)務的每一次運轉。但隨著服務器、云集群、邊緣設備的數量激增,傳統(tǒng)運維靠人工盯著監(jiān)控、排查日志的模式,早已跟不上系統(tǒng)的復雜程度——告警刷屏
    的頭像 發(fā)表于 02-12 14:09 ?1508次閱讀
    <b class='flag-5'>AIOps</b> 智能化運維:讓 IT 運維從 “被動救火” 到 “主動防御”

    三防漆助力消費電子更輕更薄更可靠 |鉻銳特實業(yè)

    鉻銳特實業(yè)|三防漆(保形涂層)超薄涂層助力消費電子實現更輕、更薄設計,同時提供卓越的防潮、防塵、防腐蝕保護,大幅提升小型化、集成度產品的可靠性與使用壽命。
    的頭像 發(fā)表于 01-29 13:00 ?111次閱讀
    三防漆<b class='flag-5'>助力</b>消費電子更輕更薄更<b class='flag-5'>可靠</b> |鉻銳特實業(yè)

    Microchip推出模型語境協(xié)議(MCP)服務器,助力AI驅動的產品數據訪問

    )今日推出模型語境協(xié)議(MCP)服務器。作為AI接口,MCP服務器可直接連接兼容的AI工具和大型語言模型,為其提供解答問題所需的上下文信息。通過簡單的對話式查詢,MCP
    的頭像 發(fā)表于 12-04 16:45 ?1000次閱讀

    SL3180:6-150V超寬壓輸入、3A大電流異步降壓芯片,重塑工業(yè)與車載電源可靠設計

    開關降壓型DC-DC轉換器,集成、高效率、高可靠性為核心,助力工程師應對復雜電源挑戰(zhàn)。 核心產品亮點 超寬輸入電壓范圍:6V~150V,適應極端電壓波動,覆蓋多種高壓應用場景;
    發(fā)表于 10-29 17:04

    DeepSeek模型如何在云服務器上部署?

    隨著大型語言模型(LLM)的應用日益普及,許多開發(fā)者和企業(yè)希望將像DeepSeek這樣的優(yōu)秀模型部署到自己的云服務器上,實現私有化、定制化服務
    的頭像 發(fā)表于 10-13 16:52 ?949次閱讀

    電源開關的瞬態(tài)保護設計,實現穩(wěn)健、可靠的電源路徑保護

    protection》來自德州儀器(TI)的《Analog Design Journal》,主要探討如何為電源開關設計瞬態(tài)保護,實現穩(wěn)健可靠的電源路徑防護。以下是要點匯總:*附件:電源開關的瞬態(tài)保護設計,實現穩(wěn)健
    發(fā)表于 08-19 17:11

    100G 高速線纜:睿海光電技術突破構筑智算互聯(lián)的高效基石

    在人工智能大模型訓練需求爆發(fā)與全球智算中心加速布局的背景下,數據中心內部短距互聯(lián)的效率成為制約算力釋放的關鍵瓶頸。100G 高速線纜憑借其帶寬、低延遲的特性,已成為連接服務器、交換機與存儲設備
    的頭像 發(fā)表于 08-19 14:52 ?762次閱讀

    睿海光電高效交付與廣泛兼容助力AI數據中心800G光模塊升級

    光電的InfiniBand兼容方案,實現千卡GPU集群的無損通信,模型訓練周期縮短40%。 五、服務承諾:3年質保+終身維修,全周期護航 睿海光電客戶為中心,提供3年超長質保與終身維修服務
    發(fā)表于 08-13 19:01

    無刷直流電機助力式EPS控制器設計與試驗

    [摘要]基于無刷直流電機(BLDCM)模型和汽車電動助力轉向(EPS)動力學模型,構建了BLDCM 控制仿真模型和 EPS性能仿真模型;設計
    發(fā)表于 07-08 19:28

    FA模型訪問Stage模型DataShareExtensionAbility說明

    FA模型訪問Stage模型DataShareExtensionAbility 概述 無論FA模型還是Stage模型,數據讀寫功能都包含客戶端和
    發(fā)表于 06-04 07:53

    數據標注服務—奠定大模型訓練的數據基石

    影響著模型能力的上限。隨著大模型技術的快速發(fā)展,數據標注服務的重要性愈發(fā)凸顯,其面臨的挑戰(zhàn)也日益嚴峻。當前,就標貝科技看來,數據標注服務已從簡單的數據標記,發(fā)展成為一門融合了人工智能、
    的頭像 發(fā)表于 03-21 10:30 ?3305次閱讀

    維智科技AI技術助力城市智能化轉型

    DeepSeek為代表的通用大模型技術突破,正推動政府治理邁入認知智能新階段。面對城市資源配置、空間規(guī)劃、民生服務等復雜場景,如何將人工智能轉化為治理效能,已成為政府機構的核心命題。
    的頭像 發(fā)表于 03-19 15:32 ?868次閱讀

    浪潮軟件率先推出政務服務模型,重塑全場景應用

    濟南2025年3月12日?/美通社/ -- DeepSeek爆火加速了政務服務行業(yè)全面擁抱AI的步伐,全國各地紛紛加速推進大模型在政務服務領域的探索與創(chuàng)新。作為數字政府領域的領導者企業(yè),浪潮軟件憑借
    的頭像 發(fā)表于 03-14 18:18 ?863次閱讀
    浪潮軟件率先推出政務<b class='flag-5'>服務</b>大<b class='flag-5'>模型</b>,重塑全場景應用

    憶聯(lián)PCIe5.0 SSD軟硬協(xié)同的高可靠性,支撐大模型全流程訓練

    深圳2025年3月11日?/美通社/ -- 當前,大模型全流程訓練對數據存儲系統(tǒng)的要求已突破傳統(tǒng)邊界。企業(yè)級SSD作為AI算力基礎設施的核心組件,其高可靠性、高性能及智能化管理能力,正成為支撐大模型
    的頭像 發(fā)表于 03-12 10:18 ?1095次閱讀
    憶聯(lián)PCIe5.0 SSD<b class='flag-5'>以</b>軟硬協(xié)同的高<b class='flag-5'>可靠</b>性,支撐大<b class='flag-5'>模型</b>全流程訓練