国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)模型在生產(chǎn)中退化的原因

汽車(chē)玩家 ? 來(lái)源:AI公園 ? 作者:Alexandre Gonfalonier ? 2020-05-04 12:11 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

導(dǎo)讀

當(dāng)你把一個(gè)模型投入生產(chǎn),它就開(kāi)始退化,那這個(gè)時(shí)候,我們?cè)撛趺崔k呢。

由于意外的機(jī)器學(xué)習(xí)模型退化導(dǎo)致了幾個(gè)機(jī)器學(xué)習(xí)項(xiàng)目的失敗,我想分享一下我在機(jī)器學(xué)習(xí)模型退化方面的經(jīng)驗(yàn)。實(shí)際上,有很多關(guān)于模型創(chuàng)建和開(kāi)發(fā)階段的宣傳,而不是模型維護(hù)。

假設(shè)機(jī)器學(xué)習(xí)解決方案一旦投入生產(chǎn),無(wú)需維護(hù)就能完美運(yùn)行,這是一個(gè)錯(cuò)誤的假設(shè),是企業(yè)將其首款人工智能(AI)產(chǎn)品推向市場(chǎng)時(shí)最常見(jiàn)的錯(cuò)誤。

當(dāng)你把一個(gè)模型投入生產(chǎn),它就開(kāi)始退化

為什么機(jī)器學(xué)習(xí)模型會(huì)隨著時(shí)間退化?

你可能已經(jīng)知道,數(shù)據(jù)是成功的ML系統(tǒng)中最重要的組成部分。有一個(gè)相關(guān)的數(shù)據(jù)集為你提供準(zhǔn)確的預(yù)測(cè)是一個(gè)很好的開(kāi)始,但是這些數(shù)據(jù)提供準(zhǔn)確的預(yù)測(cè)能持續(xù)多久呢?

在所有ML項(xiàng)目中,預(yù)測(cè)數(shù)據(jù)將如何隨時(shí)間變化是關(guān)鍵。在一些項(xiàng)目中,我們低估了這一步,并且很難交付高精確度。在我看來(lái),一旦你在PoC階段之后對(duì)你的項(xiàng)目有信心,就應(yīng)該制定一個(gè)計(jì)劃來(lái)保持模型的更新。

事實(shí)上,在開(kāi)始使用它之前,你的模型的準(zhǔn)確性將處于最佳狀態(tài)。這一現(xiàn)象被稱為概念漂移,盡管在過(guò)去的20年里學(xué)術(shù)界對(duì)其進(jìn)行了大量的研究,但在行業(yè)最佳實(shí)踐中它仍然經(jīng)常被忽略。

概念漂移:表示模型試圖預(yù)測(cè)的目標(biāo)變量的統(tǒng)計(jì)特性隨著時(shí)間以不可預(yù)見(jiàn)的方式發(fā)生變化。這導(dǎo)致了一些問(wèn)題,因?yàn)殡S著時(shí)間的推移,預(yù)測(cè)的準(zhǔn)確性會(huì)降低。

機(jī)器學(xué)習(xí)模型在生產(chǎn)中退化的原因

關(guān)鍵是,與計(jì)算器相比,ML系統(tǒng)確實(shí)與現(xiàn)實(shí)世界交互。如果你使用ML來(lái)預(yù)測(cè)你的商店的需求和價(jià)格,你最好考慮一下本周的天氣、日歷和你的競(jìng)爭(zhēng)對(duì)手在做什么。

在概念漂移的情況下,我們對(duì)數(shù)據(jù)的解釋隨時(shí)間而變化,而數(shù)據(jù)的一般分布則沒(méi)有變化。這導(dǎo)致最終用戶將模型預(yù)測(cè)解釋為隨著時(shí)間的推移,對(duì)相同/相似數(shù)據(jù)的預(yù)測(cè)已經(jīng)惡化。數(shù)據(jù)和概念都可能同時(shí)漂移,使問(wèn)題更加棘手。

我注意到,依賴于人類(lèi)行為的模型可能特別容易退化。顯然,風(fēng)險(xiǎn)可以根據(jù)項(xiàng)目的性質(zhì)進(jìn)行預(yù)測(cè)。在大多數(shù)情況下,必須制定定期的模型評(píng)審和再訓(xùn)練計(jì)劃。

此外,大多數(shù)模型只能捕獲反映它們所看到的訓(xùn)練數(shù)據(jù)的模式。一個(gè)好的模型捕獲了這些數(shù)據(jù)的基本部分,而忽略了不重要的部分。這創(chuàng)建了泛化的性能,但是任何模型都有一定程度的局限性。

泛化:指的是你的模型能夠適當(dāng)?shù)剡m應(yīng)新的、以前未見(jiàn)過(guò)的數(shù)據(jù),這些數(shù)據(jù)來(lái)自于用于創(chuàng)建模型的相同分布。這與過(guò)擬合的概念密切相關(guān)。如果你的模型過(guò)擬合,那么它就不能很好地泛化。

機(jī)器學(xué)習(xí)模型在生產(chǎn)中退化的原因

泛化性能的最佳測(cè)試是查看模型在很長(zhǎng)一段時(shí)間內(nèi)對(duì)真實(shí)數(shù)據(jù)的執(zhí)行情況。這個(gè)過(guò)程至少有兩個(gè)主要元素。

如何防止模型退化?

這聽(tīng)起來(lái)可能很明顯,但是在部署之后監(jiān)視ML性能非常重要。如果監(jiān)視所有特征聽(tīng)起來(lái)像一項(xiàng)耗時(shí)的任務(wù),那么我們可以監(jiān)視一些關(guān)鍵特征,這些特征的數(shù)據(jù)分布變化可能會(huì)嚴(yán)重影響模型結(jié)果。我強(qiáng)烈建議你在投入生產(chǎn)之前為這個(gè)過(guò)程創(chuàng)建一個(gè)策略(通過(guò)識(shí)別正確的元素)。

模型監(jiān)控是一個(gè)持續(xù)的過(guò)程

如果你觀察到模型性能下降,那么是時(shí)候重新構(gòu)造模型設(shè)計(jì)了。棘手的部分不是刷新模型和創(chuàng)建一個(gè)重新訓(xùn)練的模型,而是考慮額外的特征,這些特征可能會(huì)提高模型的性能,使其更加可靠和準(zhǔn)確。

完成上述步驟之后,就可以使用新的或修改過(guò)的一組特征和模型參數(shù)重新創(chuàng)建模型了。在這一點(diǎn)上,我們的目標(biāo)是確定一個(gè)最優(yōu)的模型,該模型能夠提供最佳的精度,這很好地概括了一些數(shù)據(jù)漂移。

我注意到,在某些情況下,模型的重新創(chuàng)建并不能提高模型的性能。在這些情況下,分析模型出錯(cuò)的例子并尋找當(dāng)前特征集之外的趨勢(shì)可以幫助識(shí)別新特征。基于這些知識(shí)創(chuàng)建新特征可以給模型提供新的學(xué)習(xí)經(jīng)驗(yàn)。

手工學(xué)習(xí)

我們經(jīng)常使用新數(shù)據(jù)來(lái)維護(hù)模型的一個(gè)解決方案是,使用我們最初用于構(gòu)建模型的相同流程來(lái)訓(xùn)練和部署我們的模型。我們稱之為手工學(xué)習(xí)。你可以想象這個(gè)過(guò)程會(huì)很耗時(shí)。我們多久對(duì)模型進(jìn)行一次再訓(xùn)練?每周?每天嗎?答案取決于你的ML應(yīng)用。

當(dāng)我們手工對(duì)模型進(jìn)行再訓(xùn)練時(shí),我們可能會(huì)發(fā)現(xiàn)一種新的算法或一組不同的特征,可以提高精確度。事實(shí)上,定期回顧你的處理過(guò)程可能是個(gè)好主意。正如我前面提到的,你可能會(huì)找到一種不同的算法或一組新的特征來(lái)改進(jìn)你的預(yù)測(cè),而這并不是連續(xù)學(xué)習(xí)系統(tǒng)所擅長(zhǎng)的。

也許你可以每個(gè)月或者每年用之前收集的數(shù)據(jù)來(lái)更新模型。

這還可能涉及對(duì)模型進(jìn)行反向測(cè)試,以便在重新擬合靜態(tài)模型時(shí)選擇適當(dāng)數(shù)量的歷史數(shù)據(jù)。

給數(shù)據(jù)加權(quán)重

另一個(gè)解決方案可能是給數(shù)據(jù)加權(quán)重。事實(shí)上,有些算法允許你權(quán)衡輸入數(shù)據(jù)的重要性。

使用與數(shù)據(jù)年齡成反比的加權(quán)系統(tǒng)可能會(huì)很有趣,這樣會(huì)更多地關(guān)注最近的數(shù)據(jù)(權(quán)重更高),而較少關(guān)注最近的數(shù)據(jù)(權(quán)重更小)。

持續(xù)學(xué)習(xí)

我最喜歡的方法是擁有一個(gè)能夠持續(xù)評(píng)估和重新訓(xùn)練模型的自動(dòng)化系統(tǒng)。持續(xù)學(xué)習(xí)系統(tǒng)的好處是它可以完全自動(dòng)化。

機(jī)器學(xué)習(xí)模型在生產(chǎn)中退化的原因

一般來(lái)說(shuō),合理的模型監(jiān)控與周密的模型檢查計(jì)劃相結(jié)合,對(duì)于保持生產(chǎn)模型的準(zhǔn)確性是至關(guān)重要的。對(duì)關(guān)鍵變量進(jìn)行優(yōu)先級(jí)檢查,并為發(fā)生更改時(shí)設(shè)置警告,這將確保你不會(huì)對(duì)環(huán)境的更改感到意外,而環(huán)境的更改會(huì)破壞你的模型的有效性。

對(duì)于數(shù)據(jù)點(diǎn)具有高度獨(dú)立性的輸入變量,可以使用統(tǒng)計(jì)過(guò)程控制中使用的控制圖來(lái)檢測(cè)過(guò)程的變化。

處理模型漂移

我堅(jiān)持這一點(diǎn),但你的ML成功也取決于你計(jì)劃如何維護(hù)你訓(xùn)練有素的模型。在幾個(gè)項(xiàng)目中,我意識(shí)到缺乏模型工作經(jīng)驗(yàn)的商業(yè)領(lǐng)袖可能無(wú)法預(yù)料到這種需求。

一個(gè)產(chǎn)品化的模型包括監(jiān)視和維護(hù)

應(yīng)該定期評(píng)估新數(shù)據(jù)集上的模型性能。應(yīng)該定期對(duì)這些性能跟蹤進(jìn)行可視化和比較,以便您可以確定何時(shí)進(jìn)行干預(yù)。有幾個(gè)度量ML性能的指標(biāo)。

機(jī)器學(xué)習(xí)模型在生產(chǎn)中退化的原因

模型退化的原因可以被明確地發(fā)現(xiàn)和建模。可以研究、理解和利用周期性時(shí)間效應(yīng)。一旦模型收集了足夠的性能指標(biāo),數(shù)據(jù)科學(xué)團(tuán)隊(duì)就可以處理這個(gè)項(xiàng)目。假設(shè)你一直在跟蹤他們。

定期考慮性能指標(biāo)并觸發(fā)重新訓(xùn)練或重建模型的過(guò)程也是必要的,因?yàn)闆](méi)有它,你將能夠看到性能損失,但沒(méi)有適當(dāng)?shù)南到y(tǒng)來(lái)解決它。

投入&團(tuán)隊(duì)

除了技術(shù)方面,我強(qiáng)烈建議你在項(xiàng)目投入生產(chǎn)后,將最好的數(shù)據(jù)科學(xué)家和工程師留在項(xiàng)目中。與經(jīng)典的軟件項(xiàng)目不同,在部署之后,你的操作團(tuán)隊(duì)處理它,工程師繼續(xù)構(gòu)建下一個(gè)大項(xiàng)目,ML和AI系統(tǒng)中的許多技術(shù)挑戰(zhàn)是保持它們的準(zhǔn)確性。

你還需要投入資源,以保持你的客戶使用的機(jī)器學(xué)習(xí)產(chǎn)品和服務(wù)的準(zhǔn)確性。這意味著與傳統(tǒng)軟件相比,ML產(chǎn)品的運(yùn)營(yíng)邊際成本更高。

維護(hù)成本

為了維護(hù)高質(zhì)量的模型,應(yīng)該在每次數(shù)據(jù)交付時(shí)對(duì)算法進(jìn)行再訓(xùn)練。另一方面,為了優(yōu)化成本,應(yīng)該盡可能少地去做。

顯然,某些機(jī)器學(xué)習(xí)開(kāi)發(fā)實(shí)踐需要更多的技術(shù)債,因此需要比其他實(shí)踐更多的未來(lái)維護(hù)。特定于機(jī)器學(xué)習(xí)的發(fā)展債風(fēng)險(xiǎn)因素是多種多樣的。它們包括無(wú)數(shù)的概率變量、數(shù)據(jù)依賴、遞歸反饋循環(huán)、管道流程、配置設(shè)置,以及加劇機(jī)器學(xué)習(xí)算法性能不可預(yù)測(cè)性的其他因素。

這些復(fù)雜性越多,就越難以進(jìn)行有效維護(hù)所需的根源分析。

你無(wú)法完全自動(dòng)化地解決維護(hù)負(fù)擔(dān)。在任何情況下,傾向于機(jī)器學(xué)習(xí)模型都需要仔細(xì)檢查、批判性思維和手工工作,而這些只有受過(guò)高度訓(xùn)練的數(shù)據(jù)科學(xué)家才能提供。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    強(qiáng)化學(xué)習(xí)會(huì)讓自動(dòng)駕駛模型學(xué)習(xí)更快嗎?

    是一種讓機(jī)器通過(guò)“試錯(cuò)”學(xué)會(huì)決策的辦法。與監(jiān)督學(xué)習(xí)不同,監(jiān)督學(xué)習(xí)是有人提供示范答案,讓模型去模仿;而強(qiáng)化學(xué)習(xí)不會(huì)把每一步的“正確答案”都告訴
    的頭像 發(fā)表于 01-31 09:34 ?643次閱讀
    強(qiáng)化<b class='flag-5'>學(xué)習(xí)</b>會(huì)讓自動(dòng)駕駛<b class='flag-5'>模型</b><b class='flag-5'>學(xué)習(xí)</b>更快嗎?

    中小企業(yè)紛紛采用協(xié)作機(jī)器人的核心原因

    機(jī)器人技術(shù)曾是資金雄厚的大企業(yè)專(zhuān)屬,但如今格局已然改變,眾多小型制造企業(yè)也能購(gòu)入這些先進(jìn)設(shè)備。目前,不少企業(yè)在生產(chǎn)制造中紛紛采用協(xié)作機(jī)器人。促成這一轉(zhuǎn)變的核心原因有哪些?它又為行業(yè)帶來(lái)
    的頭像 發(fā)表于 01-28 16:07 ?308次閱讀

    機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    無(wú)論你是剛?cè)腴T(mén)還是已經(jīng)從事人工智能模型相關(guān)工作一段時(shí)間,機(jī)器學(xué)習(xí)和深度學(xué)習(xí)中都存在一些我們需要時(shí)刻關(guān)注并銘記的常見(jiàn)錯(cuò)誤。如果對(duì)這些錯(cuò)誤置之不理,日后可能會(huì)引發(fā)諸多麻煩!只要我們密切關(guān)注
    的頭像 發(fā)表于 01-07 15:37 ?191次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>中需避免的 7 個(gè)常見(jiàn)錯(cuò)誤與局限性

    基于ETAS嵌入式AI工具鏈將機(jī)器學(xué)習(xí)模型部署到量產(chǎn)ECU

    AI在汽車(chē)行業(yè)的應(yīng)用日益深化,如何將機(jī)器學(xué)習(xí)領(lǐng)域的先進(jìn)模型(如虛擬傳感器)集成到ECU軟件中,已成為業(yè)界面臨的核心挑戰(zhàn)。
    的頭像 發(fā)表于 12-24 10:55 ?6106次閱讀
    基于ETAS嵌入式AI工具鏈將<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>部署到量產(chǎn)ECU

    機(jī)器人內(nèi)部零配件的生產(chǎn)加工廠從哪找?

    ,常見(jiàn)的處理方法包括電鍍、電泳涂裝、陽(yáng)極氧化、化學(xué)鍍、熱噴涂、真空電鍍、電解拋光等。 在機(jī)器人配件的生產(chǎn)中,不同的部件需要采用不同的材料和表面處理工藝。例如,機(jī)器人的外殼通常采用不銹鋼材料,經(jīng)過(guò)拋光
    發(fā)表于 12-09 18:22

    自動(dòng)駕駛中Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]近年來(lái),隨著ChatGPT、Claude、文心一言等大語(yǔ)言模型在生成文本、對(duì)話交互等領(lǐng)域的驚艷表現(xiàn),“Transformer架構(gòu)是否正在取代傳統(tǒng)深度學(xué)習(xí)”這一話題一直被
    的頭像 發(fā)表于 08-13 09:15 ?4184次閱讀
    自動(dòng)駕駛中Transformer大<b class='flag-5'>模型</b>會(huì)取代深度<b class='flag-5'>學(xué)習(xí)</b>嗎?

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    Neuton 是一家邊緣AI 公司,致力于讓機(jī)器 學(xué)習(xí)模型更易于使用。它創(chuàng)建的模型比競(jìng)爭(zhēng)對(duì)手的框架小10 倍,速度也快10 倍,甚至可以在最先進(jìn)的邊緣設(shè)備上進(jìn)行人工智能處理。在這篇博文
    發(fā)表于 07-31 11:38

    FPGA在機(jī)器學(xué)習(xí)中的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無(wú)法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場(chǎng)可編程門(mén)陣列)作為一種靈活且高效的硬件加速平臺(tái)
    的頭像 發(fā)表于 07-16 15:34 ?2890次閱讀

    通過(guò)NVIDIA Cosmos模型增強(qiáng)機(jī)器人學(xué)習(xí)

    通用機(jī)器人的時(shí)代已經(jīng)到來(lái),這得益于機(jī)械電子技術(shù)和機(jī)器人 AI 基礎(chǔ)模型的進(jìn)步。但目前機(jī)器人技術(shù)的發(fā)展仍面臨一個(gè)關(guān)鍵挑戰(zhàn):機(jī)器人需要大量的訓(xùn)練
    的頭像 發(fā)表于 07-14 11:49 ?1085次閱讀
    通過(guò)NVIDIA Cosmos<b class='flag-5'>模型</b>增強(qiáng)<b class='flag-5'>機(jī)器人學(xué)習(xí)</b>

    邊緣計(jì)算中的機(jī)器學(xué)習(xí):基于 Linux 系統(tǒng)的實(shí)時(shí)推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來(lái)到Medium的這一角落。在本文中,我們將把一個(gè)機(jī)器學(xué)習(xí)模型(神經(jīng)網(wǎng)絡(luò))部署到邊緣設(shè)備上,利用從ModbusTCP寄存器獲取的實(shí)時(shí)數(shù)據(jù)來(lái)預(yù)測(cè)一臺(tái)復(fù)古音頻放大器的當(dāng)前健康狀況。你將
    的頭像 發(fā)表于 06-11 17:22 ?997次閱讀
    邊緣計(jì)算中的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>:基于 Linux 系統(tǒng)的實(shí)時(shí)推理<b class='flag-5'>模型</b>部署與工業(yè)集成!

    汽車(chē)生產(chǎn)中的測(cè)試臺(tái)連接 – EtherCAT 轉(zhuǎn)CANopen高效的網(wǎng)關(guān)通信

    汽車(chē)生產(chǎn)中的測(cè)試臺(tái)連接 – EtherCAT 轉(zhuǎn)CANopen高效的網(wǎng)關(guān)通信
    的頭像 發(fā)表于 05-20 11:43 ?524次閱讀
    汽車(chē)<b class='flag-5'>生產(chǎn)中</b>的測(cè)試臺(tái)連接 – EtherCAT 轉(zhuǎn)CANopen高效的網(wǎng)關(guān)通信

    電機(jī)高效再制造在企業(yè)生產(chǎn)中的應(yīng)用

    高效再制造在企業(yè)生產(chǎn)中的應(yīng)用.pdf (免責(zé)聲明:本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問(wèn)題,請(qǐng)第一時(shí)間告知,刪除內(nèi)容!)
    發(fā)表于 04-07 17:31

    十大鮮為人知卻功能強(qiáng)大的機(jī)器學(xué)習(xí)模型

    本文轉(zhuǎn)自:QuantML當(dāng)我們談?wù)?b class='flag-5'>機(jī)器學(xué)習(xí)時(shí),線性回歸、決策樹(shù)和神經(jīng)網(wǎng)絡(luò)這些常見(jiàn)的算法往往占據(jù)了主導(dǎo)地位。然而,除了這些眾所周知的模型之外,還存在一些鮮為人知但功能強(qiáng)大的算法,它們能夠以驚人的效率
    的頭像 發(fā)表于 04-02 14:10 ?1094次閱讀
    十大鮮為人知卻功能強(qiáng)大的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>模型</b>

    電子產(chǎn)品生產(chǎn)中的電路板布線設(shè)計(jì)

    電子產(chǎn)品的生產(chǎn)中,電路板布線設(shè)計(jì)和激光焊錫技術(shù)是兩個(gè)關(guān)鍵環(huán)節(jié),直接影響產(chǎn)品的性能、可靠性和生產(chǎn)效率。
    的頭像 發(fā)表于 03-18 14:31 ?996次閱讀
    電子產(chǎn)品<b class='flag-5'>生產(chǎn)中</b>的電路板布線設(shè)計(jì)

    SiC模塊解決儲(chǔ)能變流器PCS中SiC MOSFET雙極性退化失效痛點(diǎn)

    流器中,SiC MOSFET的雙極性退化問(wèn)題因高頻、高溫、高可靠性需求的疊加而成為致命矛盾。解決這一矛盾需從材料、器件設(shè)計(jì)多維度協(xié)同優(yōu)化,以實(shí)現(xiàn)SiC技術(shù)潛力與長(zhǎng)期可靠性的平衡。 以下從原因、后果及在PCS中的特殊性展開(kāi)分析: 一、雙極性
    的頭像 發(fā)表于 03-09 06:44 ?1770次閱讀
    SiC模塊解決儲(chǔ)能變流器PCS中SiC MOSFET雙極性<b class='flag-5'>退化</b>失效痛點(diǎn)