国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

您好,歡迎來電子發(fā)燒友網(wǎng)! ,新用戶?[免費注冊]

您的位置:電子發(fā)燒友網(wǎng)>源碼下載>數(shù)值算法/人工智能>

幾個機器學習面試問題解析從容應對面試

大小:0.2 MB 人氣: 2017-09-22 需要積分:1

  幾個機器學習面試問題解析從容應對面試

  ▍目錄

  全局

  優(yōu)化

  數(shù)據(jù)預處理

  抽樣和拆分

  監(jiān)督學習

  無監(jiān)督學習

  模型評估

  集成學習

  商業(yè)應用

  ▍全局

  基本的ML理論,如偏差方差權衡。

  向外行人解釋機器學習

  想象一個好奇的孩子,將他的手掌放在蠟燭火焰上,并在感受到短暫的灼熱后立刻把手縮回來。第二天,他碰到一個熱的爐子,頂部看到紅色,感覺到前一天像蠟燭一樣的熱浪。

  這個孩子從來沒有碰過爐灶,但幸運的是,他從以前的數(shù)據(jù)中學到了,避免了紅色的灼傷。

  “擬合”模型意味著什么?超參數(shù)如何相關?

  擬合模型是使用訓練數(shù)據(jù)學習模型參數(shù)的過程。

  參數(shù)有助于定義機器學習模型的數(shù)學公式。

  然而,還有一些稱為超參數(shù)的數(shù)據(jù)不能被學習的“較高級”參數(shù)。

  超參數(shù)定義模型的屬性,如模型復雜度或?qū)W習率。

  解釋偏差方差權衡。

  預測模型在偏差(擬合模型數(shù)據(jù)的方式)和方差(基于輸入變化的多少)之間有權衡。

  更簡單的模型是穩(wěn)定的(低方差),但它們不接近真相(高偏差)。

  更復雜的模型更容易被過度使用(高差異),但它們具有足夠的表達能夠接近真實性(低偏倚)。

  給定問題的最佳模式通常位于中間的某處。

  ▍優(yōu)化

  找到模型最佳參數(shù)的算法

  隨機梯度下降(SGD)和梯度下降(GD)之間有什么區(qū)別?

  兩種算法都是通過對數(shù)據(jù)進行參數(shù)評估,然后進行調(diào)整,找到一組最小化損失函數(shù)的參數(shù)的方法。

  在標準梯度下降中,您將評估每組參數(shù)的所有訓練樣本。這類似于為解決這個問題而采取了大而緩慢的步驟。

  在隨機梯度下降中,在更新參數(shù)集之前,您只需評估1個訓練樣本。這類似于向解決方案邁出的小步驟。

  什么時候使用GD超過SDG,反之亦然?

  GD理論上最大限度地減少誤差函數(shù)比SGD更好。然而,一旦數(shù)據(jù)集變大,SGD就會收斂得更快。

  這意味著GD對于小數(shù)據(jù)集是優(yōu)選的,而SGD對于較大的數(shù)據(jù)是優(yōu)選的。

  然而,實際上,SGD用于大多數(shù)應用程序,因為它可以將誤差函數(shù)最小化,同時為大型數(shù)據(jù)集提供更快的速度和更高的內(nèi)存效率。

  ▍數(shù)據(jù)預處理

  處理丟失的數(shù)據(jù),偏態(tài)分布,異常值等

  什么是Box-Cox轉(zhuǎn)換?

  Box-Cox轉(zhuǎn)換是一種廣泛的“權力轉(zhuǎn)型”,它轉(zhuǎn)換數(shù)據(jù),使分布更加正常。

  例如,當lambda參數(shù)為0時,它相當于對數(shù)轉(zhuǎn)換。

  它用于穩(wěn)定方差(消除異方差)并使分布正常化。

  什么是3種數(shù)據(jù)預處理技術來處理異常值?

  1.Winsorize(cap 閾值)。

  2.轉(zhuǎn)換以減少偏態(tài)(使用Box-Cox或類似的)。

  3.如果你確定它們是異常或測量錯誤,請刪除異常值。

非常好我支持^.^

(0) 0%

不好我反對

(0) 0%

      發(fā)表評論

      用戶評論
      評價:好評中評差評

      發(fā)表評論,獲取積分! 請遵守相關規(guī)定!

      ?