幾個機器學習面試問題解析從容應對面試

▍目錄
全局
優(yōu)化
數(shù)據(jù)預處理
抽樣和拆分
監(jiān)督學習
無監(jiān)督學習
模型評估
集成學習
商業(yè)應用
▍全局
基本的ML理論,如偏差方差權衡。
向外行人解釋機器學習。
想象一個好奇的孩子,將他的手掌放在蠟燭火焰上,并在感受到短暫的灼熱后立刻把手縮回來。第二天,他碰到一個熱的爐子,頂部看到紅色,感覺到前一天像蠟燭一樣的熱浪。
這個孩子從來沒有碰過爐灶,但幸運的是,他從以前的數(shù)據(jù)中學到了,避免了紅色的灼傷。
“擬合”模型意味著什么?超參數(shù)如何相關?
擬合模型是使用訓練數(shù)據(jù)學習模型參數(shù)的過程。
參數(shù)有助于定義機器學習模型的數(shù)學公式。
然而,還有一些稱為超參數(shù)的數(shù)據(jù)不能被學習的“較高級”參數(shù)。
超參數(shù)定義模型的屬性,如模型復雜度或?qū)W習率。
解釋偏差方差權衡。
預測模型在偏差(擬合模型數(shù)據(jù)的方式)和方差(基于輸入變化的多少)之間有權衡。
更簡單的模型是穩(wěn)定的(低方差),但它們不接近真相(高偏差)。
更復雜的模型更容易被過度使用(高差異),但它們具有足夠的表達能夠接近真實性(低偏倚)。
給定問題的最佳模式通常位于中間的某處。
▍優(yōu)化
找到模型最佳參數(shù)的算法。
隨機梯度下降(SGD)和梯度下降(GD)之間有什么區(qū)別?
兩種算法都是通過對數(shù)據(jù)進行參數(shù)評估,然后進行調(diào)整,找到一組最小化損失函數(shù)的參數(shù)的方法。
在標準梯度下降中,您將評估每組參數(shù)的所有訓練樣本。這類似于為解決這個問題而采取了大而緩慢的步驟。
在隨機梯度下降中,在更新參數(shù)集之前,您只需評估1個訓練樣本。這類似于向解決方案邁出的小步驟。
什么時候使用GD超過SDG,反之亦然?
GD理論上最大限度地減少誤差函數(shù)比SGD更好。然而,一旦數(shù)據(jù)集變大,SGD就會收斂得更快。
這意味著GD對于小數(shù)據(jù)集是優(yōu)選的,而SGD對于較大的數(shù)據(jù)是優(yōu)選的。
然而,實際上,SGD用于大多數(shù)應用程序,因為它可以將誤差函數(shù)最小化,同時為大型數(shù)據(jù)集提供更快的速度和更高的內(nèi)存效率。
▍數(shù)據(jù)預處理
處理丟失的數(shù)據(jù),偏態(tài)分布,異常值等
什么是Box-Cox轉(zhuǎn)換?
Box-Cox轉(zhuǎn)換是一種廣泛的“權力轉(zhuǎn)型”,它轉(zhuǎn)換數(shù)據(jù),使分布更加正常。
例如,當lambda參數(shù)為0時,它相當于對數(shù)轉(zhuǎn)換。
它用于穩(wěn)定方差(消除異方差)并使分布正常化。
什么是3種數(shù)據(jù)預處理技術來處理異常值?
1.Winsorize(cap 閾值)。
2.轉(zhuǎn)換以減少偏態(tài)(使用Box-Cox或類似的)。
3.如果你確定它們是異常或測量錯誤,請刪除異常值。
非常好我支持^.^
(0) 0%
不好我反對
(0) 0%
