国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

如何用數(shù)學函數(shù)去理解機器學習的過程

倩倩 ? 來源:人人都是產(chǎn)品經(jīng)理 ? 2020-04-15 15:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近期也是在做項目的過程中發(fā)現(xiàn),其實AI產(chǎn)品經(jīng)理不需要深入研究每一種算法,能了解機器學習的過程,這其中用到哪些常用算法,分別使用與解決哪些問題和應用場景,并基于了解的知識,去更好的建立AI產(chǎn)品落地流程、把控項目進度、風險評估,這個才是最關(guān)鍵的地方,算法研究交給專業(yè)的算法工程師,各司其職,相互配合。

基于最近看的一些文章和書籍,本文將重點分享,如何用數(shù)學函數(shù)去理解機器學習的過程,以及用數(shù)學原理指導產(chǎn)品工作的一些思考。

一、機器學習的本質(zhì)

機器學習,即學習人類的分析、判斷、解決問題的能力。人的能力如何得來?通過長期的信息輸入,再經(jīng)過大腦思考,最后輸出對事物的判斷。

那么機器如何學習?通過大量的訓練數(shù)據(jù),學習找規(guī)律,找到問題的理想最優(yōu)解。所以,機器學習的本質(zhì)其實是函數(shù)預測,即f:x-》y。

圖片來源:網(wǎng)絡

中學時期,我們常解的數(shù)據(jù)問題之一便是:求解方程。已知坐標(x1,y1),(x2,y2)…(xn,yn)求解n元n次方程,再將新的x帶入方程對應的y。機器學習的過程可以類比方程求解過程:

樣本數(shù)據(jù):已知的坐標集D:(x1,y1),(x2,y2)…(xn,yn);

算法:即求解函數(shù)的方法;

模型訓練:最后求解的方程或函數(shù);

評估方法:將新的x帶入方程驗證函數(shù)“預測”是否正確。

與普通的函數(shù)不同的是,機器學習往往很難求解出完整的方程,通過各種手段求最接近理想情況下的未知項取值。以人臉識別為例,預測函數(shù)為:f:X(圖片臉部特征)—》Y(身份),其中f則是通過機器學習后,具有人臉識別能力的模型。使用不同的機器學習方法訓練的模型不同,即對應的函數(shù)形式也不同。

機器學習解決的常見四類問題:分類、聚類、排序和推薦。

(1)分類問題:一般包括二分類和多分類的問題,二分類即非黑即白,比如垃圾郵件過濾;多分類問題,即有多種類別的輸出結(jié)果,比如圖像識別。

(2)聚類問題:在一個集合中,將相似度高的對象組成多個類的過程叫聚類。比如一些新聞類的應用,將未標注的數(shù)據(jù)通過聚類算法來構(gòu)建主題。

(3)排序問題:根據(jù)相關(guān)度、重要度、匹配度等,讓用戶在海量的信息中找到想要的信息,常見的應用場景,如搜索引擎。

(4)推薦問題:典型的應用場景,電商行業(yè)的千人千面,根據(jù)用戶的購買、收藏等行為,分析用戶的喜好,實現(xiàn)精準營銷。

在理解了機器學習的本質(zhì)以及常見的問題類型后,下面將介紹機器學習的過程。

二、機器學習的過程

機器學習的過程主要分為三個步驟:樣本準備、算法選取、模型評估。

1. 樣本準備

機器學習,需要先學習才能預測判斷,樣本則是機器學習的信息輸入,樣本的質(zhì)量很大程度上決定了機器學習的效果。以人臉識別為例,其樣本是大量的人臉圖片。那么,大量的樣本如何獲取?按數(shù)據(jù)來源分類,可分為內(nèi)部樣本和外部樣本。

(1)內(nèi)部樣本

內(nèi)部樣本數(shù)據(jù),一般可基于內(nèi)部已積累的樣本數(shù)據(jù),或通過對產(chǎn)品進行數(shù)據(jù)標注或者埋點,來收集更多維度的樣本數(shù)據(jù)。

(2)外部樣本

若數(shù)據(jù)的量級或豐富度不夠,則可能需要獲取一些外部樣本。比如通過搜索典型的大型公開數(shù)據(jù)集,或者數(shù)據(jù)爬取等方式,來獲取一些指定場景的新樣本。

2. 算法選取

在機器學習的過程中,找到接近理想模型(函數(shù))的方法即算法。機器學習的常用算法很多,不同的算法,解決的問題不同,適用的場景也不同。

如下圖,比如解決聚類問題,一般使用無監(jiān)督學習算法,分類問題,一般使用有監(jiān)督學習算法:支持向量機SVM、神經(jīng)網(wǎng)絡等,目前神經(jīng)網(wǎng)絡依然是研究熱點之一。

(1)神經(jīng)網(wǎng)絡原理

神經(jīng)網(wǎng)絡是一種模仿人類思考方式的模型,就像飛機模仿鳥的形態(tài)一樣,神經(jīng)網(wǎng)絡也借鑒了生物學的神經(jīng)元結(jié)構(gòu)。神經(jīng)元細胞主要由樹突、軸突和細胞體構(gòu)成,樹突用于接收信號并傳遞給細胞體,細胞體處理信號,軸突輸出信號。神經(jīng)網(wǎng)絡結(jié)構(gòu)與此類似,一個典型的單隱含層神經(jīng)網(wǎng)絡架構(gòu)如下圖:

圖片來源:網(wǎng)絡

輸入層:接收輸入數(shù)據(jù),如圖片、語音特征等;

隱藏層:承載數(shù)據(jù)特征運算;

輸出層:輸出計算的結(jié)果;

其本質(zhì)是,通過調(diào)整內(nèi)部大量處理單元的連接關(guān)系、激勵函數(shù)和權(quán)重值,實現(xiàn)對理想函數(shù)的逼近。

(2)深度學習

深度學習是神經(jīng)網(wǎng)絡的一種算法,目前在計算機視覺等領域應用十分廣泛,相比單隱藏層神經(jīng)網(wǎng)絡結(jié)構(gòu),深度學習神經(jīng)網(wǎng)絡是一種多隱藏層、多層感知器的學習結(jié)構(gòu)。如下圖所示,增加更多的隱藏層后,網(wǎng)絡能更深入得表示特征,以及具有更強的函數(shù)模擬能力,能獲得更好的分類能力。

圖片來源:網(wǎng)絡

深度學習三類經(jīng)典的神經(jīng)網(wǎng)絡分別是:深度神經(jīng)網(wǎng)絡DNN、卷積神經(jīng)網(wǎng)絡CNN、和循環(huán)神經(jīng)網(wǎng)絡RNN。其中DNN、CNN一般解決計算機視覺、圖像識別等分類問題,RNN適用于自然語言處理等問題。

基于大量的樣本、選取合適的算法進行模型訓練后,下一步則是對模型的預測效果進行評估。

3. 模型評估

模型評估一般可分為兩個階段:實驗階段和上線階段,在實驗階段能達到一定的使用標準指標,才能進入實際上線使用階段。

(1)實驗階段

為了評估模型的可用性,需要對模型的預測能力進行評價,其中很重要的一個評價指標就是準確率,即模型預測和標簽一致的樣本占所有樣本的比例。即選擇不同于訓練數(shù)據(jù)的,有標簽數(shù)據(jù)的測試集,輸入模型進行運算,計算預測的準確率,評估模型對于測試集的預測效果是否能模型可用指標。

(2)上線階段

在模型投入使用后,基于上線后的真實數(shù)據(jù)反饋,評估模型的能力,并基于新的反饋數(shù)據(jù),持續(xù)迭代優(yōu)化模型,提高或保持模型的泛化能力。

三、總結(jié)與思考

作為產(chǎn)品賦能的一個“工具”,產(chǎn)品化的整個流程可總結(jié)為:業(yè)務需求-》轉(zhuǎn)化為業(yè)務函數(shù)》樣本數(shù)據(jù)獲取-》選擇合適的算法-》模型訓練-》內(nèi)部評估-》上線驗證迭代。

其實這個過程,最底層的邏輯還是基于數(shù)學建模原理的思路來解決問題,也可用來指導一些日常產(chǎn)品工作中的問題。比如,《增長黑客》中的增長杠桿、北極星指標等方法,其本質(zhì)也是數(shù)據(jù)建模的原理。定義業(yè)務函數(shù)、確定影響因素、權(quán)重成本分析、判斷最優(yōu)解決方案,評估上線反饋形成閉環(huán)。

所有,很多問題表面看起來各式各樣、各不相同,但抽象出來可能就是一些學科問題,比如數(shù)學、物理、經(jīng)濟學等,聯(lián)想到我前段時間分享的一篇文章《透過《奇葩說》論點,看背后的多元思維模型》中提到的多元思維模型核心觀點——越往深層次思考,越能挖掘事物本質(zhì),越接近學科原理。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4784

    瀏覽量

    98055
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8553

    瀏覽量

    136948
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26193
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    數(shù)學工程計算+失效分析,雙輪驅(qū)動電路可靠性

    數(shù)學計算驅(qū)動可靠設計在電子產(chǎn)品研發(fā)過程中,你是否經(jīng)常遇到以下問題:產(chǎn)品在測試中偶發(fā)失效,卻找不到根本原因?器件選型憑經(jīng)驗、靠感覺,缺乏量化依據(jù)?電路設計完成后,總是要經(jīng)歷多輪“試錯—改板—測試
    的頭像 發(fā)表于 02-27 17:44 ?277次閱讀
    <b class='flag-5'>數(shù)學</b>工程計算+失效分析,雙輪驅(qū)動電路可靠性

    何用軟件實現(xiàn)系統(tǒng)的復位?

    看門狗的工作過程是怎樣的? 如何用軟件實現(xiàn)系統(tǒng)的復位?
    發(fā)表于 01-08 06:15

    機器學習和深度學習中需避免的 7 個常見錯誤與局限性

    無論你是剛?cè)腴T還是已經(jīng)從事人工智能模型相關(guān)工作一段時間,機器學習和深度學習中都存在一些我們需要時刻關(guān)注并銘記的常見錯誤。如果對這些錯誤置之不理,日后可能會引發(fā)諸多麻煩!只要我們密切關(guān)注數(shù)據(jù)、模型架構(gòu)
    的頭像 發(fā)表于 01-07 15:37 ?191次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學習</b>和深度<b class='flag-5'>學習</b>中需避免的 7 個常見錯誤與局限性

    函數(shù)指針及指針函數(shù)的區(qū)別

    學習arm過程中發(fā)現(xiàn)這“指針函數(shù)”與“函數(shù)指針”容易搞錯,所以今天,我自己想一次把它搞清楚,找了一些資料,和大家的一些總結(jié),整理到此。和大家分享。   首先它們之間的定義:   1、
    發(fā)表于 12-12 06:34

    何用函數(shù)指針調(diào)用函數(shù)

    給大家舉一個例子: int Func(int x);/*聲明一個函數(shù)*/ int (*p) (int x);/*定義一個函數(shù)指針*/ p = Func; /*將Func函數(shù)的首地址賦給指針變量
    發(fā)表于 12-11 06:26

    時鐘周期、機器周期、指令周期介紹

    的描述里也叫節(jié)拍,即將一個機器周期劃分成若干個相等的時間段,每一段僅完成一個基本操作,用一個電平信號寬度對應。 個人理解:時鐘周期取決于晶振頻率,它是機器運行過程中所有時間的最小單位。
    發(fā)表于 11-17 07:54

    激活函數(shù)ReLU的理解與總結(jié)

    《The Organization of Behavior》論文中描述了神經(jīng)元學習法則。 人工神經(jīng)網(wǎng)絡更進一步被美國神經(jīng)學家Frank Rosenblatt所發(fā)展。他提出了可以模擬人類感知能力的機器,并稱之為‘感知機
    發(fā)表于 10-31 06:16

    量子機器學習入門:三種數(shù)據(jù)編碼方法對比與應用

    在傳統(tǒng)機器學習中數(shù)據(jù)編碼確實相對直觀:獨熱編碼處理類別變量,標準化調(diào)整數(shù)值范圍,然后直接輸入模型訓練。整個過程更像是數(shù)據(jù)清洗,而非核心算法組件。量子機器
    的頭像 發(fā)表于 09-15 10:27 ?772次閱讀
    量子<b class='flag-5'>機器</b><b class='flag-5'>學習</b>入門:三種數(shù)據(jù)編碼方法對比與應用

    如何在機器視覺中部署深度學習神經(jīng)網(wǎng)絡

    人士而言往往難以理解,人們也常常誤以為需要扎實的編程技能才能真正掌握并合理使用這項技術(shù)。事實上,這種印象忽視了該技術(shù)為機器視覺(乃至生產(chǎn)自動化)帶來的潛力,因為深度學習并非只屬于計算機科學家或程序員。 從頭開始:什么
    的頭像 發(fā)表于 09-10 17:38 ?901次閱讀
    如何在<b class='flag-5'>機器</b>視覺中部署深度<b class='flag-5'>學習</b>神經(jīng)網(wǎng)絡

    FPGA在機器學習中的具體應用

    隨著機器學習和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無法滿足高效處理大規(guī)模數(shù)據(jù)和復雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為一種靈活且高效的硬件加速平臺
    的頭像 發(fā)表于 07-16 15:34 ?2890次閱讀

    何用FastMCP快速開發(fā)自己的MCP Server?

    作者:算力魔方創(chuàng)始人/英特爾創(chuàng)新大使劉力很多讀者反饋:通過 《用MCP將百度地圖能力輕松接入DeepSeek》 和 《如何用DeepSeek+MCP實現(xiàn)AutoGLM沉思的能力?》 的實戰(zhàn),真真切切
    的頭像 發(fā)表于 05-07 16:07 ?2824次閱讀
    如<b class='flag-5'>何用</b>FastMCP快速開發(fā)自己的MCP Server?

    【「# ROS 2智能機器人開發(fā)實踐」閱讀體驗】視覺實現(xiàn)的基礎算法的應用

    閱讀心得體會:ROS2機器人視覺與地圖構(gòu)建技術(shù) 通過對本書第7章(ROS2視覺應用)和第8章(ROS2地圖構(gòu)建)的學習,我對機器人視覺感知和自主導航的核心技術(shù)有了更深入的理解。以下是我
    發(fā)表于 05-03 19:41

    開關(guān)電源環(huán)路穩(wěn)定性分析——觀察法找零極點

    網(wǎng)絡的零極點。比如下面OPA的I型補償網(wǎng)絡,求解零極點的過程如下:上面是純粹數(shù)學方式求解的結(jié)果,從結(jié)果可以看出I型補償只有極點,沒有零點,相對來說還算簡單。 下面求解II型補償器的傳遞函數(shù),寫成標準零
    發(fā)表于 04-19 13:31

    嵌入式AI技術(shù)之深度學習:數(shù)據(jù)樣本預處理過程中使用合適的特征變換對深度學習的意義

    ? 作者:蘇勇Andrew 使用神經(jīng)網(wǎng)絡實現(xiàn)機器學習,網(wǎng)絡的每個層都將對輸入的數(shù)據(jù)做一次抽象,多層神經(jīng)網(wǎng)絡構(gòu)成深度學習的框架,可以深度理解數(shù)據(jù)中所要表示的規(guī)律。從原理上看,使用深度
    的頭像 發(fā)表于 04-02 18:21 ?1516次閱讀

    馬達控制上必要的知識 三角函數(shù)

    為了理解馬達控制技術(shù),必須理解如下基礎學問。 (1) 數(shù)學:三角函數(shù),指數(shù)函數(shù),復數(shù)函數(shù),微分,
    發(fā)表于 03-18 12:23