国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用加速WEKA加速機器學習模型

星星科技指導員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-08-15 17:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

近年來,建筑業(yè)和采用機器學習( ML )工具。使用 GPU 加速計算日益密集的模型已成為一個突出的趨勢。

為了增加用戶訪問,加速 WEKA 項目通過集成開源 RAPIDS 庫,為在知名的 WEKA 算法中使用 GPU 提供了一個可訪問的入口點。

在這篇文章中,我們將向您介紹加速 WEKA ,并學習如何使用 WEKA 軟件利用圖形用戶界面( GUI )的 GPU 加速算法。這種 Java 開源替代方案適合于從不同環(huán)境或包中尋找各種 ML 算法的初學者。

什么是加速 WEKA ?

加速 WEKA 將WEKA軟件(一種著名的開源 Java 軟件)與利用 GPU 縮短 ML 算法執(zhí)行時間的新技術相結合。針對沒有系統(tǒng)配置和編碼專業(yè)知識的用戶,它有兩個好處:易于安裝和指導 ML 任務的配置和執(zhí)行的 GUI 。

加速 WEKA 是一個可用于 WEKA 的軟件包集合,它可以擴展以支持新的工具和算法。

什么是急流?

RAPIDS是一組開源 Python 庫,供用戶在 NVIDIA GPU 上開發(fā)和部署數據科學工作負載。流行的庫包括用于 GPU 加速數據幀處理的 cuDF 和用于 GPU 加速機器學習算法的 cuML 。 RAPIDS API 盡可能符合 CPU 對應項,例如 pandas 和scikit-learn。

%1 : %2 加速的 WEKA 架構

加速 WEKA 的構建塊是WekaDeeplearning4j和wekaRAPIDS(受wekaPython啟發(fā))等包。 WekaDeeplearning4j ( WDL4J )已經支持 GPU 處理,但在庫和環(huán)境配置方面有非常特殊的需求。 WDL4J 為 Deeplearning4j 庫提供了 WEKA 包裝。

對于 Python 用戶, weka Python 最初通過創(chuàng)建服務器并通過套接字與之通信來提供 Python 集成。有了它,用戶可以在 WEKA 工作臺內執(zhí)行 scikit learn ML 算法(甚至XGBoost)。此外, weka RAPIDS 通過在 wekaPython 中使用相同的技術提供與 RAPIDS cuML 庫的集成。

總之,這兩個包在用戶友好的 WEKA 工作臺內提供了增強的功能和性能。加速 WEKA 通過改進 JVM 和 Python 解釋器之間的通信,在性能方面更進一步。它通過使用 Apache Arrow 和 GPU 內存共享等替代方法來實現(xiàn)這兩種語言之間的高效數據傳輸。

加速 WEKA 還提供了與 RAPIDS cuML 庫的集成,該庫實現(xiàn)了在 NVIDIA GPU 上加速的機器學習算法。一些 cuML 算法甚至可以支持多 GPU 解。

支持的算法

加速 WEKA 目前支持的算法有:

線性回歸

物流回歸

山脊

套索

彈性網

MBSGD 分類器

MBSGDRegressor 公司

多項式 nb

伯努林

高斯 B

隨機森林分類器

隨機森林采伐

靜止無功補償器

SVR 公司

LinearSVC

Kneighbors 回歸器

Kneighbors 分類器

多 GPU 模式下加速 WEKA 支持的算法有:

Kneighbors 回歸器

Kneighbors 分類器

線性回歸

山脊

套索

彈性網

多項式 nb

光盤

使用加速 WEKA GUI

在加速 WEKA 設計階段,一個主要目標是使其易于使用。以下步驟概述了如何在系統(tǒng)上進行設置,并提供了一個簡單的示例。

有關更多信息和全面入門,請參閱文檔。加速 WEKA 的唯一先決條件是在系統(tǒng)中安裝Conda。

加速 WEKA 的安裝可通過提供包和環(huán)境管理的系統(tǒng) Conda 獲得。這種能力意味著一個簡單的命令可以安裝項目的所有依賴項。例如,在 Linux 機器上,在終端中發(fā)出以下命令以安裝加速 WEKA 和所有依賴項。

conda create-n accelweka-c rapidsai-c NVIDIA -c conda forge-c waikato weka

Conda 創(chuàng)建環(huán)境后,使用以下命令將其激活:

激活時

這個終端實例剛剛加載了加速 WEKA 的所有依賴項。使用以下命令啟動 WEKA GUI 選擇器:

韋卡

圖 1 顯示了 WEKA GUI 選擇器窗口。從那里,單擊 Explorer 按鈕訪問 Accelerated WEKA 的功能。

poYBAGL6EmWAdcHGAAHjhG3QMT8517.png

圖 1 。 WEKA GUI 選擇器窗口。這是啟動 WEKA 時出現(xiàn)的第一個窗口

在 WEKA Explorer 窗口(圖 2 )中,單擊 Open file 按鈕以選擇數據集文件。 WEKA 使用 ARFF 文件,但可以從 CSV 中讀取。根據屬性的類型,從 CSV 轉換可能非常簡單,或者需要用戶進行一些配置。

pYYBAGL6EmyAbx2uAAChQtx9148264.png

圖 2 :在 WEKA Explorer 窗口中,用戶可以導入數據集,檢查有關屬性的統(tǒng)計信息,并在預處理時對數據集應用過濾器

加載了數據集的 WEKA Explorer 窗口如圖 3 所示。假設不想預處理數據,單擊“分類”選項卡將向用戶顯示分類選項。

poYBAGL6EnOACReOAAB-lGnhXdI816.png

圖 3 。加載數據集的 WEKA Explorer 窗口。加載數據集(從 ARFF 文件或 CSV 文件)后,屬性名稱顯示在左側。有關選定屬性的信息顯示在右上角。在右下角可以看到一個圖表,其中包含根據所選屬性的類分布

分類選項卡如圖 4 所示。單擊“選擇”按鈕將顯示已實現(xiàn)的分類器。由于數據集的特性,有些可能被禁用。要使用加速 WEKA ,用戶必須選擇急流。積云分類器。之后,單擊粗體 CuMLClassifier 將使用戶轉到分類器的選項窗口。

pYYBAGL6ErKAEXbSAAB-aSQVWxA067.png

圖 4 。在 WEKA 分類選項卡中,用戶可以配置分類算法和測試選項,這些選項將在使用之前選擇的數據集的實驗中使用

圖 5 顯示了 CuMLClassifier 的選項窗口。使用字段 RAPIDS 學習器,用戶可以在軟件包支持的分類器中選擇所需的分類器?,F(xiàn)場學習者參數用于修改 cuML 參數,其詳細信息可在cuML documentation中找到。

其他選項用于用戶微調屬性轉換,配置要使用的 Python 環(huán)境,并確定算法應操作的小數位數。為了學習本教程,請選擇隨機林分類器,并將所有內容保留為默認配置。單擊“確定”將關閉窗口并返回到上一個選項卡。

poYBAGL6EquAIS1wAAFEbTj-YWg228.png

圖 5 。通過 WEKA 分類器配置窗口,用戶可以配置所選分類器的參數。在這種情況下,它顯示了新集成的 CuMLClassifier 選項和所選的 RandomForestClassifier 學習器

根據上一步配置分類器后,參數將顯示在選擇按鈕旁邊的文本字段中。單擊開始后, WEKA 將開始使用數據集執(zhí)行所選分類器。

圖 6 顯示了分類器的作用。分類器輸出顯示有關實驗的調試和一般信息,例如參數、分類器、數據集和測試選項。狀態(tài)顯示執(zhí)行的當前狀態(tài),底部的 Weka 鳥在實驗運行時從一側動畫并翻轉到另一側。

pYYBAGL6EqSAJqAaAADlQP47HEw622.png

圖 6 。 WEKA 分類選項卡,所選分類算法正在進行中

算法完成任務后,將輸出執(zhí)行摘要,其中包含有關預測性能和所用時間的信息。在圖 7 中,輸出顯示了使用從 cuML 到 CuMLClassifier 的 RandomForestClassifier 進行 10 倍交叉驗證的結果。

poYBAGL6EpuAHWgbAAFVg-KSSfs812.png

圖 7 。實驗完成后的 WEKA 分類選項卡

基準測試加速 WEKA

我們評估了加速 WEKA 的性能,比較了算法在 CPU 上的執(zhí)行時間和使用加速 WEKA 的執(zhí)行時間。實驗中使用的硬件是 i7-6700K 、 GTX 1080Ti 和具有四個 A100 GPU 的 DGX 站。除非另有說明,否則基準測試使用單個 GPU 。

我們使用具有不同特征的數據集作為基準。其中一些是合成的,用于更好地控制屬性和實例,如 RDG 和 RBF 生成器。 RDG 生成器基于決策列表構建實例。默認配置有 10 個屬性, 2 個類,最小規(guī)則大小為 1 ,最大規(guī)則大小為 10 。我們將最小值和最大值分別更改為 5 和 20 。使用該生成器,我們創(chuàng)建了具有 1 、 2 、 5 和 1000 萬個實例的數據集,以及具有 20 個屬性的 500 萬個實例。

RBF 生成器為每個類創(chuàng)建一組隨機中心,然后通過獲取屬性值中心的隨機偏移來生成實例。屬性的數量用后綴 a _ uu 表示(例如, a5k 表示 5000 個屬性),實例的數量用后綴 n _ u 表示(例如, n10k 表示 10000 個實例)。

最后,我們使用了HIGGS 數據集,其中包含有關原子加速器運動學特性的數據。希格斯數據集的前 500 萬個實例用于創(chuàng)建希格斯粒子。

顯示了 weka RAPIDS 積分的結果,其中我們直接比較了基線 CPU 執(zhí)行和加速 weka 執(zhí)行。 WDL4J 的結果如表 5 所示。

pYYBAGL6EeGAS91-AABqaRDDsAk357.png



該基準測試表明,加速 WEKA 為具有較大數據集的計算密集型任務提供了最大的好處。像 RBFa5k 和 RBFa5kn1k 這樣的小數據集(分別擁有 100 個和 1000 個實例)呈現(xiàn)出糟糕的加速,這是因為數據集太小,無法使將內容移動到 GPU 內存的開銷值得。

這種行為在 A100 (表 4 )實驗中很明顯,其中架構更為復雜。使用它的好處開始在 100000 個實例或更大的數據集上發(fā)揮作用。例如,具有 100000 個實例的 RBF 數據集顯示了約 3 倍和 4 倍的加速,這仍然不太明顯,但顯示出了改進。更大的數據集,如 covertype 數據集(約 700000 個實例)或 RBFa50n1m 數據集( 100 萬個實例),分別顯示了 56X 和 271X 的加速。請注意,對于深度學習任務,即使使用 GTX 1080Ti ,加速也可以達到 20 倍以上。

關鍵要點(與行動要求掛鉤)

加速 WEKA 將幫助您使用激流為 WEKA 增壓。加速 WEKA 有助于 RAPIDS 的高效算法實現(xiàn),并具有易于使用的 GUI 。使用 Conda 環(huán)境簡化了安裝過程,從一開始就可以直接使用加速 WEKA 。

如果您使用 AcceleratedWEKA ,請在社交媒體上使用標簽“ AcceleratedWEKA ”。此外,請參閱 文檔 以獲取在學術工作中引用加速 WEKA 的正確出版物,并了解有關該項目的更多詳細信息。

加速 WEKA

WEKA 在 GPL 開源許可證 下免費提供,因此加速了 WEKA 。事實上, Accelerated WEKA 是通過 Conda 提供的,用于自動安裝環(huán)境所需的工具,對源代碼的添加將發(fā)布到 WEKA 的主包中。

關于作者

Albert Bifet 是特議會聯(lián)盟特馬哈拉艾研究所所長。他是一位計算機科學家,主要興趣領域是數據流及其應用的人工智能/機器學習。他是 MOA 機器學習軟件的核心開發(fā)者,擁有 150 多篇關于機器學習方法及其應用的出版物。

Guilherme Weigert Cassales 自 2021 以來一直是人工智能研究所的博士后研究員,同年他在圣卡洛斯聯(lián)邦大學( UFSCar )獲得了計算機科學博士學位。他的研究興趣包括數據流的機器學習、分布式系統(tǒng)和高性能計算。

自 2021 以來,Justin Liu 一直是人工智能研究所的研究程序員。他在該行業(yè)有十多年的軟件開發(fā)經驗。他的興趣包括機器學習、大規(guī)模數據處理和 ML 操作。

審核編輯:郭婷

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關注

    關注

    68

    文章

    11279

    瀏覽量

    225015
  • 加速器
    +關注

    關注

    2

    文章

    839

    瀏覽量

    40106
  • gpu
    gpu
    +關注

    關注

    28

    文章

    5194

    瀏覽量

    135467
  • 機器學習
    +關注

    關注

    66

    文章

    8553

    瀏覽量

    136955
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    利用NVIDIA Cosmos開放世界基礎模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎模型(WFM)的更新,旨在加速物理 AI 模型的測試與驗證數據生成。借助 NVIDIA Omniverse 庫和 Cosmos,開發(fā)者可以大規(guī)模生成基于物理學的合
    的頭像 發(fā)表于 12-01 09:25 ?1139次閱讀

    RSA加速實現(xiàn)思路

    N;其中(E , N)組成公鑰。 解密過程為:M = CDmodN;其中(D , N)組成私鑰。 2 關于加速操作 上述提到N、E、D一旦選取,在給數據流進行加解密的過程中便是作為常數存在
    發(fā)表于 10-28 07:28

    硬件加速模塊的時鐘設計

    硬件加速模塊需要四個時鐘,分別為clk_l , clk_r , clk_c , clk_n 。 clk_l : 整個硬件加速模塊為了最大化的節(jié)約時間成本而采用了類似處理器的流水線設計,具體上將每一層
    發(fā)表于 10-23 07:28

    NVIDIA 利用全新開源模型與仿真庫加速機器人研發(fā)進程

    科研人員及開發(fā)者打造功能更強大、適應性更強的機器人。 ? 全新的 NVIDIA Isaac GR00T 開源基礎模型將為機器人賦予接近人類的推理能力,使其能夠拆解復雜指令,并借助已有知識與常識執(zhí)行任務
    的頭像 發(fā)表于 09-30 09:52 ?3071次閱讀
    NVIDIA 利用全新開源<b class='flag-5'>模型</b>與仿真庫<b class='flag-5'>加速</b><b class='flag-5'>機器</b>人研發(fā)進程

    什么是云加速?云加速的重點選購指標是哪些?

    加速是提升網站、APP訪問速度的關鍵工具,很多人卻搞不清它的作用和選購要點。本文 華納云 會先用通俗語言解釋云加速是什么,再拆解選購時必看的節(jié)點覆蓋、加速類型、帶寬支持等核心性能指標,重點提供“按
    的頭像 發(fā)表于 09-12 16:29 ?1477次閱讀

    成都匯陽投資關于大模型白熱化,應用加速分化

    ? ? ? ?大模型加速多模態(tài)研發(fā) ,閉源模型逐步逆襲開源 多模態(tài)技術路線尚未收斂 , 國內外大模型廠商持續(xù)刷新 SOAT。 圖片領域 ,GPT-4o 圖像生成功能引發(fā)熱潮后 ,谷
    的頭像 發(fā)表于 09-09 09:30 ?921次閱讀

    英特爾Gaudi 2E AI加速器為DeepSeek-V3.1提供加速支持

    英特爾? Gaudi 2EAI加速器現(xiàn)已為DeepSeek-V3.1提供深度優(yōu)化支持。憑借出色的性能和成本效益,英特爾Gaudi 2E以更低的投入、更高的效率,實現(xiàn)從模型訓練的深度突破到推理部署的實時響應,為大模型
    的頭像 發(fā)表于 08-26 19:18 ?3028次閱讀
    英特爾Gaudi 2E AI<b class='flag-5'>加速</b>器為DeepSeek-V3.1提供<b class='flag-5'>加速</b>支持

    Andes晶心科技推出新一代深度學習加速

    高效能、低功耗 32/64 位 RISC-V 處理器核與 AI 加速解決方案的領導供貨商—Andes晶心科技(Andes Technology)今日正式發(fā)表最新深度學習加速器 AndesAIRE AnDLA I370。此產品專為
    的頭像 發(fā)表于 08-20 17:43 ?2349次閱讀

    Cognizant加速AI模型企業(yè)級開發(fā)

    全球最先進的AI/機器學習模型 新澤西州蒂內克2025年7月31日 /美通社/ -- Cognizant(納斯達克股票代碼:CTSH)今日宣布推出AI Training Data Services,該
    的頭像 發(fā)表于 07-31 17:25 ?714次閱讀

    新品上線|Maix4-HAT 大模型 AI 加速套件 ,一鍵解鎖樹莓派多模態(tài) AI 力量!

    還在為邊緣端的大模型運行發(fā)愁?還在為算力不夠、模型太大束手無策?Maix4-HAT,一款專為端側大模型而生的高性能AI加速模塊,現(xiàn)已正式上線淘寶!淘寶:https://item.tao
    的頭像 發(fā)表于 07-18 18:35 ?1689次閱讀
    新品上線|Maix4-HAT 大<b class='flag-5'>模型</b> AI <b class='flag-5'>加速</b>套件 ,一鍵解鎖樹莓派多模態(tài) AI 力量!

    FPGA在機器學習中的具體應用

    隨著機器學習和人工智能技術的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經無法滿足高效處理大規(guī)模數據和復雜模型的需求。FPGA(現(xiàn)場可編程門陣列)作為一種靈活且高效的硬件
    的頭像 發(fā)表于 07-16 15:34 ?2898次閱讀

    NVIDIA RTX AI加速FLUX.1 Kontext現(xiàn)已開放下載

    NVIDIA RTX 與 NVIDIA TensorRT 現(xiàn)已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,Gemma 3n 現(xiàn)可借助 RTX 和 NVIDIA Jetson 加速運行。
    的頭像 發(fā)表于 07-16 09:16 ?2053次閱讀

    模型推理顯存和計算量估計方法研究

    ,如乘法、加法等; (2)根據各層計算操作的類型和復雜度,確定每層所需的計算量; (3)將各層計算量相加,得到模型總的計算量。 基于硬件加速的算力估計 隨著硬件加速技術的發(fā)展,許多深度學習
    發(fā)表于 07-03 19:43

    NVIDIA Cosmos加速機器人和自動駕駛汽車物理AI發(fā)展

    NVIDIA Cosmos 通過可預測未來世界狀態(tài)的世界基礎模型加速物理 AI 的發(fā)展。
    的頭像 發(fā)表于 04-24 11:01 ?1274次閱讀
    NVIDIA Cosmos<b class='flag-5'>加速</b><b class='flag-5'>機器</b>人和自動駕駛汽車物理AI發(fā)展

    NVIDIA Isaac GR00T N1開源人形機器人基礎模型+開源物理引擎Newton加速機器人開發(fā)

    NVIDIA Isaac GR00T N1開源人形機器人基礎模型+開源物理引擎Newton加速機器人開發(fā)
    的頭像 發(fā)表于 03-20 16:56 ?1715次閱讀