国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

更高效的利用Jupyter+pandas進行數據分析

數據分析與開發 ? 來源:數據分析與開發 ? 作者:數據分析與開發 ? 2021-03-12 15:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在使用Python進行數據分析時,Jupyter Notebook是一個非常強力的工具,在數據集不是很大的情況下,我們可以使用pandas輕松對txt或csv等純文本格式數據進行讀寫。

然而當數據集的維度或者體積很大時,將數據保存并加載回內存的過程就會變慢,并且每次啟動Jupyter Notebook時都需要等待一段時間直到數據重新加載, 這樣csv格式或任何其他純文本格式數據都失去了吸引力。

本文將對pandas支持的多種格式數據在處理數據的不同方面進行比較,包含I/O速度、內存消耗、磁盤占用空間等指標,試圖找出如何為我們的數據找到一個合適的格式的辦法!

格式說明

現在對本文進行對比的幾種數據格式進行說明。

CSV:最常用的數據格式

Pickle:用于序列化和反序列化Python對象結構

MessagePack:類似于json,但是更小更塊

HDF5:一種常見的跨平臺數據儲存文件

Feather:一個快速、輕量級的存儲框架

Parquet:Apache Hadoop的列式存儲格式

指標說明

為了找到格式來存儲數據,本文選擇以下指標進行對比。

size_mb:帶有序列化數據幀的文件的大小

save_time:將數據幀保存到磁盤所需的時間

load_time:將先前轉儲的數據幀加載到內存所需的時間

save_ram_delta_mb:在數據幀保存過程中最大的內存消耗增長

load_ram_delta_mb:數據幀加載過程中最大的內存消耗增長

注意,當我們使用有效壓縮的二進制數據格式(例如Parquet)時,最后兩個指標變得非常重要。它們可以幫助我們估算加載串行化數據所需的RAM數量,以及數據大小本身。我們將在下一部分中更詳細地討論這個問題。

對比

現在開始對前文介紹的5種數據格式進行比較,為了更好地控制序列化的數據結構和屬性我們將使用自己生成的數據集。 下面是生成測試數據的代碼,我們隨機生成具有數字和分類特征的數據集。數值特征取自標準正態分布。分類特征以基數為C的uuid4隨機字符串生成,其中2 <= C <= max_cat_size。

defgenerate_dataset(n_rows,num_count,cat_count,max_nan=0.1,max_cat_size=100): dataset,types={},{} defgenerate_categories(): fromuuidimportuuid4 category_size=np.random.randint(2,max_cat_size) return[str(uuid4())for_inrange(category_size)] forcolinrange(num_count): name=f'n{col}' values=np.random.normal(0,1,n_rows) nan_cnt=np.random.randint(1,int(max_nan*n_rows)) index=np.random.choice(n_rows,nan_cnt,replace=False) values[index]=np.nan dataset[name]=values types[name]='float32' forcolinrange(cat_count): name=f'c{col}' cats=generate_categories() values=np.array(np.random.choice(cats,n_rows,replace=True),dtype=object) nan_cnt=np.random.randint(1,int(max_nan*n_rows)) index=np.random.choice(n_rows,nan_cnt,replace=False) values[index]=np.nan dataset[name]=values types[name]='object' returnpd.DataFrame(dataset),types 現在我們以CSV文件保存和加載的性能作為基準。將五個隨機生成的具有百萬個觀測值的數據集轉儲到CSV中,然后讀回內存以獲取平均指標。并且針對具有相同行數的20個隨機生成的數據集測試了每種二進制格式。 同時使用兩種方法進行對比:

1.將生成的分類變量保留為字符串

2.在執行任何I/O之前將其轉換為pandas.Categorical數據類型

1.以字符串作為分類特征

下圖顯示了每種數據格式的平均I/O時間。這里有趣的發現是hdf的加載速度比csv更低,而其他二進制格式的性能明顯更好,而feather和parquet則表現的非常好。

保存數據并從磁盤讀取數據時的內存消耗如何?下一張圖片向我們展示了hdf的性能再次不那么好。但可以肯定的是,csv不需要太多額外的內存來保存/加載純文本字符串,而feather和parquet則非常接近。

最后,讓我們看一下文件大小的對比。這次parquet顯示出非常好的結果,考慮到這種格式是為有效存儲大量數據而開發的,也是理所當然。

2. 對特征進行轉換

在上一節中,我們沒有嘗試有效地存儲分類特征,而是使用純字符串,接下來我們使用專用的pandas.Categorical類型再次進行比較。

從上圖可以看到,與純文本csv相比,所有二進制格式都可以顯示其真強大功能,效率遠超過csv,因此我們將其刪除以更清楚地看到各種二進制格式之間的差異。

可以看到feather和pickle擁有最快的I/O速度,接下來該比較數據加載過程中的內存消耗了。下面的條形圖顯示了我們之前提到的有關parquet格式的情況。

為什么parquet內存消耗這么高?因為只要在磁盤上占用一點空間,就需要額外的資源才能將數據解壓縮回數據幀。即使文件在持久性存儲磁盤上需要適度的容量,也可能無法將其加載到內存中。 最后我們看下不同格式的文件大小比較。所有格式都顯示出良好的效果,除了hdf仍然需要比其他格式更多的空間。

結論

正如我們的上面的測試結果所示,feather格式似乎是在多個Jupyter之間存儲數據的理想選擇。它顯示出很高的I/O速度,不占用磁盤上過多的內存,并且在裝回RAM時不需要任何拆包。

當然這種比較并不意味著我們應該在每種情況下都使用這種格式。例如,不希望將feather格式用作長期文件存儲。此外,當其他格式發揮最佳效果時,它并未考慮所有可能的情況。所以我們也需要根據具體情況進行選擇!

責任編輯:lq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • RAM
    RAM
    +關注

    關注

    8

    文章

    1399

    瀏覽量

    120549
  • 變量
    +關注

    關注

    0

    文章

    616

    瀏覽量

    29505
  • 數據集
    +關注

    關注

    4

    文章

    1236

    瀏覽量

    26190

原文標題:更高效的利用 Jupyter+pandas 進行數據分析,6 種常用數據格式效率對比!

文章出處:【微信號:DBDevs,微信公眾號:數據分析與開發】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    API數據分析:淘寶流量來源分析,渠道優化!

    ? 在電商領域,流量來源分析是優化營銷策略的核心。淘寶作為中國領先的電商平臺,其流量數據可通過API(應用程序接口)高效獲取和分析。本技術帖將逐步指導您如何
    的頭像 發表于 01-23 13:42 ?173次閱讀
    API<b class='flag-5'>數據分析</b>:淘寶流量來源<b class='flag-5'>分析</b>,渠道優化!

    利用拼多多用戶API進行粉絲數據分析,有效提升用戶粘性

    這些API進行粉絲數據分析,并基于分析結果制定增強用戶粘性的策略。 一、 拼多多用戶API概覽 拼多多開放平臺提供了豐富的API接口,涵蓋商品、交易、用戶、物流等多個維度。對于粉絲數據分析
    的頭像 發表于 12-30 10:38 ?219次閱讀
    <b class='flag-5'>利用</b>拼多多用戶API<b class='flag-5'>進行</b>粉絲<b class='flag-5'>數據分析</b>,有效提升用戶粘性

    淘寶數據分析API:用戶行為洞察,精準營銷決策!

    。本文將探討如何利用這些API實現用戶行為的深度洞察,并轉化為實際的營銷價值。 一、用戶行為數據的價值:從流量到洞察 用戶進入店鋪或瀏覽商品的每一個動作,都蘊含著豐富的信息。傳統的數據分析可能停留在流量、轉化率等宏觀層面
    的頭像 發表于 12-25 14:12 ?263次閱讀
    淘寶<b class='flag-5'>數據分析</b>API:用戶行為洞察,精準營銷決策!

    經營數據分析可以通過哪些方式

    在數聚股份看來,提起經營數據分析,大家往往會聯想到一些密密麻麻的數字表格,或是高級的數據建模手法,再或是華麗的數據報表。其實,“ 分析 ”本身是每個人都具備的能力,對于業務決策者而言,
    的頭像 發表于 12-05 16:31 ?633次閱讀

    基于FPGA的高效內存到串行數據傳輸模塊設計

    本文介紹了一個基于FPGA的內存到串行數據傳輸模塊,該模塊設計用來高效地處理存儲器中的數據并傳輸至串行接口。項目中自定義的“datamover_mm2s_fpga_”方案利用異步FIF
    的頭像 發表于 11-12 14:31 ?4329次閱讀
    基于FPGA的<b class='flag-5'>高效</b>內存到串<b class='flag-5'>行數據</b>傳輸模塊設計

    溫度循環測試后如何進行數據記錄和分析

    溫度循環測試后的數據記錄和分析是驗證電能質量在線監測裝置精度穩定性、功能完整性、硬件可靠性的核心環節,需圍繞 “數據溯源可查、分析邏輯閉環、結論依據充分” 展開,結合測試標準(IEC
    的頭像 發表于 09-26 14:22 ?530次閱讀

    如何使用運行數據趨勢分析驗證裝置準確性?

    利用行數據趨勢分析驗證電能質量在線監測裝置準確性,核心邏輯是 通過長期采集的電網運行數據,判斷其趨勢是否符合電網實際規律、是否具備穩定性與一致性 —— 若裝置準確,其輸出的
    的頭像 發表于 09-18 10:33 ?490次閱讀
    如何使用運<b class='flag-5'>行數據</b>趨勢<b class='flag-5'>分析</b>驗證裝置準確性?

    如何有效利用高光譜成像技術提升數據分析效率

    隨著人工智能和大數據技術的快速發展,高光譜成像技術作為一種融合光譜信息與空間影像的新興技術,正日益成為提升數據分析效率的重要工具。在農業監測、環境保護、礦產勘探等多個行業中,高光譜成像通過獲取精準
    的頭像 發表于 09-11 16:13 ?823次閱讀
    如何有效<b class='flag-5'>利用</b>高光譜成像技術提升<b class='flag-5'>數據分析</b>效率

    普迪飛 Exensio?數據分析平臺 | Test Operations解鎖半導體測試新紀元

    TestOperations是Exensio數據分析平臺的四個主要模塊之一。T-Ops模塊旨在幫助集成器件制造商(IDM)、無晶圓廠半導體公司(Fabless)和外包半導體(產品)封測廠(OSAT
    的頭像 發表于 08-19 13:53 ?1221次閱讀
    普迪飛 Exensio?<b class='flag-5'>數據分析</b>平臺 | Test Operations解鎖半導體測試新紀元

    如何通過數據分析識別設備故障模式?

    通過數據分析識別設備故障模式,本質是從聲振溫等多維數據中提取故障特征,建立 “數據特征 - 故障類型” 的映射關系,核心可通過特征提取、模式匹配、趨勢分析三步實現,精準定位故障根源與發
    的頭像 發表于 08-19 11:14 ?850次閱讀
    如何通過<b class='flag-5'>數據分析</b>識別設備故障模式?

    構建自定義電商數據分析API

    按需分析結果,幫助團隊快速響應市場變化。本文將逐步指導您如何從頭構建這樣一個API,確保它可靠、高效且可擴展。 1. 理解電商數據分析基礎 電商數據通常包括銷售記錄、用戶行為、產品信息
    的頭像 發表于 07-17 14:44 ?600次閱讀
    構建自定義電商<b class='flag-5'>數據分析</b>API

    AI數據分析儀設計原理圖:RapidIO信號接入 平板AI數據分析

    AI數據分析儀, 平板數據分析儀, 數據分析儀, AI邊緣計算, 高帶寬數據輸入
    的頭像 發表于 07-17 09:20 ?747次閱讀
    AI<b class='flag-5'>數據分析</b>儀設計原理圖:RapidIO信號接入 平板AI<b class='flag-5'>數據分析</b>儀

    如何使用協議分析進行數據分析與可視化

    使用協議分析進行數據分析與可視化,需結合數據捕獲、協議解碼、統計分析及可視化工具,將原始數據轉化為可解讀的圖表和報告。以下是詳細步驟及關鍵
    發表于 07-16 14:16

    B1505A 功率器件分析儀/曲線追蹤儀

    。 B1505A 還支持功率器件的片上測試,因此無需事先封裝器件。 在實驗室中進行器件測試時,這個功能可以顯著縮短周轉時間(TAT)。 配有直觀的 15 英寸觸摸屏界面,無需借助外部的個人電腦,即可進行數據分析
    發表于 06-21 18:38

    labview進行數據采集

    請問在labview中進行數據采集,為保證不同設備之間采集數據的同步性,準備利用PPS進行觸發開始任務,利用DAQmx設備內部時鐘源來設置
    發表于 04-27 10:19