有朋友面試阿里70萬總包的數據崗位,對方問Pandas的5種數據合并的函數,結果他只答出了2個。
那么,究竟是哪五個呢?今天,我們就來帶大家了解一下!目錄:-
1. concat
-
2. append
-
3. merge
-
4. join
-
5. combine
-
總結
1. concat
concat是pandas中專門用于數據連接合并的函數,功能非常強大,支持縱向合并和橫向合并,默認情況下是縱向合并,具體可以通過參數進行設置。pd.concat( objs:'Iterable[NDFrame]|Mapping[Hashable,NDFrame]', axis=0, join='outer', ignore_index:'bool'=False, keys=None, levels=None, names=None, verify_integrity:'bool'=False, sort:'bool'=False, copy:'bool'=True, )->'FrameOrSeriesUnion'在函數方法中,各參數含義如下:
接下來,我們就對該函數功能進行演示基礎連接objs: 用于連接的數據,可以是DataFrame或Series組成的列表axis=0: 連接的方式,默認為0也就是縱向連接,可選 1 為橫向連接join='outer':合并方式,默認為inner也就是交集,可選outer為并集ignore_index: 是否保留原有的索引keys=None:連接關系,使用傳遞的值作為一級索引levels=None:用于構造多級索引names=None:索引的名稱verify_integrity: 檢測索引是否重復,如果為True則有重復索引會報錯sort: 并集合并方式下,對columns排序copy: 是否深度拷貝
In[1]:importpandasaspd In[2]:s1=pd.Series(['a','b']) In[3]:s2=pd.Series(['c','d']) In[4]:s1 Out[4]: 0a 1b dtype:object In[5]:s2 Out[5]: 0c 1d dtype:object In[6]:pd.concat([s1,s2]) Out[6]: 0a 1b 0c 1d dtype:object In[7]:df1=pd.DataFrame([['a',1],['b',2]], ...:columns=['letter','number']) In[8]:df2=pd.DataFrame([['c',3],['d',4]], ...:columns=['letter','number']) In[9]:pd.concat([df1,df2]) Out[9]: letternumber 0a1 1b2 0c3 1d4橫向連接
In[10]:pd.concat([df1,df2],axis=1) Out[10]: letternumberletternumber 0a1c3 1b2d4默認情況下,
concat是取并集,如果兩個數據中有個數據沒有對應行或列,則會填充為空值NaN。合并交集In[11]:df3=pd.DataFrame([['c',3,'cat'],['d',4,'dog']], ...:columns=['letter','number','animal']) In[12]:df1 Out[12]: letternumber 0a1 1b2 In[13]:df3 Out[13]: letternumberanimal 0c3cat 1d4dog In[14]:pd.concat([df1,df3],join='inner') Out[14]: letternumber 0a1 1b2 0c3 1d4索引重置(不保留原有索引)
In[15]:pd.concat([df1,df3],join='inner',ignore_index=True) Out[15]: letternumber 0a1 1b2 2c3 3d4 #以下方式和上述的輸出結果等價 In[16]:pd.concat([df1,df3],join='inner').reset_index(drop=True) Out[16]: letternumber 0a1 1b2 2c3 3d4指定索引
In[17]:pd.concat([df1,df3],keys=['df1','df3']) Out[17]: letternumberanimal df10a1NaN 1b2NaN df30c3cat 1d4dog In[18]:pd.concat([df1,df3],keys=['df1','df3'],names=['df名稱','行ID']) Out[18]: letternumberanimal df名稱行ID df10a1NaN 1b2NaN df30c3cat 1d4dog檢測重復如果索引出現重復,則無法通過檢測,會報錯
In[19]:pd.concat([df1,df3],verify_integrity=True) Traceback(mostrecentcalllast): ... ValueError:Indexeshaveoverlappingvalues:Int64Index([0,1],dtype='int64')合并并集下columns排序
In[21]:pd.concat([df1,df3],sort=True) Out[21]: animalletternumber 0NaNa1 1NaNb2 0catc3 1dogd4DataFrame與Series合并
In[22]:pd.concat([df1,s1]) Out[22]: letternumber0 0a1.0NaN 1b2.0NaN 0NaNNaNa 1NaNNaNb In[23]:pd.concat([df1,s1],axis=1) Out[23]: letternumber0 0a1a 1b2b #新增列一般可選以下兩種方式 In[24]:df1.assign(新增列=s1) Out[24]: letternumber新增列 0a1a 1b2b In[25]:df1['新增列']=s1 In[26]:df1 Out[26]: letternumber新增列 0a1a 1b2b以上就
concat函數方法的一些功能,相比之下,另外一個函數append也可以用于數據追加(縱向合并)
2. append
append主要用于追加數據,是比較簡單直接的數據合并方式。df.append( other, ignore_index:'bool'=False, verify_integrity:'bool'=False, sort:'bool'=False, )->'DataFrame'在函數方法中,各參數含義如下:
接下來,我們就對該函數功能進行演示基礎追加other: 用于追加的數據,可以是DataFrame或Series或組成的列表ignore_index: 是否保留原有的索引verify_integrity: 檢測索引是否重復,如果為True則有重復索引會報錯sort: 并集合并方式下,對columns排序
In[41]:df1.append(df2) Out[41]: letternumber 0a1 1b2 0c3 1d4 In[42]:df1.append([df1,df2,df3]) Out[42]: letternumberanimal 0a1NaN 1b2NaN 0a1NaN 1b2NaN 0c3NaN 1d4NaN 0c3cat 1d4dogcolumns重置(不保留原有索引)
In[43]:df1.append([df1,df2,df3],ignore_index=True) Out[43]: letternumberanimal 0a1NaN 1b2NaN 2a1NaN 3b2NaN 4c3NaN 5d4NaN 6c3cat 7d4dog檢測重復如果索引出現重復,則無法通過檢測,會報錯
In[44]:df1.append([df1,df2],verify_integrity=True) Traceback(mostrecentcalllast): ... ValueError:Indexeshaveoverlappingvalues:Int64Index([0,1],dtype='int64')索引排序
In[46]:df1.append([df1,df2,df3],sort=True) Out[46]: animalletternumber 0NaNa1 1NaNb2 0NaNa1 1NaNb2 0NaNc3 1NaNd4 0catc3 1dogd4追加Series
In[49]:s=pd.Series({'letter':'s1','number':9}) In[50]:s Out[50]: letters1 number9 dtype:object In[51]:df1.append(s) Traceback(mostrecentcalllast): ... TypeError:CanonlyappendaSeriesifignore_index=TrueoriftheSerieshasaname In[53]:df1.append(s,ignore_index=True) Out[53]: letternumber 0a1 1b2 2s19追加字典這個在爬蟲的時候比較好使,每爬取一條數據就合并到
DataFrame類似數據中存儲起來In[54]:dic={'letter':'s1','number':9} In[55]:df1.append(dic,ignore_index=True) Out[55]: letternumber 0a1 1b2 2s19
3. merge
merge函數方法類似SQL里的join,可以是pd.merge或者df.merge,區別就在于后者待合并的數據是pd.merge( left:'DataFrame|Series', right:'DataFrame|Series', how:'str'='inner', on:'IndexLabel|None'=None, left_on:'IndexLabel|None'=None, right_on:'IndexLabel|None'=None, left_index:'bool'=False, right_index:'bool'=False, sort:'bool'=False, suffixes:'Suffixes'=('_x','_y'), copy:'bool'=True, indicator:'bool'=False, validate:'str|None'=None, )->'DataFrame'在函數方法中,關鍵參數含義如下:
接下來,我們就對該函數功能進行演示基礎合并left: 用于連接的左側數據right: 用于連接的右側數據how: 數據連接方式,默認為 inner,可選outer、left和righton: 連接關鍵字段,左右側數據中需要都存在,否則就用left_on和right_onleft_on: 左側數據用于連接的關鍵字段right_on: 右側數據用于連接的關鍵字段left_index: True表示左側索引為連接關鍵字段right_index: True表示右側索引為連接關鍵字段suffixes: 'Suffixes' = ('_x', '_y'),可以自由指定,就是同列名合并后列名顯示后綴indicator: 是否顯示合并后某行數據的歸屬來源
In[55]:df1=pd.DataFrame({'key':['foo','bar','bal'], ...:'value2':[1,2,3]}) In[56]:df2=pd.DataFrame({'key':['foo','bar','baz'], ...:'value1':[5,6,7]}) In[57]:df1.merge(df2) Out[57]: keyvalue2value1 0foo15 1bar26其他連接方式
In[58]:df1.merge(df2,how='left') Out[58]: keyvalue2value1 0foo15.0 1bar26.0 2bal3NaN In[59]:df1.merge(df2,how='right') Out[59]: keyvalue2value1 0foo1.05 1bar2.06 2bazNaN7 In[60]:df1.merge(df2,how='outer') Out[60]: keyvalue2value1 0foo1.05.0 1bar2.06.0 2bal3.0NaN 3bazNaN7.0 In[61]:df1.merge(df2,how='cross') Out[61]: key_xvalue2key_yvalue1 0foo1foo5 1foo1bar6 2foo1baz7 3bar2foo5 4bar2bar6 5bar2baz7 6bal3foo5 7bal3bar6 8bal3baz7指定連接鍵可以指定單個連接鍵,也可以指定多個連接鍵
In[62]:df1=pd.DataFrame({'lkey1':['foo','bar','bal'], ...:'lkey2':['a','b','c'], ...:'value2':[1,2,3]}) In[63]:df2=pd.DataFrame({'rkey1':['foo','bar','baz'], ...:'rkey2':['a','b','c'], ...:'value2':[5,6,7]}) In[64]:df1 Out[64]: lkey1lkey2value2 0fooa1 1barb2 2balc3 In[65]:df2 Out[65]: rkey1rkey2value2 0fooa5 1barb6 2bazc7 In[66]:df1.merge(df2,left_on='lkey1',right_on='rkey1') Out[66]: lkey1lkey2value2_xrkey1rkey2value2_y 0fooa1fooa5 1barb2barb6 In[67]:df1.merge(df2,left_on=['lkey1','lkey2'],right_on=['rkey1','rkey2']) Out[67]: lkey1lkey2value2_xrkey1rkey2value2_y 0fooa1fooa5 1barb2barb6指定索引為鍵
Out[68]:df1.merge(df2,left_index=True,right_index=True) Out[68]: lkey1lkey2value2_xrkey1rkey2value2_y 0fooa1fooa5 1barb2barb6 2balc3bazc7設置重復列后綴
In[69]:df1.merge(df2,left_on='lkey1',right_on='rkey1',suffixes=['左','右']) Out[69]: lkey1lkey2value2左rkey1rkey2value2右 0fooa1fooa5 1barb2barb6連接指示新增一列用于顯示數據來源
In[70]:df1.merge(df2,left_on='lkey1',right_on='rkey1',suffixes=['左','右'],how='outer', ...:indicator=True ...:) Out[70]: lkey1lkey2value2左rkey1rkey2value2右_merge 0fooa1.0fooa5.0both 1barb2.0barb6.0both 2balc3.0NaNNaNNaNleft_only 3NaNNaNNaNbazc7.0right_only
4. join
join就有點想append之于concat,用于數據合并df.join( other:'FrameOrSeriesUnion', on:'IndexLabel|None'=None, how:'str'='left', lsuffix:'str'='', rsuffix:'str'='', sort:'bool'=False, )->'DataFrame'在函數方法中,關鍵參數含義如下:
接下來,我們就對該函數功能進行演示other: 用于合并的右側數據on: 連接關鍵字段,左右側數據中需要都存在,否則就用left_on和right_onhow: 數據連接方式,默認為 inner,可選outer、left和rightlsuffix: 左側同名列后綴rsuffix:右側同名列后綴
In[71]:df=pd.DataFrame({'key':['K0','K1','K2','K3','K4','K5'], ...:'A':['A0','A1','A2','A3','A4','A5']}) In[72]:other=pd.DataFrame({'key':['K0','K1','K2'], ...:'B':['B0','B1','B2']}) In[73]:df Out[73]: keyA 0K0A0 1K1A1 2K2A2 3K3A3 4K4A4 5K5A5 In[74]:other Out[74]: keyB 0K0B0 1K1B1 2K2B2 In[75]:df.join(other,on='key') Traceback(mostrecentcalllast): ... ValueError:Youaretryingtomergeonobjectandint64columns.Ifyouwishtoproceedyoushouldusepd.concat如果想用key關鍵字, 則需要key是索引。。。指定key
In[76]:df.set_index('key').join(other.set_index('key')) Out[76]: AB key K0A0B0 K1A1B1 K2A2B2 K3A3NaN K4A4NaN K5A5NaN In[77]:df.join(other.set_index('key'),on='key') Out[77]: keyAB 0K0A0B0 1K1A1B1 2K2A2B2 3K3A3NaN 4K4A4NaN 5K5A5NaN指定重復列后綴
In[78]:df.join(other,lsuffix='_左',rsuffix='右') Out[78]: key_左Akey右B 0K0A0K0B0 1K1A1K1B1 2K2A2K2B2 3K3A3NaNNaN 4K4A4NaNNaN 5K5A5NaNNaN其他參數就不多做介紹了,和
merge基本一樣。
5. combine
在數據合并的過程中,我們可能需要對對應位置的值進行一定的計算,pandas提供了combine和combine_first函數方法來進行這方面的合作操作。df.combine( other:'DataFrame', func, fill_value=None, overwrite:'bool'=True, )->'DataFrame'比如,數據合并的時候取單元格最小的值
In[79]:df1=pd.DataFrame({'A':[0,0],'B':[4,4]}) In[80]:df2=pd.DataFrame({'A':[1,1],'B':[3,3]}) In[81]:df1 Out[81]: AB 004 104 In[82]:df2 Out[82]: AB 013 113 In[83]:take_smaller=lambdas1,s2:s1ifs1.sum()elses2 In[84]:df1.combine(df2,take_smaller) Out[84]: AB 003 103 #也可以調用numpy的函數 In[85]:importnumpyasnp In[86]:df1.combine(df2,np.minimum) Out[86]: AB 003 103fill_value填充缺失值
In[87]:df1=pd.DataFrame({'A':[0,0],'B':[None,4]}) In[87]:df2=pd.DataFrame({'A':[1,1],'B':[3,3]}) In[88]:df1 Out[88]: AB 00NaN 104.0 In[89]:df2 Out[89]: AB 013 113 In[90]:df1.combine(df2,take_smaller,fill_value=-88) Out[90]: AB 00-88.0 104.0overwrite=False保留
In[91]:df1=pd.DataFrame({'A':[0,0],'B':[4,4]}) In[92]:df2=pd.DataFrame({'B':[3,3],'C':[-10,1],},index=[1,2]) In[93]:df1 Out[93]: AB 004 104 In[94]:df2 Out[94]: BC 13-10 231 In[95]:df1.combine(df2,take_smaller) Out[95]: ABC 0NaNNaNNaN 1NaN3.0-10.0 2NaN3.01.0 #保留A列原有的值 In[96]:df1.combine(df2,take_smaller,overwrite=False) Out[96]: ABC 00.0NaNNaN 10.03.0-10.0 2NaN3.01.0另外一個combine_first
df.combine_first(other:'DataFrame')->'DataFrame'當df中元素為空采用other里的進行替換,結果為并集合并
In[97]:df1=pd.DataFrame({'A':[None,0],'B':[None,4]}) In[98]:df2=pd.DataFrame({'A':[1,1],'B':[3,3]}) In[99]:df1 Out[99]: AB 0NaNNaN 10.04.0 In[100]:df2 Out[100]: AB 013 113 In[101]:df1.combine_first(df2) Out[101]: AB 01.03.0 10.04.0 In[102]:df1=pd.DataFrame({'A':[None,0],'B':[4,None]}) In[103]:df2=pd.DataFrame({'B':[3,3],'C':[1,1]},index=[1,2]) In[104]:df1 Out[104]: AB 0NaN4.0 10.0NaN In[105]:df2 Out[105]: BC 131 231 In[106]:df1.combine_first(df2) Out[106]: ABC 0NaN4.0NaN 10.03.01.0 2NaN3.01.0
總結
以上就本次介紹的關于Pandas數據合并的全部內容,相比之下我們可以發現:-
append主要用于縱向追加數據,比較簡單直接; -
concat功能最強大,不僅可以縱向合并數據還可以橫向合并數據而且支持很多其他條件設置; -
merge則主要用于橫向合并數據,類似SQL里的join連接; -
join則比較簡單,用于橫向合并數據,條件相對苛刻; -
combine更像是按照元素進行合并,根據一定的條件(函數規則)來進行數據合并。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
數據
+關注
關注
8文章
7335瀏覽量
94757 -
concat
+關注
關注
0文章
3瀏覽量
2041
原文標題:5 個必須知道的 Pandas 數據合并技巧
文章出處:【微信號:DBDevs,微信公眾號:數據分析與開發】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
熱點推薦
芯片CP測試與FT測試的區別,半導體測試工程師必須知道
個體終檢,通過測試座連接引腳,在全溫域下全面驗證性能參數,保障產品交付質量。二者在測試階段、對象、目的及技術實現上截然不同,結合兩者數據可優化芯片制造良率。
搞懂MOS管,你必須知道的米勒效應
=Cgd+Cds,
反向傳輸電容Crss=Cgd,也叫米勒電容。
然而,這三個等效電容是構成串并聯組合關系,它們并不是獨立的,而是相互影響,其中一個關鍵電容就是米勒電容Cgd。這個電容不是恒定的,它隨著
發表于 01-19 07:55
避免巨額罰單!關于SAA認證(RCM標志)您必須知道的合規要點
對于計劃出口電氣產品至澳大利亞的制造商和出口商而言,了解并遵守當地的市場準入要求至關重要。其中,SAA認證與RCM標志是產品合法進入澳洲市場的核心合規要求。忽視這些規定不僅會導致清關受阻、貨物退運,還可能面臨高額罰款和品牌聲譽損失。本文將為您清晰梳理SAA認證與RCM標志的關鍵合規要點,幫助您規避風險,確保產品順利進入澳大利亞市場。一、什么是SAA認證?SA
訂單拆單合并處理接口設計與實現
? 在電商或訂單管理系統中,訂單拆單和合并是常見的優化操作。拆單指將一個訂單拆分成多個子訂單(例如基于庫存位置或物流需求),而合并則是將多個訂單整合成一個(例如減少配送成本)。一
SMT焊接裂縫頻發?這5大成因和解決方案你必須知道!
一站式PCBA加工廠家今天為大家講講SMT加工中焊接裂縫的原因有哪些?SMT加工中焊接裂縫的成因及解決方案。焊接裂縫作為影響電子產品可靠性的重要隱患,其產生往往與工藝鏈的多個環節密切相關。本文將結合我們的實戰經驗,深度解析焊接裂縫的形成機理,并提供可落地的解決方案。 SMT加工中焊接裂縫的成因及解決方案 一、焊接裂縫產生的五大核心誘因 1. 熱應力沖擊(占比38%) - 回流焊溫度曲線設置不當導致的熱膨脹系數差異 - 雙面貼裝工藝中二次回流
請問K230D 3路MIPI CSI可以合并為1個4通道和1個2通道,1個4通道具體怎么合并呢?
K230D 3路MIPI CSI可以合并為1個4通道和1個2通道,1個4通道具體怎么合并呢?
發表于 07-18 08:17
PCBA加工冷焊頻發?這些原因你必須知道!
一站式PCBA加工廠家今天為大家講講PCBA加工中為什么會出現冷焊?PCBA加工中冷焊的主要原因。PCBA加工中,冷焊問題是影響焊接質量的常見缺陷之一。冷焊指的是焊點未完全形成牢固的金屬結合,表現為焊點表面粗糙、無光澤,甚至在機械或電氣應力下容易斷裂。理解冷焊問題的根源,有助于我們在生產中加以預防,提高產品質量。 一、PCBA加工中冷焊的主要原因 1. 焊接溫度不足 焊接時如果溫度未達到焊錫的熔點,焊料無法充分融化,導致焊點與焊盤或元
如何高效訓練AI模型?這些常用工具你必須知道!
大模型的發展同樣面臨瓶頸,訓練所需的硬件資源日益增加,比如英偉達的芯片、電力等(這也可能是ChatGPT5遲遲沒有出來的原因)。業界有觀點認為,在大多數情況下,并不需要全能的大模型,而是更適合專注于
為什么高端PCBA都選雙面SMT貼裝?這幾個優勢你必須知道!
一站式PCBA加工廠家今天為大家講講PCBA加工廠家雙面SMT貼裝有什么優勢?PCBA加工雙面SMT貼裝服務的優勢。在電子制造行業中,PCBA(印刷電路板組裝)工藝的質量和效率直接關系到電子產品的性能和穩定性。領卓電子憑借20多年的PCBA加工經驗,提供全流程一站式PCBA代工代料服務,致力于為客戶提供高品質的雙面SMT貼裝解決方案。 雙面SMT貼裝的核心優勢 PCBA加工中的雙面SMT貼裝服務具有多項獨特優勢,這些優勢主要體現在提高集成度、提升生產效率、增強焊接
PCBA代加工避坑指南:這個流程你必須知道
一站式PCBA打樣廠家今天為大家講講PCBA代加工為什么要嚴格執行PCBA測試流程?PCBA測試流程的重要性。在電子產品制造過程中,PCBA是關鍵的環節之一,而PCBA測試流程則是確保產品質量和可靠性的重要手段。對于有著20余年經驗的PCBA代工廠來說,嚴格執行PCBA測試流程不僅是保障客戶滿意度的核心環節,也是提升公司競爭力的重要基礎。 PCBA測試流程的重要性 PCBA是現代電子產品的核心組件,幾乎所有電子設備都依賴于它來實現其功能。隨著技術的進步,電子
設備保養計劃自動生成?這5個功能你必須知道
在工業4.0的浪潮下,設備管理正經歷深刻變革,借助智能系統實現設備保養計劃自動化生成與高效執行,助力企業降本增效。系統通過多維數據分析,精準適配每臺設備,實現資源合理配置,避免停機損失。同時,自動派發任務,實現無縫執行。
小程序開發必須知道的5個技巧:提升效率與用戶體驗的權威指南
提升1秒加載速度可降低7%的用戶流失。
交互流暢性:利用微信小程序的setData合并更新機制,減少頻繁渲染導致的卡頓,并通過加載動畫緩解等待焦慮。
二、
80%的用戶僅使用小程序20%的功能,因此需
發表于 03-14 14:51
5個必須知道的Pandas數據合并技巧
評論