国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用python減少數(shù)據(jù)集中的特性數(shù)量

QQ475400555 ? 來源:機器視覺沙龍 ? 作者:機器視覺沙龍 ? 2022-11-15 09:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

簡 介:據(jù)《福布斯》報道,每天大約會有 250 萬字節(jié)的數(shù)據(jù)被產(chǎn)生。然后,可以使用數(shù)據(jù)科學(xué)和機器學(xué)習(xí)技術(shù)對這些數(shù)據(jù)進行分析,以便提供分析和作出預(yù)測。盡管在大多數(shù)情況下,在開始任何統(tǒng)計分析之前,需要先對最初收集的數(shù)據(jù)進行預(yù)處理。有許多不同的原因?qū)е滦枰M行預(yù)處理分析,例如:

收集的數(shù)據(jù)格式不對(如 SQL 數(shù)據(jù)庫、JSON、CSV 等)

缺失值和異常值

標(biāo)準(zhǔn)化

減少數(shù)據(jù)集中存在的固有噪聲(部分存儲數(shù)據(jù)可能已損壞)

數(shù)據(jù)集中的某些功能可能無法收集任何信息以供分析

在本文中,我將介紹如何使用 python 減少 kaggle Mushroom Classification 數(shù)據(jù)集中的特性數(shù)量。本文中使用的所有代碼在?kaggle 和我的?github 帳號上都有。減少統(tǒng)計分析期間要使用的特征的數(shù)量可能會帶來一些好處,例如:

高精度

降低過擬合風(fēng)險

加快訓(xùn)練速度

改進數(shù)據(jù)可視化

增加我們模型的可解釋性

事實上,統(tǒng)計上證明,當(dāng)執(zhí)行機器學(xué)習(xí)任務(wù)時,存在針對每個特定任務(wù)應(yīng)該使用的最佳數(shù)量的特征(圖 1)。如果添加的特征比必要的特征多,那么我們的模型性能將下降(因為添加了噪聲)。真正的挑戰(zhàn)是找出哪些特征是最佳的使用特征(這實際上取決于我們提供的數(shù)據(jù)量和我們正在努力實現(xiàn)的任務(wù)的復(fù)雜性)。這就是特征選擇技術(shù)能夠幫到我們的地方!

圖 1:分類器性能和維度之間的關(guān)系特征選擇 有許多不同的方法可用于特征選擇。其中最重要的是:1.過濾方法=過濾我們的數(shù)據(jù)集,只取包含所有相關(guān)特征的子集(例如,使用 Pearson 相關(guān)的相關(guān)矩陣)。2.遵循過濾方法的相同目標(biāo),但使用機器學(xué)習(xí)模型作為其評估標(biāo)準(zhǔn)(例如,向前/向后/雙向/遞歸特征消除)。我們將一些特征輸入機器學(xué)習(xí)模型,評估它們的性能,然后決定是否添加或刪除特征以提高精度。因此,這種方法可以比濾波更精確,但計算成本更高。3.嵌入方法。與過濾方法一樣,嵌入方法也使用機器學(xué)習(xí)模型。這兩種方法的區(qū)別在于,嵌入的方法檢查 ML 模型的不同訓(xùn)練迭代,然后根據(jù)每個特征對 ML 模型訓(xùn)練的貢獻程度對每個特征的重要性進行排序。

圖 2:過濾器、包裝器和嵌入式方法表示 [3]實踐 在本文中,我將使用 Mushroom Classification 數(shù)據(jù)集,通過查看給定的特征來嘗試預(yù)測蘑菇是否有毒。在這樣做的同時,我們將嘗試不同的特征消除技術(shù),看看它們會如何影響訓(xùn)練時間和模型整體的精度。首先,我們需要導(dǎo)入所有必需的庫。

152b247e-6479-11ed-8abf-dac502259ad0.png

我們將在本例中使用的數(shù)據(jù)集如下圖所示。

153410b6-6479-11ed-8abf-dac502259ad0.png

圖 3:Mushroom Classification 數(shù)據(jù)集在將這些數(shù)據(jù)輸入機器學(xué)習(xí)模型之前,我決定對所有分類變量進行 one hot 編碼,將數(shù)據(jù)分為特征(x)和標(biāo)簽(y),最后在訓(xùn)練集和測試集中進行。
X = df.drop(['class'], axis = 1)
Y = df['class']
X = pd.get_dummies(X, prefix_sep='_')
Y = LabelEncoder().fit_transform(Y)


X2 = StandardScaler().fit_transform(X)


X_Train, X_Test, Y_Train, Y_Test = train_test_split(X2, Y, test_size = 0.30, 

特征重要性

基于集合的決策樹模型(如隨機森林)可以用來對不同特征的重要性進行排序。了解我們的模型最重要的特征對于理解我們的模型如何做出預(yù)測(使其更易于解釋)是至關(guān)重要的。同時,我們可以去掉那些對我們的模型沒有任何好處的特征。

start = time.process_time()
trainedforest = RandomForestClassifier(n_estimators=700).fit(X_Train,Y_Train)
print(time.process_time() - start)
predictionforest = trainedforest.predict(X_Test)
print(confusion_matrix(Y_Test,predictionforest))
print(classification_report(Y_Test,predictionforest))
如下圖所示,使用所有特征訓(xùn)練一個隨機森林分類器,在大約 2.2 秒的訓(xùn)練時間內(nèi)獲得 100% 的準(zhǔn)確率。在下面的每個示例中,每個模型的訓(xùn)練時間都將打印在每個片段的第一行,供你參考。

15411374-6479-11ed-8abf-dac502259ad0.png

一旦我們的隨機森林分類器得到訓(xùn)練,我們就可以創(chuàng)建一個特征重要性圖,看看哪些特征對我們的模型預(yù)測來說是最重要的(圖 4)。在本例中,下面只顯示了前 7 個特性。
figure(num=None, figsize=(20, 22), dpi=80, facecolor='w', edgecolor='k')


feat_importances = pd.Series(trainedforest.feature_importances_, index= X.columns)
feat_importances.nlargest(7).plot(kind='barh')

154acd6a-6479-11ed-8abf-dac502259ad0.png

圖 4:特征重要性圖現(xiàn)在我們知道了哪些特征被我們的隨機森林認(rèn)為是最重要的,我們可以嘗試使用前 3 個來訓(xùn)練我們的模型。
X_Reduced = X[['odor_n','odor_f', 'gill-size_n','gill-size_b']]
X_Reduced = StandardScaler().fit_transform(X_Reduced)
X_Train2, X_Test2, Y_Train2, Y_Test2 = train_test_split(X_Reduced, Y, test_size = 0.30,  random_state = 101)


start = time.process_time()
trainedforest = RandomForestClassifier(n_estimators=700).fit(X_Train2,Y_Train2)
print(time.process_time() - start)
predictionforest = trainedforest.predict(X_Test2)
print(confusion_matrix(Y_Test2,predictionforest))
print(classification_report(Y_Test2,predictionforest))
正如我們在下面看到的,僅僅使用 3 個特征,只會導(dǎo)致準(zhǔn)確率下降 0.03%,訓(xùn)練時間減少一半。

1554232e-6479-11ed-8abf-dac502259ad0.png

我們還可以通過可視化一個訓(xùn)練過的決策樹來理解如何進行特征選擇。
start = time.process_time()
trainedtree = tree.DecisionTreeClassifier().fit(X_Train, Y_Train)
print(time.process_time() - start)
predictionstree = trainedtree.predict(X_Test)
print(confusion_matrix(Y_Test,predictionstree))
print(classification_report(Y_Test,predictionstree))

15616138-6479-11ed-8abf-dac502259ad0.png

樹結(jié)構(gòu)頂部的特征是我們的模型為了執(zhí)行分類而保留的最重要的特征。因此,只選擇頂部的前幾個特征,而放棄其他特征,可能創(chuàng)建一個準(zhǔn)確度非常可觀的模型。
import graphviz
from sklearn.tree import DecisionTreeClassifier, export_graphviz




data = export_graphviz(trainedtree,out_file=None,feature_names= X.columns,
        class_names=['edible', 'poisonous'], 
        filled=True, rounded=True, 
        max_depth=2,
        special_characters=True)
graph = graphviz.Source(data)
graph

156cb6d2-6479-11ed-8abf-dac502259ad0.png

圖 5:決策樹可視化

遞歸特征消除(RFE)

遞歸特征消除(RFE)將機器學(xué)習(xí)模型的實例和要使用的最終期望特征數(shù)作為輸入。然后,它遞歸地減少要使用的特征的數(shù)量,采用的方法是使用機器學(xué)習(xí)模型精度作為度量對它們進行排序。創(chuàng)建一個 for 循環(huán),其中輸入特征的數(shù)量是我們的變量,這樣就可以通過跟蹤在每個循環(huán)迭代中注冊的精度,找出我們的模型所需的最佳特征數(shù)量。使用 RFE 支持方法,我們可以找出被評估為最重要的特征的名稱(rfe.support 返回一個布爾列表,其中 true 表示一個特征被視為重要,false 表示一個特征不重要)。

from sklearn.feature_selection import RFE


model = RandomForestClassifier(n_estimators=700)
rfe = RFE(model, 4)
start = time.process_time()
RFE_X_Train = rfe.fit_transform(X_Train,Y_Train)
RFE_X_Test = rfe.transform(X_Test)
rfe = rfe.fit(RFE_X_Train,Y_Train)
print(time.process_time() - start)
print("Overall Accuracy using RFE: ", rfe.score(RFE_X_Test,Y_Test))

1576e5c6-6479-11ed-8abf-dac502259ad0.png

SelecFromModel

selectfrommodel 是另一種 scikit 學(xué)習(xí)方法,可用于特征選擇。此方法可用于具有 coef 或 feature 重要性屬性的所有不同類型的 scikit 學(xué)習(xí)模型(擬合后)。與 rfe 相比,selectfrommodel 是一個不太可靠的解決方案。實際上,selectfrommodel 只是根據(jù)計算出的閾值(不涉及優(yōu)化迭代過程)刪除不太重要的特性。為了測試 selectfrommodel 的有效性,我決定在這個例子中使用一個 ExtraTreesClassifier。ExtratreesClassifier(極端隨機樹)是基于樹的集成分類器,與隨機森林方法相比,它可以產(chǎn)生更少的方差(因此減少了過擬合的風(fēng)險)。隨機森林和極隨機樹的主要區(qū)別在于極隨機樹中節(jié)點的采樣不需要替換。

from sklearn.ensemble import ExtraTreesClassifier
from sklearn.feature_selection import SelectFromModel


model = ExtraTreesClassifier()
start = time.process_time()
model = model.fit(X_Train,Y_Train)
model = SelectFromModel(model, prefit=True)
print(time.process_time() - start)
Selected_X = model.transform(X_Train)


start = time.process_time()
trainedforest = RandomForestClassifier(n_estimators=700).fit(Selected_X, Y_Train)
print(time.process_time() - start)
Selected_X_Test = model.transform(X_Test)
predictionforest = trainedforest.predict(Selected_X_Test)
print(confusion_matrix(Y_Test,predictionforest))
print(classification_report(Y_Test,predictionforest))

15840c6a-6479-11ed-8abf-dac502259ad0.png

相關(guān)矩陣分析為了減少數(shù)據(jù)集中的特征數(shù)量,另一種可能的方法是檢查特征與標(biāo)簽的相關(guān)性。使用皮爾遜相關(guān),我們的返回系數(shù)值將在-1 和 1 之間變化:
  • 如果兩個特征之間的相關(guān)性為 0,則意味著更改這兩個特征中的任何一個都不會影響另一個。

  • 如果兩個特征之間的相關(guān)性大于 0,這意味著增加一個特征中的值也會增加另一個特征中的值(相關(guān)系數(shù)越接近 1,兩個不同特征之間的這種聯(lián)系就越強)。

  • 如果兩個特征之間的相關(guān)性小于 0,這意味著增加一個特征中的值將使減少另一個特征中的值(相關(guān)性系數(shù)越接近-1,兩個不同特征之間的這種關(guān)系將越強)。

在這種情況下,我們將只考慮與輸出變量至少 0.5 相關(guān)的特性。
Numeric_df = pd.DataFrame(X)
Numeric_df['Y'] = Y
corr= Numeric_df.corr()
corr_y = abs(corr["Y"])
highest_corr = corr_y[corr_y >0.5]
highest_corr.sort_values(ascending=True)

1591ee84-6479-11ed-8abf-dac502259ad0.png

我們現(xiàn)在可以通過創(chuàng)建一個相關(guān)矩陣來更仔細(xì)地研究不同相關(guān)特征之間的關(guān)系。
figure(num=None, figsize=(12, 10), dpi=80, facecolor='w', edgecolor='k')


corr2 = Numeric_df[['bruises_f' , 'bruises_t' , 'gill-color_b' , 'gill-size_b' ,  'gill-size_n' , 'ring-type_p' , 'stalk-surface-below-ring_k' ,  'stalk-surface-above-ring_k' , 'odor_f', 'odor_n']].corr()


sns.heatmap(corr2, annot=True, fmt=".2g")

159a614a-6479-11ed-8abf-dac502259ad0.png

圖 6:最高相關(guān)特征的相關(guān)矩陣在這項分析中,另一個可能要控制的方面是檢查所選變量是否彼此高度相關(guān)。如果是的話,我們就只需要保留其中一個相關(guān)的,去掉其他的。最后,我們現(xiàn)在可以只選擇與 y 相關(guān)度最高的特征,訓(xùn)練/測試一個支持向量機模型來評估該方法的結(jié)果。

15aabbf8-6479-11ed-8abf-dac502259ad0.jpg

15b7b9c0-6479-11ed-8abf-dac502259ad0.png

單變量選擇單變量特征選擇是一種統(tǒng)計方法,用于選擇與我們對應(yīng)標(biāo)簽關(guān)系最密切的特征。使用 selectkbest 方法,我們可以決定使用哪些指標(biāo)來評估我們的特征,以及我們希望保留的 k 個最佳特征的數(shù)量。根據(jù)我們的需要,提供不同類型的評分函數(shù):
  • Classification = chi2, f_classif, mutual_info_classif

  • Regression = f_regression, mutual_info_regression

在本例中,我們將使用 chi2(圖 7)。

15c32b98-6479-11ed-8abf-dac502259ad0.png

圖 7:卡方公式 [4]卡方(chi-squared,chi2)可以將非負(fù)值作為輸入,因此,首先,我們在 0 到 1 之間的范圍內(nèi)縮放輸入數(shù)據(jù)。
from sklearn.feature_selection import SelectKBest
from sklearn.feature_selection import chi2


min_max_scaler = preprocessing.MinMaxScaler()
Scaled_X = min_max_scaler.fit_transform(X2)


X_new = SelectKBest(chi2, k=2).fit_transform(Scaled_X, Y)
X_Train3, X_Test3, Y_Train3, Y_Test3 = train_test_split(X_new, Y, test_size = 0.30,  random_state = 101)
start = time.process_time()
trainedforest = RandomForestClassifier(n_estimators=700).fit(X_Train3,Y_Train3)
print(time.process_time() - start)
predictionforest = trainedforest.predict(X_Test3)
print(confusion_matrix(Y_Test3,predictionforest))
print(classification_report(Y_Test3,predictionforest))

15cca8a8-6479-11ed-8abf-dac502259ad0.png

套索回歸當(dāng)將正則化應(yīng)用于機器學(xué)習(xí)模型時,我們在模型參數(shù)上加上一個懲罰,以避免我們的模型試圖太接近我們的輸入數(shù)據(jù)。通過這種方式,我們可以使我們的模型不那么復(fù)雜,并且我們可以避免過度擬合(使我們的模型不僅學(xué)習(xí)關(guān)鍵的數(shù)據(jù)特征,而且學(xué)習(xí)它的內(nèi)在噪聲)。其中一種可能的正則化方法是套索回歸。當(dāng)使用套索回歸時,如果輸入特征的系數(shù)對我們的機器學(xué)習(xí)模型訓(xùn)練沒有積極的貢獻,則它們會縮小。這樣,一些特征可能會被自動丟棄,即將它們的系數(shù)指定為零。
from sklearn.linear_model import LassoCV


regr = LassoCV(cv=5, random_state=101)
regr.fit(X_Train,Y_Train)
print("LassoCV Best Alpha Scored: ", regr.alpha_)
print("LassoCV Model Accuracy: ", regr.score(X_Test, Y_Test))
model_coef = pd.Series(regr.coef_, index = list(X.columns[:-1]))
print("Variables Eliminated: ", str(sum(model_coef == 0)))
print("Variables Kept: ", str(sum(model_coef != 0)))

15d90d00-6479-11ed-8abf-dac502259ad0.png

一旦訓(xùn)練了我們的模型,我們就可以再次創(chuàng)建一個特征重要性圖來了解哪些特征被我們的模型認(rèn)為是最重要的(圖 8)。這是非常有用的,尤其是在試圖理解我們的模型是如何決定做出預(yù)測的時候,因此使我們的模型更易于解釋。
figure(num=None, figsize=(12, 10), dpi=80, facecolor='w', edgecolor='k')


top_coef = model_coef.sort_values()
top_coef[top_coef != 0].plot(kind = "barh")
plt.title("Most Important Features Identified using Lasso (!0)")

15e6b6bc-6479-11ed-8abf-dac502259ad0.png

圖 8:套索特征重要性圖 審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • python
    +關(guān)注

    關(guān)注

    57

    文章

    4876

    瀏覽量

    90041
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1236

    瀏覽量

    26201

原文標(biāo)題:收藏 | 機器學(xué)習(xí)特征選擇方法總結(jié)

文章出處:【微信號:機器視覺沙龍,微信公眾號:機器視覺沙龍】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    汽車電子集中式架構(gòu)如何重構(gòu)元器件需求

    隨著汽車智能化發(fā)展,2025款大眾ID.7等新型汽車的電子架構(gòu)正經(jīng)歷深刻變革。其內(nèi)部的電子控制模塊數(shù)量已從傳統(tǒng)燃油車的上百個減少至約70個。這30%的削減背后,是汽車電子架構(gòu)從分散控制向集中控制演進
    的頭像 發(fā)表于 02-10 14:41 ?492次閱讀

    1688 商品詳情 API 調(diào)用與數(shù)據(jù)解析 Python 實戰(zhàn)

    你想要的是 1688 商品詳情 API 的 Python 調(diào)用與數(shù)據(jù)解析實戰(zhàn)方案,核心是完成 API 憑證配置、接口請求(含簽名)、響應(yīng)數(shù)據(jù)解析、異常處理 的全流程落地,我會提供可直接運行的代碼,并
    的頭像 發(fā)表于 02-10 11:23 ?264次閱讀

    如何使用Python讀取不間斷數(shù)據(jù),并將其傳輸?shù)絃abVIEW進行處理?

    使用Python讀取Count,如何將讀取到的數(shù)據(jù)傳輸至Labview;傳輸過程中Python要保持讀取的動作,不能停止。
    發(fā)表于 01-23 11:09

    【瑞薩RA6E2地奇星開發(fā)板試用】基于RA6E2+ESP8266在STA模式下數(shù)據(jù)透傳到Python服務(wù)器整體系統(tǒng)演示總結(jié)

    =9ebd187ccc98c26d8c32c09c0ffa5319 6. 項目中使用的優(yōu)化點: json方式傳輸數(shù)據(jù)。 使用簡寫的方式,減少數(shù)據(jù)傳輸量。 溫度、濕度數(shù)據(jù)使用整型傳輸 使用安全的方式傳輸
    發(fā)表于 12-28 20:16

    CW32 DMA的主要特性

    和 CPU 對外設(shè)總線控制權(quán)的仲裁,以及多 DMA 通道之間的調(diào)度執(zhí)行。 主要特性有: ?5 條獨立 DMA 通道 ?3 種數(shù)據(jù)傳輸寬度:8bit、16bit、32bit ?4 種傳輸模式:軟件
    發(fā)表于 12-16 07:14

    CANFD總線多節(jié)點擴展技術(shù):節(jié)點數(shù)量限制與突破方案

    在工業(yè)控制、汽車電子等 CANFD 總線應(yīng)用場景中,節(jié)點數(shù)量直接影響系統(tǒng)覆蓋范圍與數(shù)據(jù)交互效率。節(jié)點數(shù)量并非無限制擴展,其受總線特性、硬件設(shè)計、協(xié)議配置等多重因素約束。本文將深入解析
    的頭像 發(fā)表于 12-15 17:35 ?1374次閱讀
    CANFD總線多節(jié)點擴展技術(shù):節(jié)點<b class='flag-5'>數(shù)量</b>限制與突破方案

    沒有專利的opencv-python 版本

    所有 官方發(fā)布的 opencv-python 核心版本(無 contrib 擴展)都無專利風(fēng)險——專利問題僅存在于 opencv-contrib-python 擴展模塊中的少數(shù)算法(如早期 SIFT
    發(fā)表于 12-13 12:37

    Termux中調(diào)試圣誕樹Python代碼

    在Termux中調(diào)試Python代碼(以圣誕樹立例)非常簡單,核心分為環(huán)境準(zhǔn)備、代碼編寫、運行調(diào)試三個步驟,下面一步步教你操作: 一、環(huán)境準(zhǔn)備(首次使用需做) Termux默認(rèn)可能沒有Python
    發(fā)表于 12-09 09:02

    adc3683-sep技術(shù)手冊

    ADC3683-xEP 使用串行 LVDS (SLVDS) 接口輸出數(shù)據(jù),從而最大限度地減少數(shù)字互連的數(shù)量。該器件支持雙通道、單通道和半通道選項。該器件采用 40 引腳 QFN 封裝 (5 mm x 5 mm),支持 -55 至
    的頭像 發(fā)表于 10-22 18:15 ?1165次閱讀
    adc3683-sep技術(shù)手冊

    termux調(diào)試python猜數(shù)字游戲

    特性 - ? 智能范圍提示(太大/太小) - ? 嘗試次數(shù)計數(shù)器 - ? 錯誤輸入防護 - ? 移動端友好界面 --- ? 四、進階優(yōu)化建議 ```python 可擴展功能(在現(xiàn)有代碼中添加
    發(fā)表于 08-29 17:15

    python app不能運行怎么解決?

    ;python_agent[1241]: xmlrpc request method supervisor.stopProcess failed;python_agent[1241]: xmlrpc request method supervisor.stopProces
    發(fā)表于 08-06 06:27

    PLC數(shù)據(jù)采集中臺是什么?有什么功能?

    PLC數(shù)據(jù)采集中臺是工業(yè)場景中連接底層PLC設(shè)備與上層業(yè)務(wù)系統(tǒng)(如MES、ERP、工業(yè)云平臺等)的中間層數(shù)據(jù)處理樞紐。它并非單一硬件設(shè)備,而是集數(shù)據(jù)采集、清洗、存儲、整合、分發(fā)于一體的軟件系統(tǒng)(或
    的頭像 發(fā)表于 07-30 14:31 ?492次閱讀
    PLC<b class='flag-5'>數(shù)據(jù)采集中</b>臺是什么?有什么功能?

    工業(yè)設(shè)備數(shù)據(jù)集中監(jiān)控可視化管理平臺是什么

    工業(yè)設(shè)備數(shù)據(jù)集中監(jiān)控可視化管理平臺是一種用于整合、監(jiān)控和可視化工業(yè)設(shè)備數(shù)據(jù)的綜合性系統(tǒng),旨在幫助企業(yè)實現(xiàn)設(shè)備數(shù)據(jù)集中管理、實時監(jiān)控和可視化
    的頭像 發(fā)表于 05-06 11:10 ?1070次閱讀

    python入門圣經(jīng)-高清電子書(建議下載)

    和Pygal 等強大的Python 庫和工具介紹,以及列表、字典、if 語句、類、文件與異常、代碼測試等內(nèi)容; 第二部分將理論付諸實踐,講解如何開發(fā)三個項目,包括簡單的Python 2D 游戲開發(fā)如何利用數(shù)據(jù)
    發(fā)表于 04-10 16:53

    零基礎(chǔ)入門:如何在樹莓派上編寫和運行Python程序?

    在這篇文章中,我將為你簡要介紹Python程序是什么、Python程序可以用來做什么,以及如何在RaspberryPi上編寫和運行一個簡單的Python程序。什么是Python程序?
    的頭像 發(fā)表于 03-25 09:27 ?2041次閱讀
    零基礎(chǔ)入門:如何在樹莓派上編寫和運行<b class='flag-5'>Python</b>程序?