国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

金融市場中的NLP 情感分析

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:Yuki Takahashi ? 2020-11-02 16:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自在ImageNet上推出AlexNet以來,計算機視覺深度學習已成功應用于各種應用。相反,NLP在深層神經網絡應用方面一直落后。許多聲稱使用人工智能的應用程序通常使用某種基于規則的算法和傳統的機器學習,而不是使用深層神經網絡。

2018年,在一些NLP任務中,一種名為BERT的最先進(STOA)模型的表現超過了人類的得分。在這里,我將幾個模型應用于情緒分析任務,以了解它們在我所處的金融市場中有多大用處。代碼在jupyter notebook中,在git repo中可用//github.com/yuki678/financial-phrase-bert

介紹

NLP任務可以大致分為以下幾類。

文本分類——過濾垃圾郵件,對文檔進行分類

詞序——詞翻譯,詞性標記,命名實體識別

文本意義——主題模型,搜索,問答

seq2seq——機器翻譯、文本摘要、問答

對話系統

不同的任務需要不同的方法,在大多數情況下是多種NLP技術的組合。在開發機器人時,后端邏輯通常是基于規則的搜索引擎和排名算法,以形成自然的通信

這是有充分理由的。語言有語法和詞序,可以用基于規則的方法更好地處理,而機器學習方法可以更好地學習單詞相似性。向量化技術如word2vec、bag of word幫助模型以數學方式表達文本。最著名的例子是:

King-Man+Woman=Queen Paris-France+UK=London

第一個例子描述了性別關系,第二個例子描述了首都的概念。然而,在這些方法中,由于在任何文本中同一個詞總是由同一個向量表示,因此上下文不能被捕獲,這在許多情況下是不正確的。

循環神經網絡(RNN)結構利用輸入序列的先驗信息,處理時間序列數據,在捕捉和記憶上下文方面表現良好。LSTM是一種典型的結構,它由輸入門、輸出門和遺忘門組成,克服了RNN的梯度問題。有許多基于LSTM的改進模型,例如雙向LSTM,不僅可以從前面的單詞中捕捉上下文,而且可以從后面捕獲上下文。這些方法對于某些特定的任務是有用的,但在實際應用中卻不太適用。

2017年,我們看到了一種新的方法來解決這個問題。BERT是Google在2018年推出的一個多編碼器堆棧的掩碼語言模型,在GLUE、SQuAD和SWAG基準測試中實現了STOA,并有了很大的改進。有很多文章和博客解釋了這種架構,比如Jay Alammar的文章:http://jalammar.github.io/illustrated-bert/

我在金融行業工作,在過去的幾年里,我很難看到我們在NLP上的機器學習模型在交易系統中的生產應用方面有足夠的強勁表現。現在,基于BERT的模型正在變得成熟和易于使用,這要歸功于Huggingface的實現和許多預訓練的模型已經公開。

我的目標是看看這個NLP的最新開發是否達到了在我的領域中使用的良好水平。在這篇文章中,我比較了不同的模型,這是一個相當簡單的任務,即對金融文本的情緒分析,以此作為基線來判斷是否值得在真正的解決方案中嘗試另一個研發。

此處比較的模型有:

基于規則的詞典方法

基于Tfidf的傳統機器學習方法

作為一種循環神經網絡結構的LSTM

BERT(和ALBERT)

輸入數據

在情緒分析任務中,我采用以下兩種輸入來表示行業中的不同語言。

財經新聞標題——正式

來自Stocktwits的Tweets——非正式

我將為后者寫另一篇文章,所以這里關注前者的數據。這是一個包含更正式的金融領域特定語言的文本示例,我使用了Malo等人的FinancialPhraseBank(https://www.researchgate.net/publication/251231107_Good_Debt_or_Bad_Debt_Detecting_Semantic_Orientations_in_Economic_Texts)包括4845篇由16人手寫的標題文本,并提供同意等級。我使用了75%的同意等級和3448個文本作為訓練數據。

##輸入文本示例 positive"FinnishsteelmakerRautaruukkiOyj(Ruukki)saidonJuly7,2008thatitwona9.0mlneuro($14.1mln)contracttosupplyandinstallsteelsuperstructuresforPartihallsforbindelsenbridgeprojectinGothenburg,westernSweden." neutral"In2008,thesteelindustryaccountedfor64percentofthecargovolumestransported,whereastheenergyindustryaccountedfor28percentandotherindustriesfor8percent." negative"Theperiod-endcashandcashequivalentstotaledEUR6.5m,comparedtoEUR10.5minthepreviousyear."

請注意,所有數據都屬于來源,用戶必須遵守其版權和許可條款。

模型

下面是我比較了四款模型的性能。

A、 基于詞匯的方法

創建特定于領域的詞典是一種傳統的方法,在某些情況下,如果源代碼來自特定的個人或媒體,則這種方法簡單而強大。Loughran和McDonald情感詞列表。這個列表包含超過4k個單詞,這些單詞出現在帶有情緒標簽的財務報表上。注:此數據需要許可證才能用于商業應用。請在使用前檢查他們的網站。

##樣本 negative:ABANDON negative:ABANDONED constraining:STRICTLY

我用了2355個消極單詞和354個積極單詞。它包含單詞形式,因此不要對輸入執行詞干分析和詞干化。對于這種方法,考慮否定形式是很重要的。比如not,no,don,等等。這些詞會把否定詞的意思改為肯定的,如果前面三個詞中有否定詞,這里我簡單地把否定詞的意思轉換成肯定詞。

然后,情感得分定義如下。

tone_score=100*(pos_count—neg_count)/word_count

用默認參數訓練14個不同的分類器,然后用網格搜索交叉驗證法對隨機森林進行超參數整定。

classifiers=[] classifiers.append(("SVC",SVC(random_state=random_state))) classifiers.append(("DecisionTree",DecisionTreeClassifier(random_state=random_state))) classifiers.append(("AdaBoost",AdaBoostClassifier(DecisionTreeClassifier(random_state=random_state),random_state=random_state,learning_rate=0.1))) classifiers.append(("RandomForest",RandomForestClassifier(random_state=random_state,n_estimators=100))) classifiers.append(("ExtraTrees",ExtraTreesClassifier(random_state=random_state))) classifiers.append(("GradientBoosting",GradientBoostingClassifier(random_state=random_state))) classifiers.append(("MultipleLayerPerceptron",MLPClassifier(random_state=random_state))) classifiers.append(("KNeighboors",KNeighborsClassifier(n_neighbors=3))) classifiers.append(("LogisticRegression",LogisticRegression(random_state=random_state))) classifiers.append(("LinearDiscriminantAnalysis",LinearDiscriminantAnalysis())) classifiers.append(("GaussianNB",GaussianNB())) classifiers.append(("Perceptron",Perceptron())) classifiers.append(("LinearSVC",LinearSVC())) classifiers.append(("SGD",SGDClassifier())) cv_results=[] forclassifierinclassifiers: cv_results.append(cross_validate(classifier[1],X_train,y=Y_train,scoring=scoring,cv=kfold,n_jobs=-1))#使用隨機森林分類器 rf_clf=RandomForestClassifier() #執行網格搜索 param_grid={'n_estimators':np.linspace(1,60,10,dtype=int), 'min_samples_split':[1,3,5,10], 'min_samples_leaf':[1,2,3,5], 'max_features':[1,2,3], 'max_depth':[None], 'criterion':['gini'], 'bootstrap':[False]} model=GridSearchCV(rf_clf,param_grid=param_grid,cv=kfold,scoring=scoring,verbose=verbose,refit=refit,n_jobs=-1,return_train_score=True) model.fit(X_train,Y_train) rf_best=model.best_estimator_

B、 基于Tfidf向量的傳統機器學習

輸入被NLTK word_tokenize()標記化,然后詞干化和刪除停用詞。然后輸入到TfidfVectorizer ,通過Logistic回歸和隨機森林分類器進行分類。

###邏輯回歸 pipeline1=Pipeline([ ('vec',TfidfVectorizer(analyzer='word')), ('clf',LogisticRegression())]) pipeline1.fit(X_train,Y_train) ###隨機森林與網格搜索 pipeline2=Pipeline([ ('vec',TfidfVectorizer(analyzer='word')), ('clf',RandomForestClassifier())]) param_grid={'clf__n_estimators':[10,50,100,150,200], 'clf__min_samples_leaf':[1,2], 'clf__min_samples_split':[4,6], 'clf__max_features':['auto'] } model=GridSearchCV(pipeline2,param_grid=param_grid,cv=kfold,scoring=scoring,verbose=verbose,refit=refit,n_jobs=-1,return_train_score=True) model.fit(X_train,Y_train) tfidf_best=model.best_estimator_

C、 LSTM

由于LSTM被設計用來記憶表達上下文的長期記憶,因此使用自定義的tokenizer并且輸入是字符而不是單詞,所以不需要詞干化或輸出停用詞。輸入先到一個嵌入層,然后是兩個lstm層。為了避免過擬合,應用dropout,然后是全連接層,最后采用log softmax。

classTextClassifier(nn.Module): def__init__(self,vocab_size,embed_size,lstm_size,dense_size,output_size,lstm_layers=2,dropout=0.1): """ 初始化模型 """ super().__init__() self.vocab_size=vocab_size self.embed_size=embed_size self.lstm_size=lstm_size self.dense_size=dense_size self.output_size=output_size self.lstm_layers=lstm_layers self.dropout=dropout self.embedding=nn.Embedding(vocab_size,embed_size) self.lstm=nn.LSTM(embed_size,lstm_size,lstm_layers,dropout=dropout,batch_first=False) self.dropout=nn.Dropout(dropout) ifdense_size==0: self.fc=nn.Linear(lstm_size,output_size) else: self.fc1=nn.Linear(lstm_size,dense_size) self.fc2=nn.Linear(dense_size,output_size) self.softmax=nn.LogSoftmax(dim=1) definit_hidden(self,batch_size): """ 初始化隱藏狀態 """ weight=next(self.parameters()).data hidden=(weight.new(self.lstm_layers,batch_size,self.lstm_size).zero_(), weight.new(self.lstm_layers,batch_size,self.lstm_size).zero_()) returnhidden defforward(self,nn_input_text,hidden_state): """ 在nn_input上執行模型的前項傳播 """ batch_size=nn_input_text.size(0) nn_input_text=nn_input_text.long() embeds=self.embedding(nn_input_text) lstm_out,hidden_state=self.lstm(embeds,hidden_state) #堆疊LSTM輸出,應用dropout lstm_out=lstm_out[-1,:,:] lstm_out=self.dropout(lstm_out) #全連接層 ifself.dense_size==0: out=self.fc(lstm_out) else: dense_out=self.fc1(lstm_out) out=self.fc2(dense_out) #Softmax logps=self.softmax(out) returnlogps,hidden_state

作為替代,還嘗試了斯坦福大學的GloVe詞嵌入,這是一種無監督的學習算法,用于獲取單詞的向量表示。在這里,用6百萬個標識、40萬個詞匯和300維向量對Wikipedia和Gigawords進行了預訓練。在我們的詞匯表中,大約90%的單詞都是在這個GloVe里找到的,其余的都是隨機初始化的。

D、 BERT和ALBERT

我使用了Huggingface中的transformer實現BERT模型。現在他們提供了tokenizer和編碼器,可以生成文本id、pad掩碼和段id,可以直接在BertModel中使用,我們使用標準訓練過程。

與LSTM模型類似,BERT的輸出隨后被傳遞到dropout,全連接層,然后應用log softmax。如果沒有足夠的計算資源預算和足夠的數據,從頭開始訓練模型不是一個選擇,所以我使用了預訓練的模型并進行了微調。預訓練的模型如下所示:

BERT:bert-base-uncased

ALBERT:albert-base-v2

預訓練過的bert的訓練過程如下所示。

tokenizer=BertTokenizer.from_pretrained('bert-base-uncased',do_lower_case=True) model=BertForSequenceClassification.from_pretrained('bert-base-uncased',num_labels=3) deftrain_bert(model,tokenizer) #移動模型到GUP/CPU設備 device='cuda:0'iftorch.cuda.is_available()else'cpu' model=model.to(device) #將數據加載到SimpleDataset(自定義數據集類) train_ds=SimpleDataset(x_train,y_train) valid_ds=SimpleDataset(x_valid,y_valid) #使用DataLoader批量加載數據集中的數據 train_loader=torch.utils.data.DataLoader(train_ds,batch_size=batch_size,shuffle=True) valid_loader=torch.utils.data.DataLoader(valid_ds,batch_size=batch_size,shuffle=False) #優化器和學習率衰減 num_total_opt_steps=int(len(train_loader)*num_epochs) optimizer=AdamW_HF(model.parameters(),lr=learning_rate,correct_bias=False) scheduler=get_linear_schedule_with_warmup(optimizer,num_warmup_steps=num_total_opt_steps*warm_up_proportion,num_training_steps=num_total_opt_steps)#PyTorchscheduler #訓練 model.train() #Tokenizer參數 param_tk={ 'return_tensors':"pt", 'padding':'max_length', 'max_length':max_seq_length, 'add_special_tokens':True, 'truncation':True } #初始化 best_f1=0. early_stop=0 train_losses=[] valid_losses=[] forepochintqdm(range(num_epochs),desc="Epoch"): #print('================epoch{}==============='.format(epoch+1)) train_loss=0. fori,batchinenumerate(train_loader): #傳輸到設備 x_train_bt,y_train_bt=batch x_train_bt=tokenizer(x_train_bt,**param_tk).to(device) y_train_bt=torch.tensor(y_train_bt,dtype=torch.long).to(device) #重設梯度 optimizer.zero_grad() #前饋預測 loss,logits=model(**x_train_bt,labels=y_train_bt) #反向傳播 loss.backward() #損失 train_loss+=loss.item()/len(train_loader) #梯度剪切 torch.nn.utils.clip_grad_norm_(model.parameters(),max_grad_norm) #更新權重和學習率 optimizer.step() scheduler.step() train_losses.append(train_loss) #評估模式 model.eval() #初始化 val_loss=0. y_valid_pred=np.zeros((len(y_valid),3)) withtorch.no_grad(): fori,batchinenumerate(valid_loader): #傳輸到設備 x_valid_bt,y_valid_bt=batch x_valid_bt=tokenizer(x_valid_bt,**param_tk).to(device) y_valid_bt=torch.tensor(y_valid_bt,dtype=torch.long).to(device) loss,logits=model(**x_valid_bt,labels=y_valid_bt) val_loss+=loss.item()/len(valid_loader) valid_losses.append(val_loss) #計算指標 acc,f1=metric(y_valid,np.argmax(y_valid_pred,axis=1)) #如果改進了,保存模型。如果沒有,那就提前停止 ifbest_f1=patience: break #返回訓練模式 model.train() returnmodel

評估

首先,輸入數據以8:2分為訓練組和測試集。測試集保持不變,直到所有參數都固定下來,并且每個模型只使用一次。由于數據集不用于計算交叉集,因此驗證集不用于計算。此外,為了克服數據集不平衡和數據集較小的問題,采用分層K-Fold交叉驗證進行超參數整定。

由于輸入數據不平衡,因此評估以F1分數為基礎,同時也參考了準確性。

defmetric(y_true,y_pred): acc=accuracy_score(y_true,y_pred) f1=f1_score(y_true,y_pred,average='macro') returnacc,f1 scoring={'Accuracy':'accuracy','F1':'f1_macro'} refit='F1' kfold=StratifiedKFold(n_splits=5)

模型A和B使用網格搜索交叉驗證,而C和D的深層神經網絡模型使用自定義交叉驗證。

#分層KFold skf=StratifiedKFold(n_splits=5,shuffle=True,random_state=rand_seed) #循環 forn_fold,(train_indices,valid_indices)inenumerate(skf.split(y_train,y_train)): #模型 model=BertForSequenceClassification.from_pretrained('bert-base-uncased',num_labels=3) #輸入數據 x_train_fold=x_train[train_indices] y_train_fold=y_train[train_indices] x_valid_fold=x_train[valid_indices] y_valid_fold=y_train[valid_indices] #訓練 train_bert(model,x_train_fold,y_train_fold,x_valid_fold,y_valid_fold)

結果

基于BERT的微調模型在花費了或多或少相似的超參數調整時間之后,明顯優于其他模型。

模型A表現不佳,因為輸入過于簡化為情感得分,情感分數是判斷情緒的單一值,而隨機森林模型最終將大多數數據標記為中性。簡單的線性模型只需對情感評分應用閾值就可以獲得更好的效果,但在準確度和f1評分方面仍然很低。

我們沒有使用欠采樣/過采樣或SMOTE等方法來平衡輸入數據,因為它可以糾正這個問題,但會偏離存在不平衡的實際情況。如果可以證明為每個要解決的問題建立一個詞典的成本是合理的,這個模型的潛在改進是建立一個自定義詞典,而不是L-M詞典。

模型B比前一個模型好得多,但是它以幾乎100%的準確率和f1分數擬合了訓練集,但是沒有被泛化。我試圖降低模型的復雜度以避免過擬合,但最終在驗證集中的得分較低。平衡數據可以幫助解決這個問題或收集更多的數據。

模型C產生了與前一個模型相似的結果,但改進不大。事實上,訓練數據的數量不足以從零開始訓練神經網絡,需要訓練到多個epoch,這往往會過擬合。預訓練的GloVe并不能改善結果。對后一種模型的一個可能的改進是使用類似領域的大量文本(如10K、10Q財務報表)來訓練GloVe,而不是使用維基百科中預訓練過的模型。

模型D在交叉驗證和最終測試中的準確率和f1分數均達到90%以上。它正確地將負面文本分類為84%,而正面文本正確分類為94%,這可能是由于輸入的數量,但最好仔細觀察以進一步提高性能。這表明,由于遷移學習和語言模型,預訓練模型的微調在這個小數據集上表現良好。

結論

這個實驗展示了基于BERT的模型在我的領域中應用的潛力,以前的模型沒有產生足夠的性能。然而,結果不是確定性的,如果調整下超參數,結果可能會有所不同。

值得注意的是,在實際應用中,獲取正確的輸入數據也相當重要。沒有高質量的數據(通常被稱為“垃圾輸入,垃圾輸出”)就不能很好地訓練模型。

我下次再談這些問題。這里使用的所有代碼都可以在git repo中找到:https://github.com/yuki678/financial-phrase-bert

原文鏈接:https://towardsdatascience.com/nlp-in-the-financial-market-sentiment-analysis-9de0dda95dc

責任編輯:xj

原文標題:金融市場中的NLP——情感分析

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 深度學習
    +關注

    關注

    73

    文章

    5596

    瀏覽量

    124270
  • 情感分析
    +關注

    關注

    0

    文章

    14

    瀏覽量

    5358
  • nlp
    nlp
    +關注

    關注

    1

    文章

    491

    瀏覽量

    23264

原文標題:金融市場中的NLP——情感分析

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    UPS不間斷電源:金融交易系統的“零斷守護者”

    ?在金融市場的數字脈搏,每一秒都跳動著數以億計的交易指令。當銀行數據中心的服務器突然斷電,當證券交易所的交易系統意外宕機——這些由電力問題引發的瞬間中斷,不僅意味著巨額的資金風險,更可
    的頭像 發表于 01-28 08:36 ?660次閱讀
    UPS不間斷電源:<b class='flag-5'>金融</b>交易系統的“零<b class='flag-5'>中</b>斷守護者”

    軟通動力在東南亞金融市場業務拓展取得重大突破

    近日,軟通動力憑借自主研發的“軟通天璇AISE”及配套實施方法論,歷經嚴苛技術驗證,在東南亞金融市場業務拓展取得重大突破。成功斬獲東南亞某頭部銀行信貸審批系統技術棧翻新工程項目,簽約金額達數千萬
    的頭像 發表于 01-27 13:54 ?406次閱讀

    華為助力埃及EGID推動金融科技創新

    安全保障、創新技術應用等關鍵職責,并與埃及證券交易所形成深度協作,共同為埃及金融市場的穩定性、透明度和效率提供堅實保障。作為埃及金融科技生態系統的核心支撐單位,EGID在推動金融數字化、監管科技和資本
    的頭像 發表于 10-24 09:39 ?533次閱讀

    軟國際金融AI智能體助力行業數字化轉型

    近日,在華為全聯接大會2025上,軟國際金融業務集團CTO鄧俊松發表了題為《MA賦能智能體快速落地》的主題分享。此次分享聚焦于基于ModelArts 的軟國際金融 AI 全鏈路能力
    的頭像 發表于 09-28 11:35 ?910次閱讀

    廣和通發布端側情感對話大模型FiboEmo-LLM

    9月,廣和通正式發布自主研發的端側情感對話大模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設備等終端場景提供“情感理解-情感響應”一體化
    的頭像 發表于 09-26 13:37 ?1868次閱讀

    華為助力泰國開泰銀行開啟數智金融新篇章

    在全球金融數智化轉型的浪潮,泰國金融市場正憑借其高度數字化的發展態勢脫穎而出。開泰銀行(Kasikorn Bank,簡稱“KBank”)作為泰國金融界的領軍企業,自1945年由泰國華
    的頭像 發表于 09-16 15:01 ?930次閱讀
    華為助力泰國開泰銀行開啟數智<b class='flag-5'>金融</b>新篇章

    聲智科技發布金融聲學AI模型

    在瞬息萬變的金融市場,信息的獲取與解讀能力決定了投資的成敗。然而,傳統的文本分析手段,即使是依賴于先進的大型語言模型,也常常受限于精心設計的公司敘事和“言不由衷”的言辭。當企業高管在財報電話會議上謹慎措辭時,真正的風險信號可能
    的頭像 發表于 08-30 16:26 ?1384次閱讀
    聲智科技發布<b class='flag-5'>金融</b>聲學AI模型

    用快手電商 API 實現快手小店商品評論情感分析

    ? 在電商運營,商品評論是用戶反饋的核心來源,它能直接影響購買決策和產品優化。通過情感分析,商家可以自動識別評論的正面、負面或中性情緒,從而快速響應問題、提升服務質量。快手電商平臺
    的頭像 發表于 08-26 15:08 ?528次閱讀
    用快手電商 API 實現快手小店商品評論<b class='flag-5'>情感</b><b class='flag-5'>分析</b>

    軟國際榮登2025 IDC中國金融IT中堅力量榜單

    8月21日,2025年度IDC(中國)FinTech系列榜單正式公布。軟國際憑借在金融行業的出色表現,連續三年入選“IDC中國金融IT中堅力量” 榜單。
    的頭像 發表于 08-25 17:25 ?2023次閱讀

    賽思金融時鐘服務器:確保金融市場穩定的關鍵

    在當今全球化的金融市場,時間對于交易者和投資者來說至關重要。為了確保金融市場的穩定和公平,各種金融工具和服務的需求不斷增加。其中,金融時鐘
    的頭像 發表于 07-24 16:47 ?1216次閱讀
    賽思<b class='flag-5'>金融</b>時鐘服務器:確保<b class='flag-5'>金融市場</b>穩定的關鍵

    2025年AI智能語音助手市場發展趨勢與樂鑫芯片解決方案分析

    2025年AI語音助手市場爆發式增長,全球訪問量翻倍,企業普及率達97%。NLP技術突破(語義準確率超95%)與邊緣計算支持驅動發展,產品向多模態交互進階。三大應用場景潛力顯著:企業客服(滿意度提升
    的頭像 發表于 07-05 11:26 ?1683次閱讀

    時統設備在各行業都扮演什么角色??

    交易:市場公平的 “護航者”? 在瞬息萬變的金融市場,交易時間的精確性和一致性如同天平的砝碼,是確保市場公平有序運行的關鍵所在。SYN016 時統設備為
    發表于 06-12 16:18

    Tick數據×股票API:高頻交易策略的精準引擎

    金融市場,每毫秒的延遲都可能意味著數百萬的收益差距。當傳統投資者還在依賴K線圖的“輪廓”時,頂尖交易者早已通過Tick數據和股票API的組合,構建了洞察市場脈搏的“超感知能力”。這種能力不僅關乎
    的頭像 發表于 04-15 10:42 ?1294次閱讀

    基于Raspberry Pi 5的情感機器人設計

    Raspberry Pi 5相較于上一代搭載了更強的處理器和硬件性能,為情感機器人的開發提供了前所未有的可能性。其支持多任務處理和實時計算,為語音交互和情感判斷提供了堅實的基礎。此外配合高性能的攝像頭模塊和傳感器,機器人能夠捕捉環境信息,真正做到 “知人知面” 。
    的頭像 發表于 02-26 14:28 ?1834次閱讀
    基于Raspberry Pi 5的<b class='flag-5'>情感</b>機器人設計

    IBM報告:2025年銀行業Gen AI采用率將大幅攀升

    IBM(NYSE:IBM)日前在 IBM 商業價值研究院《2025年全球銀行業和金融市場展望》報告中發布對未來一年全球金融服務行業技術和轉型的年度預期。
    的頭像 發表于 02-20 09:49 ?1447次閱讀