国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從算法到硬件 2019,AI將如何演進

mK5P_AItists ? 來源:楊湘祁 ? 作者:電子發(fā)燒友 ? 2019-03-08 17:46 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在剛剛過去的2018年,人工智能領域的大事件、新發(fā)現和新進展層出不窮。

BERT重磅發(fā)布,刷新了很多NLP的任務的最好性能;GAN相關研究論文持續(xù)增長,生成的照片達到了以假亂真的程度;Deepfakes發(fā)展神速,讓許多政客和明星供大眾娛樂了一番;強化學習也在與人類的對戰(zhàn)游戲中獨領風騷......

硬件方面,Nvidia一騎絕塵,Intel努力求變,定制硬件市場繁榮;

除此之外,自動駕駛AI倫理等也是過去一年的討論重點。

回顧2018展望2019,人工智能和機器學習將走向何方?

Medium的一位專欄作者為此撰文概括了過去一年中人工智能領域的一些模式,并試圖勾勒出其中的某些趨勢。注意,這篇總結是以美國的發(fā)展為中心展開,以下是文章全文:

算法

毫無疑問,算法話語權由深度神經網絡(DNN)主導。

當然,你可能會聽說有人在這里或那里部署了一個“經典的”機器學習模型(比如梯度提升樹或多臂老虎機),并聲稱這是每個人唯一需要的東西。有人宣稱,深度學習正處于垂死掙扎中。甚至連頂級的研究人員也在質疑一些深度神經網絡(DNN)架構的效率和抗變換性。

但是,不管你喜歡與否,DNN無處不在: 自動駕駛汽車、自然語言系統(tǒng)、機器人——所有你能想到的皆是如此。

在自然語言處理、生成式對抗網絡和深度增強學習中,DNN取得的飛躍尤為明顯。

Deep NLP: BERT以及其他

盡管在2018年之前,文本使用DNN(比如word2vec、GLOVE和基于LSTM的模型)已經取得了一些突破,但缺少一個關鍵的概念元素:遷移學習。

也就是說,使用大量公開可用的數據對模型進行訓練,然后根據你正在處理的特定數據集對其進行“微調”。在計算機視覺中,利用在著名的ImageNet 數據集上發(fā)現的模式來解決特定的問題,通常是一種解決方案。

問題是,用于遷移學習的技巧并不能很好地應用于自然語言處理(NLP)問題。在某種意義上,像word2vec 這樣的預先訓練的嵌入正在彌補這一點,但它們只能應用于單個單詞級別,無法捕捉到語言的高級結構。

然而,在2018年,這種情況發(fā)生了變化。ELMo,情境化嵌入成為提高NLP 遷移學習的第一個重要步驟。ULMFiT 甚至更進一步: 由于不滿意嵌入式的語義捕捉能力,作者找到了一種為整個模型進行遷移學習的方法。

但最有趣的進步無疑是BERT的引入。通過讓語言模型從英文維基百科的全部文章中進行學習,這個團隊能夠在11個NLP 任務中取得最高水準的結果——這是一個壯舉!更妙的是,它開源了。所以,你可以把這一突破應用到自己的研究問題上。

生成式對抗網絡(GAN)的多面性

CPU的速度不會再呈現指數級的增長,但是生成式對抗網絡(GAN)的學術論文數量肯定會繼續(xù)增長。GAN多年來一直是學術界的寵兒。然而,其在現實生活中的應用似乎很少,而且這一點在2018年幾乎沒有改變。但是GAN仍然有著驚人的潛力等待著我們去實現。

目前出現了一種新的方法,即逐步增加生成式對抗網絡: 使生成器在整個訓練過程中逐步提高其輸出的分辨率。很多令人印象深刻的論文都使用了這種方法,其中有一篇采用了風格轉移技術來生成逼真的照片。有多逼真?你來告訴我:

這些照片中哪一張是真人?

這個問題有陷阱:以上皆不是。

然而,GAN是如何工作的,以及它為什么會起效呢?我們對此還缺乏深入的了解,但是我們正在采取一些重要的措施: 麻省理工學院的一個團隊已經對這個問題進行了高質量的研究。

另一個有趣的進展是“對抗補丁“,從技術上來說它并非是一個生成式對抗網絡。它同時使用黑盒(基本上不考慮神經網絡的內部狀態(tài))和白盒方法來制作一個“補丁”,可以騙過一個基于CNN的分類器。從而得出一個重要的結果:它引導我們更好地了解深度神經網絡如何工作,以及我們距離獲得人類級別的概念認知還有多遠。

你能區(qū)分香蕉和烤面包機嗎?人工智能仍然不能。

強化學習(RL)

自從2016年AlphaGo 擊敗李世石后,強化學習就一直是公眾關注的焦點。

在訓練中,強化學習依賴于“獎勵”信號,即對其在最后一次嘗試中表現的評分。電腦游戲提供了一個與現實生活相反的自然環(huán)境,讓這種信號隨時可用。因此,RL研究的所有注意力都放在了教AI玩雅達利游戲上。

談到它們的新發(fā)明 DeepMind,AlphaStar又成了新聞。這種新模式擊敗了星際爭霸II的頂級職業(yè)選手之一。星際爭霸比國際象棋和圍棋復雜得多,與大多數棋類游戲不同,星際爭霸有巨大的動作空間和隱藏在玩家身上的重要信息。這次勝利對整個領域來說,都是一次非常重要的飛躍。

在RL這個領域,另一個重要角色OpenAI也沒有閑著。讓它們聲名鵲起的是OpenAI Five,這個系統(tǒng)在2018年8月擊敗了Dota 2這個極其復雜的電子競技游戲中99.95%的玩家。

盡管OpenAI 已經對電腦游戲給予了很多關注,但是他們并沒有忽視RL 真正的潛在應用領域: 機器人。

在現實世界中,一個人能夠給予機器人的反饋是非常稀少且昂貴的:在你的R2-D2(電影中的虛擬機器人)嘗試走出第一“步”時,你基本上需要一個人類保姆來照看它。你需要數以百萬計的數據點。

為了彌合這一差距,最新的趨勢是學會模擬一個環(huán)境,同時并行地運行大量場景以教授機器人基本技能,然后再轉向現實世界。OpenAI和Google都在研究這種方法。

榮譽獎:Deepfakes

Deepfakes指一些偽造的圖像或視頻,(通常)展示某個公眾人物正在做或說一些他們從未做過或說過的事情。在“目標”人物大量鏡頭的基礎上訓練一個生成式對抗網絡,然后在其中生成包含所需動作的新媒體——deepfakes就是這樣創(chuàng)建的。

2018年1月發(fā)布的名為FakeApp的桌面應用程序,可以讓所有擁有計算機科學知識的人和對此一無所知的人都能創(chuàng)建deepfakes。雖然它制作的視頻很容易被人看出來是假的,但這項技術已經取得了長足的進步。

基礎設施

TensorFlow與PyTorch

目前,我們擁有很多深度學習框架。這個領域是廣闊的,這種多樣性表面上看是有意義的。但實際上,最近大多數人都在使用Tensorflow或PyTorch。如果你關心可靠性、易于部署性和模型重載等SREs 通常關心的問題,那么你可能會選擇Tensorflow。如果你正在寫一篇研究論文,而且不在谷歌工作,那么你很可能使用PyTorch。

ML作為一種服務隨處可見

今年,我們看到了更多的人工智能解決方案,它們被一個未獲得斯坦福大學機器學習博士學位的軟件工程師打包成一個供消費的API。Google Cloud和Azure都改進了舊服務,并且增加了新服務。AWS機器學習服務列表開始看起來十分令人生畏。

天啊,AWS的服務很快就會多到需要兩級目錄層次結構來展示了。

盡管這種狂熱現象已經冷卻了一些,但還是有很多創(chuàng)業(yè)公司發(fā)出了挑戰(zhàn)。每個人都承諾了模型訓練的速度、推理過程中的易用性和驚人的模型性能。

只要輸入你的信用卡信息,上傳你的數據,給模型一些時間去訓練或者微調,調用REST (或者,給更有前瞻性的創(chuàng)業(yè)公司GraphQL)的API,就可以成為人工智能方面的大師,甚至不需要搞清楚“隨機失活(dropout)”是什么。

有了這么多的選擇,為什么還有人會費心自己建造模型和基礎設施呢?實際上,現成的MLaaS 產品在80% 的實用案例中表現得非常好。如果你希望剩下的20% 也能正常工作,那就沒那么幸運了: 你不僅不能真正地選擇模型,甚至不能控制超參數。或者,如果你需要在云的舒適區(qū)之外的某個地方進行推斷——一般情況下都做不到。這就是代價。

榮譽獎:AutoML和AI Hub

今年推出的兩項特別有趣的服務均由谷歌發(fā)布。

首先,Google Cloud AutoML是一套定制的NLP 和計算機視覺模型培訓產品。這是什么意思?汽車設計師通過自動微調幾個預先訓練的模型,并選擇其中最好的那個,從而解決了模型定制問題。這意味著你很可能不需要自己去定制模型。

當然,如果你想做一些真正新鮮或不同的東西,那么這個服務并不適合你。但是,谷歌在大量專有數據的基礎上預先訓練其模型,這是一個附帶的好處。想想所有關于貓的照片,它們一定比Imagenet 更具推廣性!

第二,AI Hub 和TensorFlow Hub。在這兩者出現之前,重復使用某人的模型確實是件苦差事。基于GitHub 的隨機代碼很少能用,通常記錄得很差,而且一般來說,處理起來并不愉快。還有預先訓練的遷移學習權重……這么說吧,你甚至不想嘗試把它們用于工作中。

這正是TF Hub想要解決的問題: 它是一個可靠的、有組織的模型存儲庫,你可以對其進行微調或構建。只要加入幾行代碼——TF Hub 客戶端就可以從谷歌的服務器上獲取代碼和相應的權重——然后,哇哦,它就可以正常工作了!

Ai Hub 更進一步:它允許你共享整個ML管道,而不僅僅是模型!它仍然處于alpha 測試階段,但如果你明白我的意思的話,它已經比一個連最新的文件也是“3年前才修改”的隨機存儲庫要好得多。

硬件

Nvidia(英偉達

如果你在2018年認真研究過ML,尤其是DNN,那么你就曾用過一個(或多個)GPU。因此,GPU的領頭羊在這一年里都非常忙碌。

隨著加密狂潮的冷卻和隨后的股價暴跌,Nvidia發(fā)布了基于圖靈架構的全新一代消費級卡。新卡僅使用了2017年發(fā)布的基于Volta芯片的專業(yè)卡,且包含了被稱為Tensor Cores的新的高速矩陣乘法硬件。矩陣乘法是DNN運行方式的核心,因此加快這些運算將大大提高新GPU上神經網絡訓練的速度。

對于那些對“小”和“慢”的游戲GPU不滿意的人來說,Nvidia更新了他們的“超級計算平臺”。 DGX-2具有多達16塊Tesla V,用于FP16操作的480TFLOP(480萬億次浮點運算),真可謂是一款“怪物”盒子。而其價格也更新了,高達40萬美元。

此外,自動硬件也得到了更新。Jetson AGX Xavier是Nvidia希望能為下一代自動駕駛汽車提供動力的一個模塊。八核CPU、視覺加速器以及深度學習加速器,這些都是日益增長的自動駕駛行業(yè)所需的。

在一個有趣的開發(fā)項目中,Nvidia為他們的游戲卡推出了基于DNN的一種功能:深度學習超級取樣(Deep Learning Super Sampling)。其想法是去替換抗鋸齒,目前主要通過先渲染分辨率高于所需(例如4倍)的圖片然后再將其縮放到本機監(jiān)視器分辨率來完成。

現在,Nvidia允許開發(fā)人員在發(fā)布游戲之前以極高的質量去訓練圖像轉換模型。然后,使用預先訓練的模型將游戲發(fā)送給最終用戶。在游戲過程中,圖形通過該模型來運作以提高圖像質量,而不會產生舊式抗鋸齒的成本。

Intel英特爾

英特爾在2018年絕對不是人工智能硬件領域的開拓者,但似乎他們希望改變這一點。

令人驚訝的是,英特爾的大多數動作都發(fā)生在軟件領域。英特爾正在努力使其現有和即將推出的硬件更加適合開發(fā)人員。考慮到這一點,他們發(fā)布了一對(既令人驚訝又有競爭力的)工具包:OpenVINO和nGraph。

他們更新了自己的神經計算棒:一個小型USB設備,可以加速任何帶USB端口的DNN,甚至是Raspberry Pi。

有關英特爾獨立GPU的傳聞變得越來越錯綜復雜。雖然這一傳聞持續(xù)流傳,但新設備對DNN訓練的適用性仍有待觀察。絕對適用于深度學習的是傳聞中的專業(yè)深度學習卡,它們的代號為Spring Hill和Spring Crest。而后者基于初創(chuàng)公司Nervana(英特爾幾年前已將其收購)的技術。

尋常(和不常見)的定制硬件

谷歌推出了他們的第三代TPU:基于ASIC的DNN專用加速器,具有驚人的128Gb HMB內存。256個這樣的設備組裝成一個具有超過每秒100千兆次性能的集合體。谷歌今年不再僅憑這些設備來挑逗世界的其他玩家了,而是通過Google Cloud向公眾提供TPU。

在類似的、但主要針對推理應用程序的項目中,亞馬遜已經部署了AWS Inferentia:一種更便宜、更有效的在生產中運行模型的方式。

谷歌還宣布了Edge TPU項目:這個芯片很小:10個芯片加起來才有一美分硬幣的大小。與此同時,它能做到在實時視頻上運行DNN,并且?guī)缀醪幌娜魏文芰浚@就足夠了。

一個有趣的潛在新玩家是Graphcore。這家英國公司已經籌集了3.1億美元,并在2018年推出了他們的第一款產品GC2芯片。根據基準測試,GC2在進行推理時碾壓了頂級Nvidia服務器GPU卡,同時消耗的功率顯著降低。

榮譽獎:AWS Deep Racer

亞馬遜推出了一款小型自動駕駛汽車DeepRacer,以及一個賽車聯盟。這完全出人意料,但也有點像他們之前推出DeepLens時的情況。這款400美元的汽車配備了Atom處理器,400萬像素攝像頭,wifi,幾個USB端口,以及可運行數小時的充足電量。

自動駕駛模型可以使用完全在云端的3D模擬環(huán)境進行訓練,然后直接部署到這款車上。如果你一直夢想著建造自己的自動駕駛汽車,那么亞馬遜的這款車就能讓你如愿,而不必再去自己創(chuàng)立受到VC支持的公司了。

接下來還有什么?重點會轉向決策智能

既然算法、基礎設施和硬件等讓AI變得有用的因素都比以往任何時候要更好,企業(yè)于是意識到開始應用AI的最大絆腳石在于其實際性層面:你如何將AI從想法階段落實到有效、安全又可靠的生產系統(tǒng)中?

應用AI或應用機器學習(ML),也稱為決策智能,是為現實世界問題創(chuàng)建AI解決方案的科學。雖然過去我們把重點放在算法背后的科學上,但未來我們應該對該領域的端到端應用給予更加平等的關注。

人工智能在促進就業(yè)方面功大于過

“人工智能會拿走我們所有的工作”是媒體一直反復宣揚的主題,也是藍領和白領共同的恐懼。而且從表面上看,這似乎是一個合理的預測。但到目前為止,情況恰恰相反。例如,很多人都通過創(chuàng)建標簽數據集的工作拿到了薪酬。

像LevelApp這樣的應用程序可以讓難民只需用手機標記自己的數據就可以賺到錢。Harmon則更進一步:他們甚至為難民營中的移民提供設備,以便這些人可以做出貢獻并以此謀生。

除了數據標簽之外,整個行業(yè)都是通過新的AI技術創(chuàng)建的。我們能夠做到幾年前無法想象的事情,比如自動駕駛汽車或新藥研發(fā)。

更多與ML相關的計算將在邊緣領域進行

Pipeline的后期階段通常通過降采樣或其他方式降低信號的保真度。另一方面,隨著AI模型變得越來越復雜,它們在數據更多的情況下表現得更好。將AI組件移近數據、靠近邊緣,是否會有意義嗎?

舉一個簡單的例子:想象一個高分辨率的攝像機,可以每秒30千兆次的速度生成高質量的視頻。處理該視頻的計算機視覺模型在服務器上運行。攝像機將視頻流式傳輸到服務器,但上行帶寬有限,因此視頻會縮小并被高度壓縮。為何不將視覺模型移動到相機并使用原始視頻流呢?

與此同時,多個障礙總是存在,它們主要是:邊緣設備上可用的計算能力的數量和管理的復雜性(例如將更新的模型推向邊緣)。專用硬件(如Google的Edge TPU、Apple的神經引擎等)、更高效的模型和優(yōu)化軟件的出現,讓計算的局限性逐漸消失。通過改進ML框架和工具,管理復雜性問題不斷得到解決。

整合AI基礎架構空間

前幾年人工智能基礎設施相關活動層出不窮:盛大的公告、巨額的多輪融資和厚重的承諾。2018年,這個領域似乎降溫了。雖然仍然有很多新的進步,但大部分貢獻都是由現有大型玩家做出的。

一個可能的解釋也許是我們對AI系統(tǒng)的理想基礎設施的理解還不夠成熟。由于問題很復雜,需要長期、持久、專注而且財力雄厚的努力,才能產生可行的解決方案——這是初創(chuàng)公司和小公司所不擅長的。如果一家初創(chuàng)公司“解決”了AI的問題,那絕對會讓人驚奇不已。

另一方面,ML基礎設施工程師卻很少見。對于大公司來說,一個僅有幾名員工、掙扎求生的創(chuàng)業(yè)公司顯然是很有價值的并購目標。這個行業(yè)中至少有幾個玩家是為了勝利在不斷奮斗的,它們同時建立了內部和外部工具。例如,對于AWS和Google Cloud而言,AI基礎設施服務是一個主要賣點。

綜上可以預測,未來在這個領域會出現一個整合多個玩家的壟斷者。

更多定制硬件

至少對于CPU而言,摩爾定律已經失效了,并且這一事實已經存在很多年了。GPU很快就會遭受類似的命運。雖然我們的模型變得越來越高效,但為了解決一些更高級的問題,我們需要用到更多的計算能力。這可以通過分布式訓練來解決,但它自身也有局限。

此外,如果你想在資源受限的設備上運行一些較大的模型,分布式訓練會變得毫無用處。進入自定義AI加速器。根據你想要的或可以實現的自定義方式,可以節(jié)省一個數量級的功耗、成本或潛在消耗。

在某種程度上,即使是Nvidia的Tensor Cores也已經投身于這一趨勢。如果沒有通用硬件的話,我們會看到更多的案例。

減少對訓練數據的依賴

標記數據通常很昂貴,或者不可用,也可能二者兼有。這一規(guī)則幾乎沒有例外。開放的高質量數據集,如MNIST、ImageNet、COCO、Netflix獎和IMDB評論,都是令人難以置信的創(chuàng)新源泉。但是許多問題并沒有可供使用的相應數據集。研究人員不可能自己去建立數據集,而可提供贊助或發(fā)布數據集的大公司卻并不著急:他們正在構建龐大的數據集,但不讓外人靠近。

那么,一個小型獨立實體,如創(chuàng)業(yè)公司或大學研究小組,如何為那些困難的問題提供有趣的解決方案呢?構建對監(jiān)督信號依賴性越來越小,但對未標記和非結構化數據(廉價傳感器的互聯和增多使得這類數據變得很豐富)依賴性越來越大的系統(tǒng)就可以實現這一點。這在一定程度上解釋了人們對GAN、轉移和強化學習的興趣激增的原因:所有這些技術都需要較少(或根本不需要)對訓練數據集的投資。

所以這一切僅僅是個泡沫?

這一行業(yè)已進入熱門人工智能“盛夏”的第七年。這段時間內,大量的研究項目、學術資助、風險投資、媒體關注和代碼行都涌入了這個領域。

但人們有理由指出,人工智能所做出的大部分承諾仍然還未兌現:他們最近優(yōu)步打車的行程依然是人類駕駛員在開車;目前依然沒有出現早上能做煎蛋的實用機器人。我甚至不得不自己綁鞋帶,真是可悲至極!

然而,無數研究生和軟件工程師的努力并非徒勞。似乎每家大公司都已經十分依賴人工智能,或者在未來實施此類計劃。AI的藝術大行其道。自動駕駛汽車雖然尚未出現,但它們很快就會誕生了。

2018年,美國在人工智能領域發(fā)展迅速,中國也不遑多讓。這個趨勢從近期百度和BOSS直聘聯合發(fā)布的《2018年中國人工智能ABC人才發(fā)展報告》中就可窺一斑。

未來智能實驗室是人工智能學家與科學院相關機構聯合成立的人工智能,互聯網和腦科學交叉研究機構。

未來智能實驗室的主要工作包括:建立AI智能系統(tǒng)智商評測體系,開展世界人工智能智商評測;開展互聯網(城市)云腦研究計劃,構建互聯網(城市)云腦技術和企業(yè)圖譜,為提升企業(yè),行業(yè)與城市的智能水平服務。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4784

    瀏覽量

    98042
  • AI
    AI
    +關注

    關注

    91

    文章

    39763

    瀏覽量

    301366
  • 智能硬件
    +關注

    關注

    205

    文章

    2423

    瀏覽量

    111440

原文標題:從算法到硬件,一文讀懂2019年 AI如何演進

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    AI芯片技術演進的雙軌路徑:通用架構領域專用的并行演進——指令集優(yōu)化與電路級重構協同塑造智能計

    瓶頸,推動AI芯片架構向更高專用化程度演進體系結構角度看,當前AI芯片的發(fā)展并非單一路線的線性替代,而是沿著不同抽象層次并行展開的兩條專用化路徑:一條是在指令
    的頭像 發(fā)表于 01-15 14:37 ?254次閱讀
    <b class='flag-5'>AI</b>芯片技術<b class='flag-5'>演進</b>的雙軌路徑:<b class='flag-5'>從</b>通用架構<b class='flag-5'>到</b>領域專用的并行<b class='flag-5'>演進</b>——指令集優(yōu)化與電路級重構協同塑造智能計

    AI玩具麥克風技術演進拾音智能交互的跨越

    直接決定了交互的流暢度與準確性。硬件器件升級算法優(yōu)化迭代,一系列技術突破正重塑AI玩具的語音交互體驗。 ?
    的頭像 發(fā)表于 12-24 09:26 ?4712次閱讀

    芯趨勢 | AI 在制程控制中的演進基礎 SPC 智能體 AI 系統(tǒng)

    半導體行業(yè)正經歷一場由AI主導的制程控制革命!沿用多年的傳統(tǒng)統(tǒng)計方法,如今復雜的智能體協同系統(tǒng),每一步演進都在改寫行業(yè)的效率與控制規(guī)則。要知道,在統(tǒng)計制程控制(SPC)、先進制程控
    的頭像 發(fā)表于 12-16 10:24 ?713次閱讀
    芯趨勢 | <b class='flag-5'>AI</b> 在制程控制中的<b class='flag-5'>演進</b>:<b class='flag-5'>從</b>基礎 SPC <b class='flag-5'>到</b>智能體 <b class='flag-5'>AI</b> 系統(tǒng)

    模擬AI集成:圖像采集卡的技術演進與未來三大趨勢

    軌跡不僅折射出工業(yè)自動化與智能感知技術的進步,更預示著未來機器“看懂”世界的全新可能。本文將梳理圖像采集卡模擬時代AI集成的技術演進脈絡,并深入剖析其未來三大
    的頭像 發(fā)表于 12-15 16:30 ?976次閱讀
    <b class='flag-5'>從</b>模擬<b class='flag-5'>到</b><b class='flag-5'>AI</b>集成:圖像采集卡的技術<b class='flag-5'>演進</b>與未來三大趨勢

    存儲智能:AI NAS的技術路徑與未來演進

    AI NAS的進化本質是存儲設備數據容器向認知引擎的躍遷。隨著硬件性能提升、模型輕量化技術突破以及多模態(tài)工作流的成熟,未來的NAS將成為每個家庭和企業(yè)的私有化智能基座,重新定義人機協作的邊界。在這一進程中,平衡性能、成本與隱私
    的頭像 發(fā)表于 12-03 09:14 ?982次閱讀
    <b class='flag-5'>從</b>存儲<b class='flag-5'>到</b>智能:<b class='flag-5'>AI</b> NAS的技術路徑與未來<b class='flag-5'>演進</b>

    游戲引擎AI動力核心

    顯卡技術演進游戲引擎AI動力核心 曾經專為圖形渲染而生的顯卡,如今正成為推動人工智能、邊緣計算和科學模擬的關鍵驅動力。 近年來,顯卡技術已從單純的圖形處理單元演變?yōu)橥ㄓ糜嬎慵铀倨?/div>
    的頭像 發(fā)表于 10-30 11:08 ?316次閱讀

    需求落地:RISC-V如何重塑下一代AI硬件生態(tài)?

    本文由TechSugar編譯自SemiWiki人工智能(AI)正重塑計算領域的每一個層面,訓練萬億參數模型的超大規(guī)模數據中心,運行實時推理任務的電池供電型邊緣設備,無一不受其影響。各領域對
    的頭像 發(fā)表于 10-16 09:06 ?703次閱讀
    <b class='flag-5'>從</b>需求<b class='flag-5'>到</b>落地:RISC-V如何重塑下一代<b class='flag-5'>AI</b><b class='flag-5'>硬件</b>生態(tài)?

    AI芯片:科技探索與AGI愿景》—— 勾勒計算未來的戰(zhàn)略羅盤

    如果說算力是AGI的“燃料”,那么AI芯片就是制造燃料的“精煉廠”。本書的卓越之處在于,它超越了單純的技術拆解,成功繪制了一幅專用智能邁向通用智能的“戰(zhàn)略路線圖”。作者以芯片為棱鏡,折射出算法
    發(fā)表于 09-17 09:32

    AI芯片:科技探索與AGI愿景》—— 深入硬件核心的AGI指南

    AI芯片:科技探索與AGI愿景》一書如同一張詳盡的“藏寶圖”,為讀者指明了通往下一代人工智能的硬件之路。作者沒有停留在空洞的概念層面,而是直擊核心,馮·諾依曼架構的“內存墻”瓶頸切入,清晰闡述了
    發(fā)表于 09-17 09:29

    AI的核心操控:算法硬件的協同進化

    ? ? ? ?人工智能(AI)的核心操控涉及算法、算力和數據三大要素的深度融合,其技術本質是通過硬件與軟件的協同優(yōu)化實現對復雜任務的自主決策與執(zhí)行。這一過程依賴多層技術棧的精密配合,
    的頭像 發(fā)表于 09-08 17:51 ?984次閱讀

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+可期之變:AI硬件AI濕件

    ,又分為真菌計算和基于DNA的計算。 圖4 基本的真菌計算機結構 在用化學和生物方法實現AI功能的過程中,要經歷5個階段,見圖5所示。 圖5 以化學和生物方法實現AI功能各階段 期待AI
    發(fā)表于 09-06 19:12

    大朋 VR:對話:工具伙伴,AI 硬件的場景革命與關系重構

    了?AI?眼鏡及智能硬件行業(yè)的新方向。 DPVR?CEO陳朝陽在圓桌論壇中直言:“傳統(tǒng)硬件是以功能為核心,拼參數、堆配置;但AI硬件是以場景
    的頭像 發(fā)表于 09-05 09:17 ?604次閱讀

    生成式AI代理式AI:半導體技術賦能下一波創(chuàng)新浪潮

    AI領域始終在不斷演進,我們正見證一場“生成式AI”時代“代理式AI”時代的深刻變革。這場變
    的頭像 發(fā)表于 08-21 17:59 ?1558次閱讀
    <b class='flag-5'>從</b>生成式<b class='flag-5'>AI</b><b class='flag-5'>到</b>代理式<b class='flag-5'>AI</b>:半導體技術賦能下一波創(chuàng)新浪潮

    【書籍評測活動NO.64】AI芯片,過去走向未來:《AI芯片:科技探索與AGI愿景》

    到AGI,一起來探索AI芯片 本書創(chuàng)新視角出發(fā),系統(tǒng)梳理了AI芯片的前沿技術與未來方向,串聯起算法
    發(fā)表于 07-28 13:54

    AI技術如何推動我們的商業(yè)和社會發(fā)展

    不斷發(fā)展的AI技術能否給人類社會帶來類似工業(yè)革命的跨越?它將如何推動我們的商業(yè)和社會發(fā)展?它與人類之間的關系又將如演進
    的頭像 發(fā)表于 07-28 09:32 ?801次閱讀