国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

高通:未來幾個月有望在終端側運行超100億參數的模型

Carol Li ? 來源:電子發燒友網 ? 作者:李彎彎 ? 2023-07-26 00:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發燒友網報道(文/李彎彎)日前,在2023世界半導體大會暨南京國際半導體博覽會上,高通全球副總裁孫剛發表演講時談到,目前高通能夠支持參數超過10億的模型在終端上運行,未來幾個月內超過100億參數的模型將有望在終端側運行。

大模型在終端側運行的重要性

生成式AI正在快速發展,數據顯示,2020年至2022年,生成式AI相關的投資增長425%,初步預估生成式AI市場規模將達到1萬億美元。

然而孫剛指出,云經濟難以支持生成式AI規模化拓展,為實現規模化拓展,AI處理的中心正在向邊緣轉移。比如XR、汽車、手機、PC、物聯網,生成式AI將影響各類終端上的應用。

高通在這方面展示出了領先的優勢,高通AI引擎由多個硬件和軟件組件組成,用于在驍龍移動平臺上為終端側AI推理加速。它采用異構計算架構,包括高通Hexagon處理器Adreno GPU、Kryo CPU傳感器中樞,共同支持在終端上運行AI應用程序。

在7月初的2023年世界人工智能大會上,高通就已經展示了全球首個在終端側運行生成式AI(AIGC)模型Stable Diffusion的技術演示,和全球最快的終端側語言-視覺模型(LVM)ControlNet運行演示。這兩款模型的參數量已經達到10億-15億,僅在十幾秒內就能夠完成一系列推理,根據輸入的文字或圖片生成全新的AI圖像。

今年7月18日,Meta官宣將發布其開源大模型LLaMA的商用版本,為初創企業和其他企業提供了一個強大的免費選擇,以取代OpenAI和谷歌出售的昂貴的專有模型。隨后,高通發布公告稱,從2024年起,Llama 2將能在旗艦智能手機和PC上運行。

高通技術公司高級副總裁兼邊緣云計算解決方案業務總經理Durga Malladi表示,為了有效地將生成式人工智能推廣到主流市場,人工智能將需要同時在云端和邊緣終端(如智能手機、筆記本電腦、汽車和物聯網終端)上運行。

在高通看來,和基于云端的大語言模型相比,在智能手機等設備上運行Llama 2 等大型語言模型的邊緣云計算具有許多優勢,不僅成本更低、性能更好,還可以在斷網的情況下工作,而且可以提供更個性化、更安全的AI服務。

如何讓大模型在終端規模化擴展

生成式AI進入未來生活的趨勢已經不可阻擋,為了讓生成式AI規模化擴展到更多終端設備中,高通提出了混合AI架構的運行方式,即在云端和設備終端的邊緣側之間分配算力,協同處理AI工作負載。

所謂混合AI,是指充分利用邊緣側終端算力支持生成式AI應用的方式,相比僅在云端運行的AI,前者能夠帶來高性能、個性化且更安全的體驗。

比如,如果模型、提示或生成內容的長度小于某個限定值,且精度足夠,推理就可以完全在終端側進行;如果任務相對復雜,則可以部分依靠云端模型;如果需要更多實時內容,模型也可以接入互聯網獲取信息。

在未來,不同的生成式AI用不同分流方式的混合AI架構,AI也能在此基礎上持續演進:
?大量生成式AI的應用,比如圖像生成或文本創作,需求AI能夠進行實時響應。在這種任務上,終端可通過運行不太復雜的推理完成大部分任務。

在AI計算的實現上,軟件和硬件同樣重要,因為必須在端側做到運算更快,效率更高,并推動AI應用在廣泛終端上的部署和普及。

高通在2022年6月推出AI軟件棧(Qualcomm AI Stack),其支持包括TensorFlow、Pytorch和ONNX在內的所有主流開發框架,所有runtimes(運行時,即某門編程語言的運行環境)和操作系統。借助高通AI軟件棧,開發者在智能手機領域開發的軟件可以快速擴展至汽車、XR、可穿戴設備等其他產品線進行使用。

高通技術公司產品管理高級副總裁兼AI負責人Ziad Asghar表示,未來公司需要加大終端側技術上的研發,尤其是進一步提升量化的算法。例如服務器上訓練的模型一般采用32位浮點運算(FP32),而我們在手機端現在能夠支持INT4計算,這能大大提高端側的處理能力。

小結

不僅僅是大模型的訓練需要極大的算力和功耗,部署也同樣如此。如果要讓大模型在更多的領域實現落地應用,除了在云端部署之后,在終端側部署也很關鍵。目前已經有諸多廠商在該領域進行探索,包括高通,期待未來大模型能夠走進人們生活的方方面面。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 高通
    +關注

    關注

    78

    文章

    7731

    瀏覽量

    199784
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    深入剖析LM9061與LM9061 - Q1保護控制器

    深入剖析LM9061與LM9061 - Q1保護控制器 電子設計領域,保護控制器對于保障電路穩定
    的頭像 發表于 02-28 11:05 ?128次閱讀

    如何在NVIDIA Jetson AGX Thor上部署1200參數模型

    我們將嘗試能否 Jetson AGX Thor 上部署并成功運行高達 1,200 參數量的 gpt-oss-120b 大模型
    的頭像 發表于 12-26 17:06 ?4815次閱讀
    如何在NVIDIA Jetson AGX Thor上部署1200<b class='flag-5'>億</b><b class='flag-5'>參數</b>大<b class='flag-5'>模型</b>

    TSC101 電流檢測放大器:特性、參數與應用全解析

    TSC101 電流檢測放大器:特性、參數與應用全解析 電子工程師的日常設計中,精確的電流檢測至關重要。今天我們來深入探討一款高性能的
    的頭像 發表于 12-25 16:10 ?326次閱讀

    廣和通發布端情感對話大模型FiboEmo-LLM

    9月,廣和通正式發布自主研發的端情感對話大模型FiboEmo-LLM。該模型專注于情感計算與自然語言交互融合,致力于為AI玩具、智能陪伴設備等終端場景提供“情感理解-情感響應”一體化
    的頭像 發表于 09-26 13:37 ?1900次閱讀

    TPS1HC100-Q1智能開關技術解析與應用指南

    Texas Instruments TPS1HC100-Q1智能高壓開關是一款具有全方位保護的電源開關,它集成有NMOS功率FET和電荷泵,專用于對各種負載進行智能控制。憑借著精
    的頭像 發表于 09-25 10:19 ?726次閱讀
    TPS1HC<b class='flag-5'>100</b>-Q1智能<b class='flag-5'>高</b><b class='flag-5'>側</b>開關技術解析與應用指南

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升算力還是智力

    本章節作者分析了下AI的未來在哪里,就目前而言有來那個兩種思想:①繼續增加大模型②將大模型改為小模型,并將之優化使之與大模型性能不不相上下。
    發表于 09-14 14:04

    谷歌推出AI模型Gemma 3 270M

    過去幾個月,Gemma 開放模型系列的發展是激動人心的。我們推出了 Gemma 3 和 Gemma 3 QAT,為單一云端和桌面加速器帶來了最先進的性能。
    的頭像 發表于 09-11 15:09 ?1141次閱讀

    米爾RK3576部署端多模態多輪對話,6TOPS算力驅動30參數LLM

    2 參數模型的增量訓練; 接入語音能力:main.cpp中集成 VAD(語音活動檢測)+ ASR(語音識別,如 Whisper-Tiny INT8)模塊,將語音轉換為文本后接入現有推理流水線,實現
    發表于 09-05 17:25

    ALINX VD100低功耗端模型部署方案,運行3B模型功耗僅5W?!

    模型運行≠用戶體驗好。 IDC 預測,到 2026 年,全球超過 50% 的企業 AI 工作負載將部署邊緣設備上。 AI 部署逐漸從云端轉向邊緣端的趨勢下,越來越多智能
    的頭像 發表于 09-03 14:58 ?723次閱讀
    ALINX VD<b class='flag-5'>100</b>低功耗端<b class='flag-5'>側</b>大<b class='flag-5'>模型</b>部署方案,<b class='flag-5'>運行</b>3B<b class='flag-5'>模型</b>功耗僅5W?!

    浪潮信息發布&quot;元腦SD200&quot;節點,面向萬億參數模型創新設計

    擴展支持64路本土GPU芯片。元腦SD200可實現單機內運行萬億參數模型,并支持多個領先大模型機內同時
    的頭像 發表于 08-08 22:17 ?675次閱讀
    浪潮信息發布&quot;元腦SD200&quot;<b class='flag-5'>超</b>節點,面向萬億<b class='flag-5'>參數</b>大<b class='flag-5'>模型</b>創新設計

    AI的未來,屬于那些既能寫代碼,又能焊電路的“雙棲人才”

    的信號:AI真正的未來,不只屬于“算法天才”,更屬于那些既能寫代碼,又能焊電路的“雙棲工程師”。無論是AI芯片、智能終端、機器人、邊緣計算還是大模型下沉的討論中,我們不斷聽到同一個問
    發表于 07-30 16:15

    終于有人把端模型說清楚了

    "端"大模型聊具體內容之前,先解釋一下這個名字的由來。計算機和通信領域,我們通常把整個系統分為幾個層次:云端(Cloud):遠程的數
    的頭像 發表于 07-24 12:03 ?2402次閱讀
    終于有人把端<b class='flag-5'>側</b>大<b class='flag-5'>模型</b>說清楚了

    V2板子上部署豆包模型調試指南

    我們將修改好的代碼,上傳到板子上,之后終端運行我們的程序。板子一定要先連接Wi-Fi,再去運行代碼否則會報錯。 出現上述圖片的形式,說明代碼可以
    發表于 05-25 10:17

    首創開源架構,天璣AI開發套件讓端AI模型接入得心應手

    。 Neuron Studio 還支持自動化調優神經網絡使用的帶寬及性能,開發過程中,將性能和內存占用自動優化至最佳配置。而且,開發者可以全程監控大模型演化過程。以前萬組參數手動調優動輒需要一周,而現在
    發表于 04-13 19:52

    通推動終端AI釋放全新價值

    通過蒸餾技術將百億參數模型壓縮至端設備可運行的創新,讓AI推理成本大幅下降,為終端AI的爆發按下加速鍵。低成本、
    的頭像 發表于 03-21 09:28 ?1320次閱讀
    <b class='flag-5'>高</b>通推動<b class='flag-5'>終端</b><b class='flag-5'>側</b>AI釋放全新價值