国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

CastFox利用Google開(kāi)放模型Gemma 3n重塑播客互動(dòng)體驗(yàn)

谷歌開(kāi)發(fā)者 ? 來(lái)源:谷歌開(kāi)發(fā)者 ? 2026-02-09 14:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Guru Network Limited 是一家全球化的娛樂(lè)與游戲公司,其開(kāi)發(fā)的 CastFox 徹底改變了用戶與播客的交互方式,應(yīng)用上線僅 3 周下載量就突破 100 萬(wàn)次。

通過(guò)將傳統(tǒng)的被動(dòng)長(zhǎng)音頻轉(zhuǎn)化為互動(dòng)式知識(shí)庫(kù),CastFox 意在打造比簡(jiǎn)單播放更豐富的體驗(yàn)。為了達(dá)成這一目標(biāo),CastFox 工程團(tuán)隊(duì)需要一個(gè)高效穩(wěn)健的 AI 模型來(lái)支撐其語(yǔ)義檢索、智能亮點(diǎn)提取和節(jié)目?jī)?nèi)聊天功能?;诔鮿?chuàng)團(tuán)隊(duì)的預(yù)算考量,他們果斷選擇 Gemma 3n 作為這些核心功能的技術(shù)引擎,從而快速推進(jìn)自身愿景的規(guī)?;M(jìn)程。

面臨的挑戰(zhàn)

CastFox 團(tuán)隊(duì)的目標(biāo)是重塑播客體驗(yàn),從孤立的單集式收聽(tīng)轉(zhuǎn)變?yōu)楦S富的主題式探索。這意味著,用戶可以在應(yīng)用的播客目錄中基于語(yǔ)義概念 (而不僅是關(guān)鍵詞) 進(jìn)行搜索,先快速生成主題概覽再深入收聽(tīng)完整劇集,甚至可以與音頻內(nèi)容本身進(jìn)行交互對(duì)話。

為將這一愿景轉(zhuǎn)化為現(xiàn)實(shí),團(tuán)隊(duì)需要一種兼具可擴(kuò)展性與經(jīng)濟(jì)高效的方式來(lái)處理海量的英語(yǔ)、日語(yǔ)和韓語(yǔ)音頻。這種處理能力對(duì)于摘要、亮點(diǎn)和問(wèn)答的生成至關(guān)重要,而這些正是驅(qū)動(dòng)應(yīng)用核心功能的基石。早期測(cè)試表明,許多基于 API 的模型要么在面對(duì)大規(guī)模需求時(shí)成本過(guò)高,要么缺乏團(tuán)隊(duì)特定多語(yǔ)言用例所需的靈活性。

解決方案

在評(píng)估了 GPT 和 Claude 等大規(guī)模專有模型以及 Whisper 流水線后,CastFox 開(kāi)發(fā)者最終選擇了 Gemma 3n E4B,因?yàn)樗_(dá)到了精確度、速度和性價(jià)比這三者的最佳平衡。Gemma 能夠處理多語(yǔ)言內(nèi)容并可靠地返回 JSON 等結(jié)構(gòu)化輸出,這是贏得團(tuán)隊(duì)青睞的關(guān)鍵。另外,它的開(kāi)放也是一個(gè)強(qiáng)大優(yōu)勢(shì): 由于該模型成本低且易于自托管,開(kāi)發(fā)者可以快速構(gòu)建原型并持續(xù)優(yōu)化。Guru Network Limited 的 AI 負(fù)責(zé)人吳充表示: "Gemma 成本低且易于部署,助力團(tuán)隊(duì)實(shí)現(xiàn)了快速迭代與低成本規(guī)?;?。這是真實(shí)場(chǎng)景下 AI 集成的理想切入點(diǎn)。"

該團(tuán)隊(duì)在輕量級(jí) GPUCPU 基礎(chǔ)設(shè)施上使用 Ollama 運(yùn)行 Gemma 3n,這種架構(gòu)有效規(guī)避了模型再訓(xùn)練的高成本與復(fù)雜性。開(kāi)發(fā)者發(fā)現(xiàn),他們無(wú)需微調(diào)模型,僅通過(guò)提示工程和輕量級(jí)后處理 (例如驗(yàn)證 JSON 架構(gòu)和平滑處理時(shí)間戳),就能實(shí)現(xiàn)高精度結(jié)果。

Guru Network Limited 的 AI 負(fù)責(zé)人吳充:“Gemma 3n 高效、開(kāi)放并且在多語(yǔ)言環(huán)境下表現(xiàn)卓越,是初創(chuàng)公司構(gòu)建 AI 富集型應(yīng)用的理想之選。”

如今,這一架構(gòu)支撐起了 CastFox 的整個(gè)音頻理解后端。在預(yù)處理期間,系統(tǒng)首先對(duì)節(jié)目音頻進(jìn)行轉(zhuǎn)錄,隨后解析文本并生成摘要、自動(dòng)分段和候選問(wèn)答,所有這些內(nèi)容都存儲(chǔ)為 JSON 格式,以備日后檢索。這樣,Gemma 3n 就成為 CastFox 語(yǔ)義搜索和交互功能的幕后核心引擎。吳充表示: "AI 讓我們能夠?qū)⒉タ偷缺粍?dòng)的媒體轉(zhuǎn)變?yōu)橹鲃?dòng)學(xué)習(xí)的體驗(yàn)。如果沒(méi)有它,CastFox 將僅僅是一個(gè)普通的播客播放器。"

影響

Gemma 3n 在英語(yǔ)、韓語(yǔ)和日語(yǔ)方面均展現(xiàn)出穩(wěn)定和準(zhǔn)確的理解能力,同時(shí)兼顧了高效的處理速度: 處理 30 秒的音頻片段大約需要 40 秒,處理 300-400 個(gè)字符的文本摘要大約需要 6 秒,從長(zhǎng)文本中生成推薦問(wèn)題大約需要 12 秒。

Guru Network Limited 的 AI 負(fù)責(zé)人吳充:“Gemma 3n 不僅具備強(qiáng)大的英語(yǔ)、韓語(yǔ)和日語(yǔ)理解能力,而且響應(yīng)能力快速穩(wěn)定。一款緊湊型模型能達(dá)到這種水平,確實(shí)令人贊嘆。”

這種自托管的方法同時(shí)實(shí)現(xiàn)了極高的成本效益。每個(gè)請(qǐng)求的成本只有大約 0.0007 美元,因此團(tuán)隊(duì)可以輕松地大規(guī)模處理內(nèi)容。為此,他們?cè)?AWS Spot 實(shí)例上使用可搶占容量運(yùn)行預(yù)處理,而不是使用更昂貴的預(yù)留節(jié)點(diǎn),從而將日均處理成本降至僅 10 美元左右。

用戶對(duì) AI 功能的參與度很高,無(wú)論是出色的留存率指標(biāo),還是強(qiáng)調(diào) "與播客聊天" 功能的用戶好評(píng),都有力地證實(shí)了這一點(diǎn)。在 Gemma 的支持下,CastFox 上線僅 3 周下載量就突破 100 萬(wàn)次,成功吸引了一批高度活躍且粘性極強(qiáng)的用戶群體。

吳充認(rèn)為結(jié)果不言而喻: "Gemma 3n 證明了小規(guī)模開(kāi)放模型也能產(chǎn)生切實(shí)影響力。"

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1807

    瀏覽量

    60509
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    39755

    瀏覽量

    301345
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3751

    瀏覽量

    52097

原文標(biāo)題:CastFox 利用 Google 開(kāi)放模型 Gemma 3n 重塑播客互動(dòng)體驗(yàn)

文章出處:【微信號(hào):Google_Developers,微信公眾號(hào):谷歌開(kāi)發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    谷歌推出TranslateGemma全新開(kāi)放翻譯模型系列

    我們已正式推出 TranslateGemma,這一全新的開(kāi)放翻譯模型系列基于 Gemma 3 構(gòu)建,并提供 4B、12B 和 27B 三種參數(shù)規(guī)模。TranslateGemma 的問(wèn)世
    的頭像 發(fā)表于 02-26 10:22 ?489次閱讀

    谷歌正式發(fā)布Gemma Scope 2模型

    Scope 工具包推動(dòng)了可解釋性科學(xué)的發(fā)展,該工具旨在幫助研究人員理解我們輕量級(jí)開(kāi)放模型系列 Gemma 2 的內(nèi)部運(yùn)作機(jī)制。
    的頭像 發(fā)表于 01-24 14:01 ?510次閱讀

    借助谷歌FunctionGemma模型構(gòu)建下一代端側(cè)智能體

    對(duì)于 Gemma 模型系列而言,2025 年是充滿變革的一年。我們的下載量已從 1 億次增長(zhǎng)到超過(guò) 3 億次,同時(shí)還展現(xiàn)了開(kāi)放模型的變革潛力
    的頭像 發(fā)表于 01-20 09:11 ?614次閱讀
    借助谷歌FunctionGemma<b class='flag-5'>模型</b>構(gòu)建下一代端側(cè)智能體

    NVIDIA 推出 Nemotron 3 系列開(kāi)放模型

    新聞?wù)?● Nemotron 3 系列開(kāi)放模型包含 Nano、Super 和 Ultra 三種規(guī)模,具有極高的效率和領(lǐng)先的精度,適用于代理式 AI 應(yīng)用開(kāi)發(fā)。 ● Nemotron 3
    的頭像 發(fā)表于 12-16 09:27 ?625次閱讀
    NVIDIA 推出 Nemotron <b class='flag-5'>3</b> 系列<b class='flag-5'>開(kāi)放</b><b class='flag-5'>模型</b>

    進(jìn)迭 | Vol.3對(duì)話孫彥邦:用胡子賭一個(gè)未來(lái),RISC-V是AI時(shí)代的“終極答案”

    進(jìn)迭「RISC-V圓桌白話錄」「RISC-V圓桌白話錄」第三期上線!本期我們邀請(qǐng)到對(duì)
    的頭像 發(fā)表于 11-07 20:26 ?713次閱讀
    進(jìn)迭<b class='flag-5'>播</b><b class='flag-5'>客</b> | Vol.<b class='flag-5'>3</b>對(duì)話孫彥邦:用胡子賭一個(gè)未來(lái),RISC-V是AI時(shí)代的“終極答案”

    谷歌推出AI模型Gemma 3 270M

    過(guò)去幾個(gè)月,Gemma 開(kāi)放模型系列的發(fā)展是激動(dòng)人心的。我們推出了 Gemma 3Gemma
    的頭像 發(fā)表于 09-11 15:09 ?1137次閱讀

    代碼如何重塑硬件設(shè)計(jì),AI如何加速創(chuàng)新?

    ,方便大家學(xué)習(xí)。 ” 以下是的詳細(xì)簡(jiǎn)報(bào)文檔,回顧了主要主題和最重要的觀點(diǎn)/事實(shí),并引用了原文: 主題: ?本節(jié)目探討了代碼在電子產(chǎn)品設(shè)計(jì)中的未來(lái)作用,重點(diǎn)關(guān)注如何通過(guò)軟件驅(qū)動(dòng)的
    的頭像 發(fā)表于 09-06 11:19 ?731次閱讀

    谷歌Gemma 3n模型的新功能

    從第一個(gè) Gemma 模型于去年年初推出以來(lái),已逐漸發(fā)展為生機(jī)勃勃的 Gemmaverse 生態(tài)系統(tǒng),累計(jì)下載量突破 1.6 億。這個(gè)生態(tài)系統(tǒng)包括十余款專業(yè)模型系列,涵蓋從安全防護(hù)到醫(yī)療應(yīng)用的各領(lǐng)
    的頭像 發(fā)表于 07-25 10:16 ?1405次閱讀
    谷歌<b class='flag-5'>Gemma</b> <b class='flag-5'>3n</b><b class='flag-5'>模型</b>的新功能

    NVIDIA RTX AI加速FLUX.1 Kontext現(xiàn)已開(kāi)放下載

    NVIDIA RTX 與 NVIDIA TensorRT 現(xiàn)已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,Gemma 3n 現(xiàn)可借助 RTX 和 NVIDIA Jetson 加速運(yùn)行。
    的頭像 發(fā)表于 07-16 09:16 ?2044次閱讀

    谷歌Gemma 3n預(yù)覽版全新發(fā)布

    Gemma 3Gemma 3 QAT 的成功發(fā)布之后,我們的先進(jìn)開(kāi)放模型系列具備了在單
    的頭像 發(fā)表于 06-26 17:18 ?942次閱讀

    樹(shù)莓派5上的Gemma 2:如何打造高效的邊緣AI解決方案?

    從數(shù)學(xué)基礎(chǔ)到邊緣實(shí)現(xiàn),研究團(tuán)隊(duì):Conecta.ai(ufrn.br)摘要1.引言2.GEMMA2:通用集成機(jī)器模型算法2.1模型架構(gòu)2.2預(yù)訓(xùn)練2.3后訓(xùn)練3.邊緣AI實(shí)現(xiàn)1.引言
    的頭像 發(fā)表于 06-20 16:57 ?1642次閱讀
    樹(shù)莓派5上的<b class='flag-5'>Gemma</b> 2:如何打造高效的邊緣AI解決方案?

    Gemini API集成Google圖像生成模型Imagen 3

    開(kāi)發(fā)者現(xiàn)在可以通過(guò) Gemini API 訪問(wèn) Google 最先進(jìn)的圖像生成模型 Imagen 3。該模型最初僅對(duì)付費(fèi)用戶開(kāi)放,不久后也將
    的頭像 發(fā)表于 05-14 16:53 ?1258次閱讀

    Google Gemma 3開(kāi)發(fā)者指南

    自首次推出以來(lái),Gemma 模型的下載量已超過(guò) 1 億次,社區(qū)為各種用例創(chuàng)建了超過(guò) 60,000 個(gè)變體1。我們很高興推出 Gemma 3,這是 G
    的頭像 發(fā)表于 04-08 10:50 ?1116次閱讀
    <b class='flag-5'>Google</b> <b class='flag-5'>Gemma</b> <b class='flag-5'>3</b>開(kāi)發(fā)者指南

    Google發(fā)布最新AI模型Gemma 3

    Gemma 開(kāi)放模型系列是 Google 推動(dòng)實(shí)用 AI 技術(shù)普惠大眾的重要基石。上個(gè)月,Gemma 迎來(lái)了首個(gè)生日?;赝^(guò)去一年,其成果斐
    的頭像 發(fā)表于 03-18 09:51 ?1714次閱讀

    Vgg16模型無(wú)法使用模型優(yōu)化器重塑怎么解決?

    Vgg16 模型無(wú)法使用模型優(yōu)化器重塑。
    發(fā)表于 03-06 06:29