近期,英偉達與Hugging Face及ServiceNow攜手推出新品StarCoder2系列LLMs模型,致力于在代碼生成領域建立新的行業標桿,憑借諸多優勢凸顯性能、透明度以及經濟性。
此系列共包含三款模型,其中ServiceNow負責訓練的30億參數模型、Hugging Face訓練的70億參數模型以及英偉達訓練的150億參數模型。
新一代模型得以實現,借助Stack v2代碼集,該數據集容量是上一代Stack v1的7倍之多。此外,創新性的訓練技術使其能夠更精準地解析低資源編程語言、數學和程序源代碼討論等內容。
經過619門編程語言的訓練后,StarCoder2支持多種專業任務,例如源代碼生成、工作流創建以及文本摘要等。英偉達承諾,開發者可借此進行代碼填充、高層次代碼摘要以及代碼片段搜索等操作,以提升工作效率。
相比初版StarCoder LLM,這款30億參數的最新模型對優質參數進行了更為精確的篩選,性能相當于初版150億參數模型的StarCoder。
特別值得關注的是,StarCoder2特許使用BigCode Open RAIL-M許可證,無需支付任何版權費用即可享受使用權。IT之家建議有需用戶前往BigCode項目GitHub頁面下載源代碼,同時亦可在Hugging Face獲取模型信息。
-
編程語言
+關注
關注
10文章
1964瀏覽量
39559 -
數據集
+關注
關注
4文章
1236瀏覽量
26190 -
英偉達
+關注
關注
23文章
4086瀏覽量
99169
發布評論請先 登錄
RAG(檢索增強生成)原理與實踐
什么是大模型,智能體...?大模型100問,快速全面了解!
邁向吉瓦級AI工廠的能源變革:英偉達Rubin平臺電源架構解析
英偉達聯手推出StarCoder2 LLM系列模型,成代碼生成領域新標桿
評論