華為宣布開源盤古 7B 稠密和 72B 混合專家模型
2025-06-30 10:53:04 |
探索者 |
924
6月30日,華為今日正式宣布開源盤古 70 億參數(shù)的稠密模型、盤古 Pro MoE 720 億參數(shù)的混合專家模型和基于昇騰的模型推理技術(shù)。華為表示:“此舉是華為踐行昇騰生態(tài)戰(zhàn)略的又一關(guān)鍵舉措,推動(dòng)大模型技術(shù)的研究與創(chuàng)新發(fā)展,加速推進(jìn)人工智能在千行百業(yè)的應(yīng)用與價(jià)值創(chuàng)造。”
目前,盤古 Pro MoE 72B 模型權(quán)重、基礎(chǔ)推理代碼,已正式上線開源平臺(tái)。基于昇騰的超大規(guī)模 MoE 模型推理代碼,已正式上線開源平臺(tái)。盤古 7B 相關(guān)模型權(quán)重與推理代碼將于近期上線開源平臺(tái)。
特別提醒:本網(wǎng)信息來自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對(duì)本文以及其中全部或者部分內(nèi)容、文字、圖片等內(nèi)容的真實(shí)性、完整性、及時(shí)性本站不作任何保證或承諾,請(qǐng)自行核實(shí)相關(guān)內(nèi)容。本站不承擔(dān)此類作品侵權(quán)行為的直接責(zé)任及連帶責(zé)任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)發(fā)送相關(guān)信息至bireading@163.com,本站將會(huì)在48小時(shí)內(nèi)處理完畢。