DeepSeek開源大模型V3.1 128K上下文窗口創(chuàng)行業(yè)新紀錄
8月20日凌晨,國內人工智能企業(yè)深度求索(DeepSeek)在Hugging Face平臺正式開源新一代大語言模型DeepSeek-V3.1-Base。這款擁有6850億參數(shù)的巨型模型最引人注目的特性是其128K的超長上下文處理能力,標志著國產大模型在長文本理解領域取得重大突破。
據官方介紹,此次開源的Base版本與線上服務同步升級的V3.1版本保持核心能力一致。即日起用戶可通過官方網頁、移動應用及小程序體驗增強后的長文本處理功能,API接口則保持原有調用方式無需調整。這種"開源即商用"的部署模式,既為開發(fā)者社區(qū)提供了研究基礎,也確保了商業(yè)服務的連續(xù)性。
技術文檔顯示,128K的上下文長度相當于模型可一次性處理約10萬漢字的內容,較此前主流模型的32K長度實現(xiàn)四倍提升。這項突破使得模型能夠更好地理解長文檔、進行跨段落推理以及維持長對話的連貫性,在金融分析、法律文書處理等專業(yè)場景具有顯著應用價值。