
兩位知情人士表示,這款代號為V4的新模型,是DeepSeek于2024年12月發(fā)布的V3模型的迭代版本。DeepSeek員工基于公司內(nèi)部基準開展的初步測試顯示,該模型在代碼生成領(lǐng)域的表現(xiàn)優(yōu)于Anthropic、Claude、生成式預(yù)訓練變換器系列(OpenAI GPT)等現(xiàn)有主流模型。
上述人士透露,DeepSeek計劃于2月中旬農(nóng)歷新年前后推出V4模型,不過具體時間仍可能調(diào)整。
V3模型的推出幫助DeepSeek在全球人工智能領(lǐng)域嶄露頭角,而R1模型的發(fā)布則震動了硅谷與華爾街,一舉將DeepSeek推向全球舞臺。R1是一款開源“推理型”模型,其設(shè)計邏輯是在給出答案前,先針對用戶的查詢需求進行深度“思考”,以此解決復(fù)雜問題。該模型之所以引發(fā)廣泛關(guān)注,是因為相較于美國研發(fā)的頭部模型,DeepSeek投入的訓練成本相對較低,但模型性能卻十分亮眼。
在國內(nèi)市場,DeepSeek還推出了一款融合R1與V3雙模型能力的聊天機器人,該產(chǎn)品迅速走紅。
2024年12月,DeepSeek曾發(fā)布V3.2版本,該版本在部分基準測試中表現(xiàn)優(yōu)于OpenAI的GPT-5以及的Gemini3.0Pro。但此后該公司一直未推出重量級的迭代模型,這也使得即將到來的V4模型備受業(yè)界矚目。
截至目前,DeepSeek未就此事回應(yīng)置評請求。
兩位知情人士表示,V4模型在超長代碼提示詞的處理與解析方面實現(xiàn)了技術(shù)突破,這對于從事復(fù)雜軟件項目開發(fā)的工程師而言,具備顯著的應(yīng)用優(yōu)勢。此外,該模型在訓練全流程中對數(shù)據(jù)模式的理解能力也得到優(yōu)化,且未出現(xiàn)性能衰減的問題。
人工智能模型的訓練需要基于海量數(shù)據(jù)集開展反復(fù)學習,但在多輪次訓練過程中,數(shù)據(jù)模式的識別精度往往會出現(xiàn)衰減。擁有大規(guī)模人工智能芯片集群的研發(fā)機構(gòu),通常可以通過增加訓練輪次來解決這一問題。
其中一位知情人士表示,用戶或許會發(fā)現(xiàn),V4模型輸出的答案邏輯更為嚴謹清晰,這一特征體現(xiàn)出該版本模型具備更強的推理能力,在執(zhí)行復(fù)雜任務(wù)時的可靠性也將大幅提升。
上周,DeepSeek發(fā)表了一篇由公司首席執(zhí)行官梁文鋒聯(lián)合署名的研究論文,文中提出了一種全新的訓練架構(gòu)。該架構(gòu)能夠支持研發(fā)人員在不按比例增加芯片投入的前提下,構(gòu)建參數(shù)規(guī)模更大的人工智能模型。這一系列技術(shù)進展表明,DeepSeek的技術(shù)創(chuàng)新步伐仍在持續(xù)邁進。