8月6日消息,OpenAI宣布推出兩款開源模型GPT-oss-120b和GPT-oss-20b,這是自2020年發(fā)布GPT-2以來,OpenAI首次推出開源語言模型。這兩款模型均可在Hugging Face在線開發(fā)者平臺上免費下載,OpenAI稱其在多個用于比較開源模型的基準(zhǔn)測試中表現(xiàn)“處于前沿水平”。
兩款開源模型亮相,性能與兼容性兼具?
據(jù)每日經(jīng)濟(jì)新聞援引OpenAI介紹,兩款gpt-oss模型采用了其最先進(jìn)的預(yù)訓(xùn)練和后訓(xùn)練技術(shù),特別注重推理、效率和跨部署環(huán)境的實用性。它們都是使用專家混合(MoE)架構(gòu)的Transformer,以減少處理輸入所需的活躍參數(shù)數(shù)量。
gpt-oss-120b每個token激活5.1億參數(shù),總參數(shù)量為1170億;gpt-oss-20b激活3.6B參數(shù),總參數(shù)量為210億。模型使用交替的密集和局部帶狀稀疏注意力模式,支持高達(dá)128k的上下文長度。OpenAI稱gpt-oss-20b是一款中型開放模型,gpt-oss-120b則是可在“大多數(shù)臺式機(jī)和筆記本電腦”上運行的大型開放模型。
OpenAI表示,較小的模型至少需要16GB顯存或統(tǒng)一內(nèi)存才能發(fā)揮最佳性能,并且“非常適合高端消費級GPU和搭載蘋果芯片的Mac電腦”。較大的全尺寸模型則需要至少60GB顯存或統(tǒng)一內(nèi)存。
從性能上看,gpt-oss-120b在核心推理基準(zhǔn)測試中表現(xiàn)接近OpenAI o4-mini,在競賽編碼(Codeforces)、通用問題求解(MMLU和HLE)以及工具調(diào)用(TauBench)等方面超越了o3-mini,甚至在健康相關(guān)查詢(HealthBench)和競賽數(shù)學(xué)(AIME 2024和2025)的表現(xiàn)上優(yōu)于o4-mini。而gpt-oss-20b雖規(guī)模較小,但在相同評估中達(dá)到或超過了o3-mini的性能,尤其在競賽數(shù)學(xué)和健康領(lǐng)域表現(xiàn)突出。
開源戰(zhàn)略轉(zhuǎn)變,應(yīng)對市場競爭壓力
此次OpenAI重新推出開源模型,源于其在開源技術(shù)方面態(tài)度的轉(zhuǎn)變。今年1月,DeepSeek引發(fā)了開源AI熱潮,奧爾特曼隨后承認(rèn)OpenAI在開源技術(shù)上“站在了歷史的錯誤一邊”。此次發(fā)布開源模型,正是OpenAI對市場趨勢的回應(yīng),旨在重新融入開源生態(tài),增強(qiáng)自身在AI領(lǐng)域的競爭力。
市場競爭的加劇無疑是OpenAI此舉的重要驅(qū)動力。近年來,眾多科技公司和研究機(jī)構(gòu)在開源AI領(lǐng)域積極布局,推出了一系列具有競爭力的模型。谷歌DeepMind于8月4日宣布推出第三代通用世界模型Genie 3,能夠生成多樣化的交互式環(huán)境,在模擬環(huán)境領(lǐng)域展現(xiàn)出強(qiáng)大的技術(shù)實力。面對競爭對手的不斷發(fā)力,OpenAI通過開源模型,有望吸引更多開發(fā)者和企業(yè)參與其生態(tài)系統(tǒng),鞏固自身的市場地位。
此外,OpenAI與英偉達(dá)、AMD、Cerebras和Groq等芯片制造商展開合作,確保模型在各種芯片上能夠良好運行。英偉達(dá)CEO黃仁勛表示,OpenAI在英偉達(dá)AI平臺上推動了開源軟件的創(chuàng)新。這一系列合作將進(jìn)一步提升OpenAI模型的性能和適用性,為用戶提供更優(yōu)質(zhì)的體驗。
模型安全性引關(guān)注,市場期待GPT-5?
盡管OpenAI的開源模型在性能上表現(xiàn)出色,但相較o3和o4-mini模型,兩款開放模型更容易出現(xiàn)“幻覺”現(xiàn)象。OpenAI解釋稱,由于較小的模型所擁有的世界知識相對較少,因此更容易產(chǎn)生幻覺。在OpenAI內(nèi)部用于衡量模型對人物知識準(zhǔn)確性的PersonQA基準(zhǔn)測試中,gpt-oss-120b和gpt-oss-20b分別對49%和53%的問題產(chǎn)生幻覺,顯著高于o4-mini模型的36%。
針對開放權(quán)重模型可能面臨的安全風(fēng)險,OpenAI給予了特別關(guān)注。在預(yù)訓(xùn)練期間,公司過濾了與化學(xué)、生物、放射性和核(CBRN)相關(guān)的有害數(shù)據(jù),并對模型進(jìn)行了專門的生物學(xué)和網(wǎng)絡(luò)安全數(shù)據(jù)微調(diào),以評估潛在風(fēng)險。經(jīng)過內(nèi)部和外部測試,這些惡意微調(diào)的模型無法達(dá)到其準(zhǔn)備框架中的“高能力”閾值。
隨著OpenAI此次開源模型的發(fā)布,市場對其下一個重磅產(chǎn)品的期待愈發(fā)高漲。鑒于公司近期不斷釋放的新消息,市場普遍預(yù)期OpenAI的下一個重大更新將是推出GPT-5。
浙商證券7月27日發(fā)布的報告指出,GPT-5的模型思路圍繞“簡化、統(tǒng)一、多模態(tài)”展開,它將整合GPT系列基礎(chǔ)模型、o系列推理模型以及GPT-4o全模態(tài)模型的三方能力。奧特曼早在2025年2月就曾透露,GPT-5將簡化產(chǎn)品線,實現(xiàn)更強(qiáng)更統(tǒng)一的功能;6月的播客中,他再次強(qiáng)調(diào)了GPT-5的融合能力。
中信證券8月1日發(fā)布的研究報告預(yù)計,相較于GPT-4單次激活2770億的規(guī)模,新一代模型GPT-5單次推理的算力消耗不會大幅增加,API價格或較GPT-4o僅小幅增長甚至維持不變,推理性價比有望提升一倍以上,這將顯著改善AI應(yīng)用的盈利能力。