DeepSeek這條“鯰魚”,讓全球大模型競賽進(jìn)一步提速,。
北京時間2月1日凌晨,,OpenAI發(fā)布全新推理模型o3-mini。據(jù)介紹,,o3-mini是其推理模型系列中最新,、最具成本效益的模型,包含low、medium和high三個版本,,已經(jīng)上線了ChatGPT和API,。值得注意的是,ChatGPT免費(fèi)用戶可以通過在消息編輯器中選擇“推理(Reason)”或重新生成響應(yīng)來試用o3-mini模型,,這也是OpenAI首次向免費(fèi)用戶提供推理模型,。
此前,DeepSeek因推出了性能良好,、開源且免費(fèi)的V3和R1模型而受到廣泛關(guān)注,,也由于低廉的模型訓(xùn)練成本而走出了一條獨(dú)特的道路,通過開源重構(gòu)了全球的AI競爭格局,,使低成本創(chuàng)新成為顛覆行業(yè)的創(chuàng)新路徑,。過去一周多的時間里,國內(nèi)外大模型廠商從“緊急上線”新模型,,到降價,、免費(fèi),種種措施表明,,在DeepSeek的刺激下,,AI大模型行業(yè)的競爭正變得越來越激烈。
OpenAI緊急上線新模型
據(jù)介紹,,o3-mini是其最新,、最具成本效益的模型,復(fù)雜推理和對話能力顯著提升,,在科學(xué),、數(shù)學(xué)、編程等領(lǐng)域的性能超越了o1模型,,并保持了低成本及低延遲的特點(diǎn),。
具體來看,o3-mini在GPQA Diamond(理化生),、AIME2022-2024(數(shù)學(xué)),、Codeforces ELO(編程)基準(zhǔn)測試中,得分分別為0.77,、0.80,、2036,比肩或是超過了o1推理模型,。在中等(medium)推理能力下,,o3-mini在額外的數(shù)學(xué)和事實(shí)性評估中表現(xiàn)更為出色。同時,,o3-mini的平均響應(yīng)速度為7.7秒,,比o1-mini的10.16秒平均響應(yīng)速度快24%,。
值得注意的是,DeepSeek的網(wǎng)頁及移動應(yīng)用端均實(shí)現(xiàn)了模型與網(wǎng)絡(luò)的連接,,支持聯(lián)網(wǎng)搜索功能,,而o1模型則尚未實(shí)現(xiàn)聯(lián)網(wǎng)搜索功能。另外,,與其他模型直接提供問題答案不同,,DeepSeek的R1推理模型可以向用戶展示出具體的思考過程。不少用戶表示,,在與DeepSeek互動的過程中,,欣賞其思考的過程甚至比最終得到的答案更具有啟發(fā)性。
或是受DeepSeek的影響,,o3-mini可與聯(lián)網(wǎng)搜索功能搭配使用,,并展示完整的思考過程。奧特曼在其社交平臺上介紹o3-mini時候不僅表示這是一款“聰明,、反應(yīng)快速的模型”,,還專門強(qiáng)調(diào),“它能夠搜索網(wǎng)頁,,還可以展示搜索過程”。
使用權(quán)限方面,,ChatGPT首次向所有用戶免費(fèi)提供推理模型,,用戶可以通過在消息編輯器中選擇“推理(Reason)”或重新生成響應(yīng)來試用o3-mini模型。ChatGPT Pro用戶可以無限訪問,,Plus和Team用戶的速率限制從原來o1-mini的每天50條消息增加3倍到o3-mini的每天150條消息,。
在定價方面,o3-mini每百萬token的輸入(緩存未命中)/輸出價格為1.10美元/4.40美元,,比完整版o1便宜93%,。不過,o3-mini的性價比或依然比不上DeepSeek,。作為對比,,DeepSeek的API提供的R1模型,每百萬token的輸入(緩存未命中)/輸出價格僅為0.55美元/2.19美元,。
美國知名播客主持人Lex Fridman在其個人社交平臺上表示,,雖然OpenAI的o3-mini表現(xiàn)不錯,但是DeepSeek的R1以更低成本實(shí)現(xiàn)了同等的性能,,并開創(chuàng)了開放模型透明度的先河,。
DeepSeek讓大模型“卷”起來了
記者注意到,早在幾天以前,,奧特曼在回應(yīng)DeepSeek的爆火時就指出,,DeepSeek R1讓人印象深刻,,尤其考慮到成本方面,“但我們無疑將帶來更好的模型,,我們很快會發(fā)布新的模型”,。業(yè)內(nèi)人士分析稱,o3-mini模型的緊急上線,,或表明OpenAI已感受到了來自競爭對手的壓力,,需要加快發(fā)布性能更強(qiáng)的模型證明自身的領(lǐng)先優(yōu)勢。
值得注意的是,,在o3-mini推出后,,OpenAI首席執(zhí)行官山姆·奧特曼與一眾高管在reddit上回答網(wǎng)友的問題。奧特曼承認(rèn),,中國競爭對手DeepSeek的崛起削弱了OpenAI的技術(shù)領(lǐng)先優(yōu)勢,。“DeepSeek是個非常優(yōu)秀的模型,。我們將繼續(xù)推出更優(yōu)質(zhì)的模型,,但將無法維持往年的領(lǐng)先優(yōu)勢”。
對于“更優(yōu)質(zhì)的模型”,,奧特曼透露,,下一代推理模型o3將在“數(shù)周至月內(nèi)”發(fā)布。但被業(yè)界期待了許久的旗艦?zāi)P虶PT-5,,則尚無發(fā)布的時間表,。
除此以外,奧特曼罕見地對開源與閉源的問題進(jìn)行了回應(yīng),。他指出,,OpenAI過去在開源方面站在“歷史錯誤的一邊”,公司曾經(jīng)開源部分模型,,但主要采用閉源的開發(fā)模式,,未來將重新制定開源戰(zhàn)略。
OpenAI首席產(chǎn)品官Kevin Well還表示,,公司正考慮將非前沿的舊模型如GPT-2,、GPT-3等開源。
在OpenAI發(fā)布新模型的同時,,國產(chǎn)大模型的降價浪潮仍在持續(xù),。1月30日,阿里云發(fā)布百煉qwen-max系列模型調(diào)整通知,,qwen-max,、qwen-max-2025-01-25、qwen-max-latest三款模型輸入輸出價格調(diào)整,,qwen-max batch和cache同步降價,。
而就在1月29日凌晨,,阿里云才正式發(fā)布升級了通義千問旗艦版模型Qwen2.5-Max,據(jù)介紹,,Qwen2.5-Max模型是阿里云通義團(tuán)隊(duì)對MoE模型的最新探索成果,,預(yù)訓(xùn)練數(shù)據(jù)超過20萬億tokens,展現(xiàn)出極強(qiáng)勁的綜合性能,,在多項(xiàng)公開主流模型評測基準(zhǔn)上錄得高分,,全面超越了包括DeepSeek-V3在內(nèi)在目前全球領(lǐng)先的開源MoE模型以及最大的開源稠密模型。
天風(fēng)國際分析師郭明錤認(rèn)為,,目前從生成式AI趨勢中獲利的方式,,主要還是“賣鏟子”和降低成本,而不是創(chuàng)造新業(yè)務(wù)或提升既有業(yè)務(wù)的附加值,。而DeepSeek-R1的定價策略,,會帶動生成式AI的整體使用成本下降,這有助于增加AI算力需求,,并且可以降低投資人對AI投資能否獲利的疑慮,。不過,使用量的提升程度能否抵消價格降低帶來的影響仍然有待觀察,。同時,,郭明錤表示,只有大量部署者才會遇到Scaling law邊際效益的放緩,,因此當(dāng)邊際效益再度加速時,,英偉達(dá)將依然是贏家。
源自證券時報官微??