時隔五年之后,OpenAI 剛剛正式發布兩款開源權重語言模型——gpt-oss-120b和 gpt-oss-20b,而上一次他們開源語言模型,還要追溯到 2019 年的 GPT-2。
OpenAI 是真 open 了。
而今天 AI 圈也火藥味十足,OpenAI 開源 gpt-oss、Anthropic 推出 Claude Opus 4.1(下文有詳細報道)、Google DeepMind 發布 Genie 3,三大巨頭不約而同在同一天放出王炸,上演了一出神仙打架。
OpenAI CEO Sam Altman(山姆·奧特曼)在社交媒體上的興奮溢于言表:「gpt-oss 發布了!我們做了一個開放模型,性能達到o4-mini水平,并且能在高端筆記本上運行。為團隊感到超級自豪,這是技術上的重大勝利?!?/p>

模型亮點概括如下:
- gpt-oss-120b:大型開放模型,適用于生產、通用、高推理需求的用例,可運行于單個 H100 GPU(1170 億參數,激活參數為 51 億),設計用于數據中心以及高端臺式機和筆記本電腦上運行
- gpt-oss-20b:中型開放模型,用于更低延遲、本地或專業化使用場景(21B 參數,3.6B 激活參數),可以在大多數臺式機和筆記本電腦上運行。
- Apache 2.0 許可證: 可自由構建,無需遵守 copyleft 限制或擔心專利風險——非常適合實驗、定制和商業部署。
- 可配置的推理強度: 根據具體使用場景和延遲需求,輕松調整推理強度(低、中、高)。完整的思維鏈: 全面訪問模型的推理過程,便于調試并增強對輸出結果的信任。此功能不適合展示給最終用戶。
- 可微調: 通過參數微調,完全定制模型以滿足用戶的具體使用需求。
- 智能 Agent 能力: 利用模型的原生功能進行函數調用、 網頁瀏覽 、Python 代碼執行和結構化輸出。
- 原生 MXFP4 量化: 模型使用 MoE 層的原生 MXFP4 精度進行訓練,使得 gpt-oss-120b 能夠在單個 H100 GPU 上運行,gpt-oss-20b 模型則能在 16GB 內存內運行。
OpenAI 終于開源了,但這次真不太一樣
從技術規格來看,OpenAI 這次確實是「動真格」了,并沒有拿出縮水版的開源模型敷衍了事,而是推出了性能直逼自家閉源旗艦的誠意之作。
據 OpenAI 官方介紹,gpt-oss-120b 總參數量為 1170 億,激活參數為 51 億,能夠在單個 H100 GPU 上運行,僅需 80 GB 內存,專為生產環境、通用應用和高推理需求的用例設計,既可以部署在數據中心,也能在高端臺式機和筆記本電腦上運行。
相比之下,gpt-oss-20b 總參數量為 210 億,激活參數為 36 億,專門針對更低延遲、本地化或專業化使用場景優化,僅需 16GB 內存就能運行,這意味著大多數現代臺式機和筆記本電腦都能駕馭。
根據 OpenAI 公布的基準測試結果,gpt-oss-120b 在競賽編程的 Codeforces 測試中表現優于 o3-mini,與o4-mini持平;在通用問題解決能力的 MMLU 和 HLE 測試中同樣超越 o3-mini,接近 o4-mini 水平。