OpenAI集團近日宣布推出一款專為防御性網絡安全場景設計的AI模型——GPT-5.4-Cyber。該模型基于GPT-5.4架構進行專項優化,通過降低合法安全任務的準入門檻,為安全研究人員提供更高效的工具支持。與標準版本相比,新模型新增了二進制逆向工程等核心功能,允許專業人員在無需獲取源代碼的情況下,對編譯后的軟件進行深度分析,從而精準識別惡意代碼、系統漏洞及潛在安全風險。
為確保技術應用的合規性與安全性,OpenAI同步擴展了其"網絡安全可信訪問計劃"的覆蓋范圍。該計劃最初于今年2月啟動,伴隨1000萬美元的專項資助項目同步推出,現已向全球數千名認證安全專家開放。新升級的分級驗證體系通過多維度身份核驗,僅允許通過最高級別認證的用戶使用GPT-5.4-Cyber的全部功能。個人研究者可通過指定平臺提交認證申請,企業用戶則需通過官方客戶代表渠道申請權限。
在技術能力驗證方面,OpenAI公布的基準測試數據顯示,其模型系列在"奪旗賽"(CTF)等網絡安全競技場景中的表現持續提升。從2025年8月GPT-5模型27%的得分率,到11月GPT-5.1-Codex-Max版本76%的突破性進展,印證了技術迭代的顯著成效。公司研發團隊表示,后續版本將按照"網絡安全能力高階標準"進行開發,通過自動化驗證系統平衡技術普惠性與風險防控需求。
作為生態建設的重要環節,OpenAI同步披露了Codex Security產品的實戰成果。該工具自全面上線以來,已協助全球開發者修復超過3000個高危漏洞,其開源項目專項服務"Codex for Open Source"更覆蓋超1000個社區項目,提供免費安全掃描支持。這種"技術賦能+生態共建"的模式,與Anthropic公司上周發布的Mythos模型形成差異化競爭——后者雖展示出強大安全能力,但初期僅向40家機構開放使用權限。
行業觀察人士指出,此次發布標志著AI安全領域從"能力封鎖"向"精準管控"的戰略轉型。通過構建基于身份認證的動態權限體系,OpenAI試圖在降低技術濫用風險的同時,讓前沿防御工具惠及更廣泛的安全從業群體。公司研發負責人強調,所有模型發布前均需通過嚴格的"準備框架"評估,確保技術演進與風險防控保持同步。





















