IT 之家 5 月 9 日消息,科技媒體 marktechpost 昨日(5 月 8 日)發布博文,報道稱英偉達開源其 Open Code Reasoning(OCR)模型套裝,含 32B、14B 和 7B 三種參數規模,均采用 Apache 2.0 許可證發布,模型權重和配置已在 Hugging Face 平臺開放下載。
OCR 模型套裝提供三種參數規模,分別為 OpenCodeReasoning-Nemotron-32B、14B 和 7B,均使用 Nemotron 架構(一種為多語言、多任務學習優化的 transformer 框架)訓練。
32B 模型面向高性能推理和研究場景,提供頂尖效果;14B 模型在降低計算需求的同時保持強大推理能力;7B 模型則適合資源受限的環境,仍能在基準測試中展現競爭力。
此外,32B 模型還推出了指令微調版本,支持與開放推理生態系統無縫兼容,適配 llama.cpp、vLLM、Hugging Face Transformers 和 TGI 等主流框架,方便開發者快速集成。
Model | LiveCodeBench Avg. | CodeContest All |
---|---|---|
DeepSeek-R1 | 65.6 | 26.2 |
QwQ-32B | 61.3 | 20.2 |
Distilled 7B+ Models | ||
Bespoke-Stratos-7B | 14.7 | 2.0 |
OpenThinker-7B | 25.5 | 5.0 |
R1-Distill-Qwen-7B | 38.0 | 11.1 |
OlympicCoder-7B | 40.9 | 10.6 |
OCR-Qwen-7B | 48.5 | 16.3 |
OCR-Qwen-7B-Instruct | 51.3 | 18.1 |
Distilled 14B+ Models | ||
R1-Distill-Qwen-14B | 51.3 | 17.6 |
OCR-Qwen-14B | 57.7 | 22.6 |
OCR-Qwen-14B-Instruct | 59.4 | 23.6 |
Distilled 32B+ Models | ||
Bespoke-Stratos-32B | 30.1 | 6.3 |
OpenThinker-32B | 54.1 | 16.4 |
R1-Distill-Qwen-32B | 58.1 | 18.3 |
OlympicCoder-32B | 57.4 | 18.0 |
OCR-Qwen-32B | 61.8 | 24.6 |
OCR-Qwen-32B-Instruct | 61.7 | 24.4 |
IT 之家注:LiveCodeBench 是一個綜合評估平臺,專注于調試、代碼生成和邏輯補全等真實開發者環境中的任務。
這一成就不僅得益于模型架構的優化,還歸功于英偉達打造的定制 "OCR 數據集 "。該數據集聚焦高質量代碼訓練,強調指令遵循、推理能力和多步驟問題解決能力。