- 發佈於
更多 OpenAI o1 深入資訊
- 作者

- 作者
- ChrisTorng

提醒
我的文章,一般都會附有很多引用文章。我所寫的並不是摘要 (需要的人請自行找 AI 做就好),而是我全部看完引文後獲得的重要理解與消化吸收,以及我對未來下一步的推測性見解。我建議各位應該自行閱讀所有原文,以獲得完整資訊。我都使用瀏覽器翻譯功能來快速閱讀。
Reasoning - OpenAI API
多模態和工具使用等功能將在 o1 未來型號推出;不要提示模型逐步思考;RAG 不要給太多不相干資訊,否則可能導致過度的反應Debunking the Myth: OpenAI O1 is Not GPT-5
o1 是另一種型號的 LLM,不是下一代 GPT (不是 GPT-5) —— 我: 可能代表 (未來若有) GPT-5 不會有 (或僅有有限的) o1 的深思步驟?From API to AGI: Structured Outputs, OpenAI API platform and O1 Q&A
先前的縮放定律只談到參數量及訓練量,新的定律還要加上推理: 能力隨著推理運算量呈現 log 等級持續提高;o1-mini 模型小於 GPT-4oOpenAI o1 Results on ARC-AGI-Pub
o1-preview 的成績跟 Claude 3.5 Sonnet 相當,但 400 個任務前者要 70 小時,後者及 GPT-4o 只要 30 分鐘;現在的評分只關注最終成績,未來的評比還要加上相對效率及限制 (我: 要不然大家只會無限增加推理運算量以追求更高成績);這個方法無法達到 AGINotes on OpenAI's new o1 chain-of-thought models
API 不提供深思過程之原因推論:- 安全性和策略合規性: 希望模型能夠推理出它如何遵守這些策略規則,而不暴露可能包含違反這些策略的資訊的中間步驟
- 競爭優勢: 希望避免其他模型能夠針對他們投資的推理工作進行訓練
四個難題範例:
- Something New: On OpenAI's "Strawberry" and Reasoning
- MatthewBerman on X: "Holy sh*t...
- fabian on X: "my goto LLM test is if a model can correctly explain this joke
OpenAI Cookbook 的範例不太容易理解重點在哪: