GPT-4.5 来了!

当地时间 2 月 27 号下午,OpenAI 在一场简短的直播中推出了“情商最高”的模型 GPT-4.5,其内部代号为 Orion。

在官宣 GPT-4.5 消息时,OpenAI CEO 山姆·奥特曼(Sam Altman)写道:“我们的规模一直在不断增长,GPU 已经用完了。我们将在下周新加数万颗 GPU……这不是我们想要的运营方式,但很难完美预测哪些激增会导致 GPU 短缺。”

OpenAI 称其为该公司“迄今为止最大、知识最丰富的聊天模型”,但也强调,它不是一个前沿模型,在某些方面的性能不如 o1 或 o3-mini。


(来源:OpenAI)

GPT-4.5 将具有更好的写作能力、更丰富的世界知识,以及 OpenAI 所称的“比以前的模型更精致的个性”,同时也是最贵的。

OpenAI 在博客中写道:“GPT-4.5 在扩大预训练和后训练方面迈出了重要一步。通过扩展无监督学习,GPT-4.5 提高了其识别模式、建立联系和产生创造性见解的能力,而无需推理。”

早期测试表明,与 GPT-4.5 交互感觉更自然。它的知识库更广泛,追踪(识别)用户意图的能力更强,而且“情商”更高,这让它在提高写作、编程和解决实际问题等任务上非常有用。


图 | GPT-4.5 与 o1 的回复对比(来源:OpenAI)

OpenAI 表示,尽管存在一些局限性,但 GPT-4.5 产生的幻觉比 GPT-4o 少得多,比 o1 模型略少。

目前 GPT-4.5 仅向月费 200 美元的 ChatGPT Pro 用户开放,但从下周开始,访问权限将陆续对 Plus、Team、Edu 和 Enterprise 订阅用户开放。开发者也可以即刻在 API 中调用 GPT-4.5。

至于价格,GPT-4.5 定价比 OpenAI 现在的主力模型 GPT-4o 贵了 30 倍(输入 token)和 15 倍(输出 token)。


图 | GPT-4.5 的价格(来源:OpenAI)

GPT‑4.5 最高支持 128k 的上下文窗口,每百万输入 token 75 美元(o1 是 15 美元),每百万输出 token 则高达 150 美元(o1 是 60 美元)。

“我们以研究预览的形式分享 GPT-4.5,以便更好地了解它的优势和局限性。”OpenAI 写道,“我们仍在探索它的功能,并渴望看到人们如何以我们意想不到的方式使用它。”

在模型训练方面,OpenAI 使用了扩展无监督学习来训练 GPT-4.5。

据 OpenAI 介绍,其通过扩展两个互补的范式来提高 AI 的能力,即无监督学习和推理,它们代表了智能的两个轴:

1. 扩展推理⁠教会模型在做出反应之前思考并产生思路链,从而使它们能够解决复杂的 STEM 或逻辑问题。OpenAI o1 和 OpenAI o3‑mini 等模型推进了这一范式。

2. 另一方面,无监督学习提高了世界模型的准确性和直觉。

GPT‑4.5 是通过扩展计算和数据,以及架构和优化创新来扩展无监督学习的一个例子。其结果是“模型拥有更广泛的知识和对世界的更深理解”,从而减少了幻觉并在更广泛的话题上提高了可靠性。


(来源:OpenAI)

OpenAI 表示,随着其扩展模型并解决更复杂的问题,教会它们更好地理解人类的需求和意图变得越来越重要。

对于 GPT-4.5,OpenAI 开发了新的可扩展技术,可以使用来自较小模型的数据来训练更大、更强大的模型。这些技术提高了 GPT-4.5 的可操作性、对细微差别的理解和自然对话。


(来源:OpenAI)

从基准测试成绩来看,GPT-4.5 相较于 4o 还是有性能提升的,但在更擅长推理的 o3-mini 面前,数学和科学测试成绩确实更差。


图 | GPT-4.5 基准测试成绩(来源:OpenAI)

OpenAI 表示,结合“对世界的深刻理解”和“更协调的合作”,GPT-4.5 可以带着“与人类协作的热情,用直观的对话自然地整理想法”。

能够更好地理解人类的意思,并以更细致入微的“情商”来解读微妙的暗示或隐含的期望。GPT-4.5 还表现出更强的审美直觉和创造力,更擅长帮助写作和设计。

在 OpenAI 给出的案例中,GPT-4.5 的回答更简洁,更符合事实,也更像是真正的对话:






图 | GPT-4.5 与 GPT-4o 的回复对比(来源:OpenAI)

值得注意的是,GPT-4.5 并非推理模型,它在给出答案之前不会“思考”,这使得它的优势与 o1 等推理模型截然不同。

与 OpenAI o1 和 o3-mini 相比,GPT-4.5 是一种更通用、天生更智能的模型。

OpenAI 表示,“我们相信推理将成为未来模型的核心能力,而两种扩展方法——预训练和推理——将相辅相成。随着 GPT-4.5 等模型通过预训练变得更加智能和知识渊博,它们将成为推理和使用工具的代理的更强大的基础。”

GPT‑4.5 可通过搜索获取最新信息,支持文件和图片,并可使用 Canvas 功能进行写作和编程。不过,GPT‑4.5 目前不支持 ChatGPT 中的语音模式、视频和屏幕共享等多模态功能。

在 API 中,GPT‑4.5 目前支持函数调用、结构化输出、流式传输和系统消息等关键功能。它还通过图像输入支持视觉功能。

根据早期测试,开发人员发现 GPT-4.5 对于“需要更高情商和创造力”的应用程序特别有用,例如帮助写作、沟通、学习、指导和头脑风暴。它还表现出强大的代理规划和执行能力,包括多步骤编码工作流程和复杂任务自动化。

按照此前官宣的路线图,GPT-4.5 上线后,OpenAI 的下一个重大模型更新将会是 GPT-5。


图 | OpenAI 的路线图(来源:资料图)

GPT-4.5 是 OpenAI 的最后一个“非思维链”模型。基于 GPT-4.5,OpenAI 将精简其产品线,为 GPT-5 带来的重大变化做好准备,为采用新方法奠定基础。

OpenAI 的 CEO 山姆·奥特曼(Sam Altman)表示,模型太多会让用户感到困惑,未来的 GPT-5 将是一个重要的里程碑,囊括 OpenAI 的全部技术进步。最大的创新是它与之前独立的 o 系列模型的集成。

OpenAI 表示,它正将其 o3 模型中的大部分技术合并到 GPT-5 中,从而有效地取消了 o3 作为独立版本的功能。换句话说,GPT-5 将结合两个并行发展的“AI 大脑”的优点。

业界猜测,GPT-5 可能会扮演“路由器模型”的角色,按需协调各种内部组件或子模型。用户只需使用 GPT-5,但 GPT-5 本身将利用不同的工具和知识来源来找到最佳解决方案,包括访问搜索引擎、执行计算或使用代码解释工具,具体取决于需要做什么。

参考资料:

https://openai.com/index/introducing-gpt-4-5/

https://bytebridge.medium.com/openais-latest-roadmap-a-closer-look-at-gpt-4-5-and-gpt-5-e1de7f0eff9c

ad1 webp
ad2 webp
ad1 webp
ad2 webp