去年底,Google Deedmind 推出了面向智能体时代的 Gemini 2.0 Flash 模型,一只脚迈入了 2.0 时代,时隔两个月,Gemini 2.0 系列全家桶终于正式上新。
在 DeepSeek 的「鲶鱼效应」催化下,这次发布与往常不太一样,不仅在性能上有进一步的提升,还挥舞起 AI 性价比的大旗,同时也拥抱多模态能力。
最新的大模型竞技场中,Gemini-2.0-Pro 在所有类别中排名第 1,Gemini-2.0-Flash 排名第 3,Flash-lite 则以出色的性价比跻身前十。
Deepmind CEO Demis Hassabis 发文称:
令人兴奋的进展!我们在不断提升质量的同时,努力降低成本。Gemini 2.0系列是性价比和性能方面的领先模型。通过今天的发布,大家都可以利用它们强大的推理和多模态能力,这也为我们的智能工作奠定了基础。
Gemini 2.0 系列模型主要特点如下:
- 2.0 Pro Experimental:主打编码性能和处理复杂提示能力,在知识理解和逻辑推理方面表现出色。
- 2.0 Flash:专门面向开发者提供 API 接口,支持快速构建 App。
- 2.0 Flash-Lite:在保持高性能的同时实现了更优的成本效益和响应速度。
- 2.0 Flash Thinking Experimental:已在 Gemini App 中开放使用,供用户体验。
具体来说,Gemini 2.0 系列全家桶模型各具特色。
其中,已全面发布的 Gemini 2.0 Flash 支持多模态输入和文本输出,具备 100 万tokens 的上下文窗口,并支持结构化输出、函数调用和代码执行等功能。
值得注意的是,其多模态实时 API 目前仍处于「beta」阶段,图像和音频输出功能也将在后续推出。
该模型的定价方案也已确定,文本、图像和视频输入每百万 tokens 收费 0.10 美元,音频输入则为 0.70 美元,(2 月 20 日起正式生效)。文本输出每百万 tokens 收费 0.40 美元。
各类缓存费用也都维持在较低水平。文本/图像/视频缓存费用为每百万 token 收费 0.025 美元,音频缓存费用为 0.175 美元。
在此基础上,Google 还推出了更具性价比的「轻量版」——Gemini 2.0 Flash-Lite 。
虽然这款模型在功能上做了一定取舍,暂不支持多模态实时 API、搜索工具和代码执行,但它保留了 100 万 tokens 的上下文窗口,以及多模态输入、文本输出和函数调用等核心功能。
其定价更为亲民,文本、图像和视频输入每百万 tokens 仅需 0.075 美元,几乎比标准版便宜了三分之一。音频输入也为 0.075 美元,文本输出为 0.30 美元,文本/图像/视频缓存为每百万 tokens 仅需 0.01875 美元,音频缓存为 0.175 美元。
作为对比,DeepSeek-V3 模型现在在击中缓存的情况每百万 tokens 需要 0.014 美元。2 月 8 日起,其价格将恢复到每百万 tokens 0.07 美元的水平。这一调整或许也是促使 Google 制定当前价格策略的重要因素之一。
据 Google 介绍,使用该模型为 4 万张独特图片生成标题的成本仅需不到 1 美元。
产品线的顶端则是 Gemini 2.0 Pro Experimental 版本。这款模型拥有 200 万 tokens 的超大上下文窗口,相当于可以一次性处理约 150 万个单词,能同时消化整个《哈利·波特》系列的七本书还绰绰有余。
在功能上,它也是最为全能的选手,不仅支持多模态输入和文本输出,还具备结构化输出、函数调用、搜索工具和代码执行等全方位能力。
在性能测试方面,Gemini 2.0 系列表现可圈可点。
在 MMLU-Pro 测试中,2.0 Pro Experimental 以 79.1% 的得分领先,而 2.0 Flash Lite Preview 和 2.0 Flash GA 分别获得 71.6% 和 77.6% 的成绩。
在代码生成、数学和多语言能力等方面,2.0 Pro Experimental 同样表现优异,特别是在数学(91.8%)和多语言能力(86.5%)方面的成绩尤为突出。
遗憾的是,即便是最强的 Gemini 2.0 Pro Experimental 版本也要远远落后于 OpenAI o3 模型,并未完成外界期待的「弯道超车」。
不过也有网友认为,由于 Gemini 2.0 Pro 并非典型的 CoT 模型,当前的性能对比可能并不完全合理。
这些模型的主要优势在于其快速响应能力和较低的成本,特别适用于命名实体识别或分类等特定任务。随着图像生成和文本到语音等新功能的即将推出,Gemini 2.0 系列的应用场景将进一步扩展。
现在,这些新模型现已在 Google AI Studio 和 Vertex AI 平台上向开发者开放,Gemini 高级用户也可以在其设备上选用。
贪吃蛇大战、跳跃球,Gemini 2.0 还能这样玩
谁说 AI 只会干巴巴回答回答,随着 Gemini 2.0 全家桶的上线,网友迫不及待地玩出了新花样。
比方说,想看贪吃蛇大战吗?让 Gemini 2.0 自行用代码操刀设计一个贪吃蛇游戏。
亦或者,Gemini Flash Thinking 模型是首个能够访问 YouTube 的推理模型,而且它还支持 Google 搜索和地图功能。
在图像渲染方面,有开发者要求模型使用 p5.js 编写脚本,生成了一个包含 100 个动态弹跳黄球的三维场景。并且,球体内的黄球还要能够正确相互碰撞,球体缓慢旋转,以及始终保持在球体内。
我们也在 Google AI studio 简单体验了此次上新的几款新模型。这几款新模型响应的速度倒是挺快的,至于效果嘛,Emmm,就属实有点难评了。
在 Gemini 大展拳脚之际,惯常狙击的 OpenAI 也在持续发力。
今天,OpenAI 凌晨宣布 Deep Research 功能向所有 Pro 用户全面开放,包括英国、欧盟、挪威、冰岛、列支敦士登和瑞士等地区。Plus 用户流下了羡慕的泪水。
并且,ChatGPT 的搜索功能现已向所有用户开放,无需注册即可使用,进一步降低用户的使用门槛。
不过,在卷模型之前,不妨先卷一下 AI 模型的起名,无论是 Gemini 系列,还是 OpenAI 的 GPT/o 系列,随着新模型的接踵而至,各类版本号和命名规则也是让人眼花缭乱。
去年当 OpenAI CEO Sam Altman 被问及公司产品的命名策略时,他也坦言相当头疼。
包括 Anthropic CEO Amodei 曾表示,虽然 Claude 的命名方式在早期看起来不错,但随着模型的快速迭代和更新,沿用的命名体系同样变得捉襟见肘。
他指出,目前没有任何 AI 公司真正「搞定命名」这一问题,大家都在努力寻找更简单、更清晰的命名方式。这或许也是 AI 巨头们少有达成的共识。