新智元报道

编辑:定慧 英智

【新智元导读】谷歌Gemini迈出关键一步:「睁眼看世界」。用户发现Gemini新增实时屏幕共享功能,能准确识别屏幕上的内容并实时互动;并且可以打开摄像头与物理世界交互,帮用户给釉陶「上色」。

谷歌还是那个谷歌,依然是「地表最强」科技公司。

Gemini也许仅仅是在「话题度」稍稍落后ChatGPT,但不要忽视他的技术实力。

最近,一位网友在激活了Gemini悬浮窗后,意外发现了一个全新新按钮——「与Live共享屏幕」。

而这,正是谷歌为Gemini Live推出的全新「AI实时视频功能」。

基于此, 用户可以让Gemini实时查看屏幕 内容,或者调用手机摄像头画面。


手机发屏幕和外面的世界,Gemini全懂

「Gemini,你可以看到我的手机屏幕吗?」

「没问题,我能到看到时间是8点50,温度是71度,日期是3月23日」


「你能通过屏幕内容猜到我的安卓系统是什么吗?」

「嗯,似乎猜起来似乎有些困难,看起来像是定制的系统」


「屏幕上哪个APP和我职业最相关?」

「嗯,似乎是Code Editor」

「你可以帮我播放视频吗?」

「嗯,因为我们正在实时对话,所以无法控制手机,不过我可以和你聊天、进行头脑风暴」


另一项同步上线的是实时视频功能。

打开完整的Gemini Live界面,开启视频流之后,界面右下角有个按钮,点一下就能切换到前置摄像头,这样就能和周围环境直接互动了。

这就像给Gemini装上了眼睛,让它能看世界。


开启这个功能后,Gemini能实时分析手机摄像头捕捉到的画面,然后回答你提出的相关问题。

比如,谷歌本月发布的演示视频里,有人想用颜料给新做好的釉陶上色,拿不定选什么颜色,就可以借助这个功能向Gemini求助。


对此谷歌表示,会在3月下旬「作为谷歌One AI高级计划的一部分,向Gemini高级订阅用户逐步推送」。

「Project Astra」谷歌计划已久的AI助手

「这个愿景在我脑海中存在了相当长一段时间。」

谷歌DeepMind的负责人、谷歌AI Efforts的领导者 Demis Hassabis在2024年3月谷歌I/O大会上提到。

Demis Hassabis展示了一个他希望成为通用助手的非常早期版本,谷歌称其为「Project Astra」。

这是一个实时、多模态的人工智能助手,它可以看见世界,知道事物是什么以及你把它们放在哪里,并且可以回答问题或帮助你做几乎所有事情。

「Gemini Live共享屏幕」就是「Project Astra」的第一次亮相。

同时也是2025 AI Agent之年某种产品「形态」的预告片。

当AI「装上眼睛」实时观看现实世界,并且和你以及你的手机互动时。

AI会和人类碰撞出怎么样的火花?

谷歌这次新功能的上线,进一步巩固了它在AI助手领域的领先地位。

参考资料:

https://www.theverge.com/news/634480/google-gemini-live-video-screen-sharing-astra-features-rolling-out


ad1 webp
ad2 webp
ad1 webp
ad2 webp