meta Ray-Ban meta 智能眼镜近日迎来了其发展历程中的一次重大飞跃,正式推出了v11版本更新,为用户带来了前所未有的智能交互新体验。这一更新中的“实时 AI”(Live AI)功能尤为引人注目,让参与“早期体验计划”的用户率先领略到了科技的前沿魅力。
在之前的版本中,meta AI主要通过拍摄单张照片并进行分析来响应“Hey meta”的指令。然而,v11版本中的“实时 AI”功能则实现了质的飞跃,它能够持续观察用户所见的景象,并以更加自然流畅的方式与用户进行对话。这一改变意味着,用户无需再频繁使用唤醒词,即可随时向AI提出问题,而AI也能够记住用户之前的提问,实现更加连贯的对话体验。
在“实时 AI”会话期间,眼镜会实时录制视频并分析所见内容,用户可以随时打断AI进行后续提问或更改话题,AI甚至会在用户提问前主动提供有用的建议。这种功能的实现,无疑为智能眼镜的使用带来了极大的便利和乐趣。
值得注意的是,meta的“实时 AI”功能与谷歌的Gemini Live在某些方面有着相似之处,比如都支持对话式AI功能,允许用户打断和记忆查询。然而,meta的“实时 AI”更胜一筹的是,它允许用户完全解放双手进行提问,无需依赖其他设备。
除了“实时 AI”功能外,v11版本更新还带来了另一项重要功能——“实时翻译”。这一功能让用户能够在与不同语言背景的人交流时,轻松实现语言的无缝转换。用户可以用英语与说西班牙语、法语或意大利语的人交谈,并通过手机屏幕或Ray-Ban meta眼镜的扬声器收听对方的回复。这一功能的实现,无疑为跨国交流和旅行带来了极大的便利。
v11版本更新还集成了Shazam功能,让用户只需简单说出“Hey meta,Shazam 这首歌”,即可快速识别周围播放的音乐。这一功能的加入,让用户在享受音乐的同时,也能轻松获取歌曲的相关信息。
对于希望立即体验这些功能的用户来说,他们需要注册“早期体验计划”。通过meta View应用程序的设置菜单,用户可以轻松加入这一计划,率先领略到v11版本更新的魅力。而对于那些没有加入“早期体验计划”的用户来说,他们则需要等到2025年初的正式版本发布后才能体验到这些新功能。