时间很快就要走到 5 月,Google I/O 2025 也已悄然进入倒计时。这场科技圈最具影响力的开发者大会之一,将于 5 月 20 日在加州山景城线下举办,并同步开启全球直播。无论你是 Android 开发者、AI 爱好者,还是 XR 行业观察者,今年这场大会都值得关注。
毫无疑问,今年这届 I/O 将会继续去年的转向,从「移动优先」走向「AI 原生」,再迈向「设备融合」。不再是单一平台的功能升级,而是多平台、多终端之间的生态联动,Android 16 将正式亮相,更大规模融入 Gemini 大模型能力。
同时,去年底发布的全新独立操作系统 Android XR 也将首次亮相 Google I/O 这个舞台,雷科技报道过Google AI 眼镜,以及与三星联合打造的 Project Moohan MR 设备都将登场。
过去的 Google I/O 更多是 Android 的主场,但现在,AI 和多设备协同正成为主旋律。Google 想讲的,不只是下一个 Android 是什么,更是下一个「操作系统」应该怎么长成。而这场大会,正是它亮出底牌的时刻。
如果说 Android 15 是 Google 尝试将 Gemini 拉进系统的第一步,那 Android 16,才是真正让 AI 成为 Android 原生能力的一次跃进。
图/ Google
按照目前已知信息,Android 16 最大的关键词,依旧是「Gemini」。这不仅仅是内置一个能对话的助手,而是把 Gemini 大模型变成 Android 的核心基建:从通知栏的建议回复、应用间的内容理解,到设置界面的主动推荐,AI 正在渗透每一个你看得见、或者看不见的交互节点。
更重要的是,这次 Gemini 还将开放更多系统级 API,供开发者调用。这意味着你用的不是某个「接入大模型」的 App,而是每一个应用,都可以天然拥有「懂你」的能力。举例来说,订票应用可以识别你当前的行程安排,直接推荐最合适的航班;健康类 App 则能基于你近期的步数和睡眠,提醒你调整作息。
除了 AI,这次 Android 16 还在两个方向上持续打磨系统体验:
一个是视觉语言的革新。全新的 Material 3 Expressive 设计语言将正式登场,Google 不再满足于「统一好看」,而是鼓励「更有情绪」。更丰富的动画、更柔和的颜色、更多感知细节,让 UI 不只是外观上的设计。
图/ Google
另一个是多设备融合。Android 16 显然是为一个「更分布式」的未来准备的:它进一步强化了对平板、可穿戴设备甚至 XR 设备的适配能力。XR 方面尤其值得关注,毕竟 Google 的 Android XR 正在蓄势待发,而 Android 16 很可能就是那个连接现实和虚拟之间的桥梁。
当然,还有一些细节上的小升级同样值得一提,比如更强的 HEIC 图像编码、更精准的相机白平衡调节、更灵活的音频共享机制,以及更智能的权限弹窗设计——这些或许不够耀眼,但每一个都在提高 Android 的稳定性和用户体验。
简而言之,Android 16 不是一次表层 UI 的更新,也不是一次单点功能的增强,而是一场围绕「AI 原生」全面展开的系统性进化。它试图回答一个问题:如果操作系统天生就理解你,那手机的使用方式会变成什么样?在今年的 Google I/O,我们或许就能先睹为快。
如果说 Android 16 是 Google 将 AI 深植移动系统的一次升级,那 Android XR 则是它向未来计算平台投下的一枚深水炸弹。
这不是 Android 的又一个「扩展版本」,而是一套为 XR(扩展现实)设备量身打造的独立操作系统。从技术栈到交互逻辑,它的构建逻辑完全不同于传统的手机系统。去年年底,Google 首次对外公开了 Android XR 的存在,今年 I/O,将是它真正走入大众视野的首秀。
Android XR 的底色,仍然是 Gemini。这个集多模态、上下文理解和推理能力于一身的大模型,不再只是系统里的「外挂助手」,而是 XR 系统的核心交互引擎。从语音控制到视觉识别、从环境感知到实时翻译,Gemini 让设备不只是响应你「说什么」,更能理解你「看到什么」、「想干什么」。
进行演示的 Google AI 眼镜,图/ TED
最能代表这一愿景的,是 Google 稍早前刚刚展示的 AI 眼镜。它的外观看起来像一副普通眼镜,但眼镜里内嵌了摄像头、扬声器和麦克风,以及微型显示器和 Gemini 系统支持。举个例子,你只需要看一眼菜单,眼镜便能帮你识别菜名、推荐更健康的选择;又或者你走在陌生城市街头,轻声一句「这是什么建筑」,就能实时获取语音解说。
这款眼镜不是为了炫技,而是代表了 Google 对「AI 眼镜」这一设备形态的真实押注——不需要沉浸,也不强调娱乐,而是想成为你生活中那个随时在旁边、能听、能看、能回应的 AI 助手。
当然,XR 的主力设备不会只有眼镜。Google 与三星合作的 Project Moohan 也将在这次 I/O 上亮相,这是首款搭载 Android XR 的 MR 设备,硬件规格堪称旗舰。更重要的是,它强调生态兼容性——用户可以通过 Android XR 系统运行 Play 商店里的 App。
Android XR 下的应用界面,图/ Google
相比 Apple Vision Pro 的封闭策略,Google 显然想走一条不同的路。Android XR 是开放的、模块化的,并与原有 Android 开发体系深度融合。你可以用 Jetpack Compose 写 XR App,也可以用 Unity 接入 ARCore,无需重新搭建工具链。
Google 想要打造的,不只是一个 XR 系统,更是一个延续 Android 精神的新平台。它不是「再造一个手机系统」给头显,而是要让未来的所有终端——眼镜、头显、甚至混合设备,都拥有原生的 AI 能力与跨平台协同能力。
2025 年,也许是 Android 真正开始「脱离屏幕」的转折点。Google I/O,正是这个故事的第一幕。
过去一年,如果说有什么技术能真正贯穿 Google 全线产品、重塑用户交互逻辑的,那非 Gemini 莫属。它不是一个 App,也不是一个服务,而是 Google 自上而下的 AI 战略支点。
从 Android 到 Search,从 Workspace 到 Chrome,再到即将登场的 XR 操作系统,Gemini 已经不再是一个选配,而是正在成为 Google 操作系统的新内核。今年的 Google I/O,Gemini 将迎来它最重要的一次公开演进。
首先是模型本身的进化。Gemini 2.5 将成为本次大会的主角之一,主打关键词是「速度」和「灵活性」。尤其是 Gemini 2.5 Flash —— 一个面向实际应用场景优化过的轻量模型,用户甚至可以为它设置「推理预算」(thinking budget),按需使用算力。
图/ Google
其次是系统级集成的全面打通。如果说 Android 16 的 Gemini 更像是「嵌入式智能」,那 XR 领域的 Android XR 上,Gemini 则成为整个系统的主交互方式。它不仅能听你说话,更能看你视线落在哪、理解你下一步想做什么。Google 所期待的,是一个「零学习成本」、「全感知响应」的计算环境,而 Gemini 是实现这一切的钥匙。
第三,是 Gemini 的开发接口正变得越来越开放。Google 这次 I/O 将正式推出新版 Gemini API 和 Gemini Nano(边缘端侧模型)工具链——一个面向 AI 原生应用开发者的全套体系。从文本生成到图像理解,从数据总结到多轮对话,开发者可以像调用网络接口一样调用模型能力,真正进入「AI as a platform」时代。
图/ Google
尤其对于手机、眼镜、可穿戴设备这样的边缘终端来说,这意味着 AI 不再只是云端特权,而是可以走进本地,常驻用户日常。
总之,对普通用户而言,Gemini 本身的变化可能不会显得那么剧烈,但影响却无处不在。而作为 Google 的 AI 策略核心,Gemini 无疑是 Google 面向下一代平台——AI 原生、多设备协同、空间计算的第一张王牌。
它不只是一种模型架构,而是一种能力分发机制,一种交互范式的重建,更是 Google 重新定义生态主导权的绝佳机会。而 Google I/O 2025,将是它一次全面爆发的舞台。
过去两年,整个科技世界和 Google I/O 都在发生了巨大的变化,AI 毋庸置疑正是这种变化的核心推动力。今年的趋势还要更加明显,Google I/O 2025 的主角显然不只是某一款手机、某一项功能,而是那个更大的问题:
AI 到底该怎么融入操作系统,甚至融入我们的现实世界?
Android 16 会告诉我们,AI 操作系统可以做到多「原生」;Android XR 会告诉我们,操作系统可以脱离屏幕;而 Gemini,会给出一个关于未来人机交互的答案。这一切,或许就在 Google I/O 2025 上正式揭晓。
本文来自微信公众号“雷科技”,36氪经授权发布。
Google I/O超前瞻:AI成为新灵魂,XR重回舞台中央
日期:2025-04-25 12:15:00