据彭博社报道,苹果正在开发的更智能、功能更强大的Siri版本将由谷歌Gemini驱动。苹果将每年向谷歌支付约10亿美元,以使用谷歌开发的1.2万亿参数人工智能模型。
需要说明的是,参数是衡量模型理解和响应查询能力的指标。更多参数通常意味着能力更强,尽管训练和架构也是影响因素。彭博社称,谷歌的模型在参数级别上”远超”苹果当前的模型。
当前基于云端的苹果智能版本使用1500亿参数,但尚无详细指标说明苹果正在开发的其他模型表现如何。
苹果将使用Gemini处理与摘要、多步骤任务规划和执行相关的功能,但苹果自身的模型也将用于部分Siri功能。谷歌为苹果开发的AI模型将在苹果的私有云计算服务器上运行,因此谷歌将无法访问苹果数据。
Gemini采用混合专家架构,虽然总参数超过万亿,但每个查询仅激活其中一小部分。该架构在实现高计算能力的同时避免了显著的处理成本。
苹果曾考虑为LLM版Siri使用自研AI模型,并测试了OpenAI和Anthropic的方案,但因Anthropic费用过高最终选择Gemini。苹果与谷歌在搜索业务上已有合作,谷歌每年支付约200亿美元作为苹果设备的默认搜索引擎。
尽管苹果计划暂时依赖谷歌AI,但将继续开发自研模型,待其LLM能力达标后将转向内部方案。苹果已在研发1万亿参数的云端模型,最早可能于2026年就绪。在开发自研模型期间,苹果可能不会公开与谷歌的合作安排。
苹果原计划在iOS 18推出新版Siri,但因功能缺陷需重构底层架构导致发布大幅推迟。更智能的苹果智能Siri预计将随2026年春季的iOS 26.4更新亮相。
升级后的Siri将能处理更复杂的查询,并完成应用内/跨应用的复杂任务。其功能将更接近Claude和ChatGPT,但苹果不计划推出专用聊天机器人应用。







