
文章图片

文章图片

智东西
编译 | 江宇
编辑 | 漠影
智东西6月11日消息 , 在WWDC 2025的媒体采访中 , 苹果高管Craig Federighi和Greg Jozwiak(Jaws)坦言 , Siri的下一个版本需要重新架构 , 原计划一年上线的功能将推迟至2026年 。
这是苹果首次正面回应Siri为何难产 , 以及Apple Intelligence整体战略的节奏安排 。
一、Siri架构重建 , 决定全面转向V2架构苹果软件工程高级副总裁Craig Federighi和全球市场高级副总裁Greg Joswiak首次系统回应了外界关切的Apple Intelligence战略与Siri演进问题 。
Craig直言不讳地承认 , Siri当前版本(即V1架构)根本无法满足客户的期望 , 也达不到Apple的标准 , 这一架构已被团队内部“基本放弃” 。
虽然在WWDC现场展示了Siri的一些新能力 , 但那并非基于新架构的产品 , 而是在旧有V1架构上推出的一次升级 。
这次升级所包含的Siri体验改进 , 主要集中在以下几个方面:
更好的对话理解(语流):Siri能更好地理解用户在对话中可能出现的错误或自我纠正 。 全新的视觉界面:提供了更美观、更现代的用户界面 。 支持打字与Siri交流:用户现在可以通过键盘输入文字与Siri进行交互 。 更强的Apple产品知识:Siri在理解和回答关于Apple产品相关的问题上表现得更出色 。 Craig表示 , 团队去年曾尝试在原有基础上继续改进 , 但发现“花了很多时间 , 效果仍不理想” 。
因此 , 真正的系统级变革将来自V2架构 。 Craig透露V2架构是一个“更深度的端到端架构” , 并且并非完全从零开始 , 而是基于V1架构的积累 , 将其“扩展到整个Siri体验 , 使其成为一个纯粹的架构” 。
它意味着V2架构将成为Siri整个体验的底层基础 , 而不是像V1那样可能是一个局部或附加的解决方案 。 Siri的所有智能和功能都将围绕这个核心架构来构建和运行 。
首先 , 是通过应用程序意图调用设备上更广泛的操作 。 简单来说 , Siri将能更好地理解并执行那些涉及多个应用或复杂步骤的指令 。
在V2架构下 , Siri将能识别出你的“应用程序意图” , 即理解你想要执行“查找照片”、“格式转换”和“发送邮件”等一系列任务 , “更广泛地操作”你的设备 , 自动调动并串联起“信息”、“照片”、“文件”和“邮件”等多个应用或系统功能 , 一步到位地完成这个复杂任务 , 而不再仅仅是执行简单的、预设好的单一指令 。
其次 , 是利用个人知识进行语义索引 。 这意味着Siri不仅能听懂你说的话 , 还能理解设备上所有私人信息 。
它会利用“个人知识” , 即你设备上所有的数据——包括邮件、信息、备忘录、照片等——进行深入的“语义索引” 。 这让Siri不仅能识别出“播客”这个词 , 还能理解问题背后的深层含义 , 然后智能地在所有个人数据中进行关联和查找 , 无论是邮件正文、聊天记录还是其他应用内容 , 从而准确地找到用户想要的信息 。
当被问及“是不是还要等一年用户才能用上新Siri”时 , Craig回答:“那正是我们说的意思 。 ”这正式确认新架构Siri将于2026年才可能面向公众推出 。
一年前 , 在WWDC 2024上 , 苹果展示的一款Siri 。
Craig强调:“Apple的原则是:当我们推出某个产品时 , 它必须足够好 。 ”他明确表示 , 不会“偷跑”上线未成熟的系统 , V2架构必须通过严格的内部质量门槛 , 才会正式发布 。
这也意味着 , 当前发布的Siri更新更多属于过渡性质 , 真正意义上的升级将在2026年到来 。
二、Apple Intelligence不会是聊天机器人 , 追求“用时即现”Craig和Joswiak提到 , 今年Apple Intelligence带来的是“具体可用的智能” , 而不是抽象的AI概念 。
面对业界对“Apple是否准备与ChatGPT、Gemini正面竞争”的疑问 , Craig明确指出 , Apple并不将Apple Intelligence定义为聊天机器人 。
Siri的愿景从不是一个“聊天工具” , 而是一个可以通过语音和上下文理解来辅助用户完成任务的系统 。
他强调:“我们并没有将Apple Intelligence定义为我们的聊天机器人 , 也不是将它视为一个聊天应用 。 我们把它视为在我想做的地方 , 帮助我做我想做的事情 。 ”这种理念也体现在Apple Intelligence的多个设计细节中 。
例如 , 通过语音调取应用、理解上下文、调度快捷指令等功能 , 并非依赖纯对话逻辑 , 而是围绕实际操作需求设计的多模态交互系统 。
值得注意的是 , Apple Intelligence并非完全基于云端大模型 , 而是采用本地模型优先策略 。
Apple向开发者开放了设备端的LLM框架 , 支持在iPhone或Mac本地运行特定推理任务 , 允许Swift直接调用模型能力 。
这意味着第三方App开发者可以直接调用本地模型进行识图、识物、语义分析等功能 , 而非必须依赖远程云模型服务 。
Apple还指出 , 必要时可调用私有云或OpenAI模型 , 处理超出设备性能的复杂任务 , 形成“本地优先+私有云+第三方API”的混合智能体系 。
结语:Siri难产 , AI转身 , 苹果承认它来晚了苹果在一定程度上给外界释放出信号:苹果正在推翻旧Siri , 重做一遍 。
与此同时 , 苹果也在刻意避免“做一个聊天机器人” 。 它的AI不追求大模型对话能力 , 而是要深嵌入系统和设备 , 成为“用时即现”的任务助手 。 苹果没有否认自己在AI上的落后 。 Craig提到:“当V2准备好后 , 我们不会让用户等太久 , 但在此之前 , 我们也不会贸然发布 。 ”
【苹果首次承认Siri架构落后,将彻底推倒重新设计】来源:YouTube
推荐阅读
- 苹果正式宣布!这些老产品即将彻底淘汰
- Q1高端机份额揭秘:国内苹果降、华为小米涨,全球苹果升、三星降
- 领先三星截胡苹果!华为第二代三折叠屏手机,三个月后见
- vivo X Fold5继续预热,可与苹果设备互联互通
- 苹果还是老大,国产华为第一,OPPO快追上vivo
- 国产雄起!苹果“面试”京东方,iPhone17 Pro将首发中国OLED屏
- 苹果iOS26实现安卓没有的功能:让AI更安全,降低AI创业门槛
- 苹果AI“暴论”震动AI圈!DeepSeek、Claude等热门大模型只是死记的模式机器?
- 微软之后,苹果备忘录也支持导出MD格式了
- 苹果实力雄厚 但为何升级版Siri却延迟发布?
