看衰苹果 AI?发布会 AI 缺席,是保守还是蓄势待发?

看衰苹果 AI?发布会 AI 缺席,是保守还是蓄势待发?

文章图片

看衰苹果 AI?发布会 AI 缺席,是保守还是蓄势待发?

文章图片

看衰苹果 AI?发布会 AI 缺席,是保守还是蓄势待发?

文章图片


相信有不少朋友都是熬夜观看了昨天的苹果发布会 , 对于关注 AI 的朋友来说 , 可能睡前都还在想:苹果的 AI 到底去哪了?
【看衰苹果 AI?发布会 AI 缺席,是保守还是蓄势待发?】所以今天我们就来盘一盘本次新品发布会上一些“藏起来”的AI 功能 。

首先就是 Airpods Pro 3 , 更好的音质和空间音频、新增的心率传感器这些不必再提 , 主要看一个功能——实时翻译 。 发布会上Airpods Pro 3 演示的实时翻译效果可以说是相当惊艳 , 可以将对方说的话实时翻译成语音在耳朵里听到 , 也可以将自己说的话实时翻译成文本呈现在手机上给对方看 , 如果双方都是 Airpods Pro 3 , 那就可以实现双人同步的实时翻译 。 这不仅对于耳机的硬件性能有要求 , 也需要 AI 算法足够优秀 , 所以在这一点上 , 我们可以暂时认为苹果AI 在耳机端侧的应用取得了一些进展 。

其次就是手机上的 AI 体现 。 这次iPhone 17全系都支持Center Stage功能 , 除了正方形传感器的功劳以外 , 苹果的 AI 也隐藏其中 。 它会自动检测画面中的人脸位置 , 自动调整到画面中间 , 如果是多人场景 , 也会自动切换到广角画面 。 看似平平无奇 , 但却能大大改善我们的自拍体验 。

另外 , 苹果这次的计算摄影能力也得到了升级 , 全新的Photonic Engine , 通过更多机器学习模型发挥作用 , 在降噪、自然细节保留和颜色准确性方面有显著提升;搭配 Visual Intelligence 视觉识别功能 , 用户可以获得更好的影像体验 , 这何尝不是 AI 的作用呢?

最为关键的就是承载苹果 AI 的这颗芯片——A19 Pro 。 6 核CPU+6 核GPU+16 核神经网络引擎 , 峰值计算能力是 A18 Pro 的 4 倍 , 为苹果 AI 的端侧部署提供了充足的算力支持 。 一旦后续苹果的 Apple intelligence 取得进展 , 那么极有可能快速成为全球领先的端侧 AI设备 。

当然 , 以上只是我们的美好期待 。 Apple intelligence 还处在困境之中 , 大陆版遥遥无期 , 海外版体验平平 。 如今 , 除了正在打磨的 AI Siri 外 , 苹果也在积极寻求外界 AI 大模型的帮助如ChatGPT、Gemini 等 , 国内则是选择了阿里的千问、百度的文心一言 。 但是未来具体用哪家、怎么用 , 仍然是未知数 。

短期来看 , AI 功能的“缺席”让苹果在舆论上略显保守 , 甚至被部分用户认为落后于竞争对手 。 但从长期战略角度看 , 苹果可能正在为更大规模的 Siri 升级、iOS 系统的智能化迭代 , 甚至 Vision Pro 的生态拓展蓄势 。
有业内观察人士也表示:“苹果的风格一向如此 , 它不会在技术尚未打磨成熟前贸然推出 。 等到真正发布 AI 功能时 , 极可能是一次闭环式的整合 , 而非零散的功能堆砌 。 ”

    推荐阅读