
本月初苹果宣布与谷歌建立合作伙伴关系启运配资,苹果长期以来在自己的人工智能模型研发方面举步维艰,因此后续苹果将主要使用谷歌的 Gemini 模型为未来的苹果智能 (Apple Intelligence) 提供支持。
马克古尔曼发布最新消息称,苹果与谷歌的合作有望在下个月的 iOS 26.4 测试版中亮相,苹果计划以某种形式向公众展示这些由 Gemini 模型驱动的新功能。
iOS 26.4 测试版中的 Siri 将可以读取屏幕上的内容并代为为用户执行某些应用程序操作启运配资,可能后续用户只需要通过语音命令就可以让 Siri 帮助你打开外卖软件自动下单奶茶或咖啡。
值得注意的是基于隐私考虑苹果依然希望谷歌的模型能够在苹果的私有云计算上运行,为 Siri 提供服务的 Gemini 模型在苹果内部被称为 Apple Foundation Model V10,该模型使用包含 1.2 万亿参数的模型。
然而由于提供的功能非常复杂因此苹果无法完全离开谷歌的人工智能基础设施支持,也就是说部分服务通过苹果的私有云计算运行,部分服务可能仍然需要调用谷歌的人工智能基础设施运行。
马克古尔曼还透露苹果将在 iOS 27 和 macOS 27 中全面引入聊天机器人功能,这些功能将由 Apple Foundation Model V11 提供支持,这些模型的质量可能接近 Google Gemini 3。
至于苹果自己的人工智能模型目前并没有太多消息启运配资,但相信苹果应该是不会放弃自己研发模型的,毕竟使用谷歌模型还需要每年向谷歌支付 10 亿美元以及牵涉到隐私问题,自己研发模型后可以接近成本和隐私问题。
富灯网提示:文章来自网络,不代表本站观点。