刚刚,苹果WWDC掀AI重构风暴!端侧模型全开放、AI版Siri却成最大「鸽」王


刚刚,苹果WWDC掀AI重构风暴!端侧模型全开放、AI版Siri却成最大「鸽」王

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

机器之心报道
编辑:杜伟、泽南
今年的苹果,到底有没有新活?
北京时间今天凌晨1点,一年一度的「科技圈春晚」——苹果全球开发者大会WWDC在CEO蒂姆・库克的演讲中拉开了序幕!
此次大会,苹果宣布了一系列操作系统、服务和软件的更新,其中包括全新的系统命名规则以及名为液态玻璃(LiquidGlass)的新设计语言。
根据库克的说法,苹果对自身操作系统的命名方式(确切地说是编号方式)进行了全面改革,不再以版本号来排序,而是以年份(而且是2026年)来命名。
具体是这样的:今年的iPhone将搭载iOS26系列,Mac将搭载macOSTahoe26。此外,连同iPadOS26、watchOS26、tvOS26和visionOS26一起构成了完整的系统。未来,这些数字将随年份变更,方便用户判断Apple设备是否运行了最新版本的软件。
iOS26设计界面
那么率先变更规则的26系列有哪些特点呢?苹果展示的一大亮点是全新的「液态玻璃」设计语言,为应用界面带来流畅的半透明和玻璃板的光泽。
该设计灵感源自VisionPro增强现实设备上的visionOS,可以自适应明暗模式,并通过实时渲染对运动做出动态响应。
全新设计将应用于按钮、滑块、媒体控件以及标签栏和侧边栏等较大的元素,同时还将采用重新设计的工具栏和导航栏。
苹果人机界面设计副总裁AlanDye在发布会上表示,这是该公司自2013年推出iOS7以来最大规模的软件设计革新。
面向第三方软件的适配,苹果正在发布更新的应用程序编程接口(API),以便开发者能够在今年晚些时候新设计发布之前开始调整他们的应用。
新系统上的AppleIntelligence能做些什么?
AI是本次发布的重中之重,被提到了演讲的第一部分进行介绍。
苹果展示了把人工智能融入其所有产品的计划,提供从通话实时翻译到AI识物、智能搜索等一系列能力。
随着ChatGPT的引入,AppleIntelligence提升了iPhone端的智能体验,帮助用户比以往更轻松地完成工作,同时开启了全新的沟通方式,并利用屏幕上的内容实现更多功能。
其中,实时翻译(LiveTranslation)功能已集成到信息、FaceTime和电话中,帮助用户跨语言沟通,即时翻译文本和语音。实时翻译由苹果自主研发的模型支持,这些模型完全在设备上运行,因此用户的个人对话始终保持私密。
实时语音翻译。
苹果表示,实时翻译功能将在iPhone、Mac、AppleWatch和iPad上提供,即使用户佩戴AirPods也能使用。
基于AppleIntelligence,视觉智能将扩展到用户的iPhone屏幕,方便用户在各个app中搜索和操作正在浏览的内容。如果我们在手机上看到了特定衣服的图片,可以截图搜索,让AI找同款。
用户可以向ChatGPT询问他们正在屏幕上查看的内容以了解更多信息,还可以搜索Google、Etsy或其他支持的app,查找类似的图片和商品。
视觉智能还能识别用户何时正在查看某个活动,并建议将其添加到日历中,并重新填充日期、时间和地点等关键信息。
识别物体并跳转到购物网站。
快捷指令(Shotcuts)现在比以往任何时候都更加强大和智能。
苹果提供了一整套由AppleIntelligence支持的全新快捷指令(称为智能操作),使用户可以体验写作工具(WritingTools)和影像乐园(ImagePlayground)等功能的专属操作。
开发者们也可以在自己的App上接入这样的能力。
不过总体来说,今年WWDC上苹果推出的一系列AI能力看来是属于较为温和的改进——苹果并不急于搬出一个杀手级应用,而是希望AppleIntelligence能够让所有涉及用户交互的工具都变得更智能、更实用。
不过增强版的Siri仍在跳票中。
端侧模型向第三方App开发者开放
既然号称「全球开发者大会」,此次苹果也为开发者们提供了一系列福利。
苹果面向开发者开放了端侧大模型的访问权限,允许任何App都能直接利用AppleIntelligence核心的端侧基础模型。
借助FoundationModels框架,App开发者将能够在AppleIntelligence的基础上,利用免费的本地AI推理,为用户带来智能、离线可用且保护隐私的全新体验。
例如,教育类App可以使用端侧模型,根据用户的笔记生成个性化测验,无需任何云API成本;户外类App则可以添加自然语言搜索功能,即使在用户离线时也能使用。
该框架原生支持Swift,因此App开发者只需三行代码即可轻松访问AppleIntelligence模型。同时,引导式生成、工具调用等功能均内置于框架中,让开发者能够更轻松地将生成功能直接集成到现有应用中。
在社媒X上,基础模型框架团队也开始推介他们的产品,表示该框架是开发者访问端侧LLM的API。
为新版本Xcode带来更强大生成式AI
此次,苹果发布了其应用开发套件Xcode的全新版本——Xcode26,提供了丰富的智能功能和体验,助力开发者将创意变为现实。
利用新套件,开发者可以将大语言模型直接嵌入到他们的编程体验中,来编写代码、测试和撰写文档;同时可以实现迭代设计、修复错误等功能。
Xcode26内置了对ChatGPT的支持,开发者可以使用其他提供商的API密钥,或者在搭载苹果芯片的Mac上运行本地模型,从而选择最适合自身需求的模型。
此外,开发者无需创建帐户即可在Xcode中使用ChatGPT,订阅用户也可以连接他们的帐户以访问更多请求。
编码工具(CodingTool)可以帮助开发者保持专注,并提高工作效率。开发者可以从代码中的任何位置访问编码工具,它提供操作建议,例如生成预览或Playground、修复问题等,还可以直接内联处理其他任务的特定提示。
另外,Xcode26还提供了一些附加功能,包括重新设计的导航体验、本地化目录的改进以及对语音控制的改进支持,以便通过语音控制来处理Swift代码并完全通过语音导航到Xcode界面。
鸽了的AI版Siri
虽然AppleIntelligence功能进行了一系列升级,但苹果并没有带来备受用户期待的Siri升级。在去年的WWDC大会上,更具个性化、交互更自然、由人工智能驱动的Siri首次亮相。
当时,苹果将其吹捧为「苹果的下一个重大举措」,并表示Siri将能够理解你的「个人上下文」,如你的人际关系、沟通方式、日常生活等等。此外,该语音助手将允许你在应用内部和跨应用执行操作,从而变得更加实用。
WWDC2024。
此次大会上,苹果软件工程高级副总裁CraigFederighi在主题演讲中只是简短地提到了Siri的更新,他表示,「正如我们之前分享的,我们将继续努力,打造更个性化的功能,让Siri更加个性化。这项工作需要更长时间才能达到我们的高质量标准,我们期待在明年分享更多相关信息。」
显然,「明年」这个时间框架似乎表明了苹果在2026年之前不会发布任何消息。在新模型以及升级快速迭代的人工智能时代,Siri无疑成为了一个重大的延迟。
此前3月,苹果正式宣布推迟上线Siri中的AI功能,称Siri更新的交付时间将比预期更长。此外,苹果还将机器学习和人工智能战略高级副总裁JohnGiannandrea从Siri项目中撤出,并由曾参与VisionPro开发的MikeRockwell负责。此次人事变动表明,在重大版本发布遭遇挫折后,苹果正努力重回正轨。
不过,种种举措也表明了苹果的人工智能技术落后于OpenAI、谷歌和Anthropic等竞争对手,令投资者感到担忧。
在周一WWDC的演讲开始几分钟后,苹果的股价突然下跌,幅度多达2. 5%。当时苹果正在回顾AppleIntelligence功能,如Genmoji、智能回复、照片清理工具等,随后话题又转到了Siri上。
可见人们对于苹果AI领域应用的进展仍不够满意。
对于今天苹果的发布,有网友表示很多新功能要么提升不大,要么近期不会上线,亦或是在国内无法使用,总体上并不令人感到惊艳。
或许iPadOS的桌面化、多任务能力更新是今年的最大亮点,它可能会在未来代替MacOS。
在很多人眼里,今年是人工智能领域里,大模型技术落地关键的一年。在手机端,改变人机交互方式的生成式AI是否真的会出现?
参考链接:
https ://techcrunch. com/2025/06/09/apple-brings-chatgpt-and-other-ai-models-to-xcode/
https ://www. apple.com/newsroom/2025/06/apple-elevates-the-iphone-experience-with-ios-26/

©THEEND
转载请联系本公众号获得授权
投稿或寻求报道:liyazhou@jiqizhixin. com


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录