您的位置:首页 >精选百科 >

苹果将在iOS18中对Siri进行AI升级

导读 苹果宣布其Siri虚拟助手将推出多项人工智能功能,例如更新的设计、说话和理解口头语言命令方式的改进,以及与OpenAI的ChatGPT模型的集成。

苹果宣布其Siri虚拟助手将推出多项人工智能功能,例如更新的设计、说话和理解口头语言命令方式的改进,以及与OpenAI的ChatGPT模型的集成。

其中一些功能是在6月10日苹果的WWDC活动上宣布的,它们来自AppleIntelligence——该公司新推出的以隐私为重点的个人智能系统,该公司表示,该系统将能够代表用户控制应用程序中的操作。对于Siri,苹果表示,这些操作包括,如果要求检查其母亲的航班何时降落,则从用户电子邮件中检索信息,或者能够在设备上找到驾照图像并提取该信息来为您填写表格。

苹果表示,Siri的更新设计使其在整个设备上更加突出,使用时屏幕上会显示发光的彩色边框。Siri还应该能够更好地理解用户在与助手交谈时遇到的困难,并能够在请求之间保持对话的上下文——例如,在提供某个地方的天气信息后为该地点创建活动。

用户还可以通过简单描述他们想要使用的应用程序或功能来提出请求,Siri能够理解并获取相关信息。此外,用户很快就能通过双击屏幕底部向Siri输入他们的问题和请求,然后可以通过输入或语音命令继续这些操作。

苹果表示,AppleIntelligence让Siri具备“屏幕感知”能力,能够采取行动并理解屏幕上的内容,当有人向你发送新信息时,Siri可以执行诸如更新联系人卡片上的地址等操作。Siri能够执行“数百种”应用内操作,这使得它能够完全通过语音命令执行复杂的任务,例如获取特定位置或穿着特定服装的朋友的照片,并根据要求增强这些照片以“让它们突出”。

对于即将推出的ChatGPT集成,苹果表示Siri将能够“在可能对您有帮助时利用ChatGPT的专业知识”,例如在询问食谱建议时。Siri将询问用户是否可以使用ChatGPT来完成请求,并在获得用户批准后将该信息直接显示在设备屏幕上。

今天的公告发布之前,有关苹果人工智能计划的报道和传言已经持续了数月,其中包括开发自己的大型语言模型框架的努力。ChatGPT集成预计将在今年晚些时候推出,而由AppleIntelligence提供支持的Siri新功能将于“今年秋季”在美国推出iOS18的测试版。

虽然Siri在2011年iPhone4S上推出时,其响应口头命令或问题的能力令人印象深刻,但其后续缺乏改进,让人感觉像是事后才想到的。与此同时,OpenAI的ChatGPT和谷歌的Gemini等产品已经表明,人工智能工具和系统能够做更多的事情。随着Siri功能的升级和ChatGPT现在直接集成到服务中,苹果虚拟助手现在可能迎来了它迫切需要的第二次机会。

免责声明:本文由用户上传,如有侵权请联系删除!