苹果为Siri考虑离线模式iPhone可以使用

2021-09-13 13:57:06
导读新时代,高科技越来越发达。朋友们看了很多科技新闻。我们也应该在生活中使用很多这些高科技的东西。朋友要注意什么?今天,我想和大家分享

新时代,高科技越来越发达。朋友们看了很多科技新闻。我们也应该在生活中使用很多这些高科技的东西。朋友要注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。

每个使用苹果设备的人都知道,苹果的Siri助手的工作原理是接收用户的命令,然后匿名将接收到的语音发送到苹果的服务器,将语音转换为文本,解释用户的命令,并将结果发送到iPhone和iPad。但是这个过程中的语音识别工作非常复杂,需要在苹果的服务器上完成,所以iPhone系列设备可能无法胜任。

苹果为Siri考虑离线模式(图片来自网络)

考虑苹果Siri的离线模式(图片来自网络)。

对于Siri来说,依赖服务器意味着虚拟助手在没有网络连接的情况下无法工作。虽然“嘿Siri”仍然会触发该服务,但它只能显示离线消息。苹果周四发布的专利申请文件《线下个人助理》显示,未来这种情况可能会改变。

根据文件显示,在不连接苹果服务器的情况下,语音到文本的处理和验证将在设备上完成。听到用户的请求后,设备将能够通过机载自然语言处理功能确定任务。如果请求的任务有用,它将被计算然后执行。苹果公司表示,当它没有连接到互联网时,它使用设备上的板载系统来处理对数字助理的请求。它包括语音合成、对话处理、基于默认词汇和用户创建数据的语音到字母转换以及自然语言处理。根据识别的单词和查询的结构,离线数字助理可以执行存储在任务流处理模块或服务处理模块中的多个预定义任务。这两个模型包含常见的请求,例如设置定时器或播放设备中存储的歌曲,并根据请求执行相应的任务模型。在申请中,苹果表示,它使用机器学习机制来执行特定类型的任务,包括自然语言处理。

这对于系统在没有联网的情况下,基于非常有限的机载数据,理解上下文信息,理解用户想要什么是非常有帮助的。即使对离线情况进行板载处理,如果连接可用,建议保持在线。根据连接的可用性,系统可以以两种不同的方式工作。对本地和远程处理的访问也将为数字助理提供对用户声音的两种可能的解释。在这种情况下,系统将评估两种解释的有用性分数,然后执行分数较高的解释。

这将有效地为助理提供一个替代方案。如果在本地执行的处理无法获得有用的结果,服务器处理的结果可以用作备份。如果服务器版本超时或不可用,本地版本仍然可以完成任务。通常,苹果每周都会申请大量专利。虽然专利申请中描述的概念确实表明了苹果感兴趣的领域,但不能保证这样的系统会出现在公司未来的产品中。对于线下Siri来说,苹果走这条路似乎是相当合理的。在最近发布的iPhone中,A系列处理器包含一个神经引擎,用于执行计算密集型任务,例如面部识别认证和与拍照相关的功能的电源,但也可以用于执行机器学习任务。考虑到2018年iPhone版本使用的第二代神经引擎的强大功能,离线Siri完全有可能利用强大的功能和机器学习能力进行离线处理。离线模式并不是苹果提升Siri的唯一途径。它采用了许多不同的概念来使数字助理变得更好。

10月的一项专利展示了Siri如何通过声纹识别特定用户,苹果也在尝试通过个性化响应实现多用户支持。Siri完成了一些与识别能力相关的改进,包括地理语音模型——,帮助解决区域查询和方言口音问题。消费者对iOS 12中引入Siri快捷键更加了解,用户可以自行制作Siri命令。

本文就为大家讲解到这里希望看了会你们有所帮助噢.
免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章