您的位置:首页 >生活 >

新的缩放定律展示了人工智能如何应对不断变化的类别

导读 现实世界对人工智能任务提出了许多挑战。其中一个挑战是要求机器能够识别并快速学习它们从未见过的新物体。无论是机器人识别杂货店的新产品...

现实世界对人工智能任务提出了许多挑战。其中一个挑战是要求机器能够识别并快速学习它们从未见过的新物体。无论是机器人识别杂货店的新产品,还是自动驾驶汽车与新路标或周围物体互动,一个能够应对变化的人工智能对于快速适应动态现实都大有裨益。

巴伊兰大学的研究人员发现了一条新的普遍规律,详细说明了人工神经网络如何处理越来越多的识别类别。该规律表明,此类网络的识别错误率如何随着所需识别对象的数量而增加。

我们发现,这一规律适用于浅层和深层神经网络架构,这表明,与大脑网络相似的浅层网络可以模仿深层网络的功能。浅层宽阔的架构可以像深层窄窄的架构一样发挥出色性能,就像一栋宽阔的低层建筑可以容纳与一栋窄窄的摩天大楼相同数量的居民一样。

今天,巴伊兰大学物理系和贡达(Goldschmied)多学科脑研究中心的 Ido Kanter 教授领导的研究小组在《物理学 A:统计力学及其应用》杂志上发表了一项研究成果,该研究被称为缩放定律。

本科生、这项研究的主要贡献者埃拉·科雷什 (Ella Koresh)强调了这一发现的实际意义。“这是一个重大进步,因为深度学习最关键的方面之一是延迟——网络处理和识别对象所需的时间。随着网络变得越来越深,延迟会增加,导致模型响应延迟,而浅层大脑启发网络的延迟更低,响应更快,”她解释道。

降低人工智能系统的延迟对实时决策过程具有深远的影响。此外,本研究引入的缩放定律对于标签数量动态变化的学习场景至关重要。

免责声明:本文由用户上传,如有侵权请联系删除!