深度神经网络正在越来越多地提供帮助设计芯片预测蛋白质如何折叠,在复杂游戏中胜过其他人。然而,研究人员现在发现,这些人工智能系统的稳定性和准确性存在基本的理论限制。

科学家们补充说,这些发现可能有助于阐明人工智能到底能做什么,不能做什么。

在人工神经网络,被称为“神经元”的组件被输入数据并合作解决问题,例如识别图像。神经网络会反复调整神经元之间的联系,并观察由此产生的行为模式是否能更好地找到解决方案。随着时间的推移,网络会发现哪些模式最适合计算结果。然后它采用这些作为默认值,模仿人类大脑的学习过程。神经网络被称为"如果它拥有多层神经元。

尽管深度神经网络正被越来越多的实际应用,如分析医学扫描而且为自动驾驶汽车赋权在美国,现在有压倒性的证据表明,他们经常被证明是不稳定的——也就是说,他们收到的数据的微小变化可能导致结果的巨大变化。例如,之前的研究发现改变单个像素可以让人工智能认为马是青蛙,而医学图像可以被修改到人眼无法察觉的程度,并导致人工智能误诊癌症百分之百的时间。

先前的研究建议有数学证明,稳定,准确的神经网络存在于各种各样的问题。然而,在一项新的研究中,研究人员现在发现,尽管对于许多问题,理论上可能存在稳定、准确的神经网络,但矛盾的是,可能没有算法可以真正成功地计算它们。

“从理论上讲,神经网络所能达到的目标几乎没有什么限制,”该研究的联合主要作者说马修Colbrook他是英国剑桥大学的数学家。当试图计算这些神经网络时,问题就出现了。“数字计算机只能计算某些特定的神经网络,”该研究的共同主要作者说Vegard Antun他是挪威奥斯陆大学的数学家。“有时候,计算出一个理想的神经网络是不可能的。”

这些新发现可能听起来令人困惑,就好像有人说,一种蛋糕可能存在,但不存在制作它的食谱。

“我们会说,问题不在于配方。相反,问题在于你做蛋糕所需的工具,”该研究的资深作者说安德斯·汉森他是剑桥大学的数学家。“我们的意思是,蛋糕可能有一个食谱,但不管你有什么样的搅拌机,你都可能做不出你想要的蛋糕。此外,当你试图用厨房里的搅拌机做蛋糕时,你会得到一个完全不同的蛋糕。”

此外,继续这个类比,科尔布鲁克说:“甚至有可能出现这样的情况:在你尝试蛋糕之前,你无法判断蛋糕是否正确,但为时已晚。”“然而,在某些情况下,你的搅拌机足以做出你想要的蛋糕,或者至少是一个很好的近似蛋糕。”

这些关于神经网络局限性的新发现与数学家先前关于数学局限性的研究相呼应库尔特·哥德尔并从计算机科学家的角度阐述了计算的局限性阿兰·图灵.粗略地说,他们揭示了“有些数学命题永远无法被证明或推翻,有些基本的计算问题是计算机无法解决的,”安通说。

新的研究发现,对于给定的问题,无论算法可以访问多少数据或数据的准确性,算法都可能无法计算出稳定、准确的神经网络。汉森说,这类似于图灵的论点,即不管计算机的计算能力和运行时间如何,都有计算机无法解决的问题。

科尔布鲁克说:“计算机所能达到的目标存在固有的限制,这些限制也将在人工智能中体现出来。”“这意味着,关于具有强大特性的神经网络存在的理论结果可能无法准确描述现实中可能发生的事情。”

这些新的发现并不是说所有的神经网络都是完全有缺陷的,但它们可能只在有限的情况下被证明是稳定和准确的。“在某些情况下,计算稳定而准确的神经网络是可能的,”Antun说。“在某些情况下,关键问题是部件。“最大的问题是找到这些案例。目前,人们对如何做到这一点知之甚少。”

研究人员发现,神经网络的稳定性和准确性之间往往存在权衡。汉森说:“问题是我们既想要稳定性,又想要准确性。”“在实践中,对于安全关键的应用,人们可能不得不牺牲一些精度来确保稳定性。”

作为新研究的一部分,研究人员开发了他们所谓的快速迭代重启网络(FIRENETs)。当涉及到分析医学图像等任务时,这些神经网络可以提供稳定性和准确性的混合。

这些关于神经网络局限性的新发现并不是为了抑制人工智能研究,而是可能会刺激新的工作,探索如何打破这些规则。

科尔布鲁克说:“从长远来看,弄清楚什么能做,什么不能做,对人工智能是有益的。”请注意,图灵和Gödel的负面结果引发了数学基础和计算机科学的巨大努力。这分别导致了现代计算机科学和现代逻辑的发展。”

例如,这些新发现意味着存在一种分类理论,用于描述可以通过算法计算出具有给定精度的稳定神经网络。用之前的蛋糕类比,“这将是一种分类理论,描述哪些蛋糕可以用物理上可以设计的搅拌器烘焙,”Antun说。“如果不可能烤蛋糕,我们想知道人们能多接近你想要的那种蛋糕。”

科学家们详细描述了他们的发现3月16日在线发表美国国家科学院院刊

对话(2)
ROSANNA祭日 2022年4月3日
INDV

这是个问题

詹姆斯·韦勒 2022年3月31日

人类的大脑也是有限的。我相信,从实际意义上讲,在几乎任何应用人工智能的努力中,都会有超越人类智能的变通办法。我认为未来的方向将是构建深度学习网络的层次结构,以解决不同层次的问题。有一些简单的范式对人类非常有效,比如将问题划分为子问题作为一个例子。随着复杂性的增加,将会有完美的答案,但更像人类的“解决方案”,有一些缺陷。然而,随着人工智能变得越来越好,缺陷将会减少,答案(比人类)更经常是正确的。

人工智能会窃取潜艇的隐身能力吗?

更好的探测将使海洋变得透明——也许还会导致相互毁灭

11分钟读取
一张潜艇在水中的照片,在部分多云的天空下。

弗吉尼亚级快速攻击潜艇维吉尼亚州将于2010年穿越地中海。当时,只要潜水,它就能消失。

美国海军

潜艇的价值主要是因为他们隐藏的能力。核战争中,核潜艇能够在第一次导弹袭击中存活下来,从而能够在第二次打击中发射导弹作为回应,这是所谓“相互保证毁灭”威慑战略的关键。因此,任何可能使海洋变得有效透明的新技术,都可能破坏世界和平,使潜伏的潜艇变得微不足道。近一个世纪以来,海军工程师们一直在努力研发速度更快、噪音更小的潜艇。但他们也同样努力推进一系列雷达、声纳和其他旨在探测、瞄准和消灭敌方潜艇的技术。

随着20世纪60年代早期核动力潜艇的出现,这种平衡似乎发生了转变。在2015年战略与预算评估中心的一项研究中,布莱恩·克拉克哈德逊研究所的一位海军专家指出,这些船只长时间保持在水下的能力使它们“雷达和主动声纳几乎不可能发现“但即使是这些隐形的潜艇也会产生细微的、非常低频的噪音,从很远的地方就能被探测到声水听器阵列网络安装在海底的。

继续阅读↓ 显示更少
{“imageShortcodeIds”(“30133857”):}
Baidu