2023年1月号亚博真人yabo.at在这里!

关闭酒吧

脑波:如果记忆电阻器像神经元一样工作,把它们放在神经网络中

新发现的“边缘人工智能”应用程序用于集成内存和计算、内置随机性、消耗电池电量的设备

3分钟读取
新阵列中的忆阻器(顶部的灰黑夹层结构)可以利用随机性来执行机器学习任务。
新阵列中的忆阻器(顶部的灰黑夹层结构)可以利用随机性来执行机器学习任务。
图片来源:CEA-Leti

一种称为忆阻器的低功耗和非易失性技术最初有望作为机器学习的基础。根据一项新的研究,忆阻器有效地解决了人工智能医疗诊断问题,这是一项令人鼓舞的发展,表明在其他领域有更多的应用,特别是低功耗或网络“边缘”应用。研究人员说,这可能是因为忆阻器人为地模仿了神经元的一些基本特性。

记忆电阻器,或记忆电阻是一种电子电路的组成部分,科学家们大约在50年前就预测到这种电路,但直到现在才发明出来第一次十多年前。这些元件,也被称为电阻性随机存取存储器(RRAM)设备,本质上是电动开关,可以记住它们在电源关闭后是打开还是关闭。因此,它们类似于突触——人类大脑中神经元之间的联系——其导电性的增强或减弱取决于过去通过它们的电荷的多少。

理论上,忆阻器可以就像人工神经元一样的能力计算和存储数据.因此,研究人员认为忆阻器有可能大大减少传统计算机的能量和时间损失在处理器和内存之间来回穿梭数据。这些设备在室内也能很好地工作神经网络,这是一种机器学习系统,使用合成版本的突触和神经元来模拟人脑中的学习过程。

开发忆阻器应用的一个挑战是这些设备中的随机性。法国格勒诺布尔阿尔卑斯大学的电气工程师、该研究的主要作者Thomas Dalgaty说,忆阻器的电阻或电导率水平取决于连接两个电极的少量原子,这使得从一开始就很难控制它们的电性能。

现在Dalgaty和他的同事们已经开发出一种方法来利用这种随机性来应用机器学习。他们详细的他们的发现这个月在杂志上电子性质

忆阻器通过在高电导开态和低电导关态之间循环来编程。通常,在忆阻器中看到的电导率水平可以在一个状态和下一个状态之间变化,这是由于器件内固有的随机过程。

然而,如果记忆电阻器的循环次数足够多,每个记忆电阻器的导电性就会遵循一种模式——“钟形曲线”,Dalgaty说。科学家们透露,他们可以实现一种算法马尔可夫链蒙特卡罗抽样这可以积极利用这种可预测的行为来解决一些机器学习任务。

与传统数字的性能相比互补金属氧化物半导体在电子方面,研究人员的忆阻器阵列实现了惊人的5个数量级的能量降低。Dalgaty说,这是因为忆阻器不需要在处理器和内存之间来回移动数据。他解释说,作为背景,10万倍的差异相当于“世界上最高的建筑哈利法塔(Burj Khalifa)和一枚硬币之间的高度差”。

记忆电阻器的一个潜在的令人兴奋的应用将是能够在网络的远端(又称其“边缘”)学习、适应和操作的设备,其中低功耗设备,如嵌入式系统、智能家居设备和电子设备物联网节点有时驻留。Dalgaty说,记忆电阻器确实可以帮助边缘学习设备成为现实。

他解释说:“目前边缘学习是不可能的,因为使用现有硬件执行机器学习所需的能量远远大于边缘可用的能量。”“边缘学习(使用忆阻器)……可以潜在地打开全新的应用领域,这是以前不可能实现的。”

例如,研究人员使用了由16384个忆阻器组成的阵列来检测来自心电图记录的心律异常,报告了比基于传统非忆阻电子学的标准神经网络更好的检出率。该团队还使用他们的阵列来解决图像识别任务,如诊断恶性乳腺组织样本。

潜在的未来边缘学习忆阻器应用可能包括植入医疗早期预警系统,该系统可以随着时间的推移而适应患者状态的变化。Dalgaty说:“我们正在寻找这些真正受能源限制的边缘应用,这些应用可能因为能源(限制)而不存在或不能存在。”

Dalgaty说,下一个巨大的挑战“将是把所有这些功能整合到一个可以在实验室之外应用的集成芯片上。”他说,这种芯片可能还需要几年的时间才能问世。

对话(0)

IBM量子计算机即将突破1000个量子比特大关

秃鹰处理器只是预定在2023年推出的量子计算的一项进步

4分钟读取
这张照片显示的是一名妇女正在操作悬挂在实验室天花板上的一台仪器。

IBM托马斯·j·沃森研究中心的一名研究人员正在检查那里正在建造的一些量子硬件。

康妮周/ IBM

IBM的秃鹰世界上第一台拥有超过1000个量子比特的通用量子计算机将于2023年问世。IBM还有望在今年推出Heron,这是一系列新型模块化量子处理器中的第一款,该公司表示,这些处理器可能有助于其在2025年前生产出超过4000个量子比特的量子计算机。

虽然理论上,量子计算机可以快速找到经典计算机需要亿万年才能解决的问题的答案,但今天的量子硬件仍然缺乏量子位,限制了它的实用性。量子计算所必需的纠缠态和其他量子态是出了名的脆弱,容易受到热和其他扰动的影响,这使得扩大量子比特的数量成为一项巨大的技术挑战。

继续阅读↓ 显示更少
Baidu