研究人员发现了一种让芯片设计和制造过程变得简单得多的方法 —— 通过结合人工智能与量子计算技术。
微芯片驱动着几乎所有现代设备 —— 手机、笔记本电脑,甚至冰箱。但在幕后,制造它们是一个极其复杂的过程。然而,研究人员表示,他们找到了一种利用量子计算的力量来简化这一过程的方法。
澳大利亚的科学家们开发了一种量子机器学习技术 —— 融合了人工智能(AI)和量子计算原理 —— 这可能会改变微芯片的制造方式。
他们在6月23日发表于期刊《先进科学》的一项新研究中概述了他们的发现。在研究中,研究人员首次展示了量子机器学习算法如何能显著改进芯片内部电气电阻建模这一极具挑战性的过程 —— 这是影响芯片效率的关键因素。
量子机器学习是一种混合方法,将经典数据与量子计算方法相结合。在经典计算中,数据存储在编码为0或1的比特中。量子计算机使用量子比特(qubit),并且得益于叠加(superposition)和纠缠(entanglement)等原理,量子比特可以同时存在于多种状态——因此两个量子比特可以同时是00、01、10和11。
这使得量子计算系统处理复杂数学关系的速度远超经典系统 —— 随着系统中量子比特数量的增加,并行处理能力呈指数级增长。
量子机器学习获取经典数据并将其编码为量子态。然后,量子计算机能够揭示经典系统难以检测的数据模式。最后由一个经典系统接手,解释结果或应用结果。
芯片制造过程内幕
半导体制造是一个复杂、多步骤的过程,需要极其精密的操作 —— 每一步都必须以极高的精度执行。即使是最微小的偏差也可能导致芯片失效。
这首先涉及在硅晶圆(一种形成芯片基础的薄圆形硅片)上堆叠并雕刻通常数百层微观层。
量子计算原理在此发挥作用
正是量子计算原理在此发挥了作用。在该研究中,研究人员专注于建模欧姆接触电阻(Ohmic contact resistance) —— 这是芯片制造中一个特别困难的挑战。这是衡量电流在芯片金属层和半导体层之间流动难易程度的指标;该值越低,芯片性能就越快、越节能。
这个步骤发生在材料被分层并图案化到晶圆上之后,它在决定最终芯片的功能表现方面起着关键作用。但对其进行精确建模一直是个难题。
工程师们通常依赖经典机器学习算法进行此类计算,这些算法从数据中学习模式以进行预测。虽然这在处理大型、干净的数据集时效果很好,但半导体实验通常产生的是小型、带噪声且具有非线性模式的数据集,这正是机器学习可能力不从心的地方。为了解决这个问题,研究人员转向了量子机器学习。
一种新型算法
该团队使用了来自159个氮化镓高电子迁移率晶体管(GaN HEMT)实验样本的数据 —— 这是一种以其速度和效率著称的半导体,常用于电子设备和5G设备。
首先,他们确定了哪些制造变量对欧姆接触电阻影响最大,将数据集缩小到最相关的输入项。然后,他们开发了一种名为量子核对齐回归器(Quantum Kernel-Aligned Regressor, QKAR)的新型机器学习架构。
QKAR将经典数据转换为量子态,使量子系统能够识别数据中的复杂关系。然后,一个经典算法从这些洞见中学习,创建一个预测模型来指导芯片制造。他们在五个未包含在训练数据中的新样本上测试了该模型。
研究人员在测试样本上将新模型与包括深度学习和梯度提升方法在内的七种领先经典模型进行了比较,结果QKAR的表现优于所有模型。QKAR实现了比使用传统模型(0.338 欧姆/毫米)显著更好的结果 —— 尽管研究中未包含具体数值。
然而重要的是,该模型被设计为与实际硬件兼容,这意味着随着量子机器变得更为可靠,它就可以被部署应用。
科学家们在研究中写道:“这些发现证明了[量子机器学习] QML在半导体领域有效处理高维度、小样本回归任务的潜力。”他们补充说,随着量子硬件的持续发展,该方法可能很快被应用于实际的芯片生产。
如果朋友们喜欢,敬请关注“知新了了”!