关于量子机器学习的一场长期争论已经出现转向

量子计算长期以来一直被宣传为人工智能未来的引擎,但这一说法的论据往往并不充分。最棘手的问题不仅在于如何在量子机器上处理数据,还在于如何先把经典数据输入到一种能够真正利用量子效应的形式中。New Scientist 强调的一项新研究表明,这一障碍可能没有许多研究人员原先认为的那么绝对。

量子计算公司 Oratomic 的 Hsin-Yuan Huang 及其同事认为,量子计算机应该能够为机器学习及相关算法提供优势。他们的分析旨在为一个未来奠定数学基础,在那个未来里,量子硬件可以帮助处理那些数据密集型的计算任务,而这些任务目前需要大量传统计算能力。

核心障碍一直是数据加载

多年来,围绕量子增强 AI 的质疑一直集中在一个实际瓶颈上。来自非量子世界的数据,例如文字评论或 RNA 测序结果,需要被编码进叠加态,这样量子计算机才能用真正的量子行为来处理它。研究人员曾认为,这一步会需要规模大到不现实的专用存储设备。

这种假设触及了这个领域的核心问题。如果系统把绝大部分资源都耗在准备输入上,那么理论上的加速并没有太大价值。实际上,量子机器学习的承诺一直与把普通数据转换成量子计算机可用形式的成本相撞。

绕开瓶颈的另一条路径

Huang 及其同事提出了一种替代方案,不需要在处理开始前把所有数据存储在庞大的专用量子存储器中。相反,这种方法将数据分成更小的批次输入量子计算机。这听起来像是一个技术细节,但它会以重要的方式改变可行性讨论。如果数据可以在逐步加载的同时,仍然保持量子优势所需的结构,那么一个重大的实际反对意见就会被削弱。

原文把这项工作描述为一个基础性步骤,而不是一个已经完成的产品。它并不是说量子计算机今天就突然准备好在现实任务中全面超越传统 AI 硬件。它的意思是,研究人员现在可能有了一个更可信的框架,来说明这种情况最终如何可能发生。

为何这不仅仅是炒作

机器学习已经深度嵌入科学、工业和日常软件之中,这也是为什么尽管多年来存在怀疑,量子辅助的前景仍然如此有吸引力。如果量子架构最终能够更高效地处理某些大型数据集,其收益将远远超出单一的小众应用。它会影响研究人员对 AI 本身计算极限的看法。

与此同时,这项工作最好被理解为一张地图,而不是终点。数学基础之所以重要,是因为它能判断一个领域是在追逐幻想,还是在瞄准一个真正的工程目标。在量子机器学习中,这种区分格外重要。这个行业多年来一直提出大胆承诺,但通往优势的实际路径始终难以捉摸。

这项分析并没有结束争论,但它改变了争论的方式。与其问量子计算机是否永远都能帮助 AI,不如越来越多地去问,哪些机器学习问题最适合这种批量加载方法,以及硬件需要多快成熟才能跟上理论。这比量子 AI 迄今为止常有的讨论,更具体,也更有用。

本文基于 New Scientist 的报道。阅读原文

Originally published on newscientist.com