量子计算机其实很可能触碰到极限了?

你有没有想过,量子计算机其实很可能触碰到极限了?虽然它们听起来像是能无限升级的黑科技,不过《美国国家科学院院刊》最近的一项研究却指出了一个令人意外的事实:它们的性能大概在1000个量子比特后就会停步。牛津大学的Tim Palmer博士通过一套新的计算方法重新审视了这门技术背后的数学逻辑,结果发现大型量子系统的信息承载能力是有上限的,这就给研究者对算力的期待泼了一盆冷水。 从数学上讲,每增加一个量子比特,系统能容纳的量子态数量就会翻倍。按照这个逻辑,算力本该随着量子比特的增加呈指数级增长。但Palmer博士在这方面的观点却显得非常务实。他利用希尔伯特空间这个抽象框架来分析问题,希尔伯特空间里的每一个点都对应着一种可能的量子态。在这里,叠加态就代表着新增的维度。量子比特越多,这个空间的维度就会变得非常庞大。 然而Palmer博士认为,这个空间里的点并不是连续分布的。现实中的物理系统并不能真的遍历整个空间去访问所有可能性。因为它所能承载的信息量是有限的,没法给每一个新增的维度都分配一个独立的值。所以当希尔伯特空间在纸面上还在疯狂膨胀时,系统实际能访问的部分反而会变得越来越受限制。 按照这个逻辑推算出来的结果是:当量子比特的数量达到1000个左右时,计算机的性能增长就会遇到天花板。现在市面上有些最先进的设备已经在逼近这个数值了。虽然目前的量子计算机看起来还很强大,甚至可能比最好的经典电脑还厉害;但一旦被这套理论所限制,它们想要实现那些被寄予厚望的应用目标可能就会变得很困难。比如破解现在普遍使用的加密体系、优化药物研发或者复杂的物流网络这些原本让人充满希望的领域,恐怕都要因此受到不小的影响。 所以Palmer博士的分析告诉我们:量子计算的未来可能并不像大家曾经幻想的那样无边无际。这就像是我们给这个领域敲响了警钟:如果不承认这种限制的存在并做好准备的话,我们可能就会因为盲目乐观而忽略掉真正的风险和挑战。