百科名片:量子计算机

量子计算机(quantum computer)是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机的概念源于对可逆计算机的研究。研究可逆计算机的目的是为了解决计算机中的能耗问题。

 

量子计算机,早先由理查德·费曼提出,一开始是从物理现象的模拟而来的。可他发现当模拟量子现象时,因为庞大的希尔伯特空间使资料量也变得庞大,一个完好的模拟所需的运算时间变得相当可观,甚至是不切实际的天文数字。理查德·费曼当时就想到,如果用量子系统构成的计算机来模拟量子现象,则运算时间可大幅度减少。量子计算机的概念从此诞生。

2

量子计算机,或推而广之——量子资讯科学,在1980年代多处于理论推导等纸上谈兵状态。一直到1994年彼得·秀尔(Peter Shor)提出量子质因子分解算法后,因其对于现在通行于银行及网络等处的RSA加密算法可以破解而构成威胁之后,量子计算机变成了热门的话题。除了理论之外,也有不少学者着力于利用各种量子系统来实现量子计算机。  半导体靠控制集成电路来记录和运算信息,量子电脑则希望控制原子或小分子的状态,记录和运算信息。  图2:布洛赫球面乃一种对于二阶量子系统之纯态空间的几何表示法,是建立量子计算机的基础。  20世纪60年代至70年代,人们发现能耗会导致计算机中的芯片发热,极大地影响了芯片的集成度,从而限制了计算机的运行速度。研究发现,能耗来源于计算过程中的不可逆操作。那么,是否计算过程必须要用不可逆操作才能完成呢?问题的答案是:所有经典计算机都可以找到一种对应的可逆计算机,而且不影响运算能力。既然计算机中的每一步操作都可以改造为可逆操作,那么在量子力学中,它就可以用一个幺正变换来表示。早期量子计算机,实际上是用量子力学语言描述的经典计算机,并没有用到量子力学的本质特性,如量子态的叠加性和相干性。在经典计算机中,基本信息单位为比特,运算对象是各种比特序列。与此类似,在量子计算机中,基本信息单位是量子比特,运算对象是量子比特序列。所不同的是,量子比特序列不但可以处于各种正交态的叠加态上,而且还可以处于纠缠态上。这些特殊的量子态,不仅提供了量子并行计算的可能,而且还将带来许多奇妙的性质。与经典计算机不同,量子计算机可以做任意的幺正变换,在得到输出态后,进行测量得出计算结果。因此,量子计算对经典计算作了极大的扩充,在数学形式上,经典计算可看作是一类特殊的量子计算。量子计算机对每一个叠加分量进行变换,所有这些变换同时完成,并按一定的概率幅叠加起来,给出结果,这种计算称作量子并行计算。除了进行并行计算外,量子计算机的另一重要用途是模拟量子系统,这项工作是经典计算机无法胜任的。  1994年,贝尔实验室的专家彼得·秀尔(Peter Shor)证明量子计算机能完成对数运算,而且速度远胜传统计算机。这是因为量子不像半导体只能记录0与1,可以同时表示多种状态。如果把半导体计算机比成单一乐器,量子计算机就像交响乐团,一次运算可以处理多种不同状况,因此,一个40位元的量子计算机,就能解开1024位元的电子计算机花上数十年解决的问题。

有趣的量子理论

量子论的一些基本论点显得并不“玄乎”,但它的推论显得很“玄”。我们假设一个“量子”距离也就是最小距离的两个端点A和B。按照量子论,物体从A不经过A和B中的任何一个点就能直接到达B。换句话说,物体在A点突然消失,与此同时在B点出现。除了神话,你无法在现实的宏观世界找到一个这样的例子。量子论把人们在宏观世界里建立起来的“常识”和“直觉”打个了七零八落。  薛定谔猫是关于量子理论的一个理想实验。实验内容是:这只猫十分可怜,它被封在一个密室里,密室里有食物有毒药。毒药瓶上有一个锤子,锤子由一个电子开关控制,电子开关由放射性原子控制。如果原子核衰变,则放出α粒子,触动电子开关,锤子落下,砸碎毒药瓶,释放出里面的 ** 气体,猫必死无疑。这个残忍的装置由奥地利物理学家埃尔温·薛定谔所设计,所以此猫便叫做薛定谔猫。量子理论认为:如果没有揭开盖子,进行观察,我们永远也不知道猫是死是活,它将永远处于非死非活的叠加态,这与我们的日常经验严重相违。

编辑本段概念

量子计算机,顾名思义,就是实现量子计算的机器。要说清楚量子计算,首先看经典计算。经典计算机从物理上可以被描述为对输入信号序列按一定算法进行变换的机器,其算法由计算机的内部逻辑电路来实现。

经典计算机的特点

1.其输入态和输出态都是经典信号,用量子力学的语言来描述,也即是:其输入态和输出态都是某一力学量的本征态。如输入二进制序列0110110,用量子记号,即|0110110>。所有的输入态均相互正交。对经典计算机不可能输入如下叠加态:C1|0110110 >+ C2|1001001>。  2.经典计算机内部的每一步变换都演化为正交态,而一般的量子变换没有这个性质,因此,经典计算机中的变换(或计算)只对

量子计算机

应一类特殊集。

量子计算机的特点

相应于经典计算机的以上两个限制,量子计算机分别作了推广。量子计算机的输入用一个具有有限能级的量子系统来描述,如二能级系统(称为量子比特(qubits)),量子计算机的变换(即量子计算)包括所有可能的玄正变换。  1.量子计算机的输入态和输出态为一般的叠加态,其相互之间通常不正交;  2量子计算机中的变换为所有可能的么正变换。得出输出态之后,量子计算机对输出态进行一定的测量,给出计算结果。  由此可见,量子计算对经典计算作了极大的扩充,经典计算是一类特殊的量子计算。量子计算最本质的特征为量子叠加性和量子相干性。量子计算机对每一个叠加分量实现的变换相当于一种经典计算,所有这些经典计算同时完成,并按一定的概率振幅叠加起来,给出量子计算机的输出结果。这种计算称为量子并行计算。  无论是量子并行计算还是量子模拟计算,本质上都是利用了量子相干性。遗憾的是,在实际系统中量子相干性很难保持。在量子计算机中,量子比特不是一个孤立的系统,它会与外部环境发生相互作用,导致量子相干性的衰减,即消相干(也称“退相干”)。因此,要使量子计算成为现

承载16个量子位的硅芯片

实,一个核心问题就是克服消相干。而量子编码是迄今发现的克服消相干最有效的方法。主要的几种量子编码方案是:量子纠错码、量子避错码和量子防错码。量子纠错码是经典纠错码的类比,是目前研究的最多的一类编码,其优点为适用范围广,缺点是效率不高。  迄今为止,世界上还没有真正意义上的量子计算机。但是,世界各地的许多实验室正在以巨大的热情追寻着这个梦想。如何实现量子计算,方案并不少,问题是在实验上实现对微观量子态的操纵确实太困难了。目前已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等。现在还很难说哪一种方案更有前景,只是量子点方案和超导约瑟夫森结方案更适合集成化和小型化。将来也许现有的方案都派不上用场,最后脱颖而出的是一种全新的设计,而这种新设计又是以某种新材料为基础,就像半导体材料对于电子计算机一样。研究量子计算机的目的不是要用它来取代现有的计算机。量子计算机使计算的概念焕然一新,这是量子计算机与其他计算机如光计算机和生物计算机等的不同之处。量子计算机的作用远不止是解决一些经典计算

量子计算机原理

机无法解决的问题。

量子计算机能做什么

量子计算机可以进行大数的因式分解,和Grover搜索破译密码,但是同时也提供了另一种保密通讯的方式。在利用EPR对进行量子通讯的实验中中我们发现,只有拥有EPR对的双方才可能完成量子信息的传递,任何第三方的窃听者都不能获得完全的量子信息,正所谓解铃还需系铃人,这样实现的量子通讯才是真正不会被破解的保密通讯。此外量子计算机还可以用来做量子系统的模拟,人们一旦有了量子模拟计算机,就无需求解薛定愕方程或者采用蒙特卡罗方法在经典计算机上做数值计算,便可精确地研究量子体系的特征。  量子计算机是通过量子分佳节又重阳裂式、量子修补式来进行一系列的大规模高精确度的运算的。其浮点运算性能是普通家用电脑的CPU所无法比拟的,量子计算机大规模运算的方式其实就类似于普通电脑的批处理程序,其运算方式简单来说就是通过大量的量子分佳节又重阳裂,再进行高速的量子修补,但是其精确度和速度也是普通电脑望尘莫及的,因此造价相当惊人。目前唯一一台量子计算机仍在微软的硅谷老家中,尚在试验阶段,离投入使用还会有一段时间。量子计算机当然不是给我们用来玩电子游戏的,因为这好比拿激光

硅芯片上16个量子位的光学照片

切割机去切纸,其主要用途是例如象测量星体精确坐标、快速计算不规则立体图形体积、精确控制机器人或人工智能等需要大规模、高精度的高速浮点运算的工作。在运行这一系列高难度运算的背后,是可怕的能量消耗、不怎么长的使用寿命和恐怖的热量。  假设1吨铀235通过核发电机1天能提供7000万瓦伏电量,但这些电量在短短的10天就会被消耗殆尽,这是最保守的估计;如果一台量子计算机一天工作4小时左右,那么它的寿命将只有可怜的2年,如果工作6小时以上,恐怕连1年都不行,这也是最保守的估计;假定量子计算机每小时有70摄氏度,那么2小时内机箱将达到200度,6小时恐怕散热装置都要被融化了,这还是最保守的估计!  由此看来,高能短命的量子计算机恐怕离我们的生活还将有一段漫长的距离,就让我们迎着未来的曙光拭目以待吧!

量子计算机的工作原理

普通的数字计算机在0和1的二进制系统上运行,称为“比特”(bit)。但量子计算机要远远更为强大。它们可以在量子位(qubit)上运算,可以计算0和1之间的数值。假想一个放置在磁场中的原子,它像陀螺一样旋转,于是它的旋转轴可以不是向上指就是向下指。常识告诉我们:原子的旋转可能向上也可能向下,但不可能同时都进行。但在量子的奇异世界中,原子被描述为两种状态的总和,一个向上转的原子和一个向下转的原子的总和。在量子的奇妙世界中,每一种物体都被使用所有不可思议状态的总和来描述。  现在,想象一串原子排列在一个磁场中,以相同的方式旋转。如果一束激光照射在这串原子上方,激光束会跃下这组原子,迅速翻转一些原子的旋转轴。通过测量进入的和离开的激光束的差异,我们已经完成了一次复杂的量子“计算”,涉及了许多自旋的快速移动。

目前发展的系统

包括如下物理系统:  液态核磁共振量子计算机(liquid-state NMR quantum computer)  (固态)硅晶体核磁共振量子计算机(silicon-based NMR quantum computer)  离子陷阱(ion trap)  量子光学(quantum optics)  腔室量子电动力学(cavity QED)  超导体方案  等等方法,各自有各自的瓶颈。

编辑本段名称的不同

关于在中国台湾的名称

在中国台湾,由于人们习惯上将电子计算机称为“电脑”,所以许多人往往沿用其名称而将量子计算机称为“量子电脑”。因而,在台湾两种名称皆可见到,不过后者使用得更多。  事实上在台湾,“计算机”指的是Calculator,就是一般店员在卖东西时,计算简单加减乘除用的那种巴掌大的计算工具。台湾人由于电子工业发展得早,1970年代就大量使用“计算机”这种方便的工具来做商业计算,对应到Computer时,当然不能用“计算机”来称呼这种能够复杂计算的新产品了,于是台湾人说的“电脑”,指的是像Intel/AMD的x86类CPU或Macintosh的PowerPC/Intel MAC这种有着复杂计算的机器。  香港与台湾一样也称Computer为“电脑”。

关于在中国大陆的名称

在中国大陆地区,Computer可以称为“计算机”或者“电脑 ”。其中“电脑 ”更为广泛的指家用电脑,而“计算机”更多的指具有科研等目的专业、非多媒体计算机。由于量子技术还处于起步阶段,只能在实验室见到,故多称“量子计算机”而非“量子电脑 ”。  Calculator被称为“计算器”,而非“计算机”。在中文中,“器”多指具有简单结构、功能的对象;而“机”多指具有复杂结构、功能的对象。因此,“计算器”和“计算机”能很直接的区别calculator和computer。

编辑本段展望

未来

现在用原子实现的量子计算机只有5个q-bit,放在一个试管中而且配备有庞大的外围设备,只能做1+1=2的简单运算,正如Bennett教授所说,“现在的量子计算机只是一个玩具,真正做到有实用价值的也许是5年,10年,甚至是50年以后”,我国量子信息专家中国科技大学的郭光灿教授则宣称,他领佳节又重阳导的实验室将在5年之内研制出实用化的量子密码,来服务于社会!科学技术的发展过程充满了偶然和未知,就算是物理学泰斗爱因斯坦也决不会想到,为了批判量子力学而用他的聪明大脑假想出来的EPR态,在六十多年后不仅被证明是存在的,而且还被用来做量子计算机。

量子计算机的广阔前景

社会生产力的发展是科学发展的基石和原动力,从物理学的诞生到技术文明高度发达的今天都是如此。  近年来由于社会对高速、保密、大容量的通讯及计算的需求,促进了量子信息、量子计算理论与实验的迅速发展。  目前,美国的洛斯阿拉莫斯和麻省理工学院、IBM、和斯坦福大学、武汉物理教学所、清华大学四个研究组已实现7个量子比特量子算法演示。  2007年2月,加拿大D-Wave系统公司宣布研制成功16位量子比特的超导量子计算机(尚未经科学检验),如果他们是诚信的,这个工作的意义就非常重大,或许,可实际应用的量子计算机会在几年内出现,量子计算机的时代真的要开始了!  2010年3月31日,德国于利希研究中心发表公报:德国超级计算机成功模拟42位量子计算机,该中心的超级计算机JUGENE成功模拟了42位的量子计算机,在此基础上研究人员首次能够仔细地研究高位数量子计算机系统的特性。

编辑本段研发现状

世界首台量子计算机在美国问世

1920年,奥地利人埃尔温。薛定谔、爱因斯坦、德国人海森伯格和狄拉克,共同创建了一个前所未有的新学科——量子力学。量子力学的诞生为人类未来的第四次工业革莫道不消魂命打下了基础。在它的基础上人们发现了一个新的技术,就是量子计算机。  量子计算机的技术概念最早由理查得·费曼提出,后经过很多年的研究这一技术已初步见成效。  2009年11月15日,世界首台量子计算机正式在美国诞生,  这一量子计算机由美国国家标准技术研究院研制,可处理两个量子比特的数据。较之传统计算机中的“0”和“1”比特,量子比特能存储更多的信息,因而量子计算机的性能将大大超越传统计算机。  研究人员‘大卫·汉尼克’表示,通用编程量子计算机采用了量子逻辑门技术来处理数据。制造量子逻辑门需设计一系列激光脉冲,以操纵铍离子进行数据处理,再由另一个激光脉冲读取计算结果。一个简单的单量子比特门,可从0转换成1,也可从1转换成0。但与传统计算机的物理逻辑门不同的是,这台设备的量子逻辑门均已编码成激光脉冲。当激光脉冲量子门对量子比特实行简单逻辑操作时,铍离子便会开始旋转,实现对量子比特的存储。  这台量子计算机的核心部件是具金色图样的铝晶片,内含直径约为200微米的电磁圈。科学家将两个镁离子和两个铍离子置于电磁圈中,镁离子可起到“稳定剂”的作用,消除离子链的不必要振动,保持计算机的稳定性。  由于两个量子比特的操作具有多种可能,研究小组随机选取了160种操作方式进行了演示,以验证处理器的通用性。每次操作都用31个不同的量子门击打量子比特,将其编码成激光脉冲。这其中大部分为单量子比特门,脉冲只需要与单一离子进行相互作用。少数的双量子比特门则需要与两个离子同时发生交互作用。而通过对电磁圈旁黄金电极上的电荷进行控制,研究人员能有效增加所需的离子数量。  不过,这一量子计算机仍存在着相当的问题。例如,尽管每个量子门的准确率都在90%以上,而当综合使用时计算机的整体准确率却下降到 79%。这主要是由于激光脉冲的强度不同所造成的,汉内克解释说:“脉冲的波动性可造成这种误差,而光线的散射和反射等,也可能是原因。”  研究小组表示,通过提升激光的稳定性和减少光学设备的误差,可有效提高芯片的运行准确率。在准确率提升至99.99%时,该芯片才能作为量子处理器的主要部件,最终实现通用编程量子计算机的实际应用。

最新研究结果

据美国物理学家组织网5月3日(北京时间)报道,德国马克斯普朗克量子光学研究所的科学家格哈德·瑞普领佳节又重阳导的科研小组,首次成功地实现了用单原子存储量子信息——将单个光子的量子状态写入一个铷原子中,经过180微秒后将其读出。最新突破有望助力科学家设计出功能强大的量子计算机,并让其远距离联网构建“量子网络”。  量子计算机因其能同时处理用单个原子和光子等微观物理系统的量子状态存储的很多信息,计算速度更快。但量子计算机进行操作时,其内部不同组件之间必须能进行信息交换。因此,科学家希望量子信息能在光子和物质粒子之间交换。  此前,科学家实现了光子和数千个原子集合之间的信息交换,现在首次证明,采用一种可控的方式,量子信息也能在单个原子和光子之间交换。实现光子和单个原子之间信息交换的最大障碍是,光子和原子之间的相互作用太微弱。在最新研究中,科学家将一个铷原子放在一个光学共振器的两面镜子间,接着使用非常微弱的激光脉冲让单光子进入该共振器中。共振器的镜子将光子前后反射了多次,大大增强了光子和原子之间的相互作用。  研究人员还通过添加一束激光——控制激光(在铷原子同光子相互作用时,直接射向铷原子),让铷原子吸收一个光子,从而让铷原子进入一种稳定的量子状态。且原子自旋会产生磁矩,该磁矩的方向将决定用来存储信息的稳定的量子状态。  这个状态可被相反的过程读出:他们再次使用控制激光照射铷原子,使其重新释放出刚开始入射的光子。结果发现,在大多数情况下,读出的量子信息同最初存储的信息一致,也就是所谓的保真度超过90%。而传统不基于量子效应获取的保真度仅为67%。且量子信息在铷原子内的存储时间约为180微秒,这能与以前基于多个原子方法获得的量子存储时间相媲美。  但是量子计算机或量子网络所要求的存储时间要比这更长。另外,受到照射的光子中有多少被存储接着被读出——所谓的效率,现在还不到10%。科学家正着力进行研究以改进存储时间和效率。  研究人员霍尔格·斯派克特表示,使用单个原子作为存储单元有几大优势:首先单个原子很小。其次,存储在原子上的信息能被直接操作,这一点对于量子计算机内逻辑操作的执行来说非常重要。另外,它还可以核查出光子中的量子信息是否在不破坏量子状态的情况下被成功写入原子中,一旦发现存储出错,就会重复该过程,直到将量子信息写入原子中。  另一名科学家斯蒂芬·里特表示,单原子量子存储的前景不可估量。光和单个原子之间的相互作用让量子计算机内的更多原子能相互联网,这会大大增强量子计算机的功能。而且,光子之间的信息交换会使原子在长距离内实现量子纠缠。因此,科学家们正在研发的最新技术有望成为未来“量子网络”的必备零件。

国内量子计算机发展现状

2007年初,中国科技大学微尺度国家实验室潘建伟小组在《Nature·Physical》上发表论文,宣布成功制备了国际上纠缠光子数最多的“薛定谔猫”态和单向量子计算机,刷新了光子纠缠和量子计算领域的两项世界记录,成果被欧洲物理学会和《Nature》杂志等广泛报道。四月,该小组提出并实验实现不需要纠缠辅助的新型光学控制非门,减少了量子网络电路的资源消耗。九月,该小组利用光子“超纠缠簇态”演示了单向量子计算的物理过程,实现了量子搜索算法,论文发表在《Physical Review Letters》上。  此后,该小组又在国际上首次利用光量子计算机实现了Shor量子分解算法,研究成果发表在国际最权威物理学期刊《Physical Review Letters》上,标志着我国光学量子计算研究达到了国际领先水平。 这一系列高质量的工作已经获得了国际学术界的广泛关注和认可。  特别引人注目的是,英国《新科学家》杂志在“中国崛起”的专栏中,把中科大在量子计算领域取得的一系列成就作为中国科技崛起的重要代表性成果,进行了专门介绍。

编辑本段第一台商业化量子计算机

在2007年,加拿大计算机公司D-Wave展示了全球首台量子计算机“Orion(猎户座)”。虽然当时只是一台能通过量子力学解决部分问题的原型机,不过也让我们看见了量子计算机的曙光。

样图(1张)

近日,D-Wave自豪地宣布,全球首台真正的商用量子计算机D-Wave One终于诞生了!其采用了128-qubit(量子比特)的量子处理器,性能是原型机的四倍,理论运算速度远远超越现有所有的超级计算机。当然,由于其架构特别的关系,目前只能用于处理部分特定的任务,例如高智能AI运算等,通用性还有尚不及现有的传统电脑。同时,D-Wave One在散热方面亦有非常苛刻的要求,自启动起其必须全程采用液氦散热,以保证其在运行过程中足够“冷静”。  当然了,这样的产品自然不是一般老百姓可以消费的。据称,一台D-Wave One的售价高达1000万美元,而且这个价格还未确定是否包括其中的液氦散热系统。不过作为新技术的开端,这个价格也是必然的。我们相信,随着科技的发展,量子计算机“走入寻常百姓家”将不再是梦想。

 

来自百度百科:http://baike.baidu.com/view/18645.htm

Posted in 未分类 | Leave a comment

工艺

尽管英特尔依然乐观地预测将于2015年之前推出8nm制程工艺的芯片,但人们还是怀疑14nm可能将成为硅芯片尺寸的最终尽头。

近年来,芯片的发展进程始终严格遵守着“摩尔定律”,并有条不紊地进行着,直到14nm制造工艺的芯片在英特尔的实验室中被研制成功,业界开始有了担忧。

据摩尔定律所说,集成在同一芯片上的晶体管数量大约每两年增加一倍,同时相同大小的芯片将具有双倍的性能。一旦达到14nm的制程,将极其接近硅晶体的理论极限数字(大约为9nm到11nm)。

尽管英特尔依然乐观地预测将于2015年之前推出8nm制程工艺的芯片,但人们还是怀疑14nm可能将成为硅芯片尺寸的最终尽头。

纳米级芯片速度放缓

我们相信,寻找这一答案恐怕还要从芯片的发展历史说起,早在上世纪八东篱把酒黄昏后九十年代,无论是英特尔、IBM 还是TMSC(台积电)宣布他们的晶体管产品跨越至下一个纳米级,或者其芯片的晶圆工厂进入到微米级梯队,都足以称为是令业界震惊的大事件。比如1985年,英特尔的80386处理器采用了1微米制造工艺;2004年底,微米尺寸被彻底抛弃,采用90nm的Winchester AMD 64和Prescott Pentium 4成为了当时业界的新标。

不过在最近,硅芯片的工艺制程速度被不断放缓。现阶段的数码设备所使用的处理器、传感器以及内存芯片基本都是基于45nm或60nm,因为除了英特尔以外,几乎没有哪家的硅芯片产品或技术能够达到32nm,更别提22nm了。

传统制造工艺遭遇瓶颈

原因在于,芯片在制造过程中通常会采用的自上而下、逐层制造的方法已经出现了技术瓶颈,即使在通过最新的原子层沉积技术,将芯片工艺进一步带入22nm、16甚至14nm,以及硅晶体管的“三维”结构后,恐怕就再也没路可走了。

我们知道,原子的体积非常小,例如,一个氢原子大约只是0.1nm,铯原子的体积在0.3nm左右,而硅芯片上的原子大概在0.2nm左右。如此,可以正确理解为,22或16nm的硅芯片上可以聚集几百个原子,但这并不是某一个晶体管的大小,它实际上是一种离散芯片元件距离的有效措施而已。在22nm芯片中,这种制造工艺目前只被英特尔一家所掌握,并且其相关的芯片产品Ivy Bridge也即将面向市场其中的高-K介电层只有0.5nm厚,相当于2到3个原子的厚度。

然而问题在于,世界上没有一种制造技术是完美的。当我们因为某个不适合的原子而影响了整个芯片时,它将不再可能创造出性能可靠且具备成本效益的优质电路。

突破口可能是“补充技术”

那么,究竟应该如何突破14nm的技术瓶颈,也许惟一的选择应该是改变现有芯片的制造方式,现在研究人员每年都花费大量的时间和金钱在已有的逐层蚀刻技术领域,但这并不是解决问题的方向。

未来几年的应对措施应该聚焦在那些临时补充技术上,例如IBM的“silicon glue”以及Invensas的chip-stacking技术等,这些技术既可以降低能耗,提高单芯片性能,又可以将更多晶体管汇聚到同一晶圆片上其技术关键在于,减少栅极漏电来控制功耗,以及在单晶片上构建更多数量的元件。

好在英特尔最近公布的14nm路线图已经回应了我们对于突破14nm技术瓶颈的种种揣测,也是英特尔的答案是石墨芯片、光子或量子计算机,或是转向了移动计算。不过,无论采用哪种技术,都不用太过担心如果说永无止境的硅芯片制造工艺教会了人们什么,那就是未来的电脑一定会变得更快、更便宜和更有效。(文章节选自Extreme Tech 《Is 14nm the end of the road for silicon chips?》)来源[1])

Posted in 未分类 | Leave a comment

IBM超导量子比特的制备

IBM超导量子比特的制备,是以硅为基质,采用铝和铌超导体进行,两个超导电极处于氧化铝绝缘体之间。

今天的量子计算机仅仅是实验。研究人员可以串起少数量子比特,就是看似神奇的比特位,它存储“1”和“0”是在同一时间,这些稍纵即逝的创作,可以运行相对简单的运算。但IBM新的研究表明,更为复杂的量子计算机已为时不远。

采用三个量子比特的芯片,IBM为更大的量子计算机奠定了基础。

本周二,IBM公司透露,有些物理学家,在纽约约克镇高地(Yorktown Heights,)沃森研究中心(Watson Research Center)取得重大进展,创造出“超导量子比特”,这属于几个研究领域,最终会带来一种量子计算机,性能呈指数倍增长,胜过今天的经典计算机。

马蒂亚斯•斯特芬(Matthias Steffen)负责蓝色巨人(Big Blue)的量子计算的实验组,他和他的小组提高了超导量子比特的性能,提高两到四倍。“这意味着,我们可以真正开始考虑更大的系统,”他说,“把这些量子比特放在一起,可进行更大的纠错。”

大卫•迪文森佐(David DiVincenzo)是德国西部量子信息研究所余利希研究中心(Jülich Research Center)教授,他和以前的同事伊夫•斯特芬(If Steffen)也认为,IBM的新的研究不仅仅是一个里程碑。“现在,这些指标首次达到必要的水平,可以开始升级量子计算,使它更加复杂,”他说。“我认为,我们很快就会看到整体量子计算模块,而不是只有两个或三个量子比特实验。”

你办公桌上的电脑遵循经典物理学定律,也就是日常世界的物理学,而量子计算机触及令人费解的量子力学性能。在经典计算机中,晶体管存储一个单一的“比特”信息。例如,如果晶体管是“打开”的,它就存储一个“1”。“如果它关闭”,它就存储一个“0”。但是,在量子计算机中,信息呈现为一个系统,它可以同时存在两种状态,这是因为量子力学的叠加原理(superposition principle)。这样的量子比特可以同时存储“0”和“1”。

例如,信息可存储为电子自旋。“向上”自旋代表“1”。“向下”自旋代表“0”。在任何给定的时间,这个自旋可以同时既向上又向下。“这个概念在古典世界几乎没有类似的情形,”斯蒂芬说。“这几乎就像是说,我可以既在这里又在你那里,而且是在同一时间。”

然后,如果你把两个量子比特放在一起,那它们就可以存储四个值:00,01,10和11。你增加越来越多的量子比特,就可以建立一个系统,性能成指数倍增长,胜过经典计算机。比如说,你就可以破解世界上最强的加密算法,只需要几秒钟。IBM指出,有250个量子比特的量子计算机,会包含更多的比特位,数量超过宇宙中的粒子。

但制作量子计算机是不容易的。这个想法首次提出是在80年代中期,我们仍然处于试验阶段。麻烦的是,量子系统这么容易“脱散”,就是从两个同时存在的状态下降到只有一个单一的状态。你的量子比特位会非常迅速地成为普通的经典比特位。

马蒂亚斯•斯特芬和大卫•迪文森佐等研究人员的目标,就是要制成一些系统,以解决这个脱散问题。在IBM公司,斯特芬和他的小组的研究,是基于一种现象,称为超导性。从本质上讲,如果你把某些物质冷却到非常低的温度,它们就会表现出零电阻。斯特芬把这描述为某种东西,类似循环闭合电路,在其中,电流可以在同一时间流向两个方向。顺时针电流代表“1”,逆时针代表“0”。

IBM量子比特的制备,是在硅基质上进行,使用铝和铌(niobium)超导体。从本质上讲,两个超导电极处于绝缘体之间,这种绝缘体也就是所谓的约瑟夫森结(Josephson junction),属于氧化铝。诀窍在于,要保持量子系统不会消相干,时间要尽可能长。如果你能使量子比特保持量子态,时间足够长,斯蒂芬说,那你就可以制成所需的纠错系统,从而运行可靠的量子计算机。

阈值大约是10至100微秒,据斯特芬说,他的小组现在已经做到了这一点,采用的是一种“三维”量子比特,所采取的方法,最初是美国耶鲁大学(Yale University)的研究人员介绍的。十年前,消相干时间更接近一纳秒。换句话说,在过去的十多年中,研究人员已经使超导量子比特性能提高了1万多倍。

IBM小组也制作了一个“受控非门”(controlled NOT gate),采用的是传统的二维量子比特,这意味着,他们可以改变一个量子比特的状态,只需要依赖另一个量子比特的状态。这也是必要的,可以制成实用的量子计算机,斯特芬说,在95%的时间,他的小组可以成功改变这种状态,这是因为消相干时间大约是10微秒。

“所以,不仅是我们单个设备的性能非常好,”他解释说,“我们演示的两个量子比特的设备是一种基本逻辑门,也足够好,至少可接近所需的阈值,制成实用的量子计算机。我们还没有到达那里,但我们正在到那里。”

结果是,研究人员现在准备制成一个系统,可以跨越几个量子比特。“接下来的瓶颈是,如何使这些设备更佳。这个瓶颈就是如何把五个或十个这样的量子比特放在一个芯片上,”斯蒂芬说,“该设备的性能足够好,现在就可以做到这一点。问题是:“你怎么把它都放一起?”

现在,它的三维超导量子比特可以延长每个量子比特的量子状态,使持续时间达到100微秒,这一时间对于你我而言是很短的,但对于电脑而言,就相当于一生的时间,这种电脑理论上可以知道一切。他们的论文,题为《超导量子比特波导腔相干时间接近0.1毫秒》(Superconducting qubit in waveguide cavity with coherence time approaching 0.1ms),还有一篇是《完整通用量子门设置接近容错阈值采用超导量子比特》(Complete universal quantum gate set approaching fault-tolerant thresholds with superconducting qubits),昨天演示后都已散发,IBM希望,科学家们现在可以集中力量研究纠错方案,进一步改善这种技术。部分启示是,IBM制作这种量子比特,采用了传统商用芯片的制造技术:这意味着,如果突破最后的障碍,那就有可能大规模生产这种技术,可以非常迅速地上规模。IBM公司估计,再用10到15年,我们就可以有可靠的量子计算机。

 

Posted in 未分类 | Leave a comment

量子计算机 15年内问世

IBM宣布在量子运算领域获得重大突破,因此人类拥有比超级计算机速度更快个人计算机的日子已不远。IBM表示,他们已创造出使用量子运算技术的工作元件,下一步是「创造出系统」。

任何超级计算机均无法与量子计算机竞速,是因量子计算机具备同时进行数百万个计算的能力,换句话说,一旦量子计算机诞生,地球上所有计算机码可能在一夕之间破解。

IBM科学家表示,他们已将量子运算的技术提升「一千倍」,原本预计50年后才会出现的量子计算机,可能15年左右即可问世。IBM科学家对能在「有生之年」见到量子计算机极感兴奋。

IBM科学家的成果之一,是将量子位元维持量子状态的时间,扩大到100个微秒(一百万分之一秒),是过去纪录的二至四倍。此一时间量是「管控」资料错误的最低门槛,达到这样目标,同时意谓科学家已可将研究转向其它的工程挑战。

科学家的下一步骤是创造系统,开发量子运算的能力。IBM科学家史泰芬说:「我们所做的量子运算工作研究显示,它不再只是强力的物理学实验,该是根据这项科学创造系统,将运算带入新领域的时候。」

Posted in 未分类 | Leave a comment

IBM量子计算机取得重大突破 可进行百万项计算

新浪科技讯 北京时间3月1日消息,据美国物理学家组织网报道,IBM研究院的科学家在提高量子计算装置性能方面取得重大进展。他们做到了在减少基本运算误差的同时保持量子比特的量子机械特性完整性,从而进一步加快研制全尺寸实用量子计算机的步伐。量子计算机利用物质的量子机械行为,计算能力超过目前的任何超级计算机。

计算领域的革莫道不消魂

借助于IBM实验室研发的一系列技术,科学家得以减少基本运算的误差,同时保持量子比特(量子计算中携带信息的基本单位)的量子机械特性完整性。IBM采用了超导量子比特(利用已经得到验证的硅微细加工技术),能够在将来的某一天进行升级,生产数千或者数百万台量子比特计算装置。在2月27日至3月2日于美国马萨诸塞州波士顿举行的美国物理学会年度会议上,IBM的研究人员将公布他们的最新研究成果。

量子比特的特性允许量子计算机一次进行数百万项计算,台式机通常只能进行最低限度的同步计算。250量子比特所包含的比特数超过宇宙内的原子数量。量子计算机能够利用这种特性进行敏感信息的加密和解密,进而对数据加密领域产生深远影响。IBM的科学家和研究小组负责人马赛厄斯-斯特芬表示:“我们进行的量子计算机研究绝不仅仅是一次引人注目的物理学实验。现在已到了我们利用量子学知识研发相关计算系统的时候了,这种系统能够将计算领域带到一个全新的疆界。”

IBM的研究小组致力于研发能够解决现实问题的量子计算系统。量子计算机的潜在应用包括搜索由非结构化信息构成的数据库,进行任务最优化和解决此前无法解答的数学问题。普通计算机所能理解的最基本信息单位是比特。比特就像是一个电灯,可以打开和关闭,1比特只有两个值,一个是“1”,另一个是“0”。对于量子比特来说,它们的值除了可以是“1”或者“0”外,还可以让两个值同时存在。这种特性被称之为“迭加”,允许量子计算机一次进行数百万项计算。

消除量子脱散

在试图利用量子计算的运算能力过程中,科学家面临的一大挑战是控制或者消除量子脱散,也就是热量、电磁辐射和材料缺陷等干扰因子导致的计算误差。为了解决这个问题,科学家进行了多年实验,寻找减少误差以及延长量子比特保持机械特性时间的方式。如果能够在足够长的时间内保持机械特性,并且找到有效的纠错手段,量子计算机便可长时间进行复杂运算。

很多可靠系统都具有让科学家研制出功能齐备的量子计算机的能力。目光,IBM将目光聚焦超导量子比特,允许科学家快速过渡到升级和生产。最近,IBM对一个独特的三维超导量子比特装置进行了实验,实验在耶鲁大学启动。研究人员利用一个3D量子比特延长量子比特保持量子态的时间——达到100微秒,是此前纪录的2到4倍。根据IBM的研究,科学家能够找到有效的纠错手段,进而可以将目光投向量子比特计算装置可升级性涉及的工程学问题。

在其他实验中,IBM的研究小组演示了一个更为传统的二维量子比特装置,执行一次2量子比特逻辑运算——“控制非”运算。这种运算是更大规模的量子计算系统的基本构成。实验结果显示,运算的成功率达到95%,部分归功于较长的相干时间,接近10微秒。这些数字是寻找有效纠错方案的重要数据,同时也有助于未来的多量子比特实验。

挑战虽多 前景乐观

研制一台具有实用价值的量子计算机面临很多科学和技术方面的挑战,不过,科学家正快速取得进展,因此前景非常乐观。在研制量子比特计算装置过程中,IBM在核心装置的技术和性能方面取得一系列令人吃惊的成就,性能自2009年中期以来从最初的100倍提高到现在的1000倍,距离科学界确定的全尺寸量子计算机所需满足的最低要求已经非常接近。IBM表示,他们与量子计算研究领域的同行进行信息交换,从他们身上学到很多东西,同时也得到一些大学和工业合作伙伴的帮助,这对于他们的研究非常重要。

德国亚琛大学量子信息研究所的大卫-蒂维塞佐表示:“IBM研究小组进行的超导量子研究正不断取得进展,他们正朝着研制可靠可升级的量子计算机的道路稳步前进。他们研制的装置性能出色,已经让他们非常接近满足实用量子计算机最低要求的这一目标。他们的研究证明有效纠错和可靠的逻辑量子比特运算能够成为现实。”

由于IBM取得的研究突破,对超导量子比特和未来研制量子计算机的乐观情绪快速高涨。迄今为止,这一领域的大部分工作都旨在如何提高计算装置性能。现在,科学家也必须将目光聚焦系统集成,评估针对纠错的信息处理需求、I/O问题、可行性以及升级成本。根据IBM的设想,一台具有实用性的量子计算系统包括一个与量子计算硬件相连的传统系统。为了让量子计算机能够具备与当前研制的最先进数字计算机同样的性能或者实现超越,必须借助于在通讯和封装技术领域取得的成果。(孝文)

 

Posted in 未分类 | 1 Comment

IBM称量子计算机研究已取得重大突破

北京时间2月28日消息,IBM研究部门的科学家今天称,他们在量子计算方面取得了重大进展,如今,工程师们已可以开始研制完全实用的量子计算机了。

这项技术突破允许科学家在初步计算中减少数据错误率,同时在量子位(qubits)中保持量子机械属性的完整性。

位于美国纽约州约克城高地(Yorktown Heights)的IBM TJ沃森研究中心的物理信息主管马克·凯琴(Mark Ketchen)称,量子计算机的创建意味着数据处理能力将比目前的常规处理器提高许多倍。

同目前的传统数位一样,量子位有两种可能的值:a0或者a1。区别只在于一个数位必须是0或1,而一个量子位却可以是0、1,或者两者的叠加。

凯琴称,“如果取两个量子位,那么我们可以同时得到00、01、10和11。如果取3个量子位,则可以同时有8种状态(000、001、111等)。每增加一个量子位,就可以同时得到加倍状态的数量。这是量子计算机之所以更强大的部分原因。”

IBM称,虽然量子计算机要成为现实还有很长的路要走,也许要10至15年,但是,在减少差错率和在量子位中保持量子机械属性的完整性等方面取得的进步,为这种新的微型制造技术的试验敞开了大门。

IBM团队在2月28日召开的美国物理学会一年一度的会议上展示了他们的量子计算研究进展。IBM正在试验超导量子位。使用了为硅技术开发的成功的精细加工技术,不过却是在一种蓝宝石芯片上制造的。这就为有一天制造出数千个或数百万个量子位提供了可能性。

凯琴表示,事情已经发展到这个地方。虽然我们也许没有准备好建造一台量子计算机,但是,现在是开始思考这种计算机是什么样子和它能够做什么的时候了。

在原子层级,原子及其组件(如电子)的行为是不同的,它们能适应组成量子系统的量子物理学的规则。在这些状态中,量子系统能够以这种方式操作:某些数学问题的解决和逻辑操作所需要的时间要比传统机械计算缩短了指数倍。举例来说,一台量子计算机能够在一个切实可行的时间段里把一个非常大的整数分解为它的质因数(如,3和5是15的因数),而使用传统电子元件解决同样的问题可能需要和宇宙年龄同样久远的时间。

例如,目前最好的多核处理器能够加密或解密150位密码。但是,如果你想解密一个1000位密码的话,就需要全世界的计算资源来做这个事情。然而从理论上说,在一台量子计算机上解决这个问题只需几个小时。

并不仅仅是IBM在研究量子计算。在圣巴巴拉的加州大学和耶鲁大学也在做同样的研究。然而,凯琴争辩称,只有IBM拥有实际制造量子计算芯片的资源。

凯琴表示,IBM目前已能够在足够长的时间里保持一个栅电极的状态以便进行某个操作,准确率达95%。科学家要使这种准确率达到99%以上。这样才能把差错率减少到这种程度:以人们可以接受的准确程度使用量子计算机进行计算。

凯琴表示,“一旦数据差错率足够小,我们就可以把许多栅电极组合在一起得到一个完美的量子位。这说明我们已经获得了入场券,可以开始制造一些东西并得到正确答案了。这还表明,我们必须开始更认真地考虑制造更复杂的东西并且把这些东西组合在一起。”(编译/胡杨)

 

Posted in 未分类 | 1 Comment

浅谈未来计算机及技术的前景

计算机技术的未来将是超高速,超小型,并行处理,智能化方向发展。尽管物理极限的限制,使用硅芯片计算机的核心部件CPU的性能将继续增长。由于摩尔定律驱动间成功的商业模式,预计在2001年,100亿个晶体管的微处理器,集成10亿个晶体管的微处理器,并预计在2010年推出,其性能为100 000 MIPS(百万指令1000 /秒)。每秒100万亿个超级计算机将出现在本世纪初。超高速计算机将采用并行处理技术,同时执行多个指令或多个数据处理的计算机系统,这是提高计算机体系结构,在计算机的运行速度的关键技术方面取得进展。
在同一时间,计算机将有更多的智能组件,它将具有多种感知,思维和判断能力,和自然语言的能力。除了提供输入(如语音将进入手写输入)一个自然的手段,人们可以产生各种互动装置身临其境的感觉已经涌现,虚拟现实技术是集中体现了这方面的发展。
传统的磁存储,光盘存储容量继续上升,新的海量存储技术是成熟的,每立方厘米的新型存储器存储容量高达10TB(300,000在一本书的话,它可以储存约15万册) 。永久存储的信息将成为现实,千年存储器正在研制这种存储器可以抗干扰,耐高温,防震,防水,防腐蚀。如果是这样,在这一天的大量文献可以保存原始和不朽。
新的计算机系统不断涌现
硅芯片技术的飞速发展,也意味着硅技术越来越接近其物理极限,为世界探索工作人员正在加紧探索发展新的电脑,电脑系统和结构的设备和技术革莫道不消魂命,产生的金额甚至奔腾的质量。在21世纪,一个新型的量子计算机,光子计算机,生物计算机,纳米技术,计算机和将走进我们的生活,遍布各个领域。
量子计算机
量子计算机的基础上发展的基础上,它使用的链状分子聚合物的特点和关闭状态的量子效应,利用激光脉冲来改变分子的状态,使信息沿着聚合物移动,从而计算。
在量子计算机中的数据用量子位存储。由于量子叠加效应,一个量子位可以是0或1,也可以只存储,而且存储。一个量子位可以存储两个数据,相同数量的内存位,量子计算机的存储通常比电脑大得多。量子计算能够实现量子并行计算,其运算速度可能比目前个人电脑的奔腾III芯片快10亿倍。量子计算机的发展有三种类型:核磁共振(NMR)的量子计算机,硅基半导体量子计算机,离子阱量子计算机。通用量子计算机有望在2030年。
光子计算机
光子的全光数字式计算机,光子代替电子,光学计算机互连代替导线互连,在电子计算机,光计算,而不是电动操作硬件,而不是光学硬件。
相比,光计算机和电脑线平行通道密度大大信息的计算机传输。直径大小的棱镜季度,通过对多次在世界上现有的电话线的容量。平行光线,高速,自然决定了光计算机的并行处理能力,具有超高速运算速度。超高速电子计算机只能在低温条件下,光计算机在室温下工作。光学电脑也有类似的容错和人类的大脑。损坏或组件时出现错误,系统不会影响计算的最终结果。
目前,世界上第一个光学计算机一直是英国,法莫道不消魂国,比利时,德国,意大利,欧盟70多个科学家成功开发出它的运算速度比计算机快1000倍。科学家们预计,光计算机的进一步发展将成为21世纪高科技课题之一。
生物计算机(分子计算机)
生物计算机的操作过程是蛋白质分子和周围其他功能的物理和化学介质的每个过程。电脑转换开关的程序行事,很清楚的酶,酶合成系统本身和蛋白质的结构。
在20世纪70年代,它被发现的脱氧核糖核酸(DNA),在不同的状态,可以带或不带代表的信息。在DNA分子遗传密码相当于存储在DNA分子,通过生化反应的数据,从一个到另一个遗传密码的基因代表玛丽。反应前的基因代码相当于将数据输入,反应后的基因代码相当于输出数据。如果我可以控制反应过程,它可以制作成功DNA计算机。
蛋白质分子比硅芯片上的电子元件与对方密集,生物计算机来完成计算少得多,所需的时间只有10微微秒,比人类的思维速度快100倍。 DNA分子的计算机具有惊人的存储容量,1立方米的DNA溶液可存储1万亿亿的二进制数据。 DNA计算机能源消耗非常小,只有电脑的十亿分之一。由于生物芯片的原材料是一种蛋白质分子,生物电脑的自我修复功能,而且还直接与生物体相关。预计10至20岁,DNA计算机将进入实用阶段。
纳米机器
“纳米”是一种度量单位,一纳米等于10 [-9]米,一个氢原子的直径约10倍。纳米技术是在新的领域的前沿研究在20世纪80年代初迅速发展,人类按照自己的意志直接操纵单个原子,创建具有特定功能的产品的终极目标。
从开始的MEMS(微机电系统)传感器,电机和一个处理器,一个芯片上,形成一个系统的各种纳米技术。计算机内存芯片,纳米技术的应用和它的体积,但数百个原子大小,这相当于一个人的头发直径的千分之一。纳米计算机不仅几乎不需要花费任何能源,其性能强大的电脑,比很多次。
研制成功的纳米计算机已经取得了一些令人鼓舞的消息,惠普实验室,研究人员已开始应用纳米技术开发的芯片,一旦他们调查的成功,将是开发和生产其他缩微电脑元件,扁平化的道路。
互联网继续传播和加强
今天,人们谈论的一定计算机和网络,一方面,孤立的网络未添加到计算机越来越难以看到另一方面,计算机网络扩展的概念。在20世纪90年代,在过去的发展如火如荼的兴起,互联网的影响和流行快是前所未有的。从这样的互联网技术,显着地改变我们的学习,生活和习惯。在世界上几乎所有国家都有计算机网络,直接或间接地连接到互联网,使它成为一个世界性的计算机网络。通过互联网和世界各地的人们可以自由地沟通各种信息,其他用户可以从互联网上获得。
互联网在中国的发展看,你可以感受到,互联网的快速普及。中国互联网网络信息中心(CNNIC)的调查对中国的互联网显示,中国互联网的发展显示了过去三年的爆炸性增长,2000年1月的情况,,上网计算机350万的数量在2001年以8.92万美元单位的两倍多; 2000年1月的数量的互联网用户,8.9亿美元;在2001年1月的统计数据为22.5亿美元,接近三倍至2000年1月48575,2001 1统计CN域名下月份注册的名称号码为122099,近三倍总容量高达2799M的8倍于2000年1月351M的国际一线。
人们充分领略到网络的魅力,互联网已经大大缩小了时间和空间的界限,计算机硬件资源,软件和信息资源共享,可以通过网络人。网络就是计算机“的概念,一再证实会逐渐被人们所接受。
在未来10年内,建立一个透明的全光网络势在必行,互联网的传输速率将提高100倍。在因特网上的医疗诊断,远程教育​​,电子商务,视频会议,视频库将能够普及。无线网络将成为许多未来竞争的主战​​场,我们可以打入随时通过无线连接,随时随地在互联网上进行沟通,获取信息,观看电视节目。
移动计算技术和系统
随着互联网的快速发展和广泛应用的成熟,无线的移动通信技术和计算机处理能力的新服务和应用的不断进步,不断涌现。移动计算是一个渐进的工作效率和随时能够交换和处理信息,已成为工业发展的重要方向。
移动计算包括三个要素:通信,计算机和移动。这三个方面是相互独立,但相互关联。移动计算的概念之前,他们的调查已经很长一段时间,移动计算是他们第一次结合的探索。它们可以相互转化,例如,计算系统的通信容量(源压缩,信道编码,缓存,预取)得到进展。
流动可以计算和通信带来新的应用,但也带来了许多新的课题。最大的新课题是如何面对无线移动环境的挑战。在无线移动环境下,信号是受各种干扰和衰落,多径和移动信号带来时域和频域分散,有限的带宽资源,传输延迟较大的新主题。这样的环境中,导致在移动通信网络和计算机网络中遇到的许多新的课题。首先,频道主题和系统配置的可靠性的新课题。有限的无线带宽,恶劣的通信环境中的各种应用必须建立一个不可靠的,它可能会断开物理连接。在移动计算网络环境中,移动终端位置移动通信系统的配置和实时更新。第二,以真正实现对各种移动计算,必须对宽带数据服务的支持。第三,现有的移动语音服务处理技术扩展到宽带数据服务。第四,如何在固定的计算机网络技术的成熟,移动计算网络。

——“论文发表咨询网”

 

Posted in 未分类 | Leave a comment

量子计算机前途不确定

Quantum computing
量子计算机

An uncertain future
前途不确定

A series of reports from the annual meeting of the American Association for the Advancement of Science kicks off with new developments in quantum computing
一系列报告将随着量子计算的新发展开始,其首篇发表于美国科技进步协会年会上

Feb 25th 2012 | VANCOUVER | from the print edition

QUANTUM effects are vital to modern electronics. They can also be a damnable nuisance. Make a transistor too small, for example, and electrons within it can simply vanish from one place and reappear in another because their location is quantumly indeterminate. Currents thus leak away, and signals are degraded.
量子效应对现代电子学至关重要。但这些效应也能成为令人痛恨的麻烦事。例如,如果做一个太小的三极管,里面的电子就有可能莫名其妙地从一个地方消失,却又出现在另一个地方:这是因为它们的位置具有量子不确定性。这就发生了电流泄漏,从而降低了信号强度。

Other people, though, see opportunity instead. Some of the weird things that go on at the quantum scale afford the possibility of doing computing in a new and faster way, and of sending messages that—in theory at least—cannot be intercepted. Several groups of such enthusiasts hope to build quantum computers capable of solving some of the problems which stump today’s machines, such as finding prime factors of numbers with hundreds of digits or trawling through large databases. They gave a progress report to the annual meeting of the American Association for the Advancement of Science (AAAS) in Vancouver.
但也有人却将之视为机遇。正是一些在量子尺度上发生的怪事,使人们有可能以一种速度更快的新方式从事计算,并至少在理论上可以发出让人无法拦截的信息。几个热心于这一项目的研究小组希望能够造出量子计算机,它能解决一些当今计算机望洋兴叹的难题,例如找出有几百位的数字的质因子,或在庞大的数据库中筛选数据。他们向在温哥华(Vancouver)召开的美国科技进步协会(American Association for the Advancement of Science (AAAS))年会提交了一份进展报告。

At the core of their efforts lie the quantum-mechanical phenomena of superposition and entanglement. An ordinary digital computer manipulates information in the form of bits, which take the value of either 0 or 1. These are represented within the computer as different voltages of electric current, itself the result of the electron’s charge. This charge is a fixed feature of all electrons; each has the same amount of it as any other. But electrons possess other, less rigid properties like spin, which can be either “up”, “down” or a fuzzy, imprecisely defined combination of the two. Such combinations, known as superpositions, can be used to construct a quantum analogue of the traditional bit—the qubit.
支持他们努力的核心根据是量子力学的叠加和缠结现象。普通的数码计算机处理的是以二进位制数码形式存在的信息,其取值为0或1。在计算机中以电流的不同电压代表0和1,而电流本身是电子具有电荷的结果。所有电子所带电荷为一固定特质;各个电子的电荷毫无二致。但电子也具有其它不那么固定的性质;比如自旋,它可以是“上”、“下”或者一种定义不很严密的模糊状态,是前两种状况的结合。人们可以利用这些人称“叠加”的自旋结合状态建立传统的二进位码的量子模拟,即量子二进位码(qubit)(以下简称丘比特)[注]。

Entanglement, meanwhile, is the roping together of particles in order to add more qubits. Each extra qubit in a quantum machine doubles the number of simultaneous operations it can perform. It is this which gives quantum computing its power. Two entangled qubits permit four operations; three permit eight; and so on. A 300-qubit computer could perform more concurrent operations than there are atoms in the visible universe.
而缠结则是编结粒子,以此增加丘比特数。每当量子计算机增加一个丘比特,它能同时进行的操作数即可增加一倍。这就是量子计算机功能强大的缘由。两个缠结的丘比特可允许进行四种操作;三个则允许八次;余类推。一台300个丘比特的计算机能够同时进行的操作数超过了可见宇宙中所有原子的数量。

A coherent idea
耦合的构想

Unfortunately, such a machine is not in the offing. Entanglement and superposition are delicate things. Even the slightest disturbance causes qubits to “decohere”, shedding their magical properties. To build a working quantum computer, qubits will have to become more resilient, and progress so far has been slow. The first quantum computations were done in the lab in 1995. Since then various teams have managed to entangle as many as 14 qubits. The record holders, a group in Innsbruck, use a device called an ion trap in which each qubit exists as a superposition of a rubidium atom at different energies. Raymond Laflamme and his colleagues at the University of Waterloo, in Canada, have managed to entangle 12 qubits by performing a similar trick, entangling certain atoms within a single molecule of an amino acid called histidine, the properties of which make it particularly suited to such experiments.
遗憾的是,这样的计算机还远非触手可及。缠结和叠加都是精细的现象。哪怕最细微的干扰也会让丘比特“退耦合”,破除它的神奇特性。要想建造一台实用的量子计算机,丘比特必须更为强韧,但这方面至今进展缓慢。第一批实验室量子计算1995年即告成功;从那时起,不同的研究团队都成功地做出了量子缠结,最高达到14个丘比特。最高记录是奥地利因斯布鲁特的一个小组创作的,他们使用一种叫做离子阱的装置,其中每个丘比特以不同能量的銣原子叠加的形式存在。加拿大滑铁卢大学(University of Waterloo)的雷蒙德•拉弗拉米(Raymond Laflamme)等人的方法与此类似;他们使用的是一种名为组氨酸的氨基酸,该物质的性质特别适于做这样的实验。他们在单个组氨酸分子中缠结了某种原子,成功地取得了12个丘比特的成绩。

The problem with these approaches is that they will not be easy to scale up. Ion traps reside inside big vacuum chambers, which cannot easily be shrunk. And a molecule of histidine contains only so many suitable atoms. So the search is on for more practical qubits.
采用这类方法的问题在于难以放大规模。离子阱必须置于大型真空腔内,其尺寸难以缩小。而在一个组氨酸分子中只能容纳某固定数的合适原子。因此人们还在继续搜寻更为实用的丘比特。

One promising approach is to etch qubits in semiconductors. Charles Marcus, previously of Harvard University and now at the University of Copenhagen, has been using electrons’ spins to do this. Single-electron qubits decohere quickly, so his team decided instead to create a qubit out of two electrons, which they trapped in “quantum dots”, tiny semiconducting crystals (of gallium arsenide, in this case). When two such dots are close together, it is possible to get an electron trapped in one to pop over and join its neighbour in the other. The superposition of the two electrons’ spins produces the qubit.
一种很有希望的方法是在半导体内刻蚀丘比特。过去在哈佛大学、现在在哥本哈根大学工作的查尔斯•马库斯(Charles Marcus)一直在利用电子自旋这样做。单个电子的丘比特很快便退耦合了,因此他的团队决定改用两个电子产生丘比特。在他们的工作中,电子陷落在“量子阱”,即极小的砷化镓半导体晶体内。当两个这样的量子阱相距很近时,陷落在其中一个的电子即可能穿越壁垒,进入另一个量子阱,与它在那里的相邻电子会合。两个电子的自旋叠加,从而产生丘比特。

Dr Marcus’s team have so far managed to stitch four such qubits together. An array of clever tricks has extended their life to about ten microseconds—enough to perform the simple algebraic operations that are the lifeblood of computing. They hope to extend their life further by using silicon or carbon, the atomic nuclei of which interfere less with the entangled electrons than do those of gallium arsenide.
马库斯博士的团队迄今成功地把四个这样的丘比特结合到了一起。他们用一系列精巧的手段将这些丘比特的寿命延长到了大约10微秒,已经足以让它们进行简单、但却是计算工作生命线的代数运算。他们希望可以通过使用硅或碳量子阱来进一步提高寿命,因为与砷化镓相比,这两种元素的原子核与缠结电子之间干扰较小。

John Martinis and his colleagues at the University of California, Santa Barbara (UCSB), meanwhile, have been trying to forge qubits from superconducting circuits. In a superconductor, electrons do not travel solo. Instead, for complicated quantum-mechanical reasons, they pair up (for the same reasons, the pairs feel no electrical resistance). When they do so, the pairs start behaving like a single particle, superposing proclivities and all. This superparticle can, for instance, in effect be moving in two directions at once. As electrons move, they create a magnetic field. Make a closed loop of superconducting wire, then, and you get a magnetic field which can be facing up and down at the same time. You have yourself a superconducting qubit—or five, the number Dr Martinis has so far managed to entangle.
加州大学圣巴巴拉分校(University of California, Santa Barbara (UCSB))的约翰•马提尼斯(John Martinis)等人则一直尝试用超导回路制作丘比特。电子在超导体中从不单独活动,而是出于复杂的量子力学原因成对出现。由于同样的原因,超导体对这些电子对不存在电阻。一旦形成电子对,两个电子便表现得如同一个粒子,包括它们的叠加倾向等等。这样一个超粒子有许多特性,例如可以同时向两个方向有效移动。电子移动时会产生磁场。这样,连接一个超导线回路即可获得可以同时向上与向下的磁场,因而制成一个超导丘比特——或者说五个,这是马提尼斯博士迄今已成功缠结的数量。

He has another clever trick up his sleeve. Using a device called a resonator he has been able to transfer information from the circuit to a single photon and trap it in a cavity for a few microseconds. He has, in other words, created a quantum memory. A few microseconds may not sound much, but it is just about enough to perform some basic operations.
他还有另一个绝妙的主意。利用一种叫做谐振器的仪器,他已经能把信息从回路中传输给一个单个光子,并使之在谐振腔内停留几微秒之久。换言之,他已经建成了一种量子内存。几个微秒听起来或许不长,但刚好足以进行某些基本运算。

The problem with all these approaches is that the quantum states they rely on are fragile, which allows errors to creep in. One way to ensure that they do not scupper the calculation is to encode the same information in several qubits instead of just one. Drs Marcus, Martinis and Laflamme have therefore had to build redundant qubits into their systems. For every “logical” qubit needed to do a calculation, there is a handful of physical ones, all of which need to be entangled.
所有这些方法的问题都是:它们所依赖的量子状态太脆弱,可以容忍误差混入。要想保证误差不至使计算成为泡影,可以在几个不同的丘比特中编入相同的信息,而不是只用一个。为此,马库斯、马提尼斯和拉弗拉米几位博士就必须在他们的系统中建立大量丘比特。进行计算所需要的每个“逻辑”丘比特都需要在实际系统中有好几个丘比特,所有这些都需要缠结。

Michael Freedman is trying to address this problem by taking a different tack. Together with his colleagues at Microsoft’s Station Q research centre, also at UCSB, he is trying to build what he calls a topological quantum computer. This uses a superconductor on top of a layer of an exotic material called indium antimony. When a voltage is applied to this sandwich, the whole lot becomes a quantum system capable of existing in superposed states.
迈克尔•弗里德曼(Michael Freedman)正在试用一种不同手段解决这一问题。他与微软公司Station Q 研究中心的同事以及UCSB的人们合作,尝试建造一种他命名为拓扑量子计算机的机器。他们在一层名为铟锑的特异物质之上加上了一个超导体。当在这一三明治式装置上加上电压后,整个装置就成了一个能够存在于叠加状态的量子系统。

Where Dr Freedman’s qubits differ from Dr Martinis’s is in the way they react to interference. Nudge any electron in a superconducting circuit and the whole lot decoheres. Dr Freedman’s design, however, is invulnerable to such local disruptions thanks to the peculiar way in which energy is distributed throughout indium antimony. The Microsoft team has yet to create a functioning qubit, but hopes to do so soon, and is searching for other materials in which to repeat the same trick.
弗里德曼博士的丘比特与马提尼斯博士的丘比特的不同之处是它们对干扰的不同反应方式。超导回路中任何一个电子受到微扰,整个系统就会退耦合。但由于能量以一种独特方式分布在整个铟锑物质中,弗里德曼博士设计的系统不会被这样的局部干扰破坏。微软团队尚待建造一个可工作的丘比特,但有望很快成功。他们也正在寻找其他物质,以进行同样的努力。

All of this work is pretty fundamental. Researchers are a long way from creating quantum mainframes, which is how most of them see the future of their fiddly devices, let alone quantum desktops. Dr Martinis thinks that a viable quantum processor is still ten years away. Yet even this is progress of a sort. When he entered the field two decades ago, he thought that building a quantum processor was “insanely difficult”. Now he says it is merely “very, very hard”.
所有这些都是基础理论性的工作。大部分研究者都认为他们自己复杂精巧的装置是大型量子计算机主机的雏形;但距离人们建造大型量子主机还很遥远,更不要说可以摆在桌上的微型机了。马提尼斯博士认为,要制作一台可用的量子处理器还需十年时间。但即便如此,这也是一种进步。当二十年前刚刚踏入这一领域时,他认为制造量子处理器“难得无法想象”。而现在他认为这只不过是“非常非常之难”。

[注] Mig兄提醒,qubit的官方译名可能是量子位元。

-------------------------------

有歪诗一首为证:

丘比特的金箭,
颤动着少女的心弦——
哦,这不是
丘比特的金箭,
这是量子的闪电,
指引着海森堡
不确定的目光,
照亮了
他深邃的心田。

丘比特的金箭,
颤动着少女的心弦——
哦,这不是
少女的心弦,
这是科学家的思想
插上了
诗人的翅膀,
在知识的太空中
浮想联翩。

Posted in 未分类 | 2 Comments

我科学家率先实现拓扑量子纠错

中国科学技术大学微尺度物质科学国家实验室潘建伟及其同事陈宇翱、刘乃乐等,与澳大利亚、加拿大科学家合作,在世界上首次成功实现了拓扑量子纠错,为将来实现真正的量子计算打下了坚实的基础。该研究成果发表在2月23日出版的国际权威学术期刊《自然》杂志上。据悉,这是量子信息领域以中国为第一单位发表在《自然》杂志上的首篇长文。

量子计算机由于其超越经典计算机极限的强大并行运算能力,成为科学家们梦寐以求的目标。量子计算机不可避免地与环境耦合而产生的各种噪声使计算过程产生各种错误,这个问题长期困扰着学术界。国际上以往提出的众多量子纠错方案中,一般采用对每一步逻辑操作都进行量子纠错的方法,要求每一步的错误发生率都不得高于10-5量级,而这么低的容错率是目前任何实验手段都无法实现的。

近年来,学术界提出了拓扑量子纠错这一全新概念,把量子态的拓扑性质应用于量子纠错过程中,从而将量子纠错中可容忍的最高逻辑操作错误发生率提高了三个数量级,达到10-2量级。这是目前已知拥有最高容错率的量子计算方案,从而使得可扩展容错性量子计算在现实条件下成为可能。

据悉,潘建伟团队经过3年研究发展了一套全新的实验技术,将双光子纠缠的亮度提高了4—5倍,八光子簇态的总效率至少提高了200倍,仅用80天时间就完成了以前几乎不可能实现的实验。同时,研究人员设计了一种特殊的滤除噪声的八光子干涉仪,成功制造出并观测到了具有拓扑性质的八光子簇态,并将此簇态作为量子计算的核心资源,实现了拓扑量子纠错。实验结果显示, 在拓扑量子计算的过程中可以完全纠正出现在任意量子比特上的单比特错误,而且当每个量子比特都以相同的概率发生错误时,受保护的量子关联的有效错误率会大大降低。

 

Posted in 未分类 | Leave a comment

单原子晶体管指向未来的量子计算机,摩尔定律的死亡

晶体管 — — 基本构建基块的复杂的电子设备,在你身边。字面上亿万他们组成的酷睿 i7 处理器在您的游戏装备和摩尔定律说数将会双每 18 个月中,他们得到较小和较小。新南威尔士大学的研究人员可能已经找到此基本计算规则的限制但是,通过创建了世界上第一单原子晶体管。单磷原子被放入硅晶格,读了一副极其微小的硅会导致允许他们遵守它的晶体管行为和其量子状态。大概是这意味着路的尽头的摩尔定律,如似乎不可能更远缩小晶体管。但是,它也可以给未来的特色小型化的固态量子计算机的点。

Posted in 未分类 | Leave a comment

澳洲研制出极小晶体管或成量子计算机元件

中评社北京2月21日电/澳大利亚研究人员最近研制出一种可工作的极小单原子晶体管。研究者希望将它进一步研制成未来量子计算机的基础元件

新华社报道,澳大利亚新南威尔士大学的研究者在新一期英国学术期刊《自然.纳米技术》上详细描述了这种单原子晶体管及其制造过程。这一制品由蚀刻在硅晶体表面的单个磷原子构成,通过“门电路”控制电流并拥有原子级的金属接触,具体制造过程使用“隧道扫描显微镜”完成。

论文第一作者马丁.菲克斯勒说:“我们的研究小组证实,以接近原子的精度,按照需求将一个磷原子放置到硅环境中是完全可能的。”

晶体管是计算机芯片的基础元件,可用于电流的开关、放大等操作。研究人员此前也曾制造出单原子晶体管,但大多是意外产物。

这项研究的负责人米歇尔.西蒙斯说:“这是一件完美的制成品。科研人员首次证实,能够以这种精度在(硅)基座上控制单个原子。”

但研究者也指出,这种单原子晶体管距日常应用仍有相当远的距离。目前,它仅在液氦超低温环境下工作。

笔者注:电子计算机时代还在一直飞跃前进中,但是关于光子计算机、量子计算机等话题不断出现,科技发展让世界大变!

Posted in 未分类 | Leave a comment