时间:2024-01-22 14:57:02
序论:速发表网结合其深厚的文秘经验,特别为您筛选了11篇量子计算发展范文。如果您需要更多原创资料,欢迎随时与我们的客服老师联系,希望您能从中汲取灵感和知识!
引言
摄影测量学是一门古老的学科,若从1839年摄影术的发明算起,摄影测量学已有170多年的历史,而被普遍认为摄影测量学真正起点的是1851―1859年“交会摄影测量”的提出。在这漫长的发展过程中,摄影测量学经历了模拟法、解析法和数字化三个阶段。模拟摄影测量和解析摄影测量分别是以立体摄影测量的发明和计算机的发明为标志,因此很大程度上,计算机的发展决定了摄影测量学的发展。在解析摄影测量中,计算机用于大规模的空中三角测量、区域网平差、数字测图,还用于计算共线方程,在解析测图仪中起着控制相片盘的实时运动,交会空间点位的作用。而出现在数字摄影测量阶段的数字摄影测量工作站(digital photogrammetry workstation,DPW)就是一台计算机+各种功能的摄影测量软件。如果说从模拟摄影测量到解析摄影测量的发展是一次技术的进步,那么从解析摄影测量到数字摄影测量的发展则是一场技术的革命。数字摄影测量与模拟、解析摄影测量的最大区别在于:它处理的是数字影像而不再是模拟相片,更为重要的是它开始并将不断深入地利用计算机替代作业员的眼睛。[1-2]毫无疑问,摄影测量进入数字摄影测量时代已经与计算机视觉紧密联系在一起了[2]。
计算机视觉是一个相对年轻而又发展迅速的领域。其目标是使计算机具有通过二维图像认知三维环境信息的能力,这种能力将不仅使机器能感知三维环境中物体的几何信息,包括它的形状、位置、姿态、运动等,而且能对它们进行描述、存储、识别与理解[3]。数字摄影测量具有类似的目标,也面临着相同的基本问题。数字摄影测量学涉及多个学科,如图像处理、模式识别以及计算机图形学等。由于它与计算机视觉的联系十分紧密,有些专家将其看做是计算机视觉的分支。
数字摄影测量的发展已经借鉴了许多计算机视觉的研究成果[4]。数字摄影测量发展导致了实时摄影测量的出现,所谓实时摄影测量是指利用多台CCD数字摄影机对目标进行影像获取,并直接输入计算机系统中,在实时软件的帮助下,立刻获得和提取需要的信息,并用来控制对目标的操作[1]。在立体观测的过程中,其主要利用计算机视觉方法实现计算机代替人眼。随着数码相机技术的发展和应用,数字近景摄影测量已经成为必然趋势。近景摄影测量是利用近距离摄影取得的影像信息,研究物体大小形状和时空位置的一门新技术,它是一种基于数字信息和数字影像技术的数据获取手段。量测型的计算机视觉与数字近景摄影测量的学科交叉将会在计算机视觉中形成一个新的分支――摄影测量的计算机视觉,但是它不应仅仅局限于地学信息[2]。
1. 计算机视觉与数字摄影测量的差异
1.1 目的不同导致二者的坐标系和基本公式不同
摄影测量的基本任务是严格建立相片获取瞬间所存在的像点与对应物点之间的几何关系,最终实现利用摄影片上的影像信息测制各种比例尺地形图,建立地形数据库,为各种地理信息系统建立或更新提供基础数据。因此,它是在测绘领域内发展起来的一门学科。
而计算机视觉领域的突出特点是其多样性与不完善性。计算机视觉的主要任务是通过对采集的图片或视频进行处理以获得相应场景的三维信息,因此直到计算机的性能提高到足以处理大规模数据时它才得到正式的关注和发展,而这些发展往往起源于其他不同领域的需要。比如在一些不适合于人工作业的危险工作环境或人工视觉难以满足要求的场合,常用计算机来替代人工视觉。
由于摄影测量是测绘地形图的重要手段之一,为了测绘某一地区而摄影的所有影像,必须建立统一的坐标系。而计算机视觉是研究怎样用计算机模拟人的眼睛,因此它是以眼睛(摄影机中心)与光轴构成的坐标系为准。因此,摄影测量与计算机视觉目的不同,导致它们对物体与影像之间关系的描述也不同。
1.2 二者处理流程不同
2. 可用于数字摄影测量领域的计算机视觉理论――立体视觉
2.1 立体视觉
立体视觉是计算机视觉中的一个重要分支,一直是计算机视觉研究的重点和热点之一,在20多年的发展过程中,逐渐形成了自己的方法和理论。立体视觉的基本原理是从两个(或多个)视点观察同一景物,以获取在不同视角下的感知图像,通过三角测量原理计算像像素间的位置偏差(即视差)来获取景物的三维信息,这一过程与人类视觉的立体感知过程是类似的。一个完整的立体视觉系统通常可分为图像获取、摄像机定标、特征提取、影像匹配、深度确定及内插等6个大部分[5]。其中影像匹配是立体视觉中最重要也是最困难的问题,也是计算机视觉和数字摄影测量的核心问题。
2.2 影像匹配
立体视觉的最终目的是为了恢复景物可视表面的完整信息。当空间三维场景被投影为二维图像时,同一景物在不同视点下的图像会有很大不同,而且场景中的诸多因素,如光照条件,景物几何形状和物理特性、噪声干扰和畸变以及摄像机特性等,都被综合成单一的图像中的灰度值。因此,要准确地对包含了如此之多不利因素的图像进行无歧义的匹配,显然是十分困难的。
在摄影测量中最基本的过程之一就是在两幅或者更多幅的重叠影像中识别并定位同名点,以产生立体影像。在模拟摄影测量和解析摄影测量中,同名点的识别是通过人工操作方式完成的;而在数字摄影测量中则利用计算机代替人工解决同名点识别的问题,即采用影像匹配的方法。
2.3 多目立体视觉
中图分类号:TP212 文献标识码:A 文章编号:1007-9416(2015)04-0127-01
当前,危险品运输车辆日益增多,其安全性也受到广泛关注。实时获取车辆姿态信息并发送至监控终端可实现远程对车辆的监控。采用低精度MEMS惯性传感器件进行姿态解算时,会导致解算精度很低,很难达到满意的效果。然而车辆姿态只需考虑俯仰和横滚信息,因此,本文将采用基于扩展卡尔曼滤波器的四元数车辆姿态解算算法,通过加速度信号估计出车辆姿态信息,再利用卡尔曼滤波器对车辆姿态信息估计值与角速率值进行数据融合,最终确定车辆姿态信息。
1 系统描述
定义坐标系如下:
(1)地理坐标系n系:xn,yn,zn依次指向东北天方向。
(2)载体坐标系b系:xb,yb,zb依次指向载体右前上方向。
得到姿态矩阵:
分别为运动载体的航向角,俯仰角和横滚角。其中与基本旋转顺序有关,若顺序不同则所得结果不同。
2 欧拉角姿态解算方法
设载体坐标系b系相对地理坐标系n系的角速度为wnb,再次简记为w,由wnb在载体坐标系的分量可得:
故而当前时刻欧拉角可由下式获得:
3 基于扩展卡尔曼滤波器的四元数姿态解算算法
基于卡尔曼滤波器的四元数姿态解算算法是采用扩展卡尔曼方法,将四元数[q0 q1 q2 q3]T作为状态量,将加速度计和磁力计的测量作为观测量,以陀螺测得数据来估计姿态四元数,以加速度计和磁力计测得数据来修正四元数估计量。其中,加速度计信息修正侧重水平方向,磁力计信息修正侧重航向。以下给出该法具体推导。
以四元数与陀螺输出关系建立状态方程,由四元数与角速率关系式进一步可得到状态方程:
将上式离散化后,得扩展卡尔曼一步预测方程:
4 仿真及分析
4.1 仿真条件设置
仿真采用MPU6050惯性测量芯片输出的加速度和角速度做为采样值,考虑静止状态MPU的角速度和加速度输出。采样间隔为10ms,仿真时间为1h。得到陀螺输出数据和加速度计输出数据后解算出俯仰角与横滚角。
4.2 仿真结果
图1为解算出的俯仰角与横滚角。分析可知采用基于扩展卡尔曼滤波器的四元数车辆姿态解算算法,当载体静止或匀速时,可以将姿态稳定在1°以内,同时,由于汽车行驶时,加速度变化不是非常明显。故该方法适用于对汽车姿态检测。实际系统验证也证明了该法用于汽车姿态检测的可行性。
5 结语
本文采用了基于扩展卡尔曼滤波器的四元数姿态解算算法,在静止或匀速时能够将解算精度控制在1°以内。可以将该算法应用于行驶车辆获得其姿态信息从而达到对车辆的实时监控。
虽然中国高性能计算已经取得了里程碑性的成绩,但是科研工作者的脚步不会停止。他们已经在思考未来的发展方向在哪里,并将目光瞄向了“天然的超级计算机”―量子计算机。
“杞人忧天”的物理学家们与量子计算机的诞生
量子计算机的诞生和著名的摩尔定律有关,还和“杞人忧天”的物理学家们有关。
众所周知,摩尔定律的技术基础是不断提高电子芯片的集成度(单位芯片的晶体管数)。集成度不断提高,速度就不断加快,我们的手机、电脑就能不断更新换代。
20世纪80年代,摩尔定律很贴切地反映了信息技术行业的发展,但“杞人忧天”的物理学家们却提出了一个“大煞风景”的问题: 摩尔定律有没有终结的时候?
之所以提出这个问题,是因为摩尔定律的技术基础天然地受到两个主要物理限制。
一是巨大的能耗,芯片有被烧坏的危险。芯片发热主要是因为计算机门操作时,其中不可逆门操作会丢失比特。物理学家计算出每丢失一个比特所产生的热量,操作速度越快,单位时间内产生的热量就越多,算机温度必然迅速上升,这时必须消耗大量能量来散热,否则芯片将被烧坏。
二是为了提高集成度,晶体管越做越小,当小到只有一个电子时,量子效应就会出现。此时电子将不再受欧姆定律管辖,由于它有隧道效应,本来无法穿过的壁垒也穿过去了,所以量子效应会阻碍信息技术继续按照摩尔定律发展。
所谓隧道效应,即由微观粒子波动性所确定的量子效应,又称势垒贯穿。它在本质上是量子跃迁,粒子迅速穿越势垒。在势垒一边平动的粒子,当动能小于势垒高度时,按照经典力学的说法,粒子是不可能越过势垒的;而对于微观粒子,量子力学却证明它仍有一定的概率贯穿势垒,实际上也的确如此。
这两个限制就是物理学家们预言摩尔定律会终结的理由所在。
虽然这个预言在当时没有任何影响力,但“杞人忧天”的物理学家们并不“死心”,继续研究,提出了第二个问题:如果摩尔定律终结,在后摩尔时代,提高运算速度的途径是什么?
这就导致了量子计算概念的诞生。
量子计算所遵从的薛定谔方程是可逆的,不会出现非可逆操作,所以耗能很小;而量子效应正是提高量子计算并行运算能力的物理基础。
甲之砒霜,乙之蜜糖。它们对于电子计算机来说是障碍的量子效应,对于量子计算机来说,反而成了资源。
量子计算的概念最早是1982年由美国物理学家费曼提出的。1985年,英国物理学家又提出了“量子图灵机”的概念,之后许多物理学家将“量子图灵机”等效为量子的电子线路模型,并开始付诸实践。但当年这些概念的提出都没有动摇摩尔定律在信息技术领域的地位,因为在相当长的时间内,摩尔定律依然在支撑着电子计算机的运算速度的飞速提高。
直到今年,美国政府宣布,摩尔定律终结了。微电子未来的发展是低能耗、专用这两个方向,而不再是追求速度。
由此可见,基础研究可能在当时看不到有什么实际价值,但未来却会发挥出巨大作用。
量子计算机虽然好,研制起来却非常难
量子计算机和电子计算机一样,其功用在于计算具体数学问题。不同的是,电子计算机所用的电子存储器在某个时间只能存一个数据,它是确定的,操作一次就把一个比特(bit,存储器最小单元)变成另一个比特,实行串行运算模式;而量子计算机利用量子性质,一个量子比特可以同时存储两个数值,N个量子比特可以同时存储2的N次方数据,操作一次会将这个2的N次方数据变成另外一个2的N次方数据,以此类推,运行模式为一个CPU的并行运算模式,运行操作能力指数上升,这是量子计算机来自量子性的优点。量子计算本来就是并行运算,所以说量子计算机天然就是“超级计算机”。
要想研制量子计算机,除了要研制芯片、控制系统、测量装置等硬件外,还需要研制与之相关的软件,包括编程、算法、量子计算机的体系结构等。
一台量子计算机运行时,数据输入后,被编制成量子体系的初始状态,按照量子计算机欲计算的函数,运用相应的量子算法和编程,编制成用于操作量子芯片中量子比特幺正操作变换,将量子计算机的初态变成末态,最后对末态实施量子测量,读出运算的结果。
一台有N个量子比特的量子计算机,要保证能够实施一个量子比特的任意操作和任意两个量子比特的受控非操作,才能进行由这两个普适门操作的组合所构成的幺正操作,完成量子计算机的运算任务。这是量子芯片的基本要求。如果要超越现有电子计算水平,需要多于1000个量子比特构成的芯片。目前,这还无法实现。这种基于“量子图灵机”的标准量子计算是量子计算机研制的主流。
除此以外,还有其他量子计算模型,如单向量子计算、分布式量子计算,但其研制的困难程度并没有减小。另外,还有拓扑量子计算、绝热量子计算等。
由于对硬件和软件的全新要求,量子计算机的所有方面都需要重新进行研究,这就意味着量子计算是非常重要的交叉学科,是需要不同领域的人共同来做才能做成的复杂工程。
把量子计算机从“垃圾桶”捡回来的量子编码与容错编码
实现量子计算最困难的地方在于,这种宏观量子系统是非常脆弱的,周围的环境都会破坏量子相干性(消相干),一旦量子特性被破坏,将导致量子计算机并行运算能力基础消失,变成经典的串行运算。
所以,早期许多科学家认为量子计算机只是纸上谈兵,不可能被制造出来。直到后来,科学家发明了量子编码。
量子编码的发现等于把量子计算机从“垃圾桶”里又捡回来了。
采用起码5个量子比特编码成1个逻辑比特,可以纠正消相干引起的所有错误。
不仅如此,为了避免在操作中的错误,使其能够及时纠错,科学家又研究容错编码,在所有量子操作都可能出错的情况下,它仍然能够将整个系统纠回理想的状态。这是非常关键的。
什么条件下能容错呢?这里有个容错阈值定理。每次操作,出错率要低于某个阈值,如果大于这个阈值,则无法容错。
这个阈值具体是多大呢?
这与计算机结构有关,考虑到量子计算的实际构型问题,在一维或准一维的构型中,容错的阈值为10^-5,在二维情况(采用表面码来编码比特)中,阈值为10^-2。
目前,英国Lucas团队的离子阱模型、美国Martinis团队的超导模型在单、双比特下操作精度已达到这个阈值。
所以,我们的目标就是研制大规模具有容错能力的通用量子计算机。
量子计算机的“量子芯”
量子芯片的研究已经从早期对各种可能的物理系统的广泛研究,逐步聚焦到了少数物理系统。
20世纪90年代时,美国不知道什么样的物理体系可以做成量子芯片,摸索了多年之后,发现许多体系根本不可能最终做成量子计算机,所以他们转而重点支持固态系统。
固态系统的优点是易于集成(能够升级量子比特数目),但缺点是容错性不好,固态系统的消相干特别严重,相干时间很短,操控误差大。
2004年以来,世界上许多著名的研究机构,如美国哈佛大学、麻省理工学院、普林斯顿大学,日本东京大学,荷兰Delft大学等都做了很大的努力,在半导体量子点作为未来量子芯片的研究方面取得了一系列重大进展。最近几年,半导体量子芯片的相干时间已经提高到200微秒。
国际上,在自旋量子比特研究方面,于2012年做到两个比特之后,一直到2015年,还是停留在四个量子点编码的两个自旋量子比特研究上,实现了两个比特的CNOT(受控非)。
虽然国际同行关于电荷量子比特的研究比我们早,但是至今也只做到四个量子点编码的两个比特。我们研究组在电荷量子比特上的研究,2010年左右制备单个量子点,2011年实现双量子点,2012~2013年实现两个量子点编码的单量子比特, 2014~2015年实现四量子点编码的两个电荷量子比特。目前,已研制成六个量子点编码为三个量子比特,并实现了三个比特量子门操作,已经达到国际领先水平。
超导量子芯片要比半导体量子芯片发展得更快。
近几年,科学家使用各种方法把超导的相干时间尽可能拉长,到现在已达到了100多微秒。这花了13年的基础研究,相干时间比原来提高了5万倍。
超导量子计算在某些指标上有更好的表现,比如:
1.量子退相干时间超过0.1ms,高于逻辑门操作时间1000倍以上,接近可实用化的下限。
2.单比特和两比特门运算的保真度分别达到99.94%和99.4%,达到量子计算理论的容错率阈值要求。
3.已经实现9个量子比特的可控耦合。
4.在量子非破坏性测量中,达到单发测量的精度。
5.在量子存储方面,实现超高品质因子谐振腔。
美国从90年代到现在,在基础研究阶段超导领域的突破已经引起了企业的重视。美国所有重大的科技公司,包括微软、苹果、谷歌都在量子计算机研制领域投入了巨大的力量,尽最大的努力来争夺量子计算机这块“巨大的蛋糕”!
其中,最典型的就是谷歌在量子计算机领域的布局。它从加州大学圣芭芭拉分校高薪引进国际上超导芯片做得最好的J. Matinis团队(23人),从事量子人工智能方面的研究。
他们制定了一个目标―明年做到50个量子比特。定这个目标是因为,如果能做49个量子比特的话,在大数据处理等方面,就远远超过了电子计算机所有可能的能力。
整体来看,量子计算现在正处于“从晶体管向集成电路过渡阶段”。
尚未研制成功的量子计算机,我们仍有机会!
很多人都问,实际可用的量子计算机究竟什么时候能做出来?
中国和欧洲估计需要15年,美国可能会更快,美国目前的发展确实也更快。
量子计算是量子信息领域的主流研究方向,从90年代开始,美国就在这方面花大力气进行研究,在硬件、软件、材料各个方面投入巨大,并且它有完整的对量子计算研究的整体策划,不仅各个指标超越世界其他国家,各个大公司的积极性也被调动了起来。
美国的量子计算机研制之路分三个阶段:第一阶段,由政府主导,主要做基础研究;第二阶段,企业开始投入;第三阶段,加快产出速度。
一个世纪前,那场关于“上帝到底掷不掷骰子”的爱因斯坦-玻尔论战,为人类开启了量子世界之门;进入21世纪,量子通信、量子计算等核心技术飞速发展,一场新的量子革命正在到来。
微观世界的运行,远比人类想象得更神秘。世界首颗量子通信卫星、十光子纠缠、天地一体化量子通信网络……中国“量子人”一系列突破性进展,在量子革命的发展史上,标注下新的印记。
未来将秒杀超级计算机
芯片越来越小,传统计算机未来必将遭遇计算极限。求解一个亿亿亿变量(10的24次方)的方程组,利用目前的超级计算机,大约需要100年。面对类似这样的大规模计算难题,如果借助万亿次量子计算机,只需0.01秒。
全新的量子计算机利用量子特有的“叠加状态”,以采取并行计算的方式,让速度以指数量级地提升。中国科学技术大学潘建伟院士和陆朝阳教授等研制的光量子计算机,已经比人类历史上第一台电子管计算机和第一台晶体管计算机运行速度快10倍至100倍。
据介绍,关于量子计算研究的系列成果已经发表于《自然・光子学》等国际权威学术期刊。“这意味着,中国科学家研制出了量子计算领域的埃尼亚克(第一台电子管计算机ENIAC)。”《自然・光子学》的审稿人表示。
潘建伟说,在量子计算基础研究领域,就计算能力而言,科学界有三个达成共识的指标性节点:第一步超越首台经典计算机,第二步超越商用CPU,第三步超越超级计算机。“目前我们实现的只是其中的第一步,但这一小步却是重要的一步。”
陆朝阳表示,预计年底可以实现操纵20个量子比特、达到目前商用CPU水平;到2020年,有望实现操纵45个量子比特的目标,向经典超级计算机的计算能力发起挑战。
全球角力
由于量子计算有巨大潜在价值,欧美各国都在积极整合各方面研究力量和资源,开展协同攻关,大型高科技公司如谷歌、微软、IBM等也强势介入量子计算研究。
来自中国科学院量子信息和量子科技创新研究院的信息显示,国际学术界关于量子计算技术的发展,集中于光子、超冷原子和超导线路这三个研究体系。其中,在光子体系,潘建伟团队在国际上率先实现了五光子、六光子、八光子和十光子纠缠,一直保持国际领先水平,其“多光子纠缠及干涉度量”项目获得2015年度国家自然科学奖一等奖。
“最快带来实际价值的体系是超冷原子量子模拟,将来很可能集成化的是超导量子计算,谷歌、IBM都在投入大量资源,积极布局。”潘建伟说。
2015年,谷歌、美国航天航空局和加州大学圣芭芭拉分校宣布实现了9个超导量子比特的高精度操纵。此次,潘建伟及其同事朱晓波等,联合浙江大学王浩华教授研究组,首次实现10个超导量子比特的纠缠,在基于超导体系的量子计算机研究方面取得突破性进展。
不过,由于高精度量子操控技术的极端复杂性,目前对其的研究仍处在早期发展阶段。“量子计算机就像初生的婴儿,未来最终会长成什么样子,对整个科学界还是个未知数。”潘建伟说。
10年内专用量子计算机有望“实用化”
自诞生以来,量子力学就一直在催生众多重大发明,包括原子弹、激光、晶体管、核磁共振、全球卫星定位等。量子计算机的问世,有助于解决现有计算机也难以解决的问题。
“10年内,超导量子操纵有可能做到100个粒子。到那时,它对某些特定问题的计算能力就可以达到目前全世界所有计算能力之和的100万倍,计算能力将会突飞猛进。”潘建伟说,此外量子计算机能耗更低。
专家认为,计算能力极限的大幅提升,意味着量子计算机可以分析更多数据。比如,实现精准的天气预报,躲避飓风海啸;计算优化的出行线路,让城市减少堵车;识别有效的分子组合,降低药物的研发成本和周期;甚至可以用于探索太空,较快辨别可能存有生命体的行星。
潘建伟预测,造出“专用”量子计算机,在求解材料设计、化学研究、物理研究等方面特别需要、特别有用的问题上超越“超级计算机”,有望在10年内出现,最终还将拓展到量子人工智能领域。
信息安全的“护卫舰”
当前,信息科技日益走向智能化,量子不仅可以用于量子计算,更安全的量子通信也应运而生。
随着“墨子号”发射升空,我国在世界上首次实现卫星和地面之间的量子通信。按照规划,未来还将发射多颗量子卫星。到2030年左右,建成一个全球化的广域量子通信网络。
二、各种新型计算机
硅芯片技术高速发展的同时,也意味看硅技术越来越接近其物理极限。为此,世界各国的研究人员正在加紧研究开发新型计算机,计算机的体系结构与技术都将产生一次量与质的飞跃。新型的量子计算机、光子计算机、分子计算机、纳米计算机等,将会在二十一世纪走进我们的生活,遍布各个领域。
(1)量子计算机。量子计算机的概念源于对可逆计算机的研究。量子计算机(quorum computer)是一类遵循量子力学规律进行高速数学和逻辑运算存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机是通过量子分裂式、量子修补式来进行一系列的大规模高精确度的运算的。其浮点运算性能是普通家用电脑的CPU所无法比拟的。量子计算机大规模运算的方式其实就类似于普通电脑的批处理程序,其运算方式简单来说就是通过大量的量子分裂,再进行高速的量子修补,但是其精确度和速度是普通电脑望尘莫及的。
(2)光子计算机。现有的计算机是由电子来传递和处理信息。电场在导线中传播的速度虽然比我们看到的任何运载工具运动的速度都快。但是,从发展高速率计算机来说,采用电子做输运信息载体还不能满足快的要求,提高计算机运算速度也明显表现出能力有限了。而光子计算机以光子作为传递信息的载体,光互连代替导线瓦连,以光硬件代替电子硬件,以光运算代替电运算,利用激光来传送信号,并由光导纤维与各种光学元件等构成集成光路,从而进行数据运算、传输和存储。在光子计算机中,不同波长、频率、偏振态及相位的光代表不同的数据,这远胜于电子计算机中通过电子状态变化进行的二进制运算,可以对复杂度高,计算量大的任务实现快速的并行处理。光子计算机将使运算速度在目前基础上呈指数上升。
(3)分子计算机。分子计算计划就是尝试利用分子计算的能力进行信息的处理。分子计算机的运行靠的是分子晶体可以吸收以电荷形式存在的信息,并以更有效的方式进行组织排列。凭借着分子纳米级的尺寸,分子计算机的体积将剧减。
三、探究研究策略的依据
笔者认为开展计算机发展史研究的一种思路是:本着实用主义的态度,分阶段提取计算机发展过程中的关键问题。围绕这些问题展开研究,尤其要着力于问题解决过程中碰到的困难,以及问题解决后发现的新问题。
(1)“实用主义”无褒贬之分。弥补对计算机发展的历史认知,不宜再去重做实验,推倒人类已有的技术规范重来:只能进一步的学习和研究,在研究和学习中发现问题,找出规律。同时,“实用’,也是发挥后发优势的应有之义。
(2)紧紧围绕“问题”。在科学发展的历史进程中,问题要比问题的解决更重要,“一个好的问题堪比一所好的大学”计算机的发展也是在不断地提出问题、解决问题中发展进步,每一次问题的提炼和解决都促进了计算机水平得到一次升华和提高。
(3)事物的发展是动态的,已有问题的解决必然带来新的问题新的问题是对已有问题解决方法的挑战与审视,抑或是新科学新技术寻找用武之地发挥作用的要求,尝试主动提出可预见的问题并设法解决是现代思维方式的一个显著特征,爱冈斯坦曾说:提出一个问题往往比解决一个问题更重要,正是这个意思。提新的问题、新的可能性,从新的角度去看旧的问题,这一切需要有创造性的想象力。往往是获得认识突破的契机,这种习惯或者素养是极其宝贵的。
四、结束语
计算机是20世纪人类最伟大的发明之一。在这个世纪之交,知识经济时代呼啸而来,作为知识和信息的处理、传输和存储之载体的计算机。在即将来临的2I世纪,将会不断地开发出新的品种。而这些新颖的计算机的发展将趋向超高速、超小型并行处理和智能化。为达到预想的目的各种新型材料将被运用到新型计算机的开发当中,如量子、光子分子等。未来量子、光子和分子计算机将具有感知、思考、判断、学习以及一定的自然语言能力,使计算机进人人工智能时代。这种新型计算机将推动新一轮计算技术革命,对人类社会的发展产生深远的影响。
参考文献:
[1]刘科伟等.量子计算与量子计算机.计算机工程与应用,2002(38)
计算机在最近的几十年发展突飞猛进,是在众多行业中发展最快的高新领域之一。上世纪九十年代的人还难以预料今天计算机会如此强大,而今天的我们所预见的未来的计算机又将有几分准确性呢。不管未来的计算机是什么样的,根据现在的研究以及人们的需要来看,有几个特点可能会在较近的未来实现。计算机将会更加微型化,计算能力还会更加强大,而随着计算机与诸多领域的相互渗透,新型计算机也会应运而生。此外,计算机的智能化也是人们研究的热点话题。
美国计算机市场在2009年第四季度打破记录,共售出了2070万台计算机,比2008年同期上升了24%。继2009年上半年全球个人电脑市场发展遭遇重重限制之后,下半年全球经济进一步复苏,加上个人电脑打出大幅折扣,使全球个人电脑市场出现反弹。全球个人电脑市场2009年全年增长率为2.9%。实际上,全球范围内计算机销量都出现了一致性的增长,这自然受益于计算机售价的整体下调。2009年第四季度,全球计算机市场销量较2008年同期增长了15.2%。计算机销量的增长直接让很多与计算机市场相关的厂商获得了巨大利益,比如Intel、微软和惠普。同时上网本的大受欢迎和Windows 7的都刺激了计算机市场的增长。
日益更新的计算机,未来将会是什么样子?
1 量子计算机
量子计算机的概念源于对可逆计算机的研究,量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。量子计算机是基于量子效应基础上开发的,它利用一种链状分子聚合物的特性来表小开与关的状态,利用激光脉冲来改变分子的状态,使信息沿着聚合物移动,从而进行运算。量子计算机中的数据用量子位存储。由于量子叠加效应,一个量子位可以是0或1也可以既存储0又存储1。因此,一个量子位可以存储2个数据,同样数量的存储位,量子计算机的存储量比通常计算机大许多。同时量子计算机能够实行量子并行计算,其运算速度可能比目前计算机的PcntiumIII晶片快10亿倍。除具有高速并行处理数据的能力外,量子计算机还将对现有的保密体系、国家安全意识产生重大的冲击。无论是量子并行计算还是量子模拟计算,本质上都是利用了量子相干性。世界各地的许多实验室正在以巨大的热情追寻着这个梦想。目前已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核白旋共振、量子点操纵、超导量子干涉等。量子编码采用纠错、避错和防错等。预计2030年有可能普及量子计算机。
2 光计算机
光计算机是用光子代替半导体芯片中的电子,以光互连来代替导线制成数字计算机。与电的特性相比光具有无法比拟的各种优点:光计算机是“光”导计算机,光在光介质中以许多个波长不同或波长相同而振动方向不同的光波传输,不存在寄生电阻、电容、电感和电子相互作用问题,光器件有无电位差,因此光计算机的信息在传输中畸变或失真小,可在同一条狭窄的通道中传输数量大得难以置信的数据。
3 化学、生物计算机
在运行机理上,化学计算机以化学制品中的微观碳分子作信息载体,来实现信息的传输与存储。DNA分子在酶的作用下可以从某基因代码通过生物化学反应转变为另一种基因代码,转变前的基因代码可以作为输入数据,反应后的基因代码可以作为运算结果,利用这一过程可以制成新型的生物计算机。生物计算机最大的优点是生物芯片的蛋白质具有生物活性,能够跟人体的组织结合在一起,特别是可以和人的大脑和神经系统有机的连接,使人机接口自然吻合,免除了繁琐的人机对话,这样,生物计算机就可以听人指挥,成为人脑的外延或扩充部分,还能够从人体的细胞中吸收营养来补充能量,不要任何外界的能源,由于生物计算机的蛋白质分子具有自我组合的能力,从而使生物计算机具有自调节能力、自修复能力和自再生能力,更易于模拟人类大脑的功能。现今科学家已研制出了许多生物计算机的主要部件—生物芯片。
4 神经网络计算机
人脑总体运行速度相当于每妙1000万亿次的电脑功能,可把生物大脑神经网络看做一个大规模并行处理的、紧密耦合的、能自行重组的计算网络。从大脑工作的模型中抽取计算机设计模型,用许多处理机模仿人脑的神经元机构,将信息存储在神经元之间的联络中,并采用大量的并行分布式网络就构成了神经网络计算机。
结束语:
关于计算机未来的发展趋势,不同的人有不同的看法,不同的人也会从不同的方面去探讨,但无论如何,出发点都是为了能够更好地帮助人学习、工作、计算、娱乐等等为了更能方便人的生活,更好地完成更加艰巨复杂的任务。所以,计算机会基于这些进行不断地改造与创新,当一种技术或基本架构遭遇瓶颈时,新的技术就会诞生,这就是计算机不断改进和创新的动力。对于上文的诸多方面,很多已经即将或是快要实现,而有一些则距离现实还有很大距离,甚至有些研究会是失败的,但这完全不能阻挡计算机的发展,也不会阻止与计算机有关的新技术的产生。
参考文献:
[1]蔡芝蔚.计算机技术发展研究[J].电脑与电信,2008(02).
[2]张洁.未来计算机与计算机技术发展展望[J].广东科技,2006(10).
1计算的本质
抽象地说,所谓计算,就是从一个符号串f变换成另一个符号串g。比如说,从符号串12+3变换成15就是一个加法计算。如果符号串f是x2,而符号串g是2x,从f到g的计算就是微分。定理证明也是如此,令f表示一组公理和推导规则,令g是一个定理,那么从f到g的一系列变换就是定理g的证明。从这个角度看,文字翻译也是计算,如f代表一个英文句子,而g为含意相同的中文句子,那么从f到g就是把英文翻译成中文。这些变换间有什么共同点?为什么把它们都叫做计算?因为它们都是从己知符号(串)开始,一步一步地改变符号(串),经过有限步骤,最后得到一个满足预先规定的符号(串)的变换过程。
从类型上讲,计算主要有两大类:数值计算和符号推导。数值计算包括实数和函数的加减乘除、幂运算、开方运算、方程的求解等。符号推导包括代数与各种函数的恒等式、不等式的证明,几何命题的证明等。但无论是数值计算还是符号推导,它们在本质上是等价的、一致的,即二者是密切关联的,可以相互转化,具有共同的计算本质。随着数学的不断发展,还可能出现新的计算类型。
2远古的计算工具
人们从开始产生计算之日,便不断寻求能方便进行和加速计算的工具。因此,计算和计算工具是息息相关的。
早在公元前5世纪,中国人已开始用算筹作为计算工具,并在公元前3世纪得到普遍的采用,一直沿用了二千年。后来,人们发明了算盘,并在15世纪得到普遍采用,取代了算筹。它是在算筹基础上发明的,比算筹更加方便实用,同时还把算法口诀化,从而加快了计算速度。
3近代计算系统
近代的科学发展促进了计算工具的发展:在1614年,对数被发明以后,乘除运算可以化为加减运算,对数计算尺便是依据这一特点来设计。1620年,冈特最先利用对数计算尺来计算乘除。1850年,曼南在计算尺上装上光标,因此而受到当时科学工作者,特别是工程技术人员广泛采用。机械式计算器是与计算尺同时出现的,是计算工具上的一大发明。帕斯卡于1642年发明了帕斯卡加法器。在1671年,莱布尼茨发明了一种能作四则运算的手摇计算器,是长1米的大盒子。自此以后,经过人们在这方面多年的研究,特别是经过托马斯、奥德内尔等人的改良后,出现了多种多样的手摇计算器,并风行全世界。
4电动计算机
英国的巴贝奇于1834年,设计了一部完全程序控制的分析机,可惜碍于当时的机械技术限制而没有制成,但已包含了现代计算的基本思想和主要的组成部分了。此后,由于电力技术有了很大的发展,电动式计算器便慢慢取代以人工为动力的计算器。1941年,德国的楚泽采用了继电器,制成了第一部过程控制计算器,实现了100多年前巴贝奇的理想。
5电子计算机
20世纪初,电子管的出现,使计算器的改革有了新的发展,美国宾夕法尼亚大学和有关单位在1946年制成了第一台电子计算机。电子计算机的出现和发展,使人类进入了一个全新的时代。它是20世纪最伟大的发明之一,也当之无愧地被认为是迄今为止由科学和技术所创造的最具影响力的现代工具。
在电子计算机和信息技术高速发展过程中,因特尔公司的创始人之一戈登·摩尔(GodonMoore)对电子计算机产业所依赖的半导体技术的发展作出预言:半导体芯片的集成度将每两年翻一番。事实证明,自20世纪60年代以后的数十年内,芯片的集成度和电子计算机的计算速度实际是每十八个月就翻一番,而价格却随之降低一倍。这种奇迹般的发展速度被公认为“摩尔定律”。
6“摩尔定律”与“计算的极限”
人类是否可以将电子计算机的运算速度永无止境地提升?传统计算机计算能力的提高有没有极限?对此问题,学者们在进行严密论证后给出了否定的答案。如果电子计算机的计算能力无限提高,最终地球上所有的能量将转换为计算的结果——造成熵的降低,这种向低熵方向无限发展的运动被哲学界认为是禁止的,因此,传统电子计算机的计算能力必有上限。
而以IBM研究中心朗道(R.Landauer)为代表的理论科学家认为到21世纪30年代,芯片内导线的宽度将窄到纳米尺度(1纳米=10-9米),此时,导线内运动的电子将不再遵循经典物理规律——牛顿力学沿导线运行,而是按照量子力学的规律表现出奇特的“电子乱窜”的现象,从而导致芯片无法正常工作;同样,芯片中晶体管的体积小到一定临界尺寸(约5纳米)后,晶体管也将受到量子效应干扰而呈现出奇特的反常效应。
哲学家和科学家对此问题的看法十分一致:摩尔定律不久将不再适用。也就是说,电子计算机计算能力飞速发展的可喜景象很可能在21世纪前30年内终止。著名科学家,哈佛大学终身教授威尔逊(EdwardO.Wilson)指出:“科学代表着一个时代最为大胆的猜想(形而上学)。它纯粹是人为的。但我们相信,通过追寻“梦想—发现—解释—梦想”的不断循环,我们可以开拓一个个新领域,世界最终会变得越来越清晰,我们最终会了解宇宙的奥妙。所有的美妙都是彼此联系和有意义的。”[论/文/网LunWenNet/Com]
7量子计算系统
量子计算最初思想的提出可以追溯到20世纪80年代。物理学家费曼RichardP.Feynman曾试图用传统的电子计算机模拟量子力学对象的行为。他遇到一个问题:量子力学系统的行为通常是难以理解同时也是难以求解的。以光的干涉现象为例,在干涉过程中,相互作用的光子每增加一个,有可能发生的情况就会多出一倍,也就是问题的规模呈指数级增加。模拟这样的实验所需的计算量实在太大了,不过,在费曼眼里,这却恰恰提供一个契机。因为另一方面,量子力学系统的行为也具有良好的可预测性:在干涉实验中,只要给定初始条件,就可以推测出屏幕上影子的形状。费曼推断认为如果算出干涉实验中发生的现象需要大量的计算,那么搭建这样一个实验,测量其结果,就恰好相当于完成了一个复杂的计算。因此,只要在计算机运行的过程中,允许它在真实的量子力学对象上完成实验,并把实验结果整合到计算中去,就可以获得远远超出传统计算机的运算速度。
在费曼设想的启发下,1985年英国牛津大学教授多伊奇DavidDeutsch提出是否可以用物理学定律推导出一种超越传统的计算概念的方法即推导出更强的丘奇——图灵论题。费曼指出使用量子计算机时,不需要考虑计算是如何实现的,即把计算看作由“神谕”来实现的:这类计算在量子计算中被称为“神谕”(Oracle)。种种迹象表明:量子计算在一些特定的计算领域内确实比传统计算更强,例如,现代信息安全技术的安全性在很大程度上依赖于把一个大整数(如1024位的十进制数)分解为两个质数的乘积的难度。这个问题是一个典型的“困难问题”,困难的原因是目前在传统电子计算机上还没有找到一种有效的办法将这种计算快速地进行。目前,就是将全世界的所有大大小小的电子计算机全部利用起来来计算上面的这个1024位整数的质因子分解问题,大约需要28万年,这已经远远超过了人类所能够等待的时间。而且,分解的难度随着整数位数的增多指数级增大,也就是说如果要分解2046位的整数,所需要的时间已经远远超过宇宙现有的年龄。而利用一台量子计算机,我们只需要大约40分钟的时间就可以分解1024位的整数了。
8量子计算中的神谕
人类的计算工具,从木棍、石头到算盘,经过电子管计算机,晶体管计算机,到现在的电子计算机,再到量子计算。笔者发现这其中的过程让人思考:首先是人们发现用石头或者棍棒可以帮助人们进行计算,随后,人们发明了算盘,来帮助人们进行计算。当人们发现不仅人手可以搬动“算珠”,机器也可以用来搬动“算珠”,而且效率更高,速度更快。随后,人们用继电器替代了纯机械,最后人们用电子代替了继电器。就在人们改进计算工具的同时,数学家们开始对计算的本质展开了研究,图灵机模型告诉了人们答案。
量子计算的出现,则彻底打破了这种认识与创新规律。它建立在对量子力学实验的在现实世界的不可计算性。试图利用一个实验来代替一系列复杂的大量运算。可以说。这是一种革命性的思考与解决问题的方式。
因为在此之前,所有计算均是模拟一个快速的“算盘”,即使是最先进的电子计算机的CPU内部,64位的寄存器(register),也是等价于一个有着64根轴的二进制算盘。量子计算则完全不同,对于量子计算的核心部件,类似于古代希腊中的“神谕”,没有人弄清楚神谕内部的机理,却对“神谕”内部产生的结果深信不疑。人们可以把它当作一个黑盒子,人们通过输入,可以得到输出,但是对于黑盒子内部发生了什么和为什么这样发生确并不知道。
9“神谕”的挑战与人类自身的回应
人类的思考能力,随着计算工具的不断进化而不断加强。电子计算机和互联网的出现,大大加强了人类整体的科研能力,那么,量子计算系统的产生,会给人类整体带来更加强大的科研能力和思考能力,并最终解决困扰当今时代的量子“神谕”。不仅如此,量子计算系统会更加深刻的揭示计算的本质,把人类对计算本质的认识从牛顿世界中扩充到量子世界中。
如果观察历史,会发现人类文明不断增多的“发现”已经构成了我们理解世界的“公理”,人们的公理系统在不断的增大,随着该系统的不断增大,人们认清并解决了许多问题。人类的认识模式似乎符合下面的规律:
“计算工具不断发展—整体思维能力的不断增强—公理系统的不断扩大—旧的神谕被解决—新的神谕不断产生”不断循环。
无论量子计算的本质是否被发现,也不会妨碍量子计算时代的到来。量子计算是计算科学本身的一次新的革命,也许许多困扰人类的问题,将会随着量子计算机工具的发展而得到解决,它将“计算科学”从牛顿时代引向量子时代,并会给人类文明带来更加深刻的影响。
参考文献
抽象地说,所谓计算,就是从一个符号串f变换成另一个符号串g。比如说,从符号串12+3变换成15就是一个加法计算。如果符号串f是x2,而符号串g是2x,从f到g的计算就是微分。定理证明也是如此,令f表示一组公理和推导规则,令g是一个定理,那么从f到g的一系列变换就是定理g的证明。从这个角度看,文字翻译也是计算,如f代表一个英文句子,而g为含意相同的中文句子,那么从f到g就是把英文翻译成中文。这些变换间有什么共同点?为什么把它们都叫做计算?因为它们都是从己知符号(串)开始,一步一步地改变符号(串),经过有限步骤,最后得到一个满足预先规定的符号(串)的变换过程。
从类型上讲,计算主要有两大类:数值计算和符号推导。数值计算包括实数和函数的加减乘除、幂运算、开方运算、方程的求解等。符号推导包括代数与各种函数的恒等式、不等式的证明,几何命题的证明等。但无论是数值计算还是符号推导,它们在本质上是等价的、一致的,即二者是密切关联的,可以相互转化,具有共同的计算本质。随着数学的不断发展,还可能出现新的计算类型。
2远古的计算工具
人们从开始产生计算之日,便不断寻求能方便进行和加速计算的工具。因此,计算和计算工具是息息相关的。
早在公元前5世纪,中国人已开始用算筹作为计算工具,并在公元前3世纪得到普遍的采用,一直沿用了二千年。后来,人们发明了算盘,并在15世纪得到普遍采用,取代了算筹。它是在算筹基础上发明的,比算筹更加方便实用,同时还把算法口诀化,从而加快了计算速度。
3近代计算系统
近代的科学发展促进了计算工具的发展:在1614年,对数被发明以后,乘除运算可以化为加减运算,对数计算尺便是依据这一特点来设计。1620年,冈特最先利用对数计算尺来计算乘除。1850年,曼南在计算尺上装上光标,因此而受到当时科学工作者,特别是工程技术人员广泛采用。机械式计算器是与计算尺同时出现的,是计算工具上的一大发明。帕斯卡于1642年发明了帕斯卡加法器。在1671年,莱布尼茨发明了一种能作四则运算的手摇计算器,是长1米的大盒子。自此以后,经过人们在这方面多年的研究,特别是经过托马斯、奥德内尔等人的改良后,出现了多种多样的手摇计算器,并风行全世界。
4电动计算机
英国的巴贝奇于1834年,设计了一部完全程序控制的分析机,可惜碍于当时的机械技术限制而没有制成,但已包含了现代计算的基本思想和主要的组成部分了。此后,由于电力技术有了很大的发展,电动式计算器便慢慢取代以人工为动力的计算器。1941年,德国的楚泽采用了继电器,制成了第一部过程控制计算器,实现了100多年前巴贝奇的理想。
5电子计算机
20世纪初,电子管的出现,使计算器的改革有了新的发展,美国宾夕法尼亚大学和有关单位在1946年制成了第一台电子计算机。电子计算机的出现和发展,使人类进入了一个全新的时代。它是20世纪最伟大的发明之一,也当之无愧地被认为是迄今为止由科学和技术所创造的最具影响力的现代工具。
在电子计算机和信息技术高速发展过程中,因特尔公司的创始人之一戈登·摩尔(GodonMoore)对电子计算机产业所依赖的半导体技术的发展作出预言:半导体芯片的集成度将每两年翻一番。事实证明,自20世纪60年代以后的数十年内,芯片的集成度和电子计算机的计算速度实际是每十八个月就翻一番,而价格却随之降低一倍。这种奇迹般的发展速度被公认为“摩尔定律”。
6“摩尔定律”与“计算的极限”
人类是否可以将电子计算机的运算速度永无止境地提升?传统计算机计算能力的提高有没有极限?对此问题,学者们在进行严密论证后给出了否定的答案。如果电子计算机的计算能力无限提高,最终地球上所有的能量将转换为计算的结果——造成熵的降低,这种向低熵方向无限发展的运动被哲学界认为是禁止的,因此,传统电子计算机的计算能力必有上限。中国
而以IBM研究中心朗道(R.Landauer)为代表的理论科学家认为到21世纪30年代,芯片内导线的宽度将窄到纳米尺度(1纳米=10-9米),此时,导线内运动的电子将不再遵循经典物理规律——牛顿力学沿导线运行,而是按照量子力学的规律表现出奇特的“电子乱窜”的现象,从而导致芯片无法正常工作;同样,芯片中晶体管的体积小到一定临界尺寸(约5纳米)后,晶体管也将受到量子效应干扰而呈现出奇特的反常效应。
哲学家和科学家对此问题的看法十分一致:摩尔定律不久将不再适用。也就是说,电子计算机计算能力飞速发展的可喜景象很可能在21世纪前30年内终止。著名科学家,哈佛大学终身教授威尔逊(EdwardO.Wilson)指出:“科学代表着一个时代最为大胆的猜想(形而上学)。它纯粹是人为的。但我们相信,通过追寻“梦想—发现—解释—梦想”的不断循环,我们可以开拓一个个新领域,世界最终会变得越来越清晰,我们最终会了解宇宙的奥妙。所有的美妙都是彼此联系和有意义的7量子计算系统
量子计算最初思想的提出可以追溯到20世纪80年代。物理学家费曼RichardP.Feynman曾试图用传统的电子计算机模拟量子力学对象的行为。他遇到一个问题:量子力学系统的行为通常是难以理解同时也是难以求解的。以光的干涉现象为例,在干涉过程中,相互作用的光子每增加一个,有可能发生的情况就会多出一倍,也就是问题的规模呈指数级增加。模拟这样的实验所需的计算量实在太大了,不过,在费曼眼里,这却恰恰提供一个契机。因为另一方面,量子力学系统的行为也具有良好的可预测性:在干涉实验中,只要给定初始条件,就可以推测出屏幕上影子的形状。费曼推断认为如果算出干涉实验中发生的现象需要大量的计算,那么搭建这样一个实验,测量其结果,就恰好相当于完成了一个复杂的计算。因此,只要在计算机运行的过程中,允许它在真实的量子力学对象上完成实验,并把实验结果整合到计算中去,就可以获得远远超出传统计算机的运算速度。
在费曼设想的启发下,1985年英国牛津大学教授多伊奇DavidDeutsch提出是否可以用物理学定律推导出一种超越传统的计算概念的方法即推导出更强的丘奇——图灵论题。费曼指出使用量子计算机时,不需要考虑计算是如何实现的,即把计算看作由“神谕”来实现的:这类计算在量子计算中被称为“神谕”(Oracle)。种种迹象表明:量子计算在一些特定的计算领域内确实比传统计算更强,例如,现代信息安全技术的安全性在很大程度上依赖于把一个大整数(如1024位的十进制数)分解为两个质数的乘积的难度。这个问题是一个典型的“困难问题”,困难的原因是目前在传统电子计算机上还没有找到一种有效的办法将这种计算快速地进行。目前,就是将全世界的所有大大小小的电子计算机全部利用起来来计算上面的这个1024位整数的质因子分解问题,大约需要28万年,这已经远远超过了人类所能够等待的时间。而且,分解的难度随着整数位数的增多指数级增大,也就是说如果要分解2046位的整数,所需要的时间已经远远超过宇宙现有的年龄。而利用一台量子计算机,我们只需要大约40分钟的时间就可以分解1024位的整数了。
8量子计算中的神谕
人类的计算工具,从木棍、石头到算盘,经过电子管计算机,晶体管计算机,到现在的电子计算机,再到量子计算。笔者发现这其中的过程让人思考:首先是人们发现用石头或者棍棒可以帮助人们进行计算,随后,人们发明了算盘,来帮助人们进行计算。当人们发现不仅人手可以搬动“算珠”,机器也可以用来搬动“算珠”,而且效率更高,速度更快。随后,人们用继电器替代了纯机械,最后人们用电子代替了继电器。就在人们改进计算工具的同时,数学家们开始对计算的本质展开了研究,图灵机模型告诉了人们答案。
量子计算的出现,则彻底打破了这种认识与创新规律。它建立在对量子力学实验的在现实世界的不可计算性。试图利用一个实验来代替一系列复杂的大量运算。可以说。这是一种革命性的思考与解决问题的方式。
因为在此之前,所有计算均是模拟一个快速的“算盘”,即使是最先进的电子计算机的CPU内部,64位的寄存器(register),也是等价于一个有着64根轴的二进制算盘。量子计算则完全不同,对于量子计算的核心部件,类似于古代希腊中的“神谕”,没有人弄清楚神谕内部的机理,却对“神谕”内部产生的结果深信不疑。人们可以把它当作一个黑盒子,人们通过输入,可以得到输出,但是对于黑盒子内部发生了什么和为什么这样发生确并不知道。
9“神谕”的挑战与人类自身的回应人类的思考能力,随着计算工具的不断进化而不断加强。电子计算机和互联网的出现,大大加强了人类整体的科研能力,那么,量子计算系统的产生,会给人类整体带来更加强大的科研能力和思考能力,并最终解决困扰当今时代的量子“神谕”。不仅如此,量子计算系统会更加深刻的揭示计算的本质,把人类对计算本质的认识从牛顿世界中扩充到量子世界中。
如果观察历史,会发现人类文明不断增多的“发现”已经构成了我们理解世界的“公理”,人们的公理系统在不断的增大,随着该系统的不断增大,人们认清并解决了许多问题。人类的认识模式似乎符合下面的规律:
“计算工具不断发展—整体思维能力的不断增强—公理系统的不断扩大—旧的神谕被解决—新的神谕不断产生”不断循环。
无论量子计算的本质是否被发现,也不会妨碍量子计算时代的到来。量子计算是计算科学本身的一次新的革命,也许许多困扰人类的问题,将会随着量子计算机工具的发展而得到解决,它将“计算科学”从牛顿时代引向量子时代,并会给人类文明带来更加深刻的影响。
参考文献
1计算的本质
抽象地说,所谓计算,就是从一个符号串f变换成另一个符号串g。比如说,从符号串12+3变换成15就是一个加法计算。如果符号串f是x2,而符号串g是2x,从f到g的计算就是微分。定理证明也是如此,令f表示一组公理和推导规则,令g是一个定理,那么从f到g的一系列变换就是定理g的证明。从这个角度看,文字翻译也是计算,如f代表一个英文句子,而g为含意相同的中文句子,那么从f到g就是把英文翻译成中文。这些变换间有什么共同点?为什么把它们都叫做计算?因为它们都是从己知符号(串)开始,一步一步地改变符号(串),经过有限步骤,最后得到一个满足预先规定的符号(串)的变换过程。
从类型上讲,计算主要有两大类:数值计算和符号推导。数值计算包括实数和函数的加减乘除、幂运算、开方运算、方程的求解等。符号推导包括代数与各种函数的恒等式、不等式的证明,几何命题的证明等。但无论是数值计算还是符号推导,它们在本质上是等价的、一致的,即二者是密切关联的,可以相互转化,具有共同的计算本质。随着数学的不断发展,还可能出现新的计算类型。
2远古的计算工具
人们从开始产生计算之日,便不断寻求能方便进行和加速计算的工具。因此,计算和计算工具是息息相关的。
早在公元前5世纪,中国人已开始用算筹作为计算工具,并在公元前3世纪得到普遍的采用,一直沿用了二千年。后来,人们发明了算盘,并在15世纪得到普遍采用,取代了算筹。它是在算筹基础上发明的,比算筹更加方便实用,同时还把算法口诀化,从而加快了计算速度。
3近代计算系统
近代的科学发展促进了计算工具的发展:在1614年,对数被发明以后,乘除运算可以化为加减运算,对数计算尺便是依据这一特点来设计。1620年,冈特最先利用对数计算尺来计算乘除。1850年,曼南在计算尺上装上光标,因此而受到当时科学工作者,特别是工程技术人员广泛采用。机械式计算器是与计算尺同时出现的,是计算工具上的一大发明。帕斯卡于1642年发明了帕斯卡加法器。在1671年,莱布尼茨发明了一种能作四则运算的手摇计算器,是长1米的大盒子。自此以后,经过人们在这方面多年的研究,特别是经过托马斯、奥德内尔等人的改良后,出现了多种多样的手摇计算器,并风行全世界。
4电动计算机
英国的巴贝奇于1834年,设计了一部完全程序控制的分析机,可惜碍于当时的机械技术限制而没有制成,但已包含了现代计算的基本思想和主要的组成部分了。此后,由于电力技术有了很大的发展,电动式计算器便慢慢取代以人工为动力的计算器。1941年,德国的楚泽采用了继电器,制成了第一部过程控制计算器,实现了100多年前巴贝奇的理想。
5电子计算机
20世纪初,电子管的出现,使计算器的改革有了新的发展,美国宾夕法尼亚大学和有关单位在1946年制成了第一台电子计算机。电子计算机的出现和发展,使人类进入了一个全新的时代。它是20世纪最伟大的发明之一,也当之无愧地被认为是迄今为止由科学和技术所创造的最具影响力的现代工具。
在电子计算机和信息技术高速发展过程中,因特尔公司的创始人之一戈登·摩尔(GodonMoore)对电子计算机产业所依赖的半导体技术的发展作出预言:半导体芯片的集成度将每两年翻一番。事实证明,自20世纪60年代以后的数十年内,芯片的集成度和电子计算机的计算速度实际是每十八个月就翻一番,而价格却随之降低一倍。这种奇迹般的发展速度被公认为“摩尔定律”。
6“摩尔定律”与“计算的极限”
人类是否可以将电子计算机的运算速度永无止境地提升?传统计算机计算能力的提高有没有极限?对此问题,学者们在进行严密论证后给出了否定的答案。如果电子计算机的计算能力无限提高,最终地球上所有的能量将转换为计算的结果——造成熵的降低,这种向低熵方向无限发展的运动被哲学界认为是禁止的,因此,传统电子计算机的计算能力必有上限。
而以IBM研究中心朗道(R.Landauer)为代表的理论科学家认为到21世纪30年代,芯片内导线的宽度将窄到纳米尺度(1纳米=10-9米),此时,导线内运动的电子将不再遵循经典物理规律——牛顿力学沿导线运行,而是按照量子力学的规律表现出奇特的“电子乱窜”的现象,从而导致芯片无法正常工作;同样,芯片中晶体管的体积小到一定临界尺寸(约5纳米)后,晶体管也将受到量子效应干扰而呈现出奇特的反常效应。
哲学家和科学家对此问题的看法十分一致:摩尔定律不久将不再适用。也就是说,电子计算机计算能力飞速发展的可喜景象很可能在21世纪前30年内终止。著名科学家,哈佛大学终身教授威尔逊(EdwardO.Wilson)指出:“科学代表着一个时代最为大胆的猜想(形而上学)。它纯粹是人为的。但我们相信,通过追寻“梦想—发现—解释—梦想”的不断循环,我们可以开拓一个个新领域,世界最终会变得越来越清晰,我们最终会了解宇宙的奥妙。所有的美妙都是彼此联系和有意义的。”[论/文/网LunWenNet/Com]
7量子计算系统
量子计算最初思想的提出可以追溯到20世纪80年代。物理学家费曼RichardP.Feynman曾试图用传统的电子计算机模拟量子力学对象的行为。他遇到一个问题:量子力学系统的行为通常是难以理解同时也是难以求解的。以光的干涉现象为例,在干涉过程中,相互作用的光子每增加一个,有可能发生的情况就会多出一倍,也就是问题的规模呈指数级增加。模拟这样的实验所需的计算量实在太大了,不过,在费曼眼里,这却恰恰提供一个契机。因为另一方面,量子力学系统的行为也具有良好的可预测性:在干涉实验中,只要给定初始条件,就可以推测出屏幕上影子的形状。费曼推断认为如果算出干涉实验中发生的现象需要大量的计算,那么搭建这样一个实验,测量其结果,就恰好相当于完成了一个复杂的计算。因此,只要在计算机运行的过程中,允许它在真实的量子力学对象上完成实验,并把实验结果整合到计算中去,就可以获得远远超出传统计算机的运算速度。
在费曼设想的启发下,1985年英国牛津大学教授多伊奇DavidDeutsch提出是否可以用物理学定律推导出一种超越传统的计算概念的方法即推导出更强的丘奇——图灵论题。费曼指出使用量子计算机时,不需要考虑计算是如何实现的,即把计算看作由“神谕”来实现的:这类计算在量子计算中被称为“神谕”(Oracle)。种种迹象表明:量子计算在一些特定的计算领域内确实比传统计算更强,例如,现代信息安全技术的安全性在很大程度上依赖于把一个大整数(如1024位的十进制数)分解为两个质数的乘积的难度。这个问题是一个典型的“困难问题”,困难的原因是目前在传统电子计算机上还没有找到一种有效的办法将这种计算快速地进行。目前,就是将全世界的所有大大小小的电子计算机全部利用起来来计算上面的这个1024位整数的质因子分解问题,大约需要28万年,这已经远远超过了人类所能够等待的时间。而且,分解的难度随着整数位数的增多指数级增大,也就是说如果要分解2046位的整数,所需要的时间已经远远超过宇宙现有的年龄。而利用一台量子计算机,我们只需要大约40分钟的时间就可以分解1024位的整数了。
8量子计算中的神谕
人类的计算工具,从木棍、石头到算盘,经过电子管计算机,晶体管计算机,到现在的电子计算机,再到量子计算。笔者发现这其中的过程让人思考:首先是人们发现用石头或者棍棒可以帮助人们进行计算,随后,人们发明了算盘,来帮助人们进行计算。当人们发现不仅人手可以搬动“算珠”,机器也可以用来搬动“算珠”,而且效率更高,速度更快。随后,人们用继电器替代了纯机械,最后人们用电子代替了继电器。就在人们改进计算工具的同时,数学家们开始对计算的本质展开了研究,图灵机模型告诉了人们答案。
量子计算的出现,则彻底打破了这种认识与创新规律。它建立在对量子力学实验的在现实世界的不可计算性。试图利用一个实验来代替一系列复杂的大量运算。可以说。这是一种革命性的思考与解决问题的方式。
因为在此之前,所有计算均是模拟一个快速的“算盘”,即使是最先进的电子计算机的CPU内部,64位的寄存器(register),也是等价于一个有着64根轴的二进制算盘。量子计算则完全不同,对于量子计算的核心部件,类似于古代希腊中的“神谕”,没有人弄清楚神谕内部的机理,却对“神谕”内部产生的结果深信不疑。人们可以把它当作一个黑盒子,人们通过输入,可以得到输出,但是对于黑盒子内部发生了什么和为什么这样发生确并不知道。
9“神谕”的挑战与人类自身的回应人类的思考能力,随着计算工具的不断进化而不断加强。电子计算机和互联网的出现,大大加强了人类整体的科研能力,那么,量子计算系统的产生,会给人类整体带来更加强大的科研能力和思考能力,并最终解决困扰当今时代的量子“神谕”。不仅如此,量子计算系统会更加深刻的揭示计算的本质,把人类对计算本质的认识从牛顿世界中扩充到量子世界中。
如果观察历史,会发现人类文明不断增多的“发现”已经构成了我们理解世界的“公理”,人们的公理系统在不断的增大,随着该系统的不断增大,人们认清并解决了许多问题。人类的认识模式似乎符合下面的规律:
“计算工具不断发展—整体思维能力的不断增强—公理系统的不断扩大—旧的神谕被解决—新的神谕不断产生”不断循环。
无论量子计算的本质是否被发现,也不会妨碍量子计算时代的到来。量子计算是计算科学本身的一次新的革命,也许许多困扰人类的问题,将会随着量子计算机工具的发展而得到解决,它将“计算科学”从牛顿时代引向量子时代,并会给人类文明带来更加深刻的影响。[论*文*网]
参考文献
光子芯片和量子芯片是两个维度的概念,没有强弱之分。光子芯片运用的是半导体发光技术,产生持续的激光束,驱动其他的硅光子器件;量子芯片就是将量子线路集成在基片上,进而承载量子信息处理的功能。
光子芯片可以将磷化铟的发光属性和硅的光路由能力整合到单一混合芯片中,当给磷化铟施加电压的时候,光进入硅片的波导,产生持续的激光束,这种激光束可驱动其他的硅光子器件。这种基于硅片的激光技术可使光子学更广泛地应用于计算机中,因为采用大规模硅基制造技术能够大幅度降低成本。
量子芯片的出现得益于量子计算机的发展。要想实现商品化和产业升级,量子计算机需要走集成化的道路。超导系统、半导体量子点系统、微纳光子学系统、甚至是原子和离子系统,都想走芯片化的道路。从发展看,超导量子芯片系统从技术上走在了其它物理系统的前面;传统的半导体量子点系统也是人们努力探索的目标,因为毕竟传统的半导体工业发展已经很成熟,如半导体量子芯片在退相干时间和操控精度上一旦突破容错量子计算的阈值,有望集成传统半导体工业的现有成果,大大节省开发成本。
(来源:文章屋网 )
1 远古的计算工具
人们从开始产生计算之日, 便不断寻求能方便进行和加速计算的工具。因此,计算和计算工具是息息相关的。
早在公元前5世纪,中国人已开始用算筹作为计算工具,并在公元前3世纪得到普遍的采用,一直沿用了二千年。后来, 人们发明了算盘,并在15世纪得到普遍采用,取代了算筹。它是在算筹基础上发明的,比算筹更加方便实用,同时还把算法口诀化,从而加快了计算速度。
2 近代计算系统
近代的科学发展促进了计算工具的发展:在1614年,对数被发明以后, 乘除运算可以化为加减运算,对数计算尺便是依据这一特点来设计。1620年,冈特最先利用对数计算尺来计算乘除。1850年,曼南在计算尺上装上光标,因此而受到当时科学工作者, 特别是工程技术人员广泛采用。机械式计算器是与计算尺同时出现的,是计算工具上的一大发明。帕斯卡于1642年发明了帕斯卡加法器。在1671年,莱布尼茨发明了一种能作四则运算的手摇计算器,是长1米的大盒子。自此以后,经过人们在这方面多年的研究,特别是经过托马斯、奥德内尔等人的改良后,出现了多种多样的手摇计算器,并风行全世界。
3 电动计算机
英国的巴贝奇于1834年,设计了一部完全程序控制的分析机,可惜碍于当时的机械技术限制而没有制成,但已包含了现代计算的基本思想和主要的组成部分了。此后,由于电力技术有了很大的发展,电动式计算器便慢慢取代以人工为动力的计算器。1941年,德国的楚泽采用了继电器,制成了第一部过程控制计算器,实现了100多年前巴贝奇的理想。
4 电子计算机
20世纪初,电子管的出现,使计算器的改革有了新的发展,美国宾夕法尼亚大学和有关单位在1946年制成了第一台电子计算机。电子计算机的出现和发展,使人类进入了一个全新的时代。它是20世纪最伟大的发明之一,也当之无愧地被认为是迄今为止由科学和技术所创造的最具影响力的现代工具。
在电子计算机和信息技术高速发展过程中,因特尔公司的创始人之一戈登・摩尔对电子计算机产业所依赖的半导体技术的发展作出预言:半导体芯片的集成度将每两年翻一番,这种奇迹般的发展速度被公认为“摩尔定律”。
5 “摩尔定律”与“计算的极限”
人类是否可以将电子计算机的运算速度永无止境地提升?传统计算机计算能力的提高有没有极限?对此问题,学者们在进行严密论证后给出了否定的答案。如果电子计算机的计算能力无限提高,最终地球上所有的能量将转换为计算的结果――造成熵的降低,这种向低熵方向无限发展的运动被哲学界认为是禁止的,因此,传统电子计算机的计算能力必有上限。
而以IBM研究中心朗道为代表的理论科学家认为到21世纪30年代,芯片内导线的宽度将窄到纳米尺度(1纳米=10-9米),此时, 导线内运动的电子将不再遵循经典物理规律――牛顿力学沿导线运行,而是按照量子力学的规律表现出奇特的“电子乱窜”的现象, 从而导致芯片无法正常工作:同样,芯片中晶体管的体积小到一定临界尺寸(约5纳米)后,晶体管也将受到量子效应干扰而呈现出奇特的反常效应。
哲学家和科学家对此问题的看法十分一致:摩尔定律不久将不再适用。也就是说, 电子计算机计算能力飞速发展的可喜景象很可能在21世纪前30年内终止。著名科学家,哈佛大学终身教授威尔逊(EdwardO.Wilson)指出:“科学代表着一个时代最为大胆的猜想(形而上学)。它纯粹是人为的。但我们相信, 通过追寻“梦想―发现―解释―梦想”的不断循环,我们可以开拓一个个新领域,世界最终会变得越来越清晰,我们最终会了解宇宙的奥妙。所有的美妙都是彼此联系和有意义的量子计算系统
量子计算最初思想的提出可以追溯到20世纪80年代。物理学家费曼RichardP.Feynman曾试图用传统的电子计算机模拟量子力学对象的行为。
在费曼设想的启发下,1985年英国牛津大学教授多伊奇DavidDeutsch提出是否可以用物理学定律推导出一种超越传统的计算概念的方法即推导出更强的丘奇――图灵论题。费曼指出使用量子计算机时,不需要考虑计算是如何实现的, 即把计算看作由“神谕”来实现的:这类计算在量子计算中被称为“神谕”(Oracle)。种种迹象表明:量子计算在一些特定的计算领域内确实比传统计算更强。目前,就是将全世界的所有大大小小的电子计算机全部利用起来来计算上面的这个1024位整数的质因子分解问题,大约需要28万年,这已经远远超过了人类所能够等待的时间。而且,分解的难度随着整数位数的增多指数级增大,也就是说如果要分解2048位的整数,所需要的时间已经远远超过宇宙现有的年龄。而利用一台量子计算机, 我们只需要大约40分钟的时间就可以分解1024位的整数了。
6 量子计算中的神谕
人类的计算工具,从木棍、石头到算盘, 经过电子管计算机,晶体管计算机,到现在的电子计算机,再到量子计算。笔者发现这其中的过程让人思考:首先是人们发现用石头或者棍棒可以帮助人们进行计算,随后,人们发明了算盘, 来帮助人们进行计算。当人们发现不仅人手可以搬动“算珠”,机器也可以用来搬动“算珠”,而且效率更高, 速度更快。随后,人们用继电器替代了纯机械,最后人们用电子代替了继电器。就在人们改进计算工具的同时,数学家们开始对计算的本质展开了研究,图灵机模型告诉了人们答案。