要是没有学术思想是不配叫做大学生的。
接下来就给大家吹吹牛,有关计算机的前沿、发展和学科的趋势。
 

一、计算机作为计算工具的前沿与发展

 

人和动物最本质的区别在于人会制造和使用工具,工具的本质在于抽象出行为中机械重复的部分,自动化地替人类完成特定的任务,在这个意义上,计算机作为人类历史上发明的最伟大的生产力工具之一,它的最终目的就是实现人工智能,也就是让计算机能够自动地代替人类完成特定的计算任务,这些任务不仅包含了已经实现的依赖于简单模式匹配的行为,比如工业控制、数值计算,也包含了依靠复杂模式匹配的高智能行为,比如自然语言理解、决策制定。

 

计算机是图灵机的具体实现,为了达到这个目的诞生了计算机的相关技术,也就是图灵机的实现技术 —— 图灵机的读写头实现为了硬件和软件,图灵机的纸带实现为了数据结构和相关理论,图灵机的规则库实现为了算法,而设计这一切的方法论被实现为了计算机工程方法。不管怎么讲,这一切都是为了一个目的 —— 让图灵机适应更普适的模型和更快地求解这些模型,换句话说,就是人工智能。

 

未来计算机的实现形式可能会随着现有计算机的性能瓶颈难以突破而发生颠覆性的创新变化,这些变化包括了计算机体系结构的变化(量子计算机相对电子计算机),计算机组成的变化(更智能化的指令系统),更具变革意义的是运维方式的变化 —— 云计算就是计算机的实现形式在运维方式上的一次革新,这种革新不仅带来了生产力的增加,还带来了协作模式的变化,互联网的协作模式可以改变各个细分行业的权力结构、资源分配、评价体系和合作规范。这些革新让计算机更加智能,也让计算机产业彻底颠覆了一些传统领域,改变了人们的生活。

 

在这里着重阐述四种值得关注的计算机实现革新 —— 量子计算机 (例如D-wave 量子计算机)、基于统计学方法的高智能系统 (例如IBM Watson 超级计算机)、基于算法的高智能系统 (Wolfram Alpha 智能计算系统)、更加智能的分布式系统 (例如 Hadoop)

 

量子计算机指的是利用量子纠缠进行计算的机器,它用量子门电路操纵量子位来进行计算。它利用了量子物理最基本的性质:量子状态是可以叠加的。传统计算机可以操纵n维的空间,量子计算机则可以用酉变换操纵2^n维的空间。从这个描述看,量子计算机是向量机的一个特例。

 

量子计算机有两个典型的特质,一是使用量子纠缠进行计算;二是量子计算机不是通用机,它是专用机,只能求解特定问题,也就是量子退火问题,所以量子计算机不可能代替传统电子计算机,它只能是电子计算机的补充。目前,没有人知道量子计算机的描述是否是图灵机。量子计算机在处理与最小作用量相关的问题上有电子计算机不可比拟的优势,例如用退火算法求优化类问题、自然语言处理 (最小熵)、图像识别。量子计算机不是通用计算机,但是却出人意料地引起了广泛关注,其原因是因为几乎自然界所有问题都和最小作用量相关,也就是基本上所有的问题加以范式化描述之后都可以用量子计算机求解,只不过有的问题用量子计算机求解成本反而高于传统计算机,因此现阶段学术界对量子算法的研究一般都在规划问题上,特别是退火算法。

 

量子计算机的体系结构非常成熟,它的理论产生甚至早于电子计算机。但是,量子计算机的组成还非常不成熟,现阶段有非常多的解决方案,还没有哪一种方案成为公认标准,造成这一现状的原因是实现量子纠缠计算的方法非常多,没有哪一个是完全成熟的,目前相对成熟的方案是量子阱。在量子计算机实现领域,加拿大的 D-Wave System 公司是行业领头羊。Google和洛克希德-马丁都向 D-Wave发出了为其制造量子计算机的请求。

 

D-Wave 量子计算机的CPU被设计为用量子退火算法完成自然解优化问题,一切程序都必须翻译成这类问题,才能够在D-Wave上面运行。D-WaveCPU是一个物理体系,它的能量依赖于一系列参数,还有它内部的128个量子位的0-1取值。它能优化的函数只能是关于这些量子位的一个二次函数。更精确地讲,这个问题是NP-hard的。如果能高速度解决它的话,那很多问题都可以迎刃而解。当然,目前也没有人能够证明D-Wave能不能够在多项式时间内求解这些优化函数。相关的量子算法分析技术还需要革新,TAOCP中用于经典算法分析的技术和算法性能衡量标准可能不再适用于量子算法。

 

量子计算机的发展方向应该在于量子计算机组成的标准化,量子算法理论的完善,量子计算机制造工艺的改进,以及怎样把各类问题描述成退火类问题。

 

在国际象棋比赛中战胜多位大师的IBM Watson超级计算机则是一种基于统计学的超级计算机,IBM 托马斯-沃森研发中心的科学家为了实现它,人为地设计了一整套相关的神经网络,并且用一系列复杂的硬件和软件,它运行于一组 Power 750计算机上,它包含了 90台服务器,共有 2880个处理器并行运行由IBM研发的DeepQA 软件和存储器。它的容量相当于大约一百万册书籍的信息。在多年内,沃森吸收了大量信息,包括商业信息文本,例如《世界百科全书》,而且包括允许随意复制的内容,例如维基百科。

 

在对沃森提出问题后,100多种算法会以不同方式分析问题,并寻找多个似乎准确的不同答案所有这些都同时进行。而另一组算法对答案进行排序和打分。对于每个可能的答案,沃森将寻找可能支持或者反驳这个答案的证据。对于数百个可能的答案中的没一个,沃森都寻找一些证据,然后利用火速百种算法对证据支持答案的程度进行评分。具有最佳证据评估结果的答案将获得最高的可信度。评分最高的答案会成为最终答案。

 

沃森的优势并不是计算速度,而是进行复杂模式匹配的能力。它是一台基于统计学的机器,训练它的过程和教小孩是异曲同工的。比如,科学家们总结出了过去几十年最顶尖国际象棋比赛的棋局记录,输入了Watson的神经网络,然后Watson的知识库就得到了有关国际象棋的一些经验,它在下棋时,解决棋局的方法就是按照了隶属度搜索经验库,并且给出解决方案。当然,国际象棋只是一小方面,Watson经过十几年的发展,已经具备了高级人工智能的某些特征。比如,在日本进行的某知识抢答比赛中,Watson作为特殊选手参赛,战胜了多位高智商选手取得冠军,这应该是计算机发展史上面的一个突破。

 

随着大数据及其相关技术的发展,基于统计学的机器在大数据时代会的到长足的发展,毫无疑问,在大数据时代,IBM已经抢占了先机,因为Watson就是基于统计学构建的机器,发展它的过程让IBM积累了非常多的与数据相关的技术和专利。通过合理地分析已有的数据获得智能,是Watson的构建思路,在未来,随着大数据理论的发展,全样本的获得成本已经变得非常低廉,可以想象,如果拥有全样本的训练数据,IBM Watson的智能化程度完全可以逼近人类。

 

Wolfram Alpha则是一个基于计算 (算法的智能计算系统。它和 IBM Watson 的实现思路完全不同,Watson是数据科学和统计学的产物,Wolfram Alpha是计算科学的产物。在实现方式上面,Watson是一个软件和硬件组合的实现,而Wolfram Alpha则是一个纯软件实现,因此Wolfram Alpha部署计算能力的成本会大大低于Watson

 

Wolfram Research 公司提出了知识计算这个概念。它指出,世间的一切东西都是可计算的,比如,计“sin x的积分和计算太阳什么时候下山并没有什么本质的差异,事实上在范畴论里面,这两者的概念是统一的。Wolfram Research 对这些东西进行了数学建模,定义出了论域内各个事物的运算规则,并且把所有的事件都描述成计算,然后,他们把这写用 Mathematica实现了出来,就成为了Wolfram Alpha。在Wolfram Alpha中,计算sin x的积分需要执行Integrate[Sin[x],x]这条指令,而计算今天太阳什么时候落山则执行Sunset[Today]这条指令,这可以看出,在Wolfram Alpha中,世界上所有事件的本质都是一样的,那就是计算。

 

Wolfram Alpha提供的人工智能被用在了苹果公司的搜索引擎Siri中,苹果公司向Wolfram Research购买了一整套Wolfram Alpha的软件系统,并且基于Wolfram Alpha构建了SiriSiri的底层用了上万条Wolfram Alpha指令,用来实现自然语音处理、决策制定等语音助手的功能。相对于IBM Watson的高大上,Wolfram Alpha的实现更加接地气,因为它的硬件无关性。Wolfram Alpha的任何购买了Mathematica软件的用户,都可以在Mathematica中调用Wolfram Alpha的功能。也就是说,Wolfram Alpha已经达到了大众化应用的水平。在普及高智能计算能力的方面,Wolfram Alpha走得比IBM要超前。考虑到Mathematica在科研领域的绝对统治地位,至少在学术界,Wolfram Alpha带来的高智能会成为学术研究领域强大的生产力工具。比如,数学家完全可以教会它做自动推理,音乐家可以用它来分析古典音乐的严谨性,物理学家用它来分析材料制造技术,化学家用它来分析化学平衡的移动,等等。而苹果Siri的广泛应用,说明了Wolfram Alpha同样可以占领日常生活的市场。

Hadoop是一个高性能的分布式系统,它是Apache基金会负责的一个Map/Reduce理念的实现。不同于上述三类受到广泛关注的技术,Hadoop是在运维方式上面的革新。它的意义在于,用分布式的低成本电脑构建强大的计算系统成为了可能。Hadoop的理念是用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统HDFS,它有高容错性的特点,支持部署在低廉的硬件上提供高吞吐量来访问应用程序的数据。HDFS和普通文件系统(比如NTFSFAT32EXT4的本质差异在于它可以以流的形式访问文件系统中的数据。Hadoop的框架最核心的设计就是:HDFSMap/ReduceHDFS为海量的数据提供了存储,则Map/Reduce为海量的数据提供了计算能力

Hadoop的优点在于高可靠性、高扩展性、高效性、高容错性和低成本。Hadoop的分布式架构,将大数据处理引擎尽可能的靠近存储,对例如像ETL这样的批处理操作相对合适,因为类似这样操作的批处理结果可以直接走向存储。HadoopMap/Reduce功能实现了将单个任务打碎,并将碎片任务发送到多个节点上,之后再以单个数据集的形式加载到数据仓库里。

 

Hadoop能够使计算机变得更加智能是显然的,因为它可以直接提升多台计算机的运算能力,而强大的运算能力是智能的前提。前面提到的Wolfram Alpha在部署的时候,也用到了Hadoop作为底层支持软件;而作为Map/Reduce理论发明者的Google,更是处处使用了Hadoop作为其分布式系统的支撑框架 —— Google数据中心没有一台超级计算机,他们将多台废旧电脑用Hadoop组成了集群,实现了和超级计算机同等的运算效能。

 

在大数据时代,Hadoop及其它的分布式解决方案带来的这种改变不仅限于运算能力的提升,还限于免除了计算能力对地域的依赖。例如,美国国家海洋与大气管理局利用海量数据进行气象、生态系统、天气和商务研究,新闻集团使用进行文本分析和Web信息挖掘Google和腾讯则用它进行人脉关系网的信息挖掘,Hadoop可以真正实现信息的分布式碎片化采集、分布式存储、分布式分析,以及对运算能力随着负载进行动态分配。

 

未来分布式系统的发展趋势是,以数据本身为核心,以数据的种类提供服务,算法针对数据本身设计,运维模式根据数据特点设定。用更高的抽象层级消减数据量和数据维度带来的复杂性。以数据为核心,可以在系统建模的时候,模型更加贴近于真实世界,让描述化的东西来代替流程化的东西,做到更好的普适性,增强系统的智能程度。

 

 

二、计算机科学作为一门形势科学的前沿与发展

 

I. NKS

 

以上是计算机作为运算工具本身的一些前沿技术,而作为一门形式科学,计算机科学则是一个更为广泛的话题,它的发展不仅包含了计算机作为一个机器的发展,也包含了计算机科学作为一门科学的发展,例如计算机科学怎么影响其它的自然科学,计算机科学的方法论怎么成为其它自然科学的一种范式,甚至包括了用计算机科学代替数学成为自然科学标准描述工具的可能性。

 

最典型的一个例子是英国物理学家 Dr. Stephen Wolfram 提出的 A New Kind of Science (简称 NKS),它试图把世界上万物的运行的内在规律用和图灵机等价的过程描述出来,指出了万事都是在一些简单的程序支配下运作的,我们看到的万物是它经过了无数次迭代之后涌现的结果,比如时间和空间就是图灵机多次迭代后涌现出来的。Dr. Wolfram 并不是信口开河,他用超人的智慧严谨地证明了他的想法是正确的,并且在书里提及了大量用 NKS 来解释自然科学现象的例子,比如用 NKS 模拟数域、微积分,解释E8理论,甚至统一广义相对论和量子力学。

 

在书《A New Kind of Science》中,Dr. Wolfram 分了12章来介绍NKS理论。

 

1. The Need for a New Kind of Science 
这一章讲述wolfram写作这本书的动机,以及作者发现自己的新科学的简单历史。原来Dr. Wolfram12岁的时候看到了一本物理书上的随机分子碰撞的图形就想到了要用计算机模拟这一切,于是开始了他的科学生涯。在之后的日子里,作者不断的产生新想法,又不断自己试图找到了答案,于是写成了这本书。这一章还介绍了与该书内容相关的N多领域,包括复杂系统、人工智能、人工生命、系统科学等等。
  
2. The Crucial Experiment 
  大致介绍书中的研究方法,用细胞自动机做实验,然后找到该自动机的涌现规律。其中很多内容是关于一维细胞自动机的基本知识,包括如何对规则编码等等细节。
  
3. The World of Simple Programs 
  这章开始介绍各种各样的计算模型,不仅仅是细胞自动机,还有移动自动机、图灵机、L系统、tag系统、寄存器计算机、符号系统等等模型。也许计算的类型多种多样,但是所有的计算系统的行为都可以大致分为wolfram的四类。这些模型提醒我们,虽然自然界的现象千奇百怪,但我们可能仅仅用一些简单模型就可以模拟。
  
4. Systems Based on Numbers 
  这章用丰富的图形展示给大家细胞自动机是怎样模拟数字运算系统,包括数论的运算,+—*/等,还包括微积分、微分方程等等。本章传达了这样一个信息:凡是基本数学能做的事情,简单的细胞自动机也都能做。
  
5. Two Dimensions and Beyond 
  主要介绍二维的计算系统的行为,以及更多的计算模型,包括动态网络和约束生成系统。其中网络模型则可以直接应用于后面的物理系统,它有望最终解释究竟什么是时空。约束生成系统则直接跟复杂适应系统有关,作者认为复杂系统的适应性行为直接源于简单计算的满足约束行为。
  
6. Starting from Randomness 
  详细的讨论了四类细胞自动机的行为,也就是我们熟知的单一状态、周期、混沌、复杂类型。其中作者对后两种类型进行了比较详细的介绍。
  
7. Mechanisms in Programs and Nature 
  介绍了什么是通用计算的概念,并讨论了随机性和复杂性。作者把随机性归为了三类,也就是全是由外部操作生成的随机、初始化微小扰动造成的随机,和系统内生的随机。对最后一种也就是说初始状态可能完全确定,最后行为也可能是随机的。本章还讨论了离散与连续、混沌于秩序、简单行为与复杂行为等问题。
  
8. Implications for Everyday Systems 
  主要讲述细胞自动机在物理系统中的应用,包括晶体问题、流体问题等等,另外,还有对生物世界多彩多样的花纹的解释。
  
9. Fundamental Physics 
  作者提出一个时空观:这个世界就是一个计算机,每一件事情都是计算。在这个前提下,我们来看世界,怎样的宇宙才是从程序上最可行的呢?作者探讨了空间网络、因果网络等模型。究竟宇宙是不是一太计算机,我们实际上不能证伪,但是如果从程序的角度出发,却发现我们可以从一个完全不同的角度得到很多疑难问题的解答。在因果网络模型下,相对论、量子论等等都是系统涌现出来的一种结果。如果这一切正确的话,我们自然能得到一个统一量子论和相对论的工具。另外,本章提出来的时空观是非常关键的,因果网络是最本质的东西,时间和空间甚至都是涌现出来的现象。
  
10. Processes of Perception and Analysis 
  讲述把细胞自动机应用到计算机科学、人工智能、信息处理等领域的具体方法。视觉感知、加密解密、思维过程等等都有涉猎。
  
11. The Notion of Computation 
  究竟什么是计算?在很早,丘奇图灵论题就指出,一切与图灵机等价的过程就是计算。那么细胞自动机与图灵机那个更强呢?通过作者特别的证明(运用图形和说明,而不是数学推导),我们看到一类特制的细胞自动机可以模拟任何一台其他的细胞自动机,而且还能模拟图灵机以及其他的计算系统。翻过来,图灵机和其他计算模型也都能模拟细胞自动机。实际上能够执行通用计算的机器仅仅需要简单的规则,也就是101号细胞自动机。作者认为101细胞自动机非常重要,因为它规则简单,而且能够模拟任意的复杂计算过程。
  
12. The Principle of Computational Equivalence 
  本章提出了一个猜想:The Principle of Computational Equivalence,也就是计算等价性原理,作者认为宇宙的一却活动都是一种计算,而且能够完成复杂计算的过程都是等价于通用计算的,所以,原则上讲,细胞自动机110能够模拟任何一个复杂的计算过程。作者同时也讨论了哥德尔定理、不可判定问题,认为对于第四类细胞自动机,我们除了运行它以外,根本无法判定它在未来的行为,即使在原则上,因为它是不可判定的问题。

 

由于Dr. Wolfram的理论太具有革命性,这种革新丝毫不亚于多年前相对论的提出,因此在理论物理学界,只有少数开明、心胸宽广、功力深厚的物理学家敢于拍板说他的理论是正确的。在Dr. Wolfram的理论可以被叫做计算机万能理论,它把基于数学的方程式推导建立出来的自然科学体系完全推翻了,他指出,自然科学本身不应该分类为物理学、化学,因为它们的内部机理是完全一致的,他认为NKS之所以叫“A New Kind of Science”,是因为他发明了一门和物理学、化学完全地位相同的科学门类,只不过还没有名字,所以干脆就叫新科学

 

NKS的提出是计算机科学发展史上最辉煌的篇章之一,丝毫不亚于Alan Kay发明面向对象,John McCathy 发明LISP,以及Ken TompsonDennis Ritch 发明C语言和Unix。它的意义在于,用事实证明了图灵对计算本质的归纳,用严谨的推理阐述了用计算机科学代替数学成为自然科学的核心范式的可能性。

 

 

II. DOA

 

另外,随着人类社会信息总量的暴增,与数据相关的计算机科学分支,例如分布式计算、数据挖掘、数据库理论以及其它针对某些行业提出来的开发范式,例如苗放教授提出的DOA (面向数据的架构或者与之类似的理论也将会在将来成为计算机科学发展的热点,当然,它从提出到被认可是需要时间的,也需要一定的时运。

 

DOA是一个偏向于工程的新技术,DOA的提出是为了解决信息中心的信息系统所面临的问题,包括了系统间的数据共享问题、数据积累的问题、系统功能扩展的问题。DOA明确了与数据有关的一些观点,包括了数据的一些刻画唯一性、存在性、合理性的量度,比如生命周期、属性、位置特征、独立性、访问控制权限。

 

DOA本质是建立更高的抽象层级,用分层的思维消减大数据带来的复杂度。DOA试图提出一个以数据为核心的理念,并且提出在实现业务系统的时候,以数据注册中心为关键点,递归地构建各个依赖于这些数据的子系统以实现业务逻辑,这些子系统之间遵循相同的规范,为了容纳、管理和共享数据引入数据资源池。以数据为核心去构建系统,让开发的核心思维从技术转向数据,由数据决定技术,并且从哲学的角度重新审视大数据给我们带来的思维变革和认知进步。

 

DOA的意义是深远的,首先它是大数据时代针对特定的背景提出的软件体系架构,也是一门以数据为出发点的数据系统和信息系统的构建方法,它构建出来的系统会有强大的硬件无关性、可扩展性,是提高生产力水平的一个有力工具。当DOA成为一种成熟的开发范式后,这必然会带来人们对虚拟世界认知的改变或者进化,这正如 Alan Kay 的面向对象所带来的改变一样,最后上升到哲学层面成为一种全新的思考方式。

 
 

三、总结

 

1. 计算机科学的灵魂在于黑客精神,它代表了学术、规范、创新、极致、无私和以人为本。

 

无论计算机怎么发展,黑客精神是会永远传递下去的,这种精神也是吸引年轻人从事计算机相关产业的精神财富。人不能忘本,计算机从业人员也是如此。

 

普渡大学于1962创立了世界上第一个计算机科学专业,我们可以认为计算机科学作为一门独立的学科诞生于1962年。在短短的52年里,计算机科学得到了翻天覆地的发展,在科学界创造了前无古人的奇迹。为什么物理学的时空观演化花了上前年,而计算机的几次彻底的颠覆只需要几年甚至几个月时间?为什么从19812001年,PC的运算速度可以做到每年翻翻?这是需要总结的东西。

 

我觉得根本原因是,在计算机诞生初期,对计算机科学和计算机产业起到推动作用的人是一群黑客,这是一群不同于其它科学家的人。他们具有坚实的物理学、数学、电子学基础,智商超群,通过帮助他人来展示自己的聪明才智,并且以此为荣。我们知道,在美国社会中,很讲究一个词,叫做政治正确,毫无疑问,黑客精神完完全全是政治正确的,因此黑客精神被广大美国计算机从业者接受也就不足为奇了,他们也以黑客精神作为自己的行为准则。大学教授以黑客精神来要求自己,并且言传身教,让自己的学生也接受黑客精神,这样,以黑客精神为核心的计算机文化就被传承了下来。黑客是没有私心的,他们做开源软件,无偿的交流自己发明的算法,在研讨会上尽情地争论,不论资排辈而是以能力来定高低。这样的氛围,减少了计算机科学发展方向走弯路的机会,提高了从业者的积极性,在结果上带来了计算机科学和相关产业的飞速发展。

 

 

2. 计算机是一个对创新能力要求极高的行业,离经叛道未必不好。

 

在文章的第二部分提到的那些新技术,都可以称得上是碾压式的创新。在计算机行业里面,没有什么是一成不变的,甚至在特定的环境下对前人的全盘否定是更正确的做法,比如微软背离了Unix所规定的操作系统范式,自己全新设计了Windows,事实证明,Windows是一套非常成功的操作系统。离经叛道在计算机行业里面不是一个贬义词。只要我们能够从行业的实际需求,或者计算机本身发展所涌现出来的趋势出发,实事求是地去做,那就是正确的做法。假设我们抱着软件工程方法学规定的条条框框不放,就不会有DOA。假设我们只关注经典的科学,就不会有NKS

 

 

3. 创新不是乱想乱说,只懂计算机的人不可能成为大师。

 

在计算机行业里面离经叛道有的时候是正确的,但并不意味着可以毫无根据地离经叛道。所有的创新都是站在巨人肩膀上的,比如没有Map/Reduce就不会有Hadoop,没有E8理论更不可能有A New Kind of Science

另外,我们注意到了,很多创新来自于各个计算机应用的细分行业。比如,DOA的提出就来自于空间信息技术领域对海量异构数据的处理,NKS的提出也是一个物理学家对时空观的认知导致的。只懂计算机的人,是提不出DOA的;只懂计算机的人,更搞不出NKS这样的碾压式创新。

 

万事万物都是相通的,一个人眼界的宽度,决定了他在一个细分领域里面能达到的高度。想成为一名计算机科学家,或者专家,必须要是一个见多识广的人。这也是我给自己定下的奋斗目标。

 

 

4. 计算机是一门工具,人工智能是最终目标。

 

工具的本质在于抽象出行为中机械重复的部分,自动化地替人类完成特定的任务,因此计算机的最终目的就是实现人工智能。当然,人工智能是有很多表现形态和实现方式的。怎么判定一样东西是不是行业发展的趋势?我想,方法就一个,那就是看它是不是能够拥有更高的智能化程度,是不是有了它就可以为人类分担更多的任务。如果是的,它就是计算机发展的趋势。大数据、DOA、量子计算等等,这些东西看起来似乎没有什么直接联系,但它们的目标都是构建更高层次的智能,帮助人们自动化地完成更多任务,在这个意义上,它们就是计算机发展的趋势。 

 

 

四、感谢

 

为推动计算机行业发展做出了杰出贡献的计算机科学家:

 

阿兰-图灵

-诺依曼

理查德-费曼

约翰-巴克斯

约翰-麦卡锡

艾伦-

A.W. 戴克斯彻

迈克尔-拉宾

高德纳

罗伯特-陶尔扬

莱斯利-兰伯特

列文

弗雷德里克-布鲁克斯

伯顿-史密斯

丹尼尔-希利斯

爱德华-费根鲍姆

道格拉斯-莱德纳

丹尼斯-里奇

-汤普森

拉里-佩奇

谢尔盖-布林

比尔-盖茨

史蒂夫-乔布斯

史蒂夫-沃尔夫勒姆

……