数据中心发展史:1960年到2010年

系统
IT领域很少发生革新,一旦发生的话,大多会让人措手不及。对于IT的大部分发展历史来说,其过程中蕴含的革新却很多。尤其是随着时间的演变,数据中心及其发展历史,可被看做是IT发展历史的一个缩影。

 IT领域很少发生革新,一旦发生的话,大多会让人措手不及。对于IT的大部分发展历史来说,其过程中蕴含的革新却很多。尤其是随着时间的演变,数据中心及其发展历史,可被看做是IT发展历史的一个缩影。

  作为支撑整个IT服务平台的数据中心来说,着眼于它们的发展变迁,对于了解整个IT发展历史来说,意义也更为重要。

  一、1960年前:ENIAC成数据中心发展雏形

  如果我们将数据中心定义为一个包含计算、存储、网络以及有着良好备份支持的小型而又完整功能的基础设施中心,那么无疑ENIAC将可被视作数据中心发展的鼻祖。

  ENIAC是Electronic Numerical Integrator And Computer(电子数字积分计算机)的简称,于1946年专为美国弹道研究实验室存储火力表而研制。在当时,没有其他计算机能胜任此重任。该计算机拥有 17468个真空管和7,200水晶二极管, 1,500 中转, 70,000 电阻器, 10,000 电容器,1500继电器,6000多个开关,每秒执 行5000次加法或400次乘法,是继电器计算机的1000倍、手工计算的20万倍。

[[100520]]

ENIAC

  二、1960s:数据中心虚拟化技术商业化

  不同于真空电子管系统,***晶体管计算机(TRADIC)在1954年研制成功,但更为高级的商业化系统出现时间则在1960s( 上世纪六十年代),它***了大型机(比如IBM System系列大型机)实现了突破性发展。大型机主要为政府和军事用途而研制,对环境场地和安全系统有独特要求。随着对系统性能的更高要求,人们逐渐希望能在相同的系统上能提供额外性能支持和资源共享,这样一来,虚拟化技术也就逐渐涌入了人们的视野。

  虚拟化的观念得到迅速普及,并且在大型机中的多任务处理机制得到进一步完善。***得到商业化应用的虚拟化技术在1972 年的IBM VM/370 OS上得到实现。作为数据中心最为重要的技术之一,虚拟化技术的发展同样也可融入到整个数据中心发展历程当中。

  三、1964年:***超级计算机

  1964年,控制数据公司(Control Data Corporation)研制出了世界上首台超级计算机“CDC6600”。该超级计算机也是超级计算数据中心的现代鼻祖,由西摩·克雷(Seymour Cray)为伦斯辐射实验室而设计。

[[100521]]

世界上首台超级计算机“CDC6600”

  “CDC6600”采用管线标量架构,使用西摩·克雷的小组开发的RISC指令集。在这种架构中,一个CPU交替处理指令的读取、解码和执行,每个时钟周期处理一条指令。它在诞生起至1969年,在西摩·克雷设计出第二台超级计算机之前,一直是世界 上最快的计算机。西摩·克雷也因此被称为超级计算机之父以及世界上最伟大的程序师之一。

  四、1970s:灾难备份横空出世

  1973年早期,灾难备份计划开始在大型机环境中涌现,但确保业务持续性实现真正部署却是Sungard。它于1979年构建起世界上***个灾备中心,为此,公司员工新增至17000名,而且灾备在当时并不是该公司的主要业务领域。

  五、1973年:Xerox Alto微电脑亮相

  伴随着英特尔在1971年推出4004处理器,使得微电脑的出现成为了可能。1973年施乐公司Xerox推出了Alto,它是***将计算机所有元素都结合在一起的图形界面操作系统。

  Alto使用3键鼠标、位运算显示器、图形窗口和以太网络连接。Alto能与另一台Alto计算机和激光打印机连成网络。这些将不同技术组合在一起,为后来信息技术革命和数据中心的发展做出了巨大贡献。

[[95592]]

施乐Alto微电脑

  六、1977年:世界***商业LAN——ARCnet

  ARCNET是1977年由Datapoint公司开发的一种安装广泛的局域网(LAN)技术,它采用令牌总线(token-bus)方案来管理LAN上工作站和其他设备之间的共享线路。ARCNET为4项主要的LAN技术之一,其他三项为Ethernet,token ring和FDDI。 同时,ARCNET也是现在的工业控制中的通讯方法之一。

  七、1980s早期:PC时代兴起

  大型机对于普通用户来说过于昂贵,而且需要占用巨大的场地。随着IBM在1982年推出***真正意义上的PC 5150,世界各地的公司都开始陆续生产和推广台式计算机。

  八、1980s:虚拟化应用遭遇滑铁卢

  由于众多PC在1980s的时候,都能提供多任务处理,因此在当时的虚拟化应用并不受欢迎。这一状况直到1990s的时候才得到改善。

  九、1990s早期:CS结构计算模型

  20年前,微计算机产业迎来了一片繁荣的景象。老一代的PC已经褪去了光辉,取而代之的是连接的网络设备,尤其是client-server技术模型的出现,使得主机代管和外部数据中心逐渐显现。

  十、1990s晚期:互联网和Non-Stop Computing

  上世纪90年代中期,互联网出现并对市场产生了巨大影响,也为接下来的十几年数据中心的部署提供了更多选择。随着公司对互联网业务应用的支撑需求,网络连接和协作服务成为了企业部署IT服务的必备选择。网络提供商和主机托管商在成百上千数据中心创建中得到广泛发展,数据中心作为一种服务模式已经为大多数公司所接受。

  十一、2000s早期:能耗问题出现

  PC的繁荣和数据中心的出现,也带来了一系列问题,比如需要占用更多的场所,增加能耗。早在2002年,数据中心就已经消耗了美国1.5%的能源,并以每年10%的速度递增。每年有500万台新服务器被部署在数据中心,并增加成千上万个家庭所耗费的能源消耗。

  为此,数据中心所有者也开始意识到这些问题的严重性,并开始部署更加经济高效、绿色环保的基础设施。2007年,大型数据中心运营商开始采用可循环的能源技术(风能、太阳能等)来支撑数据中心的日常运行。

  十二、2007年:模块化数据中心出现

  数据中心近年兴起了模块化数据中心这种新形式,它将通常数据中心的设备都部署在集装箱里面,因此又名集装箱数据中心。最有名的包括Sun Blackbox——该集装箱数据中心中的280个服务器都被部署在20英寸柜的集装箱里面,并可被运往全世界各地。

  这种数据中心虽然没有传统的数据中心那么招人喜欢的恢弘气势,但它却仅需要传统数据中心1%的建造成本,拥有灵活的机动性,而且能大幅降低部署周期。

[[100523]]

Sun Blackbox集装箱数据中心

  十三、2010年及未来:云数据中心

  SaaS实现了基础架构带来的计算资源的需求向按需定购模式的转变。该商业模式借助了网络基础架构和数据中心运营商,共同向用户提供大规模增长的数据带宽资源。通过这些资源,可以为用户提供各种IT资源服务。

  虽然一开始大家都没意识到这种发展有如此之迅猛,但云服务提供商比如亚马逊、以及其他几个基础架构服务商,基于云数据中心平台,都拥有海量的订购用户。截止目前,谷歌已经在全美境内拥有17个数据中心已经其他16个数据中心,并将新增服务器数量至200万台,从而满足客户不断增长的业务需要。

责任编辑:张浩 来源: ZOL
相关推荐

2017-07-14 14:37:25

数据中心核心交换

2012-04-10 10:07:33

域名发展史

2011-11-28 14:43:10

微处理器

2012-05-16 10:34:49

UbuntuLinux

2009-11-13 05:30:38

PowerIBM

2013-12-30 09:02:45

数据中心网络预测2014

2022-01-12 14:07:51

数据中心数据中心架构数据中心网络

2013-12-30 10:58:47

数据中心网络预测数据中心

2016-10-10 22:11:02

2010-11-01 00:40:39

Unix发展史

2010-12-24 18:09:39

2022-07-06 10:56:51

数据湖架构

2019-11-29 15:47:42

HadoopSparkFlink

2022-05-27 17:10:51

知识图谱谷歌

2010-03-12 14:46:00

云计算中心

2016-01-05 10:15:06

数据中心2016IT发展

2017-06-22 13:26:37

人工智能发展历史大数据

2010-02-05 15:46:41

IBM Power

2009-03-10 16:46:56

2012-08-14 09:22:33

域名发展史
点赞
收藏

51CTO技术栈公众号