“用户只需要640K的内存就足够了。”比尔·盖茨1989年在谈论“计算机科学的过去现在与未来时”时如是说。那时,所有的程序都很省很小,100MB的硬盘简直用不完。互联网还在实验室被开发着,超文本协议刚刚被提出。它们的广泛应用,将在6年之后开始。
今天,在提供装机服务的网站上可以检索到这样的信息,一个普通白领上班所需的电脑标配是:低端酷睿双核/1GB内存/100GB硬盘,很快,兆级的硬盘就将进入家庭机使用范围。
硬件配置飞速飚高的背后,是互联网上数据飞速的的增长——这简直在挑战人类想象力的极限,海量数据作为一个概念被提出时,单位以GB计。而现在这只是一个小网站的数据量单位。不尽畅想,如果有一天,互联网上可用的数据是现在的 1000倍甚至更多时,我们的PC将变成什么样子?硬件会进化到怎样的形态?又或者,个人计算机根本就不必承受如此海量的数据计算?
云计算给出了另一种可能
云计算是一个新兴的商业计算模型。利用高速互联网的传输能力,将数据的处理过程从个人计算机或服务器移到互联网上的计算机集群中。这些计算机都是很普通的工业标准服务器,由一个大型的数据处理中心管理着,数据中心按客户的需要分配计算资源,达到与超级计算机同样的效果。
“云”,既是对那些网状分布的计算机的比喻,也指代数据的计算过程被隐匿起来,由服务器按你的需要,从大云中“雕刻”出你所需要的那一朵。实在是非常浪漫的比喻。
高性能低投入PK安全风险预警
云计算被它的吹捧者视为“革命性的计算模型”,因为它使得超级计算能力通过互联网自由流通成为了可能。企业与个人用户无需再投入昂贵的硬件购置成本,只需要通过互联网来购买租赁计算力,“把你的计算机当做接入口,一切都交给互联网吧”。
畅想一下,当计算机的计算能力不受本地硬件的限制,更小尺寸,更轻重量,却能进行更强劲处理的移动终端触手可得。我们完全可以在纸样轻薄的笔记本上照样运行最苛刻要求的网络游戏,也完全可以在手机上通过访问Photoshop在线来编辑处理刚照出的照片。
更为诱人的是,企业可以以极低的成本投入获得极高的计算能力,不用再投资购买昂贵的硬件设备,负担频繁的保养与升级。例如,美国的房地产网站Goosipy.com希望建立一个数据库,计算67万个家庭在12年间购入沽出房产的的数据,以便为消费者提供更好的建议。如果他们自己动手,初步预计,需要花费6个月的时间和数以百万计的美元。而最后,他们租赁了Amazon.com所提供的“弹性计算机云”服务,通过使用Amazon强大数据分析能力,这个项目的完成仅用了3个星期,费用不到5万美元——云计算的妙处之一,即是按需分配的计算方式能够充分发挥大型计算机群的性能。如果你只需使用5%的资源,就只需要付出5%的价格,而不必像以前那样,为100%的设备买单。
尽管使用云计算服务的好处听起来如此诱人,但更多人却抱以观望的态度。这种谨慎来自于对安全问题的考虑。云计算意味着数据被转移到用户主权掌控范围外的机器上,也就是云计算服务提供商的手中。那么,如何保证这些数据的安全性?如何能相信服务商不会将数据出卖给商业竞争对手呢?这样的担心从来没有停止过。在2007年初,Google发布Google Apps服务(一种免费提供的简化office软件包,数据在互联网上存储与处理),就有许多分析者提出质疑:我们怎么能确定数据在Google那里是安全的?
服务商解释说,对云计算过程里的数据安全问题,“完全不必担心”。因为数据在集群上被分解为散乱的状态,就连服务器也不太理解他们,想要破译与还原数据难度非常高。作为云计算的主要推动者,发布Blue Cloud计划的IBM公司还表示,在2008年,会制定更多的相关流程与标准来保证客户的数据安全。
但这仍然无法完全打消人们的疑虑,毕竟,在一个信息为王的时代里,哪怕是数据碎片的泄露也是危险的。只要存在数据被还原泄露的可能性,云计算服务就会被高安全要求级别的客户拒之门外。
换言之,当我们的计算机真的仅仅成为了互联网服务的接入口,当数据的处理离我们越来越远,对服务提供商“Don’t Be evil”的要求就越来越高,我们真的能如此信赖道德标准的力量吗? 安全问题将始终是云计算推广发展中绕不开的一个坎。
【编辑推荐】