您好, 访客   登录/注册

互联网的明天

来源:用户上传      作者: 本刊编辑部

  在学会走路之前就能熟练上网的一代人,或许已经出现了。对他们而言,上网就像呼吸一样自然。一直以来,人们都希望自己面前的互联网未来可以变得更加精准、快速和安全。全球互联网发展的脚步从未停止,推动其“向前走”的新技术能提供保障。其中,有一些技术已经在部署中,但是仍然需要时间才能最终走向实际应用。
  扩展当前IP地址的IPv6已经发展了许多年,可以确保网址真实可靠性的域名系统安全扩展(Domain Name System Security Extensions)也需要几年的普及时间。北极地区西北通道的新海底光缆已经在规划之中,预计建成之后,访问地球另一侧服务器的网址响应时间将会缩短60ms。不过,铺设更多的光缆并不是将不断增长的数据推送到网民面前的高效解决方案。从数据中心到浏览器涉及到不同级别的软件技术,才能确保网络负载达到最优化。明年,将会有哪些新技术和标准“站”出来推进互联网向前发展呢?
  更好地控制数据流
  快速地处理和传送PB(250,1024TB)级别的数据,除了硬件要做好准备之外,软件也要有所改变。Google为我们示范了应该怎么做。
  据国际电信联盟(ITU)发布的报告,2011年全世界有1/3的人口会经常上网。网络的平均带宽总额达到了每秒90 000GB,也就是正好每月30EB,而且仍在不断增长中。目前的技术要点就是如何高效地管理和控制如此大规模的数据流。Google公司已经为大型网络设备供应商思科和华为做出了示范。根据Arbor Network公司发布的报告,Google的数据中心与用户之间的数据流动占据了全球互联网数据流量的近6%~10%。在4月份举行的“开放网络峰会”上,Google透露了自己管理数据中心之间流量的方案。非常令人震惊的是,Google大胆地放弃了传统的网络基础架构,引入了自己的最新技术。
  为了提高自己的网络负载能力,从网络设备供应商那里购买硬件和相应的配套软件,对传统的网络接入服务提供商来说再平常不过了。但是Google采取了不同的做法,它们直接与中国的网络设备生产厂进行探讨,利用“软件定义网络”(Software-Define Network,SDN)这种新型的网络架构连接路由器和交换机。SDN由OpenFlow协议控制,而OpenFlow协议的功能与路由器和交换机的固件相互独立,它允许管理员更好地集中控制数据包的传播路径,避免拥塞。因此,如果需要的话,它可以为备份、email流量和视频流提供优先通过权。由于Google的内部网络经常需要快速转移几个PB的数据,因此Google需要更灵活的网络流量控制方式。相信未来,SDN将会接管所有的网络接入服务提供商。
  谁拥有世界上最好的文件系统?
  除了数据流,互联网还需要处理不断增长的任务量,主要是云服务和云存储的应用。例如:亚马逊的EC2弹性计算云,总共占据了全球互联网流量的1%。去年,它一共存储了7 620亿个文件,每秒钟需要处理500 000个任务。只有高级的文件系统才可以在高负荷运转之下确保数据的完整性,并且管理好文件的元数据(名称、大小和日期等),与文件本身的内容分开处理。Facebook、雅虎和亚马逊EC2弹性计算云所采用的Hadoop分布式文件系统(HDFS)可以自动为文件创建几个副本,并且在每个网络节点都有专门的服务器,用于存储文件的元数据。因此,HDFS文件系统可以高效地并行处理PB级别的数据,开源的HDFS文件系统是目前世界上最优秀的文件系统之一。
  预测:网络流量稳定增长
  来自思科的可视化网络指数(VNI)是描述网络流量最准确的参考数据。它预测,在接下来的3年中,网络的流量将会翻番,其中很大一部分是来自移动设备的网络数据。
  OpenFlow:构建Google的新网络
  OpenFlow负责调控Google数据中心之间的信息流量。与传统的路由器和交换机软件相比,这项开源的技术可以更高效地调配巨大的数据流量。
  HDFS:针对大数据的文件系统
  只有HDFS这样的分布式文件系统才能有效地处理大量数据的并行访问需求,并且分配专门的服务器进行文件管理。
  存储文件时,主控服务器会保存它的元数据(文件名、大小等数据),文件本身的内容会存储在数据服务器上。之后,主控服务器发送指令,将文件备份到另一个机架上的服务器中。
  可靠的连接协议
  没有HTTP协议,浏览器就无法访问网站。但是“老迈”的HTTP协议并不高效,它的继任者可以将网络速度提高最多50%。
  超文本传输协议(HTTP)是互联网通讯的基石,但是它已经过时了。最新的版本HTTP 1.1是13年前就开始采用的技术。传输控制协议(TCP)负责将文件分割为数据包,作为TCP协议的上层,HTTP协议负责从服务器上请求一个网站的内容,并且规定网站元素的发送规则。HTTP 1.1允许每个TCP连接完成一个访问请求(request),因此所有的网站元素(文本、图片、JavaScript代码等)都必须一个接一个地发送。现代浏览器虽然通过引入新技术绕过了这个限制,可以建立至多6个并行的TCP连接,但是仍然不够高效,因为服务器处理每个“额外”的连接时都需要500ms的延迟。每个连接都会增加新的不必要的HTTP头信息,这不仅传送了过多的冗余数据,而且不支持信息压缩。更重要的是,HTTP协议只允许由客户端发起请求,即使服务器需要发送更多数据到客户端,也必须等到客户端发出请求后才可以执行。此外,HTTP协议也不提供加密功能,这就是为什么SSL这样的加密协议备受关注的原因。
  微软和Google推进HTTP 2.0
  互联网工程任务组(IETF)希望解决HTTP 1.1的众多缺陷,明年可以引进HTTP 2.0版作为新的网络标准协议。今年,IETF将会决定具体采用哪些技术。Google和微软各自制定了自己的协议,它们被视为最热门的两个候选。Google已经使用SPDY协议两年多的时间,该协议是HTTP 1.1的修正版和补充版。Firefox、Chrome和Kindle上的Silk浏览器都已经集成了SPDY协议。同样,所有的Google服务、亚马逊、Twitter和Apache Web服务器都支持这项技术。SPDY允许HTTP包并行发送并能够实现数据压缩,还可以提供强制性的SSL加密。研究报告称,经过SPDY加速后最多可以提高50%的传输速度。
转载注明来源:https://www.xzbu.com/2/view-3562079.htm