|
随着数字世界的数据量呈指数式增长,企业正在改变关于数据处理位置以及选择哪些数据进行转移的方案,并开始关注转移和存储数据的总成本问题。
自从IBM公司于1964年推出商用的System/360大型机以来,数据中心的架构鲜有重大性的改变。在很长一段时间内,数据中心一直致力于不断提高速度和吞吐能力,并在1990年代将架构迁移到客户端/服务器模型上。但从上层角度来看,这仍然是一种数据被集中存储和处理以及被全局性访问的环境。
实质性变化的迹象发生在21世纪初。在上个世纪九十年代纷纷上马的大量廉价刀片服务器开始因为功率和制冷问题变得非常昂贵,当企业让IT部门独立负责其数据中心的成本问题时他们开始意识到了这一点,随后,他们不得不纷纷为其IT预算的增加设置上限。
这在CIO中间造成了全局性的恐慌,于是他们期望服务器制造商改进能效,服务器制造商们进一步求助于处理器厂商,在接下来的几年内他们向处理器厂商提出了性能和低功耗方面的各种要求,但是这也显然不能完全解决问题,因为服务器本身利用不足,所以虚拟化成为快速解决问题的一剂妙药。它不仅提高了服务器利用率,同时可以在不使用时关闭服务器集群的整个单元。
尽管如此,随着智能设备和物联网设备的海量数据开始涌入数据中心,很明显需要作出更根本的改变。借由智能手表、Nest恒温器或智能电视,物联网成为消费领域的头条热门话题,但是最大的变化发生在大数据上-即数据如何被收集、使用、处理和存储。不同于消费电子市场,可以很快地推出一款产品试探消费者的口味,当涉及到大数据时,方案能否被采纳成为一个很明确的商业问题。如果能够充分削减成本,同时可以适应被处理和存储的数据量的快速增加,公司肯定乐于为此开出支票的。
“如果你运营了一个数据中心,收到电费账单的那一天肯定是这个月中最糟糕的一天。”ARM CEO Simon Segars说,他所提出的方案远不止于数据中心。“网络需要成为一个智能的柔性的云,这样网络和数据中心将成为一体,而且计算和存储位置发生在距离终端节点尽可能近的地方。增加几百万行的代码便可以节省TB级的数据处理。”
Segars指出,数据中心体系结构的本质上是数据从客户端设备到网络再到数据中心的链路,而且这是“很长一段时间”内的操作方式。他说,一个更好的方法是在整个网络中增加智能处理能力,这样可以实现大部分目标-提高能效、减少延迟并且只使用确实需要的资源。 |
|