数据中心3.0:海量数据并行处理能力大幅提升

2017-04-24 09:37 出处:其他 作者:佚名 责任编辑:zhangxiaomeng

  【PConline 产业观察】近日,业界发布了全新的数据中心3.0架构,这一消息一时间让业内沸腾了起来,我们都知道,随着云计算和大数据时代的到来,所建造的数据中心需要承受来自越来越多设备所产生的海量数据挑战,每秒PB级别的数据处理和服务能力以及硬件设备的高吞吐成为了企业用户在产品研发和采购的关注点。

  数据中心经过十多年的发展和演进,从最初的1.0时代也就是紧密耦合服务器时代发展到后来的2.0的软件虚拟化时代,虽然数据中心2.0中的DCS系统可以让数据处理能力有显著的提高,但由于其局限性、吞吐量、资源利用、可管理性和能源效率的表现,未能满足大数据时代的需求。

1

  那么对于数据中心3.0时代的到来,究竟能带给用户怎样的改变,同时对于行业市场来说又会带来怎样的影响呢?一些业内专家给出了答案。

  面向大数据:数据中心3.0的设计概念不同于传统数据中心的集散控制系统。基于数据中心3.0架构会提供优化快速的传输机制,海量数据的高度并行处理,让大数据分析应用具备不同的特点。

  对任务的变化,适应:随着资源需求的变化为大数据分析应用带来了发展。为此,应用程序的资源使用的优先需要也将会不同。数据中心3.0对大数据任务的变化和适应具备着很高的高灵敏度。

1

  智能管理:数据中心3.0涉及到大量的硬件资源和高密度计算,需要更高的智能化管理。此外,服务水平协议(SLA)在数据中心复杂的计算里,也需要低开销的自我运行的管理解决方案。

  高扩展性:大数据的应用程序需要在DCS系统中以高吞吐量低延迟的环境下访问。在同一时间里,高密度的数据通过DCS系统被纳入到数据中心里,所以需要足够的处理能力。

1

  开放的,基于标准和灵活的服务层:由于存储UI存在于不用的协议层上,往往企业的IO没有统一的动态资源管理,结果导致无法动态的分配资源。另外,基于抽象和分层的一般原则,开放和面向服务架构(SOA)标准已被证明是有效的,使各种规模的企业和开发企业应用程序进行集成,来匹配日益增长的业务和技术不断进步的需求而设计。而软件定义的网络(SDN)也在帮助如谷歌等行业巨头提高网络资源的利用率证明数据中心集中资源优化调度。

  编辑的话

  面对用户对于大量数据服务和分析处理能力需求的不断提升,对于数据中心设备当中高密度部署、虚拟化技术的充分应用以及数据中心绿色节能环保也成为企业级市场对于数据中心领域未来关注的重中之重。[返回频道首页]

最新资讯离线随时看 聊天吐槽赢奖品