Technologies 公司合作,展示了一项革命性的内存计算集群架构,其基于PCM并支持远程直接内存访问(RDMA),能够以更低的总拥有成本及更强的扩展性提供与DRAM同等的性能。
内存计算是当今最炙手可热的数据中心发展趋势之一。Gartner预测,该市场中仅软件部分的营收就将在2018年底之前超过90亿美元。内存计算让各类组织机构能够通过对数据的实时掌握中获得商业价值,其提供了比传统架构更高的性能和更出色的扩展性。
尽管现代数据中心应用能够以增加主内存的方式获益,但由于DRAM存储器容易漏失数据,需扩增主要内存才能避免该风险,从而导致成本增加。另外,由于DRAM存储数据的电容易走电,每秒都需多次重新写入才能避免数据遗失。该特性导致的额外的耗电量可能占据多达20%-30%的服务器总能耗。而诸如PCM等新出现的非易失性存储体却不需要额外消耗电能,因此使得主内存的扩展性优于DRAM。
HGST突破性的持续存储材料提供了可靠、可扩容、与DRAM同等性能的低功耗存储器,并且无需修改BIOS,无需重新编写应用程序。远程PCM利用RDMA协议,在以太网或者InfiniBand等网络基础设施之上,实现内存映射,从而构建无缝的大规模内存计算部署方案。这套基于网络的方案允许应用程序利用来自多台计算机设备的非易失性PCM存储资源,从而实现按需扩展。
这套HGST与Mellanox展示的设备,在执行512字节数据随机读取时,延迟小于2毫秒;通过InfiniBand网络并使用RDMA协议时,2KB区块等级上的吞吐量超过3.5 GB/秒。
HGST首席技术官Steve Campbell表示:“DRAM成本高昂且能耗高,而目前已有的替代方案缺乏足够的存储密度,且速度过慢,都无法成为切实可行的替代方案。去年我们的研究院证明了PCM是一种可行的DRAM级性能替代方案,它达到了全新的价格和容量水准,填补了主内存与持续存储之间的鸿沟。但将这种级别的性能扩展到整个数据中心还要求进一步的创新。我们与Mellanox的合作证明了这种非易失性主内存可以通过网络进行映射,其延迟性能也处于内存应用的性能要求范围内。”
Mellanox Technologies公司营销副总裁Kevin Deierling表示:“能与HGST合作共同推动持续存储体技术的发展,Mellanox公司感到非常高兴。为了能够真正重整内存计算生态系统的经济情况,需要将网络技术与存储技术组合起来,实现透明化运作,最大程度降低延迟并增强扩展性。通过这台演示设备,我们能够在InfiniBand网络上充分发挥RDMA协议的能力,达到破记录的来回时间低于2毫秒延迟的性能。今后,我们的目标是在融合以太网(RoCE)上使用InfinBand和RDMA来支持PCM技术,以提升扩展能力,降低内存计算的成本。”
HGST 研究部门存储架构经理Zvonimir Bandic博士表示:“一直以来,在想要充分利用PCM极低的跨网络延迟优势时,总是会遇到极大的挑战,似乎总是要求有全新的处理器和网络架构,并且要重写应用程序软件。在运用PCI Express端对端技术的时候,使用通用GPU的超级计算机给我们带来了灵感,并使得我们取得了重大突破,我们利用商品级服务器硬件就能创造出延迟如此之低的存储体。这项演示是非易失性存储器在数据中心被顺利采用的关键性。”
HGST的持续存储体于2014年8月11日至13日,在加州圣塔克拉拉市圣塔克拉拉会议中心举办的2015闪存峰会上成功展出。
好文章,需要你的鼓励