转载

Hadoop设备实际上属于有待编排的超级计算机

ZD至顶网服务器频道 06月12日 新闻消息: IBM公司认为Hadoop及Apache Spark等配置方案在本质上其实属于超级计算机,而秉持着这一思路,蓝色巨人开始调整自家超级计算机管理代码以处理x86集群之上的各类应用。

根据IBM公司软件定义基础设施副总裁Bernie Sprang的解释,分布于集群上的应用需要跨越各计算与存储资源池进行工作负载优化,而提供相关模板不仅能够简化部署过程,同时也能够摆脱对专有硬件的依赖。另外,Sprang强调称,企业客户中存在“集群蠕动”现象,即组织内共同建立计算集群并以共享而非独占方式使用。

蓝色巨人认为,工作负载部署与调度工具能够帮助企业客户有效降低采购及运维的集群数量,且保证数据不会耗尽现有处理资源。

而在新的IBM“Spectrum”工具当中,包含有“Conductor”产品作为资源共享工具,能够对集群化应用进行“模板化”调整。另外“Spectrum LSF”工具则负责工作负载调度。IBM公司还推出了Spectrum Storage,这套原本名为GPFS的文件系统能够支持大规模工作负载。

蓝色巨人将上述工具共同打包在软件定义套件当中,但并非面向主流工作负载。在IBM看来,此套件更适合用于云或者混合云分析方案,因为其能够轻松跨越本地与公有云环境。

Sprang希望将Spectrum套件定义为类似于虚拟机管理程序的方案,因为其同样位于服务器与工作负载之间。但二者的共通之处也仅此而已了:Spectrum主要面向集群化应用,而蓝色巨人希望借此将其高端技术成果引入目前的超大规模工作负载当中。

原文  http://server.zdnet.com.cn/server/2016/0612/3078866.shtml
正文到此结束
Loading...