为了驾驭大数据处理,中外互联网巨头做了同样的选择
俗话说的好,再大的硬盘也有装满的时候,再快的手机也有卡机的一天。如果说全球整体的数据量,那就更为惊人了!
你说多不多?多不多!多不多?! “这是问题吗?”有人会想,只要有钱,我们就狂刷服务器,还怕处理不了大数据?(是的,处理不了:冷静脸) 服务器CPU的主频、内存的容量和I/O带宽,都会影响到运算速度。另外,更重要的是,根据摩尔定律,目前最新款计算机芯片已经突破7纳米尺度,向更小型化发展越来越难,而新的工作负载还在不断涌现,支撑单位硬件计算能力提升的摩尔定律越来越接近极限,数据中心的空间和电力供应也已经无法跟上服务器数量的疯狂增长。(对,服务器是有了,就是没电) 让我们来看看国内外的互联网巨头,Google和腾讯都是如何应对大数据挑战的吧:
那是因为,新一代应用迫切需要通用处理器计算和特定目的的协处理器计算(加速器,如FPGA)混合异构工作,而OpenPOWER分布式计算就在软件和硬件架构上提供了这种全新的能力: (编辑:PHP编程网 - 黄冈站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |