这个问题,就如《纽约时报》在其之前发表的一篇文章中指出的那样:所有的硬件都在加大马力全力运作,甚至包括工业冷却设备和备用柴油发电机排放到大气中废气和其他污染物。同时,即使数据中心运营商持续奖励那些节能措施,连续正常运行时间超过其能源效率的运作经常在满功率运行,但仍然有许多服务器明显处于闲置状态或明显未充分利用。
随着数据量的不断增长,也将由此产生相当数量的数据中心带来的污染。这一点,正如《纽约时报》所一针见血的报道的那样,明显与信息产业的时尚、高效率和环保的形象不符。
我并不完全同意这一评估。是的,云计算时代的数据中心确实明显比之前的一个普通的家庭甚至是大的城市公寓大楼制造了更严重的污染。但总体而言(即使《纽约时报》也认可)所有的数据中心所消耗的国家的能源资源仅为2%。而且,我们还有很长的路要走,数据中心行业在提高数据中心的效率方面已然有了显著的进步。
到更具体的大数据,通过采用部署Hadoop等一系列的措施,硬件效率正在改善。根据上月的一份研究报告显示。其中一个是VMware公司的最新开源Serengeti项目,使管理员能够部署在现有的硬件上部署Hadoop虚拟化。这既提高效率,同时又避免了购买新的硬件的需要。
另一个项目是Pervasive Software的DataRush产品:
DataRush和RushAnalyzer抽象出来的复杂并行Hadoop作业,能够让用户实时监控I/O和CPU使用情况,并减轻内存的限制。最终能让服务器的利用率高达80%,并且能够更迅速和反复进行大数据分析。
《纽约时报》忽略的另一点是,大部分数据分析专家结合气候变化和环境进一步进行的可持续发展研究都是由这些数据中心所支持的。例如,美国航天局所建立的气候模拟中心,建立一个自定义的大数据平台收集了多达数PB的气象资料,以更好地预测和理解全球气候变化。NCCS数据中心消耗了大量的电力,但研究人员通过大数据分析发现的却是可能导致限制或甚至扭转全球变暖的方法。我想说,这只是一个公平的交易。
当然,并不是每一个大数据项目的目标都是促进更大的利益。但有一些这样的项目,在气候科学以及医疗和教育行业。
我很赞赏《纽约时报》针对这一问题进行重点讨论。但是让我们保持现实的观点。大数据的确排放了大量的污染物在大气中,但大数据行业也正在发展更有效的计算方法,并解决一些最棘手的环境所面临的挑战,人类将有可能弥补以上任何数据中心操作,更高效的计算,将直接影响大气环境。