谷歌为什么不将谷歌数据中心在哪里设立在中国

谷歌丹麦子公司周二宣布将投資45亿丹麦克朗(约合6.9亿美元)在腓特烈希亚(Fredericia)建造一座新谷歌数据中心在哪里。根据计划一旦新谷歌数据中心在哪里在2021年完工,它将雇佣150名至200洺员工除了在腓特烈希亚建造谷歌数据中心在哪里外,谷歌去年还在丹麦奥本罗购买了一块地毗邻苹果公司计划建造的谷歌数据中心茬哪里。(凤凰科技)

在2018中国企业竞争力年会上 映客创始人兼首席执行官奉佑生表示,互联网行业红利不会消失5G是未来3-5年行业变化的趨势。奉佑生称5G是基于万物物联的时代,未来全民时代可能在5-10年左右到来可能座位上,地板上全都是屏幕随时可以看到信息。(新浪财经)

摘要:本次谷歌(Google)公布的只是一些圖片和非常有限的视频资料且没有详细注释说明,但如古老的谚语所述:一张图片胜过千言万语今天我们将就这些有限的图片管中窥豹,分别从制冷、机柜、服务器、建筑等方面做一些最粗浅的分析以飨读者

  本次谷歌(Google)公布的只是一些图片和非常有限的视频资料,苴没有详细注释说明但如古老的谚语所述:一张图片胜过千言万语,今天我们将就这些有限的图片管中窥豹分别从制冷、机柜、服务器、建筑等方面做一些最粗浅的分析以飨读者。

  近日谷歌(Google)第一次允许媒体记者进入该公司位于世界各地的谷歌数据中心在哪里进行參观拍摄,向世人展示其迷宫一样的世界这些谷歌数据中心在哪里日以继夜地处理着全球网民的搜索请求、Youtube视频和邮件等。虽然本次公咘的只是一些图片和非常有限的视频资料且没有详细注释说明,但如古老的谚语所述:一张图片胜过千言万语今天我们将就这些有限嘚图片管中窥豹,分别从制冷、机柜、服务器、建筑等方面做一些最粗浅的分析以飨读者

  图1是谷歌某个谷歌数据中心在哪里的内部場景。从该图可以首先看出这个谷歌数据中心在哪里的冷站规模很大整个房间管道林立,色彩斑斓非常好看

  图1 谷歌某谷歌数据中惢在哪里内部场景

  空调管道采用了谷歌企业标准色来区分不同管路的功能。例如绿色标注的是冷却水回水管,黄色是冷却水供水管、蓝色是冷冻水供水管深红色和冷机侧的粉红色管是冷冻水回水管,白色的是消防管路从而便于运维人员快速定位并查找问题。IT设备哃样也采用五种颜色的网线加上不同谷歌数据中心在哪里不同主题的装修风格,都是谷歌数据中心在哪里颜色标识管理的典范

  图1嘚左侧是大型冷水机组,右侧是板式热交换器以便在室外温度较低时候采用板换散热实现水侧节能(water-side economizer)。谷歌也非常重视谷歌数据中心在哪裏的耗水问题据他们估算,采用高效节能方式的谷歌数据中心在哪里每年可节约几亿加仑的饮用水

  从图1还可以看出,有一些运营層面的小细节也考虑得非常周全例如,管路屋顶等地方采用了很多的电动吊装葫芦链条方便重型设备的吊装维护或更换;又例如,管路底部采用了中间凹两边凸的滚轮型支撑这样会减少管路振动和拉伸形变产生的物理应力;还有,楼层间的竖管采用了U型弯曲以便减少水温變化和建筑形变带来的隐形损伤;冷机周边地面也配备了应急排水口等等。此外在偌大的机房中,运营人员采用同样运用了谷歌标准色嘚自行车来进行现场巡视

  图2为谷歌在美国俄克拉荷马州的谷歌数据中心在哪里,整个机房在大量服务器LED指示灯的闪烁下显得非常整潔和梦幻

  图2 谷歌俄克拉荷马州谷歌数据中心在哪里

  从这个整机房的俯视图看,谷歌数据中心在哪里采用了厂房式大开间框架结構封闭热通道的一排排机柜构成庞大微模块阵列,机房顶部是供电网络桥架和消防管路服务器和交换机的状态灯闪烁着,只有极少量嘚机房级照明

  整个谷歌数据中心在哪里面积很大,走道以及顶部空间都非常宽敞但设备区却较为紧凑。机柜间冷通道才两块砖多點的距离(标准砖宽度为600mm)其中热通道占用了大约两块砖的距离,而且服务器机柜的深度较短也就一块砖多些。

  从图2较近处还可以发現有些地方以蓝色布帘密封这些密封的地方应该是空缺的位置,是留给服务器机柜的这也说明了谷歌的服务器部署是以机架为单位快速安装部署的。用布帘密封可以隔绝冷热气流的混合减少冷量的浪费,体现了精细化运营的思想高密度的服务器采用全正面维护,顶蔀为密集的TOR交换机单元

  仔细观察图2还可以看出,谷歌采用了创新的空调置顶散热方式整个机房大环境作为冷通道提供冷量给服务器吸入,加热后的热空气在封闭通道内上升然后通过热通道顶部的空调盘管制冷,并被几个烟囱状导风管和大散热风扇重新循环回外部冷环境这种空调置顶布局虽然存在着盘管漏水、更换维护较难等风险,并对产品质量和施工工艺要求非常高但其气流组织较为合理。唎如热气流自动上升冷气流自动下沉,从而减少风扇的功耗且机房大冷池环境可以作为缓冲池,减少局部空调故障引发的热保护

  据相关资料显示,谷歌微模块(图3)的整个热通道温度非常高像个大烤箱,温度可以高达49摄氏度以至于一旦必须进去维护,那么服务器必须关掉才行采用热通道封闭可以提供一个较为舒适的现场运营环境,热量被限制在热通道中并被冷冻水带走。虽然大开间铁皮厂房嘚冷量密封保温特性不太好但因为谷歌服务器的高温工作特性(如图3所示谷歌服务器的深度较短,大约只有600mm多的深度散热会比较容易),送风温度高达27摄氏度因此这个较高温度下的冷量传递损失不会很大,围栏效应的影响几乎可以忽略

  图3 谷歌微模块内的热通道

  圖3显示了谷歌微模块热通道内部的一些细节。例如热通道宽度大约是两块标准地板砖,里边安装的是机柜顶部空调盘管的安装支架和加凅支撑地板底下的快接软管提供冷冻水给热通道顶部的空调盘管。从冷冻水管的数量和密度上看顶部空调盘管也做了模块化冗余设计,是个很不错的设计服务器全正面维护,每台服务器采用三个分布式较大风扇散热绿光来自服务器内部LED状态灯。根据整机房以及微模塊内的照片我们还可以猜测到,为匹配置顶空调

  谷歌的微模块是6个机柜为基本单元来建设,每排机柜以3个机柜为最小颗粒不断延伸谷歌自行设计的服务器采用尽可能少的能耗,并控制风扇转速到足够低只要服务器内部温度不要超过设定值就可以了,处处都体现節能

  谷歌在供电和制冷等方面总能打破常规。例如他们有些机房没有采用商用的传统UPS和精密空调方案。图4则是谷歌创新的“三明治”服务器谷歌还为此申请了专利。“三明治”服务器采用的是液冷散热片上下两个服务器靠此散热片内部的冷冻水以及循环风扇带赱热量。

  图4 谷歌“三明治”服务器示意图

  当然也不是谷歌的所有机房都采用这些创新的散热方案,例如一些POD小机房(图5)和网络设備间(图6)就采用传统的散热方案图6展示的网络设备间采用了传统的风管上送风或者地板下送风方式散热,双路冗余高可靠供电不过,在這些传统机房模块中谷歌都采用了简单低成本的塑料帘子隔离冷热通道方案避免了冷热气流直接混合短路,也大大提高了能源利用效率

  图5 谷歌一POD小机房

  图6 谷歌某谷歌数据中心在哪里的网络设备间

  从谷歌早期发布的一个POD机房优化视频中可以看出,通过一些精細化运营手段例如机房CFD仿真改善气流组织、采用冷热帘隔离、提高送风温度、安装蓝色LED灯用于照明等措施,可以使谷歌数据中心在哪里PUE徝从原来的2.4降低到1.5以下这也说明即使不用费心创新,单纯采用运营优化也可以实现较好的节能效果

  步入谷歌的大型谷歌数据中心茬哪里,整个机房的服务器阵列非常整齐壮观海量的服务器风扇同时运转带来巨大的噪音,以至于进入谷歌数据中心在哪里必须佩戴防噪耳塞

  图7 谷歌谷歌数据中心在哪里的服务器阵列

  从图8和图9可以看到谷歌的服务器上架有两种配置方式,分别是低密方式——每機柜约放置十五六台服务器以及高密方式,每机柜接近三十台左右(可能采用类似Facebook的1.5U高效风扇设计)

  除开密度不一样,共同的地方则昰都采用了TOR交换机置顶PDU和网络快速接口都在左侧。每台服务器含有2个或者更多的子机服务器没有前面板也无上盖板,这样不仅成本更低散热也更好。而且服务器通常很短采用不同颜色的网线做功能区分。网线和电源线采用快插接口即插即用。机柜底下滚轮设计方便整机架快速部署和搬迁全正面维护,方便现场快速维修和免工具更换

  透过这些照片,也可以看到不同版本不同类型的谷歌服务器设计和早前发布的带铅酸电池服务器设计不一样,新版本的服务器结构更为方正美观最关键的是,这些自行打造的服务器要比标准嘚商用服务器要便宜不少

  尽管仍被视为互联网公司,谷歌实际上已经成为世界上最大的硬件制造商之一因为它的设备多数是自己淛造的。

  1999 年的时候谷歌基础设施高级副总裁Urs H?lzle[zy1]从“三个开电子商店的家伙”那里买了 2000 个剥离下来的电路板。通过改造去除不必要嘚部件,谷歌构建了自己的服务器DIY服务器的价格是1500美元,而当时的商用机价格约为5000美元考虑到其上百万量级的服务器设备,那么DIY服务器带来的成本节约会是天文数字

  谷歌DIY的服务器简单易维护。如果服务器出了故障甚至可以免工具快速维修,实在无法维修则直接報废拆解成电子垃圾回收并且,谷歌在定制的服务器内部安装了分布式的带电池UPS可以省掉传统谷歌数据中心在哪里大量UPS的采购成本。洏且该内置UPS可以实现供电效率99.9%相比传统的UPS方案也实现谷歌数据中心在哪里总节能15%,这在能源紧张运营电费高涨的今天无疑是非常大的费鼡节省

  图10 谷歌工作人员在维修服务器

  为了统一管理自己的服务器,谷歌开发了一个软件系统谷歌数据中心在哪里管理者能够通过这个系统指挥数千个电脑,如同一个计算机一样在 2002 年的时候,谷歌开发了谷歌 File System可以在不同的机器上顺利地传送文件。MapReduce则是谷歌为編写云端服务而开发的系统它的开源版本Hadoop已经成为业界标准。

  此外谷歌还开发了一个自动化的决策系统 Borg,用于决定哪个机器最适匼某项任务这对服务器集群的稳定性提出了更高的要求。为此谷歌内部有一个团队,叫做 SRE(网站可靠性工程团队)他们的任务就是使用各种方法,对服务器进行破坏以检测公司进行危机处理的能力。每年SRE都会进行一次虚拟的战争,叫做DiRT(disaster recovery test)攻击是虚假的,但是几乎和现實一样危机管理人员必须按照处理程序来做,如果他们不能找出处理方式攻击就必须停止,以免影响到真正的用户

  谷歌公司内蔀的某个墙上展示着一排排的主板,那些代表着谷歌成立以来自己打造的不同时代的服务器其中有一块标明着2008年7月9日,那是谷歌有史以來的第一百万台服务器但这是个累计的数字,并不意味着那个时间谷歌已经拥有百万台服务器的规模

  四、谷歌数据中心在哪里建築篇

  谷歌在谷歌数据中心在哪里选址上非常谨慎。以谷歌位于哥伦比亚河畔的Dalles谷歌数据中心在哪里(图11)为例谷歌喜欢将谷歌数据中心茬哪里建设在河流旁边开阔的谷地。而且可以看出其典型的建筑风格是大开间低层厂房结构,多为结构较为合理的长条矩形状大型架涳冷却塔和底下的储冷罐位于建筑边上,附近是两个为谷歌数据中心在哪里配套的变配电站直接采用附近水电站便宜的绿色充足水电来給谷歌数据中心在哪里供电,空气质量很好

  图12 谷歌Dalles谷歌数据中心在哪里平面布局图

  类似选址的还有谷歌建于比利时的谷歌数据Φ心在哪里(采用运河的水处理后来散热),以及芬兰湾哈米纳谷歌数据中心在哪里(直接采用海水来给谷歌数据中心在哪里散热)而不像国内,许多大型谷歌数据中心在哪里受限于种种原因多建在沿海城市忍受着空气质量不好、电力容量少电费高、多层建筑租金昂贵等多种弊端。

  总之谷歌的谷歌数据中心在哪里选址多位于能源较为丰富、气候条件较好的地方。一则可以大量使用绿色低成本的能源二则還可以利用较为优越的地理气候条件实现更为节能的自然冷却。目前谷歌主流的谷歌数据中心在哪里年PUE值基本可以达到1.2以下的水平且谷謌数据中心在哪里和周边自然环境融合很好,谷歌数据中心在哪里周围倘佯的小鹿、漫山的野花、氤氲的冷却塔蒸汽、静谧的河流以及雪哋垂钓等都体现了人与自然的和谐相处。

  谷歌非常注重自己的信息安全例如谷歌会将使用过的硬盘全部销毁。就谷歌数据中心在哪里的创新技术而言H?lzle说:“谷歌付出了鲜血、汗水和眼泪,也希望其他公司也能付出自己的艰辛来自己打造成就更多的发现和伟大。”

  虽然谷歌这次如此大规模地公开其谷歌数据中心在哪里的秘密但谷歌所透露的都是通常一两代之前的技术。至于谷歌当前的技術究竟发展到什么水平?我们还不得而知但谷歌自己说过,一旦他们自己的员工看过了谷歌正在打造的2013年下一代谷歌数据中心在哪里和服務器集群那么他们将无比抱怨目前的这些设计。

  即便如此本次披露的这些谷歌数据中心在哪里也像是一件件精美的艺术品,使用嘚技术也都是业界非常领先的技术我们在拭目以待谷歌更多更新谷歌数据中心在哪里技术的同时,应该从这些资料中学习并理会其思想以同样孜孜不倦的创新精神去实现构建完美的谷歌数据中心在哪里。

我要回帖

更多关于 谷歌数据中心在哪里 的文章

 

随机推荐