数据中心

从节能的数据中心的硬件和软件设计的角度(一)

人走茶凉 提交于 2019-12-25 05:38:13
从节能的数据中心的硬件和软件设计的角度(一) -PMC 高级顾问、前 Facebook 存储架构设计师、 OCP 创始人之中的一个 Per Brasher 于 CCCC 演讲实录 -   此次演讲流程例如以下。 首先讨论关注数据中心效率的原因及其提升效率的原始动力所在。第二步讨论影响效率的主要构成部件,这些部件对效率的贡献大概有多少。以及如何对每一个部件的效率进行优化和提高。第三个方面是展望如何进一步减少 TCO 成本。当中将涉及更先进的数据保护机制。 接着会对存储的各种新模式进行一定展望,最后做一个总结。  下表总结了 OCP 的设计理念,其中把数据中心的每个构成部件及其在总成本其中的权重做了一个罗列,并就针对每个部件的设计理念进行优化採取的措施及对设备投资和运维成本带来的比例影响,也做了一定的罗列。得出的结论是通过 OCP 的设计理念,经过加权平均在设备投资节省了 23% 的成本。运维方面节省了 33% 。  下图看上去比較复杂,展现了数据中心运作中的环境因素,主要指温度和湿度。传统的数据中心通常环境狭小、要求严格、温度、湿度均很低。 这种环境意味着在空调散热方面须要比較大的投入,从无论是设备、还是空调制冷所消耗的能源等多方面综合考虑。现阶段,大家意识到,通过把工作条件放宽松。宽松到 A2 范围,就能够大大提高数据中心的能量使用效率。图中蓝线体现了 OCP 眼下支撑的范围

数据中心的变化需要更多有效冷却方式

你。 提交于 2019-12-25 05:37:06
今天的数据中心正在快速的发生变化,而确保支持基础设施的每款组件,都能够保持以最高的效率和可靠性运行,显然比以往任何时候都更为重要。数据中心的关键冷却系统发生故障可能会导致停机中断,并会导致企业服务、资金和客户商誉蒙受损失。 数据中心的冷却系统通常比服务器、操作系统和网络配置受到更少的关注。然而,这些IT系统的性能对于冷却支持的依赖,其实与对网络连接的依赖是一样的。 精密冷却系统,是专为满足数据中心热负载的需求而设计,其与一般性的、以凉爽舒适为目的而设计的标准化建筑内空调相比,具有非常不同的服务和维护需求。 然而,最大化精密冷却系统的性能和效率,需要由原始的设备制造商( OEM )经过了专业培训和认证的技术人员进行适当的维护。接受过专业培训的技术人员具有如何实施维护,以便支持数据中心的关键系统的广泛知识。将冷却系统集成到数据中心基础设施支持战略是相当关键的,而大多数非制造商所提供的维护,则缺乏这些相关经验。 一、当前数据中心冷却的变化 IT设备的关键性质以及支持其操作运营的独特环境,要求使得必须在数据中心站点,采用专用的精密冷却系统。而由于大多数数据中心,都是保持24×7 ×365全天候运行的,故而其温度和湿度条件,也必须确保全天候的稳定水平。 精密的系统专门用于冷却电子设备的。电子设备产生的是纯显热,既无湿度的热,并且需要连续的冷却。而一般性的以提供舒适为目的的空调

Google全球三大数据中心自然冷却方案剖析

喜你入骨 提交于 2019-12-25 05:36:03
Google将其数据中心技术作为一个核心竞争力,很少对外公布其技术细节,因此搜索巨人的数据中心一直是个谜。近日,谷歌公布了其数据中心能耗发展的图表,在图表中显示近年来谷歌在能耗控制方面有了明显的进步。在2010年第一季度,谷歌新建的数据中心综合电力使用效率为1.16(PUE),其中一个数据中心的PUE值达到了1.09。从公布的这些图表中,在纵向上我们可以看到Google在全球各地的多个数据中心PUE控制都已经达到非常高的水平;在横向上看曲线整体倾斜向下,说明还是个逐步改进、不断优化的精细化运营调优过程。这些图表的另一个显著特点是各个数据中心的PUE值随着时间轴,不管是在不同的季节,还是在一天的不同时间点上都表现出较大的波动性,说明Google数据中心的自然冷水平非常高。结合室外自然环境温度,尽量利用外界冷源带走热量,能不开启机械制冷就不启动。在散热方面只给够用的冷量,绝不浪费。 左:Google多个数据中心的多年PUE曲线 右:Google某一数据中心的日PUE曲线 本文针对Google数据中心的这些特点,将介绍Google位于欧洲的三个不同实现自然冷却方式的机房,这些机房都实现了100%自然冷却,都是没有chiller(制冷机组)的典型应用案例,分别是比利时水侧自然冷数据中心、爱尔兰空气侧自然冷数据中心和芬兰海水直接冷却数据中心。

数据中心冷热空气流控制优化方案

最后都变了- 提交于 2019-12-25 05:34:05
数据中心能源消耗巨大和能源利用效率低下的现状,揭示了数据中心行业存在着巨大的节能空间,绿色节能自然而然也就成为了当前和未来数据中心建设的一个主流需求。针对数据中心气流组织不佳的问题,本文提出了一种冷热空气流控制优化的方案,能够有效地控制冷热空气混杂,提高制冷系统运行效率,降低数据中心能耗。 统计,中国现有数据中心50多万个,其中老旧机房占80%。老旧机房规模较小,建立时由于技术落后,方案陈旧,在很大程度上造成了能源的浪费其中以制冷环节为代表,由于缺乏对制冷空调的设备史'新与部署的优化。使制冷方案的能耗大大超出了所需要的范围主要存在的问题如下: (1) 空调高能耗、低效率机房空调的作用对象是发热M集中的IT设备,而现有机房空调技术测定的均是机房温度,往往呈现机房温度降下来但设备持续高温的状态,最终造成机房空调高能耗、低效率的状况; (2) 数据中心内部环境温度不均,这是房间内气流组织不佳,不能将冷风均匀、有效地作用于IT设备上造成的; (3) 设备基本性能问题。一些老旧机房所用空调设备偏旧,不注意能源的耗费,尤其是水泵、风机、阀门、控制部件、操作方式等方面没有得到最好的调配与运用或没有及时更换设备,故导致整个空调系统产生电力的耗费; (4) 设计、施工与运维没有采取节能优化方案; (5) 机房设计远期规划不到位。为了保证数据中心产业的可持续发展性,在大力发展这一产业的同时

据说微软在爱荷华州启动了$ 1.1B的云数据中心

泪湿孤枕 提交于 2019-12-24 20:04:38
  微软正在扩大在爱荷华州的数据中心运营。大型软件和云服务提供商已被确定为在西得梅因一块 154 英亩土地上的大型“ Alluvion 项目”背后的公司。<strong>根据《四城市时报》的一份报告,该数据中心的成本预计将接近 11.3 亿美元。它将加入该地区先前宣布的“ Project Mountain” ,这是微软耗资 7 亿美元的云数据中心,该中心于去年开绿灯。</strong>   该报告指出,微软在该地区的投资接近 20 亿美元,略高于中美洲的 19 亿美元风电场。该项目将受益于州和地方的 8700 万美元的激励措施,预计在该设施启动并运行后将维持 84 个工作岗位。   Des Moines Register 报告称,该数据中心将在五至七年内建成,预计将为西得梅因市带来 800 万美元的财产税收入,占该市年度预算的 14%。   爱荷华州州长特里·布兰斯塔德(Terry Branstad)在新闻发布会上表示,科技巨头“再次选择爱荷华州进行另一项重大投资的决定凸显了我们对创新经济的承诺”。   布兰德斯塔德的故乡已经从许多其他希望扩展其云计算业务的著名科技公司那里吸引了数亿美元。Facebook 正向爱荷华州阿尔图纳的一个数据中心注资 3 亿美元。竞争对手 Google 花了 15 亿美元在爱荷华州康瑟尔布拉夫斯(Columbia Bluffs)开设了商店。Google

数据中心网络架构

橙三吉。 提交于 2019-12-24 12:16:50
传统数据中心网络架构 传统数据中新网络架构通常是3层结构,(园区网一般也是3层结构)Cisco称之为:分级的互联网络模型,包含三层: Core 核心层 : 提供高速转发,为多个汇聚层提供连接性 Aggregation 汇聚层 :汇聚连接接入交换机,同时提供其他服务(FW、SLB、等) Access 接入层 :物理连接服务器,一般放在机柜顶端,也称ToR交换机 一个三层架构图如下: 汇聚是网络的分界点,汇聚交换机以下是L2网络,以上是L3网络,每组汇聚交换机是一个pod,根据业务分区分模块。pod内是一个或者多个VLAN网络,一个POD对应一个广播域。 这种架构部署简单,(vlan+xstp)技术成熟。 VLAN 、Xstp 使用vlan、xstp原因: 1、BUM(广播,未知单播,组播) vlan技术把一个大的物理二层域划分成多个小的逻辑二层域,这逻辑的二层域被称为vlan,同一个vlan内可以二层通信,不通vlan之间隔离,这样广播的范围被局限在一个vlan内,不会扩散到整个物理二层域 vlan还有简化管理,提高安全性等。。 2、环路及环路形成的广播风暴 如果是单设备单链路组成的3层架构,是不存在环路以及环路带来的广播,但是这种网络可靠性比较差,因为没有任何的备份设备和备份链路,一旦某个设备或者链路发生故障,故障点下的所有主机就无法连上网络。 为了提高网络的可靠性

边缘计算的三大误区

…衆ロ難τιáo~ 提交于 2019-12-24 12:06:29
  边缘计算的三大误区   每天都有数百万台机器和对象首次连接到Internet上,公司也在通过边缘计算改变我们对云基础设施的看法,从而挑战传统架构。事实上,Gartner预计超过40%的企业IT组织将采用边缘计算策略,比去年增加了1%。   在当今世界,边缘计算继续引领行业讨论,由于越来越多的传感器、移动设备和强大的应用程序在网络的边缘驱动数据,所以越来越多的公司将计算资源放在网络边缘,以便靠近生成数据的设备。   随着组织开始关注边缘计算,各种错误的观念正在给他们蒙上阴影。下面是与边缘计算相关的三大误区。   误区1 - 边缘计算是资源密集型的   边缘计算需要的是典型的数据中心之外的本地资源,所需的资源可以是最小的。在边缘处的完整或甚至小型数据中心对于连接和处理网络边缘上的数据都是不必要的。   边缘计算是在网络边缘处的数据处理,在远程主数据中心或云的能力有限的情况下生成信息。通过将计算源放在收集数据的源旁边,我们可以显著地改进对网络安全漏洞等事件的响应,或利用市场和消费者行为的实时变化。   计算基础设施可以像物联网设备一样小,也可以像多个计算设备的微型数据中心那样大。想象一下,在远程办公或分支机构计算的环境中,通过边缘计算,资源可以与制造系统、医疗设备、销售点和物联网设备相邻。   误区2 - 边缘计算不需要改变  

敏捷性可避免数据中心意外停机

爷,独闯天下 提交于 2019-12-21 23:35:00
这里写自定义目录标题 对于各级IT人员来说,如今所面临的变化与以前看到的有所不同。数据量处于历史新高并持续增长。人们对IT技术的发展有着越来越多的期望。组织需要更大的灵活性,但是,往往一个错误的举动可能会导致意外停机,并降低服务水平。 那么不要担心。IT团队可以通过一系列对所有组织都具有吸引力的解决方案来应对当今和未来面临的不可预见的挑战。这涉及三个关键领域:减少意外停机、下一代“2.0测试”、迁移,而这种方法可以提供IT团队所需的必要灵活性,以解决问题,并提高竞争力。 IT专业人员采取措施避免计划中的停机时间是一个好主意,也是最好的计划方式。也就是利用已经存在的数据和资源,或者利用一些隔离和自动化措施来模拟变化,并适应数据中心的发展。 人们可能遇到多次要求窗口进行更改的情况,只能取消该窗口,因为由于未预见的要求,结果会比预期花费更长的时间。而在数据实验室中模拟场景是进行变更的好方法,以便为影响生产系统的问题做好充分的准备。这种方法还增加了寻求停机时间的成功信心。毕竟,可能发生的最糟糕的事情是再次要求维护窗口,因为第一次没有按计划进行。 鉴于数据中心的所有变化和云计算的能力,企业需要采用下一代测试方法,以确保事情按计划进行。例如:当企业需要对多层应用程序进行重大更改时(例如从SQL Server 2014升级到SQL Server 2016)

混合云的可见性和监控性

风流意气都作罢 提交于 2019-12-20 06:53:32
虽然这些是实施数字化转型的明智之举,但它们引入了新的运营领域,这些领域需要结合使用监控技术来创建现代化的全栈混合云监控功能。 无论企业如何选择构建其混合云部署,都会引入两个新的运营领域:第一,公共数据中心的基础架构和架构不再受企业控制,第二,跨越多个网络的复杂服务间通信矩阵分布式应用程序组件和数据中心之间。任何一个部分的不稳定性和中断都会产生影响最终用户体验的雪崩效应。 对于内部部署数据中心(混合云最熟悉的方面),企业拥有数据中心内的所有内容,从应用程序到基础设施和网络。监控技术的组合在这种环境中表现良好。但是,在数据中心之外,企业没有基础设施,其传统的监控技术已经达到极限。 应用程序可用性和性能指标(如页面加载和响应时间)通过合成技术测量: • APM(应用程序性能管理)通过代码注入和基于代理的数据收集提供最终用户体验的视角。 • 基础设施监控的范围从捕获健康指标到SNMP轮询,再到使用基于Unix的实用程序(如collectd)来读取网络设备的性能数据。 • 数据包捕获和流记录提供了对流量进入和流出数据中心的组合理解。 监控云计算 在公共云环境中,企业可能拥有IaaS提供程序中托管的应用程序,但企业无法控制基础设施或网络方案。基于虚拟主机的数据包捕获探测(如ntop或虚拟分路器)是选项,但它们会增加大量开销

IDC机房为什么需要应用DCIM?

江枫思渺然 提交于 2019-12-18 18:18:17
传统的数据中心在建设完成后,UPS容量及空调制冷量不易调整,而且服务器的应用数量通常也是固定的,管理相对比较容易。而在云时代,虚拟化使负载可以在服务器之间动态的迁移,IT设备的功耗会波动较大且比较频繁,随之而来的是对供电和制冷容量的动态需求。如果处理不好,易造成局部过热,导致服务器宕机。 因此对云数据中心管理者来说更需要有一个统一平台能够同时管理到IT和基础设施,实时监控设备的容量、功耗、空间等信息,从而提高数据中心可靠性。DCIM可以帮助您“用更少的资金”进行资金,电力和人员培训。优化使用数据中心资源并有效管理容量因素有助于降低成本,提高运营效率,提高生产力并改善整体用户体验。 DCIM的应用价值有哪些? 减少开支 l通过在发生危急情况之前识别潜在风险来改善正常运行 l通过优化功耗降低运营成本。 l通过识别和控制空间碎片和机架密度,推迟或防止不必要且昂贵的数据中心扩建。 l通过重新部署未充分利用,未使用和退役的设备,最大限度地提高数据中心投资 提高效率 l 通过有效管理电力,热量和空间容量来提高运营效率。 l 可视化和协作来自IT和设施基础架构人员的资源和信息。 l确定要考虑进行虚拟化的服务器。 提高生产率 l通过事先了解设备的位置和布线来减少故障排除时间。 l通过高级监控,警报管理和详细的设备变更管理日志缩短平均解决时间。 l通过“假设”影响分析控制容量规划。 改善用户体验