Universidad de Costa Rica Facultad de Ingeniería Escuela de Ingeniería Eléctrica

Universidad de Costa Rica Facultad de Ingeniería Escuela de Ingeniería Eléctrica
Universidad de Costa Rica
Facultad de Ingeniería
Escuela de Ingeniería Eléctrica
IE – 0502 Proyecto Eléctrico
METODOLOGÍA PARA OPTIMIZAR EL
MANEJO DE ENERGÍA EN DATA CENTERS Y
DISEÑO DE UN SISTEMA DE MONITOREO
ENERGÉTICO PARA EL DATA CENTER DE
GRUPO ELECTROTÉCNICA
Por:
PETER DE FORD GONZÁLEZ
Ciudad Universitaria Rodrigo Facio
Julio del 2010
METODOLOGÍA PARA OPTIMIZAR EL MANEJO
DE ENERGÍA EN DATA CENTERS Y DISEÑO DE
UN SISTEMA DE MONITOREO ENERGÉTICO
PARA EL DATA CENTER DE GRUPO
ELECTROTÉCNICA
Por:
PETER DE FORD GONZÁLEZ
Sometido a la Escuela de Ingeniería Eléctrica
de la Facultad de Ingeniería
de la Universidad de Costa Rica
como requisito parcial para optar por el grado de:
BACHILLER EN INGENIERÍA ELÉCTRICA
Aprobado por el Tribunal:
_________________________________
Ing. José Miguel Páez
Profesor Guía
_________________________________
Ing. Alexander Monestel
Lector
_________________________________
Ing. Felipe Hangen
Lector
i
DEDICATORIA
Le dedico este proyecto a Dios, ya que ha guiado mi vida y me ha dado todo lo necesario
para realizarlo. Además, se lo dedico a mi familia, porque me han ayudado y apoyado en todo.
ii
RECONOCIMIENTOS
A José Miguel Páez, mi profesor tutor, por siempre estar dispuesto a ayudarme y dar
valiosos aportes al proyecto.
A mis lectores, Felipe Hangen y Alexander Monestel, por brindarme la oportunidad de
realizar el proyecto en sus empresas.
A Jonathan Salas, de la empresa Siemens, y a Max Alpízar, de la empresa Sistemas IQ,
por ayudarme a hacer los diseños del sistema de monitoreo energético.
Al personal de la empresa Grupo Electrotécnica, en especial a Andrés Astúa, por su
apoyo y consejos.
iii
ÍNDICE GENERAL
ÍNDICE GENERAL ...................................................................................................................... iv
ÍNDICE DE FIGURAS.................................................................................................................. vi
ÍNDICE DE TABLAS ................................................................................................................. viii
NOMENCLATURA ...................................................................................................................... ix
RESUMEN .................................................................................................................................... xi
CAPÍTULO 1: Introducción ........................................................................................................... 1
1.1 Objetivos ............................................................................................................................... 2
1.1.1 Objetivo general ............................................................................................................. 2
1.1.2 Objetivos específicos ..................................................................................................... 2
1.2 Metodología ......................................................................................................................... 3
CAPÍTULO 2: Desarrollo Teórico ................................................................................................. 4
2.1 Que es un Data Center?......................................................................................................... 4
2.1.1 Definición ..................................................................................................................... 4
2.1.2 Diseño ........................................................................................................................... 6
2.1.3 Clasificación de los data centers en cuanto a orden y eficiencia .................................. 8
2.1.4 Consumo de energía eléctrica y eficiencia.................................................................... 9
2.2 Problema energético en data centers y concepto de data center Green .............................. 10
CAPÍTULO 3: Metodología para optimizar el manejo de energía en data centers ...................... 12
3.1 Introducción ....................................................................................................................... 12
3.2 Paso 1: Problema energético en data centers ..................................................................... 13
3.3 Paso 2: Manejo eficiente de energía en data centers.......................................................... 14
3.3.1 El PUE ........................................................................................................................ 15
3.4 Paso 3: Mejores prácticas de eficiencia energética ............................................................ 18
3.4.1 El Efecto en cascada ................................................................................................... 18
3.4.2 Equipo de TI ............................................................................................................... 20
3.4.3 Equipo de potencia ...................................................................................................... 26
3.4.4 Flujo de aire y equipo de enfriamiento ....................................................................... 31
3.4.5 Otros Equipos.............................................................................................................. 40
3.4.6 Dispositivos en general ............................................................................................... 40
3.5 Paso 4: El data center como un gran sistema ..................................................................... 41
3.5.1 Dimensionamiento del equipo .................................................................................... 41
3.5.2 Escalabilidad usando equipo modular ........................................................................ 43
iv
3.5.3 Sistema de monitoreo energético ................................................................................ 45
3.5.4 Modelo matemático del data center ............................................................................ 46
3.6 Paso 5: Estrategia Energética ............................................................................................. 49
3.6.1 Simple algoritmo energético ....................................................................................... 49
3.6.2 Consideraciones para el análisis de datos (para hacer benchmarking entre data
centers) .................................................................................................................................. 50
3.7 Conclusiones y Recomendaciones ..................................................................................... 52
CAPÍTULO 4: Sistema de monitoreo de energía ......................................................................... 53
4.1 Propuesta #1: Diseño del sistema de monitoreo de energía en conjunto con la empresa
Sistemas IQ ............................................................................................................................... 55
4.1.1 Diseño del sistema de monitoreo ................................................................................ 55
4.1.2 Descripción de los principales dispositivos del sistema de monitoreo ....................... 56
4.1.3 Condiciones de servicios de ingeniería por parte de Sistemas IQ .............................. 61
4.1.4 Responsabilidades de Data Center Consultores .......................................................... 63
4.1.5 Responsabilidades de Sistemas IQ.............................................................................. 64
4.1.6 Respaldo...................................................................................................................... 64
4.1.7 Soporte Técnico .......................................................................................................... 65
4.1.8 Puesta en Marcha ........................................................................................................ 65
4.1.9 Fases del proyecto ....................................................................................................... 66
4.1.10 Cronograma propuesto .............................................................................................. 67
4.1.11 Garantía ..................................................................................................................... 67
4.1.12 Expansibilidad........................................................................................................... 67
4.1.13 Descripción de la oferta ............................................................................................ 68
4.1.14 Términos de la oferta ................................................................................................ 68
4.2 Propuesta #2: Empresa Siemens ......................................................................................... 69
4.2.1 Esquema del sistema de monitoreo ............................................................................. 69
4.2.2 Lista de Precios ............................................................................................................ 71
4.2.3 Descripción Detallada de los Productos ..................................................................... 72
4.2.4 Garantía ....................................................................................................................... 78
4.3 Propuesta #1 vs. Propuesta #2 ........................................................................................... 79
CAPÍTULO 5: Conclusiones y recomendaciones ........................................................................ 80
5.1 Conclusiones ...................................................................................................................... 80
5.2 Recomendaciones .............................................................................................................. 81
BIBLIOGRAFÍA .......................................................................................................................... 82
v
ÍNDICE DE FIGURAS
Figura 2.1: Data Center [39] ........................................................................................................... 5
Figura 2.2: Trayectoria de la energía eléctrica en un data center común [21] ................................ 9
Figura 2.3: Dibujo simbólico de un data center Green [40] ......................................................... 11
Figura 3.1: Maqueta de un data center del siglo XXI [36] ........................................................... 13
Figura 3.2: Efecto en Cascada [2] ................................................................................................. 19
Figura 3.3: Potencia Consumida por un servidor vs. % de utilización de su CPU [5] ................. 21
Figura 3.4: Servidor físico que corre varios servidores virtuales [31] .......................................... 23
Figura 3.5: Efecto en la eficiencia [22] ......................................................................................... 25
Figura 3.6: Esquemas de distribución AC y DC ........................................................................... 29
Figura 3.7: Ciclo de Refrigeración [33] ........................................................................................ 32
Figura 3.8: Obstrucción del flujo de aire [38]............................................................................... 35
Figura 3.9: Ejemplo de termografía infrarroja .............................................................................. 35
Figura 3.10: Software CFD [23] ................................................................................................... 36
Figura 3.11: Efecto de orientar el equipo de TI en una misma dirección [11] ............................. 36
Figura 3.12: Técnica de dividir en pasillos frio y calientes [15] [20] .......................................... 37
Figura 3.13: Contenedor de pasillo frio [34] ................................................................................ 37
Figura 3.14: A) Racks de alta densidad (hot spots) en el data center [14], B) Creación de áreas de
poca y alta densidad [16] .............................................................................................................. 39
Figura 3.15: Comparación de eficiencia entre diferentes dimensionamientos [20]...................... 43
Figura 3.16: UPS con arquitectura modular [19] .......................................................................... 44
Figura 3.17: Arquitectura modular vs. Arquitectura no-modular [24] ......................................... 44
Figura 3.18: Ejemplo de modelo energético de un data center [27] ............................................. 48
Figura 3.19: Diagrama de flujos del simple algoritmo energético ................................................ 49
Figura 4.1: Logo de la empresa [28] ............................................................................................. 55
Figura 4.2: Esquema del sistema de monitoreo de energía [28] ................................................... 55
Figura 4.3: Diagrama y foto del Veris E50C2 [28] ...................................................................... 58
Figura 4.4: Field Server Bridge [28] ............................................................................................. 60
Figura 4.5: Pantalla PanelView monocromática [28] ................................................................... 60
Figura 4.6: Puertos entrada/salida, alimentación y memoria del equipo [28] .............................. 61
Figura 4.8: Esquema del sistema de monitoreo ............................................................................ 69
Figura 4.7: Logo de la empresa [30] ............................................................................................. 69
Figura 4.9: PLC SIMATIC S7-300 [30] ....................................................................................... 72
vi
Figura 4.10: SENTRONPAC4200 [29] ........................................................................................ 73
Figura 4.11: Sistema de gestión de energía usando un SENTRONPAC4200 [29] ...................... 75
vii
ÍNDICE DE TABLAS
Tabla 3.1: Niveles de eficiencia global [1] ................................................................................... 17
Tabla 3.2: Niveles de medición del PUE [8] ................................................................................ 17
Tabla 4.1: Cronograma de eventos propuesto [28] ....................................................................... 67
Tabla 4.2: Descripción de la oferta [28] ....................................................................................... 68
Tabla 4.3: Características técnicas del equipo [29] ...................................................................... 76
viii
NOMENCLATURA
A
A/C
BMS
Breaker
CFD
CPU
CRAC
Data center
Driver
DCiE
Ethernet
FieldServer
Facility
FAT
Gateway
Hardware
HMI
ODBC
odf
P
Ping
Profibus
PUE
Q
Rack
RielDIN
RS232 S
Software
TI
THD
UL
Amperes
Aire acondicionado
Sistema computarizado que controla los sistemas eléctricos
y mecánicos de un edificio
Aparato capaz de abrir un circuito ante una falla
Software para analizar el flujo de aire en un data center
Unidad central de procesamiento de datos de una
computadora
Unidad de aire acondicionado para un cuarto o salón
Centro de procesamiento de datos electrónicos
Programa informático que permite a un sistema operativo
interactuar con un dispositivo periférico
Métrica que describe la eficiencia de un data center
Estándar para redes de computadoras de área local
Gateway hecho para hacer traducciones entre protocolos de
comunicación
Edificio hecho con algún propósito especifico
Prueba que determina si el software y el hardware operan de
acuerdo con los requerimientos y especificaciones previstas
Dispositivo de red que sirve para interconectar redes de
distintos protocolos y arquitecturas
Todo elemento físico tangible de una computadora
Interfaz que sirve para comunicar a un humano con una
maquina
Estándar de acceso a bases de datos
Formato para almacenamiento de documentos
Potencia real
Utilidad que comprueba el estado de conexión entre
elementos de red
Estándar de comunicaciones para bus de campo
Métrica que describe la eficiencia de un data center
Potencia reactiva
Estante o bastidor para montar equipo de TI
Riel usado para montar breakers y equipo de control
industrial
Conector que sirve para comunicar un equipo terminal de
datos con uno de comunicación de datos
Equipamiento lógico de una computadora, o sea, sus
programas
Tecnologías de la información
Métrica que describe la distorsión armónica total de un
sistema
Estándar de seguridad para equipo electrónico
ix
UPS
USB
V
White Paper
Equipo que proporciona energía eléctrica justo después del
corte de la misma
Puerto que sirve para conectar periféricos a un ordenador
Voltaje
Artículo informativo
x
RESUMEN
Se presenta una metodología para optimizar el manejo de energía en data centers y el
diseño de un sistema de monitoreo energético para el data center de Grupo Electrotécnica.
La metodología se propone en forma de una guía escrita, titulada: Metodología para la
Optimización del Manejo de Energía en Data Centers, ésta se basa en los white papers (artículos
informativos) de The Green Grid, APC y Emerson. La guía orienta a los administradores de data
centers hacia el empleo de estrategias energéticas en los data centers que administran. Se
promueve la reducción de la cantidad de energía consumida en el data center y una mayor
eficiencia en el uso de ésta mediante el empleo de una estrategia energética. Esto, con el
propósito de reducir los costos energéticos, ser más amigables con el ambiente, mejorar la
imagen corporativa, y ser más competitivos.
Se realizó el diseño de un sistema de monitoreo energético para data centers, el cual se va
a implementar en el nuevo data center de la empresa Grupo Electrotécnica. Inicialmente, se
hicieron dos diseños del sistema de monitoreo, un primer diseño hecho en conjunto con la
empresa Siemens, y un segundo diseño hecho en conjunto con la empresa Sistemas IQ.
Finalmente se seleccionó el diseño hecho en conjunto con Sistemas IQ debido a su versatilidad y
costo económico. El sistema de monitoreo mide, almacena y grafica las variables energéticas
necesarias para un adecuado monitoreo del manejo de la energía en el data center.
La guía fomenta en los clientes de Data Center Consultores el tema de la eficiencia
energética y el uso de sistemas de monitoreo energético. Esto para que cuando el sistema de
monitoreo energético diseñado se implemente en el data center de Grupo Electrotécnica, sirva
como modelo para que los clientes de Data Center Consultores deseen solicitar la instalación de
este sistema en sus data centers o solicitar auditorias energéticas usando este sistema. Se logra así
mejorar los servicios de Data Center Consultores y contribuir con el medio ambiente.
xi
CAPÍTULO 1: Introducción
Existe un problema energético en los data centers, ya que por su naturaleza pueden llegar
a consumir unas doscientas veces la cantidad de energía de una oficina por metro cuadrado. Hoy
en día los data centers son blanco de regulaciones gubernamentales y de críticas ambientalistas.
Ante este panorama, nuevas organizaciones como The Green Grid están continuamente
redefiniendo el concepto de eficiencia energética en los data centers, empresas como APC hacen
equipo muy eficiente, y empresas como Data Center Consultores hacen auditorias energéticas a
los data centers para mejorar su eficiencia. A pesar de esto, los administradores de data centers
juegan uno de los papeles más importantes en la eficiencia del data center.
La mayoría de los administradores de data centers no han sido entrenados para hacer del
data center un sistema eficiente, por lo tanto, surge la importancia de educarlos para que
implementen una estrategia eficiente en sus data centers. Es importante entonces una guía
dedicada a estas personas que describa una metodología enfocada en reducir la cantidad de
energía consumida en el data center para así reducir los costos energéticos, y enfocada en usar la
energía más eficientemente para ser mas amigables con el ambiente y así mejorar la imagen
corporativa del data center. No se puede implementar tal metodología si no se hacen mediciones,
y no se pueden hacer mediciones sin equipo de medición. Por lo tanto, es necesario pedir los
servicios de auditorías energéticas o tener un sistema de monitoreo energético para analizar
cómo se está manejando la energía eléctrica. La empresa Data Center Consultores hace
auditorias energéticas y pretende vender en un futuro un sistema de monitoreo energético para
data centers, el cual se encarga de hacer mediciones de las variables energéticas necesarias para
1
2
implementar una estrategia de manejo de energía a lo largo de todo el ciclo de vida del data
center.
En este proyecto se detalla una guía con una metodología para implementar una
estrategia energética en data centers y el diseño de un sistema de monitoreo energético para el
data center de Grupo Electrotécnica.
1.1 Objetivos
1.1.1 Objetivo general
Crear una metodología para la optimización del manejo de la energía eléctrica en data
centers para la empresa Data Center Consultores que fomenta la eficiencia energética y el uso de
sistemas de monitoreo energético, esto para que los clientes compren el sistema de monitoreo
energético propuesto en este proyecto, el cual se implementará en el nuevo data center de la
empresa Grupo Electrotécnica.
1.1.2 Objetivos específicos
 Hacer una investigación acerca de la eficiencia en el consumo de la energía eléctrica en
los data centers.
 Escribir una guía para la empresa Data Center Consultores orientada a los
administradores de data centers que, describe una metodología para optimizar el consumo
de la energía eléctrica en los data centers.
 Promover en la guía el desarrollo sostenible de los data centers con el medio ambiente.
 Hacer varios diseños de sistemas de monitoreo de consumo energético en conjunto con
diferentes empresas para el nuevo data center de la empresa Grupo Electrotécnica.
3
 Hacer que los diseños propuestos sean compatibles con diferentes instrumentos de
medición y protocolos de comunicación.
 Justificar la escogencia del mejor diseño para implementarlo en el data center de la
empresa Grupo Electrotécnica, y para que sea fácilmente instalable en cualquier otro data
center.
1.2 Metodología
Para cumplir con los objetivos de este proyecto se plantea la siguiente metodología a
seguir cronológicamente:
1. Hacer una investigación acerca del tema de eficiencia energética en data centers.
2. Definir el concepto de eficiencia energética en data centers, escoger las mejores prácticas
de eficiencia energética para cada sub-sistema del data center y para el data center como
un solo sistema, definir un algoritmo de eficiencia energética.
3. Escribir una guía con una metodología para implementar una estrategia de manejo
eficiente de energía en data centers.
4. Evaluar posibles empresas para hacer un diseño en conjunto de un sistema de monitoreo
energético para el data center de la empresa Grupo Electrotécnica.
5. Escoger dos empresas y realizar dos diseños en conjunto, uno con cada empresa.
6. Justificar y escoger diseño más viable entre los dos diseños.
CAPÍTULO 2: Desarrollo Teórico
En este capítulo se presentan las bases teóricas para el desarrollo del proyecto. Se inicia
con una explicación de lo que es un data center, posteriormente se habla acerca de los tipos de
data centers en cuanto a eficiencia y al consumo de energía eléctrica, y finalmente se explica el
problema energético en data centers para así introducir el concepto de data center Green (centro
de datos verde).
2.1 Que es un Data Center?
2.1.1 Definición
En la sociedad de la información en la que se vive, un individuo promedio se puede
plantear la siguiente pregunta: ¿dónde reside la información? Cuando se teclea en el navegador
una dirección como www.google.com, ¿qué sucede? La respuesta es complicada, la información
puede ubicarse en cualquier lugar del planeta gracias a las redes de comunicación y a la
globalización. Se puede decir que la mayoría de esta información se almacena en los llamados
data centers o centros de datos.
Un data center es aquella ubicación donde se concentran todos los recursos necesarios
para el procesamiento de información de una organización. Un data center viene a ser
básicamente un edificio o sala de gran tamaño usada para mantener en él una gran cantidad de
equipamiento electrónico (servidores, sistemas de almacenamiento de datos, equipos de
comunicaciones, etc). Son creados y mantenidos por las organizaciones con el objetivo de tener
acceso a la información necesaria para sus operaciones. Por ejemplo, un banco puede tener un
4
5
data center con el propósito de almacenar todos los datos de sus clientes y las operaciones que
estos realizan sobre sus cuentas. Prácticamente todas las compañías que son medianas o grandes
tienen algún tipo de data center, mientras que las más grandes llegan por lo general a tener
varios.
Entre los factores más importantes que motivan la creación de un data center se puede
destacar el garantizar la continuidad y disponibilidad del servicio a clientes, empleados,
ciudadanos, proveedores y empresas colaboradoras, pues en estos ámbitos es muy importante la
protección física de los equipos informáticos o de comunicaciones implicados, así como
servidores de bases de datos que puedan contener información crítica.
El data center es pues la estancia donde se encuentran los servidores, sistemas de
comunicaciones, almacenamiento, y toda la tecnología fundamental de la empresa. Si no hay
data center, no hay información. Por ello, las organizaciones son cada vez más conscientes de la
importancia de tener un data center que garantice seguridad a sus activos más valiosos: la
información.
Figura 2.1: Data Center [39]
6
2.1.2 Diseño
Un data center es una inversión estratégica para la organización. Por ello su diseño es
muy importante, pues condiciona no sólo a la tecnología, sino a la organización y su
subsistencia. Las consideraciones básicas que hay que tener en cuenta a la hora de diseñar un
data center son:
 Espacio y el dimensionamiento del equipo.
 Estructuras constructivas.
 Ubicación geoestratégica.
 La energía eléctrica del data center a una capacidad máxima.
 Refrigeración del data center a una capacidad máxima.
 Fluido de gases.
 Acometidas eléctricas.
 Cableado de datos: cobre, fibra, etc.
 Bandejas porta-cables distribuidoras.
 Canalizaciones para proveedores de servicios de telecomunicaciones.
 Sistemas anti-incendio. Elementos ignífugos.
 Sistema de seguridad: CCTV, control accesos, detectores de movimientos, etc.
 Pisos elevados.
 Generadores y cuadros de distribución eléctrica. Depósitos de combustible.
 Sistemas de Alimentación Ininterrumpida (UPS’s) redundantes en paralelo y doble paralelo.
 Instalación de alarmas, control de temperatura y humedad.
 Diseño hidrófugo ante filtraciones de agua.
7
 Pisos, paredes y techos sellados, pintados o construidos con un material que reduzca al
máximo la aparición de polvo.
 Puertas con protección anti-incendio.
 Carga del suelo, que es la capacidad de carga suficiente para soportar tanto la carga
concentrada como la carga distribuida de los equipos instalados.
 Señalización.
 Protección de contaminantes.
 Equipos de comunicaciones en alta disponibilidad.
 Sistemas de copias de seguridad.
Poner en producción y mantener un data center no es tarea fácil. Requiere dinero,
conocimientos y gestión. Por ello, en organizaciones de tamaño limitado, puede no resultar
rentable montar un data center para albergar un número reducido de servidores. Para satisfacer
estas necesidades surgen nuevos modelos de negocio que sirven no sólo para abastecer las
necesidades de la empresa, sino las de otras empresas, como el housing y el hosting.
El housing consiste básicamente en vender o alquilar un espacio físico de un data center
para que el cliente coloque ahí su propio servidor. La empresa propietaria del data center
proporciona espacio, suministro eléctrico, refrigeración, conexión a Internet, etc., pero el
servidor es propiedad del cliente. Dicho de otra forma, es como si se alquilase un espacio en un
data center para alojar los servidores, proporcionándoles a éstos unas condiciones ambientales y
físicas suficientes para dotar de alta disponibilidad el servicio que se quiera prestar.
El hosting o alojamiento web es el servicio que consiste en proveer a los clientes de un
sistema para poder almacenar información, imágenes, vídeo, o cualquier contenido accesible vía
internet. En otras palabras, los Web Hosts son compañías que proporcionan espacio de un
8
servidor a sus clientes. Un ejemplo es cuando se contrata a una empresa un espacio para albergar
una página web o una aplicación.
Sin importar la aplicación del data center, ya sea para propósitos de la empresa o para
housing o hosting, un data center requiere un esfuerzo de diseño multidisciplinario en las áreas
de ingeniería civil, ingeniería eléctrica, ingeniería mecánica, ingeniería informática, entre otras.
2.1.3 Clasificación de los data centers en cuanto a orden y eficiencia
Los data centers deben estar organizados estratégicamente para funcionar eficientemente,
sin embargo, eso no es el caso en todos ellos. Por lo tanto, los data centers, en cuanto a orden y
eficiencia, se pueden clasificar en tres tipos:
 Caótico: los equipos, canalizaciones, cableados, etc. se desparraman por todas partes y no es
que no exista un criterio sobre si la energía se consume de un modo eficiente, sino que ni
siquiera se ha planteado ésta cuestión!.
 Ordenado pero ineficiente: es el data center en el que se ha descuidado el control de su
consumo energético. Es ordenado, pero generalmente sobredimensionado respecto a la
demanda actual y muy ineficiente por el alto consumo en climatización innecesaria. Se asocia
a modelos de gestión obsoletos, madurados en épocas pasadas donde el costo de adquisición
de los recursos TI superaba con creces al costo de la explotación de esos recursos, cosa que
ya no ocurre.
 El data center ordenado y eficiente: aquél que realiza un consumo energético altamente
eficiente, amigable con el ambiente, y sujetado a normas internacionales. Su rendimiento se
analiza con un sistema de monitoreo energético.
9
2.1.4 Consumo de energía eléctrica y eficiencia
La eficiencia de un data center está directamente relacionada con el uso efectivo de la
energía eléctrica consumida por los sub-sistemas del data center, o sea, por el equipo de TI, el
equipo de potencia (o equipo eléctrico), equipo de enfriamiento y los llamados otros equipos. En
la Figura 2.2 se pueden apreciar los trayectos usuales de la energía eléctrica a través del data
center.
Figura 2.2: Trayectoria de la energía eléctrica en un data center común [21]
La energía a través de todas éstas trayectorias debe ser consumida de la manera más
eficiente posible, para evitar un daño al medio ambiente, y por supuesto, al bolsillo de los dueños
del data center.
10
2.2 Problema energético en data centers y concepto de data
center Green
Es tal la velocidad del cambio tecnológico, que aún cuando han transcurrido más de 30
años desde la aparición del microprocesador, persiste el desarrollo vertiginoso de las tecnologías
de la información, permitiendo una drástica disminución en las dimensiones de las computadoras
y el surgimiento de equipos más simplificados y rápidos. La ley Moore expresa que
aproximadamente cada 18 meses se duplica el número de transistores en un circuito integrado, lo
que implica mayor potencia a menor tamaño. Un equipo nuevo es 5 veces más potente que su
antecesor, requiere sólo 2 veces la energía que consumía este último y ocupa la mitad de espacio.
Desde un punto de vista de prestaciones, el nuevo equipo es mucho más eficiente que el primero
ya que para la misma energía ofrece un mayor rendimiento, pero desde el punto de vista
energético se produce el fenómeno de que, donde antes había un servidor, ahora se pueden
instalar 2 servidores, y por tanto se necesitaría una potencia 4 veces superior a la situación
anterior. Obviamente, esto es una gran ventaja. En menos espacio, y al mismo precio, se tiene
mayor potencia de procesamiento. Pero hay un problema añadido, equipos que solían llenar un
data center entero están actualmente ubicados en un único rack, concentrando una potencia
extrema y grandes densidades caloríficas. Este aumento de la densidad conduce a una generación
mayor de calor, lo que requiere de soluciones de refrigeración que eviten sobrecargas térmicas.
Si bien la industria del hardware ha conseguido que a mayores prestaciones técnicas el
incremento unitario del consumo de energía por equipo sólo haya sido de entre un 5% y un 8%,
ha sido la proliferación en el número de servidores la que ha generado un 90% del crecimiento
en el consumo de energía. Actualmente, la cantidad de servidores a nivel mundial que residen en
data centers asciende a una cantidad superior a los treinta millones.
11
Como consecuencia, los data centers consumen cada vez más energía, hasta multiplicar
su consumo en la última década. Entre los años 2000 y 2005, la cantidad de energía eléctrica
consumida en los data centers en todo el mundo se ha duplicado, y esta tendencia ha ido
creciendo en los últimos años. Este crecimiento viene provocado por una demanda cada vez
mayor en los servicios web, los vídeos bajo demanda, las descargas de vídeo y música, y un uso
cada vez más extendido socialmente de las nuevas tecnologías Internet.
La nueva tendencia de los data centers es hacia el concepto denominado como data center
Green. Un data center Green es un data center amigable con el ambiente, el cual alcanza altos
niveles de eficiencia, poco gasto energético, y un ajuste acorde a normas de eficiencia
internacionales. Los data centers Green pretenden mejorar la imagen corporativa de los data
centers, ya que ha sido dañada por las constantes críticas a causa de su ineficiencia.
Figura 2.3: Dibujo simbólico de un data center Green [40]
CAPÍTULO 3: Metodología para optimizar
el manejo de energía en data centers
A continuación se describe una metodología para optimizar el manejo de energía en data
centers. Esta metodología se enfoca en que el administrador de data centers entienda en concepto
de eficiencia energética en data centers y pueda emplear una estrategia energética en el data
center que administra.
3.1 Introducción
Se propone la optimización del manejo de la energía eléctrica en data centers mediante la
reducción de la energía total consumida y la eficiencia en el uso de esta. Para lograrlo, se plantea
una metodología con los siguientes pasos a seguir:
 Paso 1: entender el problema energético en data centers.
 Paso 2: comprender el concepto de manejo eficiente de energía en data centers.
 Paso 3: conocer las mejores prácticas de eficiencia y reducción de energía consumida en data
centers.
 Paso 4: aprender a tratar al data center como un gran sistema.
 Paso 5: aplicar una estrategia para optimizar el manejo de energía durante todo el ciclo de
vida del data center.
12
13
Esta metodología encamina al data center hacia un bajo costo energético, un mínimo
impacto ambiental y una mejor imagen corporativa, las cuales son características típicas del data
center del futuro.
Figura 3.1: Maqueta de un data center del siglo XXI [36]
3.2 Paso 1: Problema energético en data centers
Las necesidades de la sociedad han llevado a un gran desarrollo del mundo digital en los
últimos tiempos. Adentro de este mundo se encuentran los data centers, que no son más que
cerebros que procesan la mayoría de los datos que corren por la internet. Esta cantidad de datos
incrementa conforme la sociedad aumenta su dependencia tecnológica y su cantidad de personas,
por lo que se está obligando a los data centers a mejorar sus capacidades de almacenamiento,
procesamiento y transmisión de datos de manera impresionante. El data center de Facebook hoy
en día almacena más de cuarenta billones de fotos, y esta cifra sigue creciendo a razón de dos mil
imágenes por segundo [36].
14
El manejo de datos a este nivel implica un gran gasto energético que se está duplicando
cada 5 años; actualmente el espacio de un data center gasta de cien a doscientas veces la energía
del espacio de una oficina [15]; además, el costo de la energía eléctrica a nivel mundial también
se está duplicando cada 5 años, obteniéndose así un problema energético en los data centers. Este
problema afecta los costos financieros de los data centers y ha llegado a ser blanco de nuevas
regulaciones gubernamentales por su daño al medio ambiente.
Ante estos niveles de desarrollo no sostenibles se ha mostrado gran preocupación por el
tema, por lo que la eficiencia energética de los diversos dispositivos y de la infraestructura de los
data centers ha mejorado, y se han desarrollado software y métricas con propósitos de mejorar la
eficiencia. Sin embargo, la evolución diaria de los data centers y sus demandas energéticas
variantes han hecho que no sea fácil alcanzar altos niveles de eficiencia.
Por ser los data centers sistemas muy dinámicos no existe un método de eficiencia
general que solucione todo el problema como tal, lo que implica que cada data center deba
emplear una estrategia de manejo de energía eficiente adecuado a sus características. De aquí que
los administradores de data centers deban tener un rol importante como implementadores de esta
estrategia. Esta metodología pretende llevar al administrador de data centers a emplear una
estrategia de manejo eficiente de energía que lleve al data center a tener un monto en el recibo
eléctrico más bajo, un menor impacto ambiental y una mejor imagen corporativa. Hoy en día,
tener un data center eficiente es simplemente una elección, pero pronto, será una obligación!.
3.3 Paso 2: Manejo eficiente de energía en data centers
En este artículo, el concepto de manejo eficiente de energía se refiere a un manejo que
tiende hacia la disminución de la energía total consumida y el aumento de la eficiencia en el uso
15
de ésta. El manejo de energía eficiente en data centers debe encaminar al data center en un
proceso que lo lleve a ser un data center ‘Green’, o sea, uno amigable con el ambiente. Para esto,
se debe reducir la energía total consumida por el edificio y aumentar la eficiencia del uso de ésta.
La energía total consumida por el data center es un concepto fácil de entender si se sabe
que un kilowatt-hora (kWh) es la cantidad de energía consumida por un aparato de 1000 W
cuando se usa por 1 hora. Sin embargo, el concepto de eficiencia energética en data centers
puede llegar a ser un poco subjetivo. La eficiencia en el uso de la energía es el porcentaje de la
cantidad de energía total consumida que es utilizada para los propósitos deseados, pero esta
definición no dice como se debe medir al energía, dónde se debe medir, qué unidades usar o
cómo manejar las matemáticas del asunto. Ante este inconveniente, los data centers necesitan
una medida como los litros de gasolina por kilometro recorrido para poder entender la eficiencia
de los data centers. Para normalizar este concepto, se va a tomar como definición de eficiencia la
métrica llamada PUE (Power Usage Effectiveness), la cual es el estándar de eficiencia energética
en data centers internacionalmente más aceptado; a pesar de que el tema de eficiencia energética
va más allá del PUE, ésta métrica se adapta de manera correcta a la hora de desarrollar una
metodología para mejorar el manejo de energía.
3.3.1 La métrica de eficiencia llamada PUE
Una métrica es una escala para medir una característica importante de un sistema
mediante un procedimiento para obtener esta medida. El PUE es una métrica ideada por la
organización The Green Grid, que mide la efectividad en el uso de la energía de un data center; y
se calcula mediante la siguiente fórmula:
16
(3.3.1-1)
En esta fórmula están implícitos los siguientes conceptos:
 Equipo del Facility: está comprendido por el equipo de TI y por todo el equipo que soporta y
hace posible que la carga de TI opere correctamente, el cual se divide en: equipo de potencia,
equipo de enfriamiento y otros equipos.
 Equipo de TI: maneja, procesa, almacena y direcciona información dentro del data center,
como por ejemplo: computadoras, elementos de red, dispositivos de almacenamiento e
impresoras.
 Equipo de Potencia: lleva la energía eléctrica al equipo de TI, como por ejemplo:
generadores, cables, transformadores, tableros de distribución, UPS’s y PDU’s.
 Equipo de Enfriamiento: mantiene una temperatura y humedad deseadas en el data center, y
se refiere a todo el equipo de aire acondicionado.
 Otros Equipos: equipos de iluminación y seguridad, y en fin, cualquier otro equipo que
consuma energía eléctrica.
Con estos conceptos claros, el PUE se puede desarrollar de la siguiente manera:
(3.3.1-2)
De esta ecuación se puede deducir que la eficiencia de un bombillo en un data center es
cero, porque no entrega energía a las cargas de TI, sólo alumbra y genera calor.
En un caso hipotético en el que se usen superconductores para llevar la energía eléctrica
al equipo de TI y se use enfriamiento natural, el data center podría ser 100% eficiente, teniendo
así un PUE = 1. Sin embargo, este caso no es razonablemente alcanzable en estos tiempos, por lo
17
que el PUE en un data center siempre será mayor a 1. Actualmente los data centers más
eficientes del mundo tienen un PUE de aproximadamente 1.1 y los data centers promedio tienen
un PUE de 1.9. A pesar de que el PUE depende del data center en cuestión, The Green Grid
establece los siguientes niveles de eficiencia global:
Tabla 3.1: Niveles de eficiencia global [1]
El PUE se puede medir en 3 niveles diferentes, según la precisión e información que se
desee:
Tabla 3.2: Niveles de medición del PUE [8]
El nivel 3 es el más conveniente, ya que a pesar de su mayor complejidad de medición, se
obtienen más cantidad de datos y más confiabilidad.
Se debe tener precaución en el proceso de medición y análisis del PUE. Considérese el
siguiente caso: un data center en el que se hace una sola medición del PUE en un instante de
tiempo X. Este valor medido no representa la realidad de la eficiencia del data center, ya que por
ejemplo, si el data center en ese momento se encontraba bajo una demanda pico y con una
temperatura externa muy baja, el valor medido puede ser mucho más bajo que el PUE real. Así
pues, lo recomendado es medir el PUE a lo largo de un periodo dado para que se puedan analizar
los resultados globales y específicos de todo el intervalo, y así llegar a conclusiones más reales
acerca de la eficiencia del edificio. Un buen estudio de la eficiencia de un data center comprende
18
un período recomendado de un año, ya que se llega a visualizar el comportamiento del data
center en las diferentes estaciones climáticas, en los diferentes meses del año, así como también
en los días de la semana y las horas del día.
Para informarse más acerca del PUE se pueden consultar los white papers (artículos
informativos) de The Green Grid.
3.4 Paso 3: Mejores prácticas de eficiencia energética
A partir de que tiene una idea del problema energético en data centers (Paso 1) y del
concepto de manejo eficiente de energía en data centers (Paso 2) es necesario estudiar las
mejores prácticas de eficiencia energética, ya sea para diseñar un data center ó para mejorar
alguno ya existente.
Se presenta a continuación una guía básica introductoria que describe las mejores
prácticas de eficiencia energética usadas en los data centers más modernos del mundo. Esta guía,
al tratar varios temas no aborda detalles técnicos específicos ya que no es un manual, sin
embargo pretende presentar una visión general del conocido Efecto en Cascada de ahorro
energético y de la eficiencia de los diferentes sub-sistemas del data center. Todo esto con el
propósito de disminuir el PUE y reducir la cantidad de energía consumida para ser más amigable
con el ambiente y ahorrar dinero. Varios de los consejos que se mencionan están basados en la
estrategia Enery Logic de Emerson y en los white papers (artículos informativos) de The Green
Grid.
3.4.1 El Efecto en cascada
La energía entregada a un data center usualmente se distribuye en las siguientes 3
trayectorias:
19
1. Hacia el equipo de potencia (equipo eléctrico) que transmite la energía al equipo de TI.
2. Hacia el equipo de enfriamiento.
3. Hacia los ‘otros equipos’.
Las dos trayectorias principales, la del equipo de potencia que transmite al equipo de TI y
la del equipo de enfriamiento, parecen ser independientes, sin embargo se puede generar un
Efecto en cascada de ahorro energético a través de estas dos trayectorias si se disminuye
inicialmente el consumo energético del equipo de TI. Esto sucede porque si el consumo del
equipo de TI baja entonces el equipo de potencia transportará menos energía, haciendo que estos
dos generen menos calor y que el equipo de enfriamiento gaste menos energía. Así entonces todo
el data center consume menos energía. En la Figura 3.2 se muestra un ejemplo del Efecto en
Cascada, y cómo si se reduce 1 Watt de consumo energético en el equipo de TI se puede obtener
un ahorro total de 2.7 Watts en el data center [2].
Figura 3.2: Efecto en Cascada [2]
Se concluye entonces que la disminución en el consumo del equipo de TI se propaga por
todo el data center disminuyendo el consumo total del mismo, por lo que se recomienda poner
20
especial énfasis en la eficiencia del equipo de TI que se compre, y la manera en que se configure
o use.
En las siguientes secciones se presentan las mejores prácticas de eficiencia para los subsistemas del data center a lo largo de toda la cascada. Los sub-sistemas son: el equipo de TI, el
equipo de potencia, el equipo de enfriamiento y los otros equipos.
3.4.2 Equipo de TI
El equipo de TI es el más importante en cuanto a eficiencia porque es la naciente de la
cascada. Se recomiendan las siguientes tecnologías y prácticas:
 Equipo con procesadores multi-núcleo que habilitan procesamiento simultáneo de datos.
 Tender hacia programas de cómputo con la menor cantidad de código de programación
posible y algoritmos de rápida convergencia.
 Usar fuentes de poder eficientes.
 Usar fuentes de poder con la capacidad energética que se les va a demandar (ver
Dimensionamiento en Paso 4).
 Activar los modos económicos y usar software para monitoreo de energía que algunos de
estos equipos traen.
 Servidores eficientes con sello Energy Star o algún otro sello de calidad.
 Desconectar o establecer horarios de apagado para el equipo de TI con poco uso.
 Virtualizar los servidores en servidores tipo blade.
Se recomienda consultar a los expertos a la hora de implementar estas tecnologías.
A continuación de describen en detalle las últimas 2 recomendaciones de la lista, ya que
requieren un conocimiento más a fondo.
21
3.4.2.1 Equipo de TI con poco uso
Es necesario apagar el equipo se TI cuando no se prevé que vaya a ser usado, por dos
razones importantes. La primera es que a pesar de que no son aparatos que consumen tanta
potencia como una cocina o una secadora de ropa, son equipos que se mantienen encendidos
durante intervalos prolongados de hasta varios meses, por lo que a través de la vida útil los
costos energéticos y de enfriamiento suelen superar el costo de compra del mismo [7]. La
segunda razón es que la diferencia de gasto energético entre el equipo de TI encendido sin estar
en uso y el equipo de TI encendido ejecutando instrucciones es muy poca; por ejemplo, un
servidor trabajando al 100% de su capacidad puede consumir 300 W, mientras que a un 2% de su
capacidad puede consumir 200 W (ver Figura 3.3), esto, porque independientemente del
porcentaje de utilización de la CPU, los circuitos integrados de la electrónica interna se
mantienen energizados aunque no ejecuten instrucciones. Para evitar estos gastos innecesarios,
se debe retirar del data center el equipo que no se esté usando del todo y establecer horarios para
apagar el resto de los equipos durante los periodos prolongados en los que no tendrán uso.
Figura 3.3: Potencia Consumida por un servidor vs. % de utilización de su CPU [5]
El equipo a retirar del data center debe ser el equipo viejo que no está en uso o el equipo
en el cual analizando las estadísticas de red se detecta que ha estado inactivo por mucho tiempo y
22
que probablemente no seguirá siendo usado, por lo que simplemente genera calor que debe ser
extraído por las unidades de aire acondicionado, ocupa espacio y responde a los comandos ping!,
lo que en otras palabras significa que no hace nada.
Para establecer los horarios de apagado de ciertos equipos se debe saber que la cantidad
de información procesada por un conjunto de servidores en un data center tiende a seguir
patrones diarios, semanales, mensuales o hasta anuales, y dada una serie de mediciones para
encontrar estos patrones, se pueden establecer horarios para apagar los servidores que no se usan
y tener encendidos los suficientes servidores para soportar la demanda en el peor caso. Por
ejemplo, si un data center tiene 10 servidores, puede en el mejor caso funcionar a una capacidad
de 10 x 100% = 1000%, y si se prevé que al data center se le va a exigir en ese día un pico
máximo de 500% entonces en lugar de usar 10 servidores al 50% (500/10=50) se podrían usar 7
servidores operando al 71.5% (500/7=71.5) de su capacidad, ahorrando así un 30% energía
eléctrica; y si un servidor falla, quedan así 6 servidores operando al (500/6=83.3) 83.3%, y tres
servidores de reserva. Esta técnica sirve ya que usualmente la cantidad de servidores necesarios
para suplir la demanda de datos va a ser menor que la cantidad total de servidores en el data
center debido a que generalmente se dimensiona el equipo para el peor caso.
3.4.2.2 Virtualización de servidores en servidores tipo blade
Los servidores son de vital importancia porque contienen sistemas operativos y
aplicaciones que generan el producto final en un data center. Por ser de gran importancia,
consumir gran parte de la energía en un data center y usualmente no ser aprovechados al
máximo, es esencial reducir el consumo y aprovechar más los recursos computacionales de los
23
mismos. La virtualización de servidores y los servidores blade se han popularizado por tener
estas características mencionadas.
La virtualización de servidores se basa en el concepto de máquina virtual. Una máquina
virtual es un software que puede emular el hardware de una computadora, como por ejemplo un
servidor, un dispositivo de almacenamiento, o incluso una red, y así entonces ejecutar programas
como si fuese una computadora real. Este software toma los recursos del computador y los divide
en varios entornos de ejecución mediante el manejo y gestión de los cuatro recursos principales
de una computadora (CPU, Memoria de Programas, Red, Almacenamiento), repartiendo
dinámicamente dichos recursos entre todas las máquinas virtuales usadas por la computadora real
o física [31].
Figura 3.4: Servidor físico que corre varios servidores virtuales [31]
La virtualización de servidores hace uso de las máquinas virtuales para poner a varios
servidores virtuales a ejecutarse sobre el mismo servidor físico. Este aspecto tiene varias
implicaciones positivas en cuanto a eficiencia, ya que reduce la cantidad de servidores necesarios
y aprovecha los recursos computacionales de cada servidor de una mejor manera. El hecho de
que se reduzca la cantidad de servidores cuando se ubican varios servidores virtuales en un
mismo servidor físico, hace que se necesiten menos servidores físicos para cumplir las tareas del
data center, lo que causa una reducción de espacio utilizado; y gracias a esto, se puede tener más
espacio para crecer y para reacomodar el equipo. El notable incremento en el aprovechamiento
de los recursos computacionales del servidor implica que ciertas máquinas pueden correr todas
24
las aplicaciones abriendo una oportunidad para que otras puedan estar totalmente apagadas,
ahorrando así la energía de los servidores que se apagan.
El método de virtualización de servidores se complementa muy bien con la tecnología de
servidores llamada blade. Un servidor tipo blade es una arquitectura modular de servidores muy
eficiente en cuanto a costo y espacio. Está constituida por una base o chasis sobre el cual se
pueden conectar varios módulos. El chasis contiene elementos de soporte como el sistema de
enfriamiento, la fuente de alimentación y los switches de red. Los módulos son las tarjetas o
blades que son servidores individuales con todos los elementos típicos de un servidor, como la
memoria RAM, el disco duro, y la CPU, y no son directamente utilizables ya que no disponen de
fuente de alimentación ni tarjetas de comunicaciones. Los módulos son instalados mediante la
simple inserción en el chasis.
Las ventajas de los servidores blade se relacionan con el aprovechamiento del espacio y
el ahorro de energía. Se da un mejor aprovechamiento del espacio ya que se reduce el espacio
utilizado al integrar varios servidores en un solo chasis, gastando aproximadamente un 30% del
espacio normalmente utilizado. Por ser una arquitectura modular, se simplifica el cableado y el
mantenimiento, se permiten agregar y quitar servidores frecuentemente, y se obtiene una buena
escalabilidad al poderse ampliar el número de servidores fácilmente a medida que va creciendo
la demanda, evitando así la aglomeración desordenada de servidores adentro de los racks. En
cuanto al ahorro de energía, se consigue aproximadamente un ahorro de 10% ya que se
comparten la fuente de poder, el sistema de enfriamiento y la gestión centralizada del sistema
entre todos los servidores o blades.
La virtualización de servidores en servidores blade forman una sinergia interesante en
cuanto al ahorro energético. Con estas dos tecnologías operando conjuntamente se consigue un
25
mayor aprovechamiento de los recursos computacionales de los servidores mezclado con una
reducción del espacio utilizado por los mismos, generando así un ahorro en conjunto que puede
traer beneficios económicos muy favorables. Sin embargo, se deben tener ciertas consideraciones
antes de implementar estos dos sistemas en conjunto (ver sección 3.4.4.2).
La virtualización de servidores en servidores blade reduce el consumo energético del
equipo de TI, pero esta reducción no es proporcional a la reducción en el consumo del equipo de
potencia y el equipo de enfriamiento, sino que es menor. Así estas tecnologías pueden causar que
la eficiencia del data center baje (que el PUE suba) y que parezca que no sean prácticas
beneficiosas a pesar de que sí lo son. En el siguiente ejemplo real [22] se ilustra la situación:
Figura 3.5: Efecto en la eficiencia [22]
En este ejemplo, la virtualización en servidores blade provoca una reducción en los
costos energéticos porque disminuye la potencia total de 1000 kW a 672 kW, sin embargo la
eficiencia baja de 50% a 37%. Para contrarrestar la disminución de eficiencia se debe lograr que
la potencia del equipo de enfriamiento y del equipo de potencia sea dependiente de la carga del
equipo de TI, para que se reduzca cuando la carga de TI disminuya.
26
En general, la instalación de servidores virtuales en servidores blade depende en gran
parte de las restricciones del data center y de las preferencias de administrador. Con ésta
estrategia se logra ahorrar gran cantidad de energía y se puede lograr mantener una eficiencia
similar a la que se tenía anteriormente. Por otro lado, se obtienen servidores más críticos por ser
más delicados, pero los cuales forman un sistema modular apto para adaptarse a las demandas
diarias del data center y ampliarse fácilmente, con la gran versatilidad de los entornos de
virtualización.
3.4.3 Equipo de potencia
El equipo de potencia (ó equipo eléctrico de distribución de energía) es el equipo de
soporte que lleva la energía al equipo de TI. La energía fluye a través de este equipo desde la
acometida del edificio hasta llegar al los equipos de TI, formando así una cadena de transmisión,
distribución y conversión de energía. Esta cadena está principalmente conformada por los
siguientes equipos de potencia en el siguiente orden:
 Switch gear: protege, controla y hasta puede distribuir la energía.
 UPS (Uninterruptible Power Supply): da respaldo energético a los equipos más críticos,
como el equipo de TI.
 PDU (Power Distribution Unit): distribuye y acondiciona la energía (por ejemplo el nivel de
voltaje). Hay de diversos tamaños, desde los grandes PDU’s que se ubican usualmente
después de la UPS (como los gabinetes FPC de Liebert) hasta los pequeños que distribuyen a
nivel de rack (como los PDU’s inteligentes de Liebert).
 PSU (Power Supply Unit): ubicado a nivel del equipo electrónico, convierte el voltaje de AC
o DC de alimentación a varios voltajes DC requeridos por los equipos electrónicos, y
proveen aislamiento eléctrico.
27
 Cables: transportan la energía.
Éstos componentes tienen una salida de calor casi proporcional a la carga del data center,
y la eficiencia de los mismos depende en gran parte del diseño y del fabricante.
Se recomiendan las siguientes tecnologías y prácticas:
3.4.3.1 UPS
Por ser las UPS’s clave en la eficiencia del equipo de potencia se recomienda:
 Hacer un adecuado dimensionamiento de la UPS (ver Paso 4)
 Considerar usar UPS’s modulares (ver Paso 4)
 Considerar usar UPS’s del tipo line interactive por su eficiencia.
 Considerar usar como respaldo sistemas flywheel en lugar de bancos de baterías, ya que
estos no requieren reemplazos ni condiciones especiales de temperatura.
3.4.3.2 Distribución de energía
La transmisión de energía desde la acometida hasta el equipo de TI debe tener dos
características mínimas para que esta sea eficiente.
 El camino de distribución debe tener la mayor cantidad de área transversal (en los cables por
ejemplo) y ser lo más corto posible para reducir perdidas en la transmisión de energía.
 Mantener el voltaje lo más alto posible para mantener una corriente baja y así menos
pérdidas en la transmisión de energía.
Para este segundo punto se debe escoger una configuración de distribución eficiente, que
se adecue a varios factores como la seguridad de las personas, los estándares internacionales de
28
conectores de dispositivos y la compañía suplidora de energía local. Usualmente se utilizan
distribuciones a un relativo alto voltaje (400-600 V) ya que garantizan menor cantidad de
corriente a transmitir por los cables. La distribución que se recomienda es la de 415/240 VAC, la
cual tiene una alta eficiencia y armonía con los dispositivos del data center que pueden funcionar
en su mayoría a 240 VAC. Se prefiere que la distribución cuente con equipo de un mismo
estándar, ya sea IEC (International Electrotechnical Commission) que es un estándar europeo, o
NEMA (National Electrical Manufacturers Association) que es una estándar estadounidense, sin
embargo, con el uso de algunos dispositivos e ingeniería de por medio se puede usar equipo
combinado.
La configuración recomendada anteriormente es para voltaje AC. Usualmente en este tipo
de configuraciones se toma el voltaje AC de alimentación de la acometida, se convierte en la
UPS en la forma AC/DC y DC/AC, y posteriormente a nivel del equipo electrónico es convertido
otra vez de forma AC/DC y DC/DC, lo que se traduce en 4 conversiones de voltaje que causan
ineficiencia y más posibles puntos de falla. Como los equipos electrónicos funcionan en su
mayoría con un voltaje DC, convendría tener una distribución que haga menos conversiones de
voltaje, de manera que se tome el voltaje AC y se hagan solamente las siguientes 2 conversiones
AC/DC y DC/DC. Por ejemplo, se podría convertir la energía de 480 VAC de la acometida a 380
VDC, los cuales se pueden distribuir a través del data center hasta el nivel de los equipos
electrónicos, a donde seria convertida de 380 VDC a los -48 VDC de algún equipo de
telecomunicaciones. De esta manera se ahorra gran cantidad de conversiones que representan
ineficiencia. En la Figura 3.6 se muestran ambas configuraciones:
29
Figura 3.6: Esquemas de distribución AC y DC
En los últimos 5 años se ha estado debatiendo e investigando sobre la distribución en
voltaje DC a través del data center, principalmente a raíz de un estudio hecho por el LBNL
(Lawrence Berkeley National Laboratory) en el cual se caracteriza a la distribución DC como
una de mayor eficiencia que la AC. La distribución DC no es aún una configuración consolidada
en el ámbito de los data centers debido a que está apenas en un proceso de desarrollo. Por no
estar consolidada implica que no hay un código eléctrico bien definido para este tipo de diseño y
que algunos dispositivos sean más caros o difíciles de encontrar para ser alimentados en DC. Sin
embargo, en un futuro estos obstáculos probablemente no existirán.
El voltaje DC utilizado por el LBNL fue de 380 VDC, el cual es también un voltaje alto
apto para así reducir perdidas. El LBNL determina que se pueden alcanzar grandes mejoras en
eficiencia con la distribución en DC. Por otro lado, The Green Grid determinó en un estudio [9]
que la configuración DC fue superior sólo para porcentajes de carga bajos, y que no hay una
configuración AC o DC que dé una eficiencia superior para todas las cargas. A pesar de esto, se
30
proyecta que en el futuro la distribución DC pueda superar a la AC en cuanto a eficiencia
energética.
Los debates e investigaciones seguirán, todos mezclados con intereses económicos por
parte de las empresas. Al final los números hablan por sí mismos, por lo que para comparar estas
dos configuraciones se deben tener en cuenta el costo de instalación inicial, el costo por Watt y el
costo por Watt por minuto de respaldo energético. Para un data center ya existente, es mejor
dejarlo en configuración AC, o implementar algún diseño hibrido de AC y DC con algún
propósito de prueba o investigación. Si se va a diseñar un data center se recomienda diseñarlo en
DC solo hasta que las distribución en DC sea una modalidad consolidada en el mercado.
En conclusión, se recomienda buscar los equipos de potencia más eficientes del mercado
que son usualmente los más nuevos, sabiendo que el verdadero costo del dispositivo no es solo el
costo de venta, sino mas bien éste sumado a los gastos de operación y mantenimiento a lo largo
de toda la vida del mismo; además, se deben dimensionar adecuadamente los dispositivos y se
debe usar una configuración de distribución eficiente para el data center que sea también segura
y de bajo costo.
3.4.3.3 Generación en sitio
La generación de energía en sitio, o sea en el data center, implica generar la energía que consume
el data center en el mismo data center, ya sea con generadores de motor, pilas de combustible,
energías renovables, etc. Este tipo de generación no sólo es ideal para cortes de electricidad
duraderos y para tener un alto porcentaje de disponibilidad energética, sino también porque se
puede usar en periodos del día en los que la energía eléctrica es más cara, usar en los picos de
demanda del data center para evitar multas, y obtener energía a un precio más bajo. Sin embargo,
pesar de ahorrar dinero no reduce significativamente la energía total consumida.
31
3.4.4 Flujo de aire y equipo de enfriamiento
El 99% de la energía eléctrica que un data center consume se transfiere en forma de calor
al espacio. Al menos de que este calor sea removido, la temperatura del data center incrementa
hasta el punto en que el equipo de TI se sobrecalienta y falla. El equipo de TI está diseñado para
trabajar en ciertos rangos de temperatura adecuados, es por esto que debe existir un sistema de
enfriamiento que mantenga una temperatura óptima mediante la extracción del calor. El calor es
simplemente una forma de energía, y para extraer esta energía, se ocupa de otras energías. Por
cada unidad de energía eléctrica consumida se genera casi una unidad de energía en forma de
calor, la cual hace que el equipo de aire acondicionado necesite más o menos una unidad de
energía para extraerla. De aquí se deduce que un gran gasto en energía eléctrica implica un gran
gasto en energía dedicada al enfriamiento, y que por esta razón la eficiencia del equipo de
enfriamiento sea de gran importancia. Mejorar la eficiencia del equipo de enfriamiento tiene
varios retos ya que la dinámica del calor en los data centers es un tema difícil de comprender.
Problemas teóricos, como la comprensión de los flujos espaciales de calor, hasta técnicos, como
extraer el calor del data center cuando la temperatura exterior es mayor que la del data center
sabiendo que una propiedad única de ésta energía es que sólo puede fluir en el sentido de caliente
a frio, son los retos a vencer para lograr una alta eficiencia en los equipos de enfriamiento. A
continuación se describen las mejores prácticas de eficiencia en cuanto al equipo de enfriamiento
y al flujo de aire en el data center.
32
3.4.4.1 Equipo de enfriamiento
El propósito del equipo de enfriamiento es generar un ciclo de refrigeración constante en
el data center. El ciclo más usado es el de enfriamiento líquido, el cual se inicia adentro del data
center en donde el líquido refrigerante se evapora para recoger el calor. Posteriormente se
comprime y se envía al exterior para que se condense y se transfiera el calor, y finalmente
termina por expandirse con un regulador de presión para iniciar el ciclo de nuevo. Este ciclo
debe garantizar que se extraiga suficiente calor para mantener la temperatura adecuada.
Figura 3.7: Ciclo de Refrigeración [33]
Se recomienda usar las siguientes tecnologías:
 Aires acondicionados de precisión son especiales para mantener una temperatura y
humedad muy precisas.
 Water-Side Economizers y Air-Side Economizers (Economizadores de agua y de aire)
pueden proveer enfriamiento a un bajo costo, pero dependen de las condiciones
climatológicas externas.
 Unidades de aire suplementarias enfrían áreas específicas como un pasillo, un rack o un
servidor desde una distancia cercana, de modo que se junta menos el aire frio con el aire
caliente y las trayectorias de aire son menores, haciendo que se necesite menos torque para
mover las aspas de los abanicos de los aires, traduciéndose esto en ahorro energético.
33
 Tecnologías de compresores como digital scroll compressors (compresores digitales de
espiral) y de CRAC’s con motores con variadores de velocidad hacen posibles altas
eficiencias en cargas parciales del data center (los data centers usualmente no funcionan a
plena carga).
 Usar humidificadores ultrasónicos, son muy eficientes.
Se deben considerar las siguientes prácticas:
El diseño de un sistema de enfriamiento debe tener un dimensionamiento que tome en
cuenta las cargas presentes y futuras (Ver Paso 4).
Las unidades de aires acondicionados deben tener una adecuada coordinación para que no
se den casos en que por ejemplo uno humidifique mientras otro deshumidifica o que uno caliente
mientras otro enfría. Los sistemas de control pueden monitorear y coordinar el enfriamiento para
evitar estos conflictos.
El punto de ajuste de temperatura del data center no debe ser demasiado frío [6], sin
embargo, éste se tiende a mantener excesivamente frío por la siguientes razones:
 Miedo a que temperaturas mayores afecten la confiabilidad del equipo de TI.
 Falta de conocimiento del rango de temperatura ideal para el equipo de TI.
 Mantener por más tiempo frío el data center ante un fallo en el equipo en enfriamiento (se ha
probado que bajar la temperatura del data center no incrementa el tiempo en frio del data
center en una manera significativa).
 Mantener fríos los espacios más difíciles de enfriar, ya que es difícil tener todo el data center
a una misma temperatura.
Ante estas razones, se debe recordar: el costo de energía vs mantener un clima perfecto, y
que no es necesario tener temperaturas tan bajas en el data center si el equipo de TI lo permite.
34
3.4.4.2 Flujo de aire
Es indispensable implementar una buena estrategia de control para el flujo de aire; de lo
contrario, el aire frío va a seguir la dinámica natural impuesta por las leyes físicas y la geometría
del espacio, el cual por simple entropía va tender a mezclarse con el aire caliente, haciendo más
difíciles los esfuerzos de enfriamiento por parte de los equipos de aire acondicionado.
Idealmente, cada dispositivo de TI debería tener su propio aire acondicionado hecho a la
medida y adaptable a la potencia que consume en cada instante; como esto no es
económicamente factible, se deben tener unidades de aire acondicionado que enfríen a varios
dispositivos a la vez. El flujo de aire hacia estos dispositivos debe tender a que:
 Las rutas de aire sean cortas, ya que usualmente el aire es forzado a viajar a través de largas
distancias y a altas presiones debido al mal acomodo de equipo.
 Las rutas de aire sean lo más cerradas y poco obstruidas posibles, o sea, rutas que dirijan el
aire lo más directamente posible desde la unidad de enfriamiento hasta la parte frontal del
equipo de TI y desde la parte trasera del equipo de TI hasta el retorno de la unidad de
enfriamiento.
 El equipo de TI funcione dentro del rango de temperatura al que fue diseñado.
 Haya una temperatura de retorno al CRAC (Computer Room Air Conditioning) o unidad de
enfriamiento lo menos caliente posible para evitar causar que la unidad de enfriamiento se
esfuerce más de lo necesario.
Para lograr esto se recomiendan las siguientes tecnologías:
 Usar cableado estructurado permite acomodar los cables en orden y eliminar los cables que
no se usan para que las trayectorias de aire sean más fluidas. En la Figura 3.8 se muestra un
ejemplo de cableado estructurado:
35
Figura 3.8: Obstrucción del flujo de aire [38]
 Los pisos elevados (60 cm recomendado) permiten un adecuado cableado estructurado y una
buena distribución subterránea del aire frio.
 Los azulejos perforados hacen que el aire que se distribuye por debajo del piso elevado pase
a los pasillos fríos, siempre que se coloquen correctamente los azulejos.
 Los páneles de metal sirven para condicionar el flujo de aire, usados especialmente para
hacer que el aire frio llegue a las partes frontales del equipo de TI y no a sus alrededores.
 Las termografías infrarrojas permiten analizar mediante imágenes las temperaturas que hay
en la escena fotográfica. Sirven en data centers para evaluar los valores de temperaturas
espaciales.
Figura 3.9: Ejemplo de termografía
infrarroja
 Los CFD’s (Computer Fluid Dynamics) o dinámica de fluidos computacional
es un
software que se usa especialmente en auditorías de data centers para identificar ineficiencias
y optimizar la distribución del flujo del aire. Con este software se obtiene la distribución y
dirección del aire, así como estimaciones de temperatura; de manera que se pueden obtener
imágenes de las corrientes de aire frío y caliente inusuales que circulan, y los lugares a donde
se mezcla aire frío con aire caliente. Analizando los resultados dados por el CFD se puede
36
hacer un reacomodo de los elementos del data center, calcular el número y posición de los
azulejos perforados, así como mejorar la eficiencia y efectividad de los aires acondicionados.
Figura 3.10: Software CFD [23]
Se recomiendan también las siguientes prácticas de acomodo de equipo:
El acomodo del equipo es importante, de lo contrario pueden suceder fenómenos como el
de la Figura 3.11:
Figura 3.11: Efecto de orientar el equipo de TI en una misma dirección [11]
En el cual el equipo de TI toma el aire frio por la parte frontal y lo expulsa como aire
caliente por la parte trasera, y como se acomodan los pasillos con las partes frontales de los
equipos de TI orientados hacia la única unidad de aire acondicionado sucede un efecto de
calentamiento en cadena que hace que la distribución de temperatura en el data center sea muy
mala.
37
Para evitar estos problemas, se deben emplear técnicas de acomodo de equipo. Estas
técnicas ayudan también a liberar espacio en el data center, lo cual es beneficioso en términos de
futuras expansiones del data center.
Una técnica muy fácil de implementar es la de dividir los pasillos en pasillos fríos y
pasillos calientes, de manera que los aires acondicionados refrigeran los pasillos fríos, en donde
los equipos de TI toman el aire por su parte frontal y lo depositan por su parte trasera como aire
caliente en el pasillo definido como caliente. Esta técnica se observa en la Figura 3.12, y sigue
los principios de no mezclar aire frio con aire caliente.
Figura 3.12: Técnica de dividir en pasillos frio y calientes [15] [20]
Con el propósito de ayudar a los pasillos fríos a mantener la temperatura adecuada, se
pueden estos convertir mediante una cortina especial en cold aisle containments (contenedores
de pasillo frio) mostrados en la Figura 3.13:
Figura 3.13: Contenedor de pasillo frio [34]
38
Se pueden emplear arquitecturas de aires acondicionados orientadas a cuartos, filas o
racks. La arquitectura de cuartos es más simple porque requiere menos unidades de aire pero es
menos eficiente porque el aire debe fluir grandes distancias a altas presiones para llegar al equipo
de TI. La arquitectura orientada a racks hace que los caminos sean más cortos (menos potencia
en los abanicos), que intervengan menos restricciones en el flujo del aire, que sea más flexible y
escalable, y que sea fácil predecir el rendimiento, pero requieren muchas unidades de aire
acondicionado. La arquitectura de filas hace un balance entre especificidad, escalabilidad y
simplicidad, por lo que es recomendada.
En varios data centers suele haber tecnologías se procesan gran cantidad de datos en poco
volumen de espacio (como los servidores tipo blade), por lo que se tienen racks de muy altas
densidades de consumo energético (medidas en
). Estas altas densidades en los racks
crean los llamados hot spots (sitios calientes), que pueden requerir 20 veces más energía
eléctrica y generar 20 veces más calor (ver Figura 3.14 A)[24]. Los sitios calientes pueden ser un
problema para el equipo de enfriamiento, ya que no es lo mismo sacar el calor cuando está
distribuido uniformemente por todo el data center que cuando está concentrado en determinados
sitios. Para esto se puede emplear una arquitectura hibrida que utilice una arquitectura orientada
a cuartos para las partes de baja densidad y equipo variado; una arquitectura orientada a filas
para áreas de mayor densidad que 4 kW por rack; y una arquitectura orientada a racks que
funciona como soporte a los racks de alta densidad, con el propósito de que los sitios calientes
(que implican alta densidad) no sean sentidos por las unidades orientadas a cuarto para que así no
se sobre-esfuercen. Todo esto, complementado con la agrupación de todos los sitios calientes que
se generan en alguna sección del data center llamada isla de alta densidad, para concentrar ahí la
mayor capacidad de enfriamiento. Además, todo equipo capaz de ser montado en racks puede
39
estar instalado en racks, y el equipo que no puede ser montado en racks puede ir todo a una
misma sección del data center para evitar disturbios en el flujo de aire optimo [11]. Por otro lado,
la creación de hot spots puede ser restringida por el equipo de potencia, ya que por limitaciones
de los cables de energía, PDU’s, etc, podría ser que no tenga la capacidad de entregar tanta
potencia en un mismo rack; y además, se debe tener cuidado con los disyuntores (breakers) que
se asignan a estos racks, para que por una sobrecarga en un rack de alta densidad no se dispare y
provoque una falla en varias partes del data center.
Figura 3.14: A) Racks de alta densidad (hot spots) en el data center [14], B) Creación de áreas de poca y alta
densidad [16]
40
3.4.5 Otros Equipos
La iluminación eficiente como las lámparas fluorescentes compactas o la iluminación por
detección de movimiento pueden evitar que se produzca gran cantidad de calor que a su vez tiene
que ser enfriado por el sistema de aire acondicionado, generando un doble gasto. Así como la
iluminación y los equipos ya descritos, cualquier otro equipo instalado en el data center debe ser
también equipo eficiente.
3.4.6 Dispositivos en general
Históricamente los fabricantes de dispositivos han enfocado el diseño de productos
electrónicos hacia la utilidad, la confiabilidad y la calidad de energía, pero no hacia la eficiencia
de los mismos. En el otro lado, los consumidores han tendido a elegir los dispositivos basados
principalmente en el costo inicial y no en la eficiencia del mismo. Se debe tener claro que ya
existen diseños eficientes para todo tipo de dispositivos, usualmente van acompañados de algún
sello calidad como por ejemplo el de Energy Star, y que a pesar de que son más caros en el largo
plazo su eficiencia hace valer la inversión. Estos por lo general traen modos de eficiencia que
deben ser activados, y además software para manejo de energía incorporado que sirve
particularmente para data centers que tienen una gran diferencia entre momentos pico y
momentos promedio de consumo energético.
41
3.5 Paso 4: El data center como un gran sistema
El data center es un organismo vivo que crece con el tiempo, y como todo organismo
vivo debe haber una simbiosis o armonía entre los órganos y debe haber una adaptabilidad a las
circunstancias del momento. No se puede asumir que la eficiencia del data center es la
ponderación de la eficiencia de cada dispositivo por separado, debe existir una integración total
que garantice una eficiencia como un todo. El diseño del data center tiene un mayor efecto en
consumo eléctrico que la eficiencia de cada componente por separado [3]. Ante el gran consumo
energético de los data centers de hoy en día, estos pierden primero la capacidad energética
disponible que el espacio disponible [3], y en gran parte se da por la falta de integración de los
dispositivos en el diseño. Por otro lado, el data center del futuro debe ser adaptativo, o sea,
adaptarse a las situaciones o circunstancias del momento. Para tener un data center que como
sistema sea eficiente se propone:
 Un adecuado dimensionamiento del equipo.
 Usar equipo lo mas modular y escalable posible.
 Emplear un sistema de monitoreo energético en el data center.
 Modelar matemáticamente el consumo energético del data center.
3.5.1 Dimensionamiento del equipo
El concepto de dimensionar el equipo adecuadamente se refiere a calcular la capacidad
energética del equipo justo para las necesidades energéticas que se le demandan. Por ejemplo, a
una UPS de 6 kVA se le puede conectar una carga de equipo de TI e iluminación de 6 kVA, pero
si se le conectan 10 kVA puede sufrir daños. Puede ser difícil hacer un dimensionamiento del
42
equipo porque se debe dimensionar para cargas presentes y futuras, las cuales no se conocen con
total
certeza.
La
tradición
norteamericana
de
sobredimensionar
dispositivos
como
transformadores, PDU’s, UPS’s, Switch Boards y fuentes de poder hace que muchas veces el
equipo opere a cargas mucho menores que plena carga. A excepción de cuando se utiliza una
configuración de equipo de (N + 1) ó (2N) nivel de redundancia, que hace que equipos operen a
porcentajes de carga menores al 50%, el equipo debería estar dimensionado para la carga que le
va a ser demandada.
Existen 5 razones comunes por las que hay equipo sobredimensionado en el data center
que opera a porcentajes de carga bajos:
1. Para proveer un colchón de seguridad de 10 a 20 %.
2. Para manejar diversidad de carga.
3. Para garantizar un futuro crecimiento del data center.
4. Por errores de cálculo en el diseño.
5. Por falta de conocimiento.
Ejemplos de sobredimensionamiento son:
Ejemplo 1. Fuentes de poder de servidores sobredimensionadas que se terminan usando a
una capacidad promedio de 67% de su capacidad máxima.
Ejemplo 2. Una UPS de 400 kVA que alimenta una carga máxima de 210 kVA.
Ejemplo 3. Una unidad de aire acondicionado que por no tener un sistema de control
automático, consume la misma potencia independientemente de la carga variante del equipo de
TI.
El sobredimensionamiento debe ser evitado ya que hay costos energéticos fijos en estos
equipos independientemente de la carga conectada, y suelen ser proporcionales a su capacidad
43
energética. Se necesitan equipos con una capacidad que sea la necesitada por el data center para
evitar bajas eficiencias. La Figura 3.15 compara la eficiencia de equipo sobredimensionado con
respecto a la eficiencia de equipo dimensionado adecuadamente.
Figura 3.15: Comparación de eficiencia entre diferentes dimensionamientos [20]
3.5.2 Escalabilidad usando equipo modular
Debido a los picos de demanda y al crecimiento del data center es difícil tener equipo con
un dimensionamiento óptimo al menos de que se use equipo modular. El equipo modular permite
una escalabilidad deseada, es una arquitectura adaptable que permite crecer proporcionalmente a
la carga de TI. Como ejemplo, se muestra en la Figura 3.16 una UPS con arquitectura modular.
Este tipo de UPS’s permiten adaptarse a la carga de TI necesaria, e incluso permiten quitar o
agregar módulos ‘en caliente’, o sea, con la UPS encendida.
44
Figura 3.16: UPS con arquitectura modular [19]
Se puede observar la ventaja de un data center usando arquitectura modular con respecto
a uno usando arquitectura no-modular en la Figura 3.17, en la cual claramente se muestra como
la arquitectura no-modular es muy ineficiente para porcentajes de carga pequeños, mientras que
la arquitectura modular mantiene su eficiencia casi constante para cualquier porcentaje de carga,
permitiendo que la capacidad energética del data center crezca con la demanda.
Figura 3.17: Arquitectura modular vs. Arquitectura no-modular [24]
45
3.5.3 Sistema de monitoreo energético
Independientemente de si se va a diseñar un data center o si ya se tiene un data center, se
debe tener consciencia de la dinámica energética del data center, esto implica por lo menos saber
cuánto es el PUE y la magnitud de variables energéticas como la potencia consumida en la
acometida del data center y en sus sub-sistemas, las temperaturas espaciales, las distorsiones
harmónicas, etc, esto para poder analizar los datos y emplear una estrategia energética. Se
pueden medir estas variables de dos maneras, la primera es contratando servicios de auditorías
por parte de empresas dedicadas a esto, las cuales usan instrumentación portátil para hacer las
mediciones; y la segunda es implementando un sistema de monitoreo energético en el data center
usando instrumentación permanente. La segunda opción es más cara, pero asegura mediciones en
periodos más contínuos, y gracias a esto, mediciones más confiables.
El sistema de monitoreo energético debe ser un sistema centralizado de recolección,
almacenamiento, análisis y despliegue de datos. El sistema puede medir muchas variables, pero
se espera como mínimo que mida el PUE. El PUE, como ya se explicó, puede ser medido a
varios niveles del 1 al 3. Se recomienda que éste sea a nivel 3 para garantizar mediciones justo
en el equipo de TI, y no sólo en la acometida o UPS’s, y además para garantizar continuidad en
las mediciones. El nivel 3 puede ser difícil de alcanzar debido a que se debe medir la energía
justamente en el equipo de TI, por lo que puede llevar a ocupar gran cantidad de medidores. Sin
embargo, muchos equipos de hoy en día hacen varias mediciones energéticas en tiempo real de la
energía que consumen, por lo que se pueden conectar de manera sencilla a un sistema de
monitoreo mediante un protocolo de comunicación electrónico y así evitar gran cantidad de
medidores. Si este no es el caso, se puede idear un sistema híbrido entre nivel 2 y nivel 3 de
medición, de manera que se mida en tiempo continuo pero no justo en el equipo de TI sino en la
46
UPS. Por otro lado, en ocasiones puede ser difícil medir el consumo energético en la acometida o
en los sub-sistemas debido a que el sistema eléctrico del data center está hecho en conjunto con
el del edificio, en este caso se deben idear técnicas para hacer una separación entre ambos
consumos.
El sistema de monitoreo energético puede implementarse usando un software hecho
especialmente para monitoreo de data centers. Estos tipos de software a pesar de ser caros
(usualmente mayor a $10000) son herramientas muy útiles para tener un monitoreo minucioso y
total del data center.
Usando el sistema de monitoreo se espera hacer un análisis los datos obtenidos en un
instante o en un intervalo de tiempo con el propósito de determinar las posibilidades de
incrementar la eficiencia, publicar reportes de datos estadísticos de rendimiento del data center y
hacer proyecciones a futuro.
3.5.4 Modelo matemático del data center
El sistema de monitoreo energético se puede complementar con un modelo matemático
que represente de manera aproximada la dinámica energética del data center. El modelo puede
hacer predicciones y proyecciones energéticas, simular situaciones que podría eventualmente
enfrentar el data center, hacer comparaciones con otros data centers y estimaciones de pérdidas
energéticas, entre otros. El modelo se crea a base de la teoría de análisis de sistemas para
construir un diagrama de causas y efectos, el cual toma como entrada datos presentes o pasados
de variables energéticas como la carga de TI o la temperatura exterior y da como salida variables
47
como la eficiencia del data center. En la Figura 3.18 se presenta un ejemplo de un modelo para
data centers.
Las ventajas de crear un modelo energético del data center son [27]:
 Ser creado incluso antes de que el data center sea construido con propósitos de predecir y
proyectar el rendimiento futuro.
 Estimar con gran exactitud la eficiencia del data center para condiciones que eventualmente
se podrían dar, como altas cargas del equipo de TI ó temperaturas exteriores extremas.
 Identificar y cuantificar las contribuciones de dispositivos específicos a la ineficiencia del
data center.
 Identificar a los sub-sistemas que están operando por fuera de su eficiencia esperada.
 Hacer comparaciones (benchmarking) entre data centers.
El modelo no pretende ser perfecto, por ejemplo, en el de la Figura 3.18, es lo mismo si
las cargas están distribuidas uniformemente o si el data center tiene varios sitios calientes. Por lo
tanto, el modelo tiene un grado de precisión, y el modelo es práctico solo si se alcanza un buen
grado de precisión. La precisión se alcanza con un adecuado diseño de la lógica del modelo y
una buena calibración del mismo. La lógica del modelo (plasmada en el diagrama de flujos que
lo describe) debe tomar en cuenta las causas y efectos energéticos más importantes, y la
calibración del modelo se puede obtener con mediciones reales, como por ejemplo mediciones de
energía consumida, temperatura y calor generado. Un modelo puede incluso ser creado antes de
construir un data center si se conocen las características técnicas del equipo de potencia,
enfriamiento y TI, y las características constructivas del edificio.
48
Figura 3.18: Ejemplo de modelo energético de un data center [27]
La Figura 3.18 muestra como en este modelo las pérdidas energéticas totales a causa de la
ineficiencia son determinadas por la carga de TI y las condiciones climatológicas del exterior.
En un futuro cercano se proyecta el uso de modelos energéticos en la mayoría de los data
centers [27].
49
3.6 Paso 5: Estrategia Energética
Se ha hablado de: qué es el problema energético en data centers y cómo hay una
necesidad de eficiencia en estos edificios (Paso 1), qué es la eficiencia en data centers (Paso 2),
cómo se alcanza la eficiencia mediante el fenómeno en cascada a través de cada sub-sistema del
data center (Paso 3), y a tratar al data center como un solo sistema (Paso 4). A partir de éste
entendimiento básico, se debe emplear una estrategia energética durante todo el ciclo de vida del
data center.
3.6.1 Simple algoritmo energético
Se plantea una estrategia energética a seguir en forma de un simple algoritmo que se
presenta en el siguiente diagrama de flujos:
Figura 3.19: Diagrama de flujos del simple algoritmo energético
50
El simple algoritmo anteriormente descrito propone iniciar con un data center común. A
este se le implementa un sistema de monitoreo energético, el cual puede ir acompañado con
software especial para data center, y opcionalmente se puede crear un modelo matemático de la
dinámica energética del data center. En base a esto se inicia un ciclo; este ciclo como primera
acción propone hacer un periodo de medición de variables energéticas como el PUE, las
temperaturas espaciales usando CFD’s, las potencias consumidas por los sub-sistemas
(enfriamiento, potencia, TI), y cuantas otras variables se deseen, además opcionalmente se puede
utilizar el modelo para hacer proyecciones a futuro. La duración de este período es a discreción
del administrador de data centers, pero se recomienda que sea de más de 3 meses. Como segunda
acción se propone hacer un análisis de los datos obtenidos por el sistema de monitoreo y
opcionalmente de los datos obtenidos con el modelo. Este análisis debe ser hecho
preferiblemente en conjunto con expertos en el tema. En base a la discusión y conclusiones a
partir de los datos obtenidos, se plantea la tercera acción que es proponer e implementar mejoras
con el propósito de disminuir el PUE y disminuir la energía total consumida. Este ciclo se debe
reiterar hasta el fin del ciclo de vida del data center. Con esta estrategia se asegura un data center
de mínimo costo energético y mínima huella ambiental.
3.6.2 Consideraciones para el análisis de datos (para hacer
benchmarking entre data centers)
Los datos obtenidos con el sistema de monitoreo energético sirven para analizar el estado
del data center con el propósito de hacer mejoras en el mismo, pero también para hacer
benchmarking o compararse con otros data centers. Estos datos son dependientes del data center
en cuestión, en especial el PUE. The Green Grid recomienda usar esta métrica especialmente
51
para comparar al data center consigo mismo a través del tiempo. Cuando se compara el PUE con
otros data centers se debe tomar en cuenta que hay un infinidad de diferencias entre ambos data
centers y entre las estrategias y sistemas de monitoreo empleados, por lo tanto antes de hacer la
comparación de deben hacer las siguientes preguntas para ambos data centers durante el periodo
de medición:
 Qué duración tuvo el periodo de medición? Fue continuo?
 Es la infraestructura del data center vieja?
 Fue la infraestructura del data center diseñada para servir con otro propósito?
 Cuál es el área del data center?
 Cuál es la potencia del data center?
 Cuenta el diseño con redundancias en el equipo tipo (2N) ó (N+1)?
 Hay gran cantidad de equipo de TI viejo?
 Cuál fue el punto de ajuste de temperatura en el data center?
 Cuáles fueron las condiciones climatológicas exteriores?
 Qué función de procesamiento de datos cumple el data center?
 Está el data center lejos de la fuente de energía eléctrica comercial?
Respondiendo a todas estas preguntas y sabiendo el valor del PUE de ambos data centers,
es más sabia hacer la comparación.
52
3.7 Conclusiones y Recomendaciones
Ante el cambio climático mundial, la eficiencia energética se está exigiendo cada vez más
en cualquier ámbito energético. La mayoría de los data centers son grandes consumidores
ineficientes de energía, por lo que están en la mira regulaciones legales y ambientales.
El problema no es fácil de resolver puesto que los data centers son grandes sistemas que
evolucionan con el tiempo, por lo que se debe dar apoyo a organizaciones que están intentando
resolver este problema como The Green Grid y las empresas que diseñan soluciones tecnológicas
eficientes.
Data centers grandes como los de Google y Facebook están empeñados en obtener los
mejores niveles de eficiencia, así entonces los data centers pequeños deben seguir el mismo
camino. Para esto se recomienda emplear una estrategia de manejo eficiente de energía a lo largo
de todo el ciclo de vida del data center. La inversión de esta estrategia se paga por sí misma en el
largo plazo, y ayuda al ambiente y a la imagen corporativa del data center.
El PUE es una métrica que sirve especialmente para comparar al data center consigo
mismo a través del tiempo. Esta métrica se adecua de buena manera para emplear una estrategia
de manejo eficiente de energía que tienda a hacer a cada sub-sistema del data center más ser
eficiente, en especial el del equipo de TI, ya que genera un efecto en cascada de ahorro
energético a través de todo el data center.
Ante todo el panorama descrito en esta metodología, los administradores de data centers
juegan un papel muy importante en la eficiencia de los data centers.
CAPÍTULO 4: Sistema de monitoreo de
energía
Los administradores de data centers que desean cumplir con una metodología de manejo
eficiente de energía igual o similar a la planteada en el Capítulo 3, deben contar con un sistema
de monitoreo de consumo energético y PUE. Por esta razón, se diseñó un sistema de monitoreo
de energía que se puede implementar en cualquier data center común. Éste sistema va a ser
instalado en el nuevo data center de la empresa Grupo Electrotécnica para que sirva como un
sistema de monitoreo prototipo para incentivar a los clientes de Data Center Consultores a
comprar este sistema o a pedir servicios de auditorías usando este sistema.
El tipo de sistema de monitoreo de energía debía cumplir con las siguientes condiciones:
 Medir la potencia instantánea (en tiempo real y de manera continua) en varios puntos del data
center, de manera que se puedan categorizar las potencias consumidas por los diferentes subsistemas del data center
 Medir a nivel 3 según The Green Grid
 Calcular el valor del PUE
 Almacenar en una base de datos la información de las potencias instantáneas y del PUE
medido
 Construir gráficos con el valor del PUE y las potencias de los sub-sistemas a través del
tiempo, para intervalos de horas, días, semanas, meses, etc.
 Desplegar toda esta información en una pantalla ubicada en el data center
53
54
 Ser un diseño prototipo para que pueda implementarse en otros data centers cambiando
ciertas configuraciones en el diseño pero no alterando la base del diseño en sí. Por ejemplo,
se debe poder integrar a BMS’s (Building Management Systems) y a dispositivos de
medición de energía que trabajen con diversos protocolos de comunicación.
Con estas condiciones en mente, se investigaron varias empresas para trabajar en
conjunto haciendo el diseño. Se seleccionaron dos empresas, y se plantearon dos propuestas de
diseño del sistema, una en conjunto con la compañía Sistemas IQ y otra en conjunto con la
compañía Siemens. Estas dos propuestas debían ser adaptables al data center de Grupo
Electrotécnica, por lo que debían soportar el protocolo SNMP de los equipos Liebert y poder
medir potencia en más de 40 regletas y en 3 o más tableros.
A continuación se presentan estas dos propuestas, y al final del capítulo se propone la
mejor solución.
55
4.1 Propuesta #1: Diseño del sistema de monitoreo de
energía en conjunto con la empresa Sistemas IQ
Se diseñó un sistema de monitoreo de energía en conjunto con la empresa Sistemas IQ,
coordinando con el ingeniero Max Alpizar, gerente general de la compañía.
Figura 4.1: Logo de la empresa [28]
4.1.1 Diseño del sistema de monitoreo
Se diseñó el siguiente sistema de monitoreo de energía:
Figura 4.2: Esquema del sistema de monitoreo de energía [28]
56
Este sistema mide la potencia instantánea del data center en la acometida del mismo, en
los tableros de UPS’s y aires acondicionados, y en todos los racks con el propósito de determinar
el PUE y el consumo energético de varias partes del data center.
Los medidores de variables energéticas Veris E50C2 miden la potencia consumida en los
tableros de carga (acometida, UPS’s y A/C) y mandan la información por protocolo ModBus
RTU via RS-485 a un gateway; mientras que los PDU’s miden la potencia en el equipo de TI y
envían la información por el protocolo SNMP al mismo gateway. Este equipo es un gateway
(FieldServer Bridge) que se encarga de reunir la información de todas las potencias medidas y
traducirlas al protocolo Ethernet/IP. A partir de la memoria del gateway Fieldserver, los datos
serán accesados por una pantalla marca Rockwell modelo PanelView 600 Monocromática usando
protocolo Ethernet/IP. En la pantalla se realiza el cálculo solicitado del PUE, se almacena el valor
del PUE y el de las diversas mediciones hechas en el data center, y se construyen los gráficos de
consumo energético de cada parte y el del PUE. La información es almacenada en cualquiera de
los siguientes medios: memoria local tipo Compact Flash, tabla plana en formato dbf en
computador designado para tal fin o tabla en base de datos a través de ODBC; además, puede
transferirse a un servidor en caso de manejarse grandes cantidades de información.
De esta manera, se tiene un sistema de monitoreo en tiempo real del valor del PUE y de la
potencia en diversas partes del data center.
4.1.2 Descripción de los principales dispositivos del sistema de
monitoreo
A continuación se describen detalladamente los principales dispositivos del sistema y sus
funciones.
57
4.1.2.1 Medidores de Potencia y Energía Veris Serie E50C2 Modbus Output
Los medidores de energía Veris serie E50C2 miden la potencia en un solo punto del data
center usando transformadores de corriente (tipo dona). Se usan 3 equipos de estos (acometida,
tablero de UPS’s y tablero de A/C). Cada equipo se puede instalar adentro del tablero o sino en un
gabinete cerca del tablero. La información obtenida se envía por protocolo ModBus RTU al
FieldServer.
En seguida se muestran las diferentes mediciones que puede realizar este equipo:
kW, kWh
Corriente trifásica promedio
Voltaje trifásico promedio, de línea a línea y de línea a neutro
Potencia real, reactiva, aparente como trifásica total y como fase
Factor de potencia trifásica promedio y de línea
Frecuencia de una fase
Demanda de potencia pico
Algunas consideraciones importantes son:
El E50 se puede instalar en un riel DIN o en una placa de montaje.
Todos los modelos tienen salida de pulsos y alarmas para más versatilidad.
El equipo incluye un medidor con puerto de comunicación serie Modbus por RS485.
El equipo toma 2520 muestras/segundo, lo que por el teorema de muestreo de Nyquist con
una frecuencia fundamental de 60 Hz implica que se puede medir hasta la 21ra armónica.
Incluye los respectivos transformadores de corriente
El puerto RS485 permite al dispositivo conectarse con hasta 63 dispositivos en un
comunicación tipo daisy chain (cadena margarita)
58
Puede medir hasta 32000 A
Figura 4.3: Diagrama y foto del Veris E50C2 [28]
4.1.2.2 FieldServer Bridge FS-B2010
FieldServer Bridge es un gateway que funciona como interfaz traductora de protocolos, el
cual permite a dispositivos que utilizan ciertos protocolos comunicarse con dispositivos que
utilizan otros protocolos. En el lado del FieldServer definido como cliente, habrá tablas de datos
en las que se guardara la información de los protocolos SNMP (de las regletas) y ModBus (de los
medidores Veris E50C2), las cuales se traducirán y pasaran a una tabla general de protocolo
Ethernet/IP, que funcionara como esclavo de la pantalla, de la cual ésta lee los datos de las
mediciones hechas.
Los siguientes son aspectos importantes acerca de este gateway:
59
El FieldServer proporciona el hardware y el software necesario para esta traducción
El software y las instrucciones para la configuración se suministran con el FieldServer
Los archivos de configuración se pueden cargar por los puertos seriales o por el puerto
ethernet
El FS-B2010 transforma protocolos seriales en protocolos Ethernet
Conexión en puertos Ethernet: 10BaseT conector RJ45
Conexión en puertos seriales: RS-232/RS-485
Alimentación: 24 VAC o (9-30) VDC
Sello de calidad UL
Cuenta con el apoyo de una extensa librería de drivers para diversos protocolos
El FieldServer puede comunicarse con los siguientes protocolos:
Protocolos Seriales
Allen Bradley DF1
ATMI ACM
B&B Electronics SDD16
BACnet PTP
BACnet MS/TP
Canatal
Carrier (DataLink and DataPort)
Caterpillar M5X
Cleaver Brooks (CB-Link)
ControlLogix
Cyberex
Data Aire (DAP and DART)
DNP 3.0
Envirotronics Systems PlusTM
Fike Cheetah ISCAN
Gamewell - FCI (7100, 7200, E3)
GE Genisys
GE MarkIV Speedtronic
GE Security EST3
GE Security Quickstart
GE-SNP
Gardner Denver
Hanning & Kahl
ILCO Millenium 9000
Interlogic Advent
J-Bus
Lutron (eLumen & MicroWATT)
McQuay Microtech Open
MetasysTM N2OPEN by JCI
MetOne
Mircom
Modbus ASCII
Modbus RTU
Modbus Daniels
Modbus TekAir
Modbus Omniflow
National Time & Signal FACP
Notifier 1010/2020
Notifier 3030
Notifier AFP 200/300/400
Notifier INA
Notifier Italia AM6000
Notifier Italia CEI-ABI
Notifier NCA
Notifier NFS 3030
Notifier Onyx 640
Opto 22 Optomux
Pneumatic Products ADC
ProtoCessor PCP & PSP
RussElectric
Safetran
Secutron Model R
Setra Digital Pressure Gage
Siemens Fire Safety MXL/XLS
Silent Knight
Siemens TIWAY I
Simplex Grinnell 4100
Simplex Grinnell TFX Minerva
SMC 2460
SMC 5000
Spectronics
Stulz
TAC I/Ne
United Power FIM
VeederRoot
Vesda
Weightronics
YorkTalk
Zellweger CM4
Zellweger System 16
Zellweger IR-148 Infratox
Fieldbus Drivers
Allen Bradley DH+
BACnet Arcnet
ControlLogix
ControlNet
DeviceNet
LONWORKS®
ModbusPlus
Profibus DP
Ethernet Drivers
Allen Bradley CSP
Allen Bradley EtherNet/IP
BACnet Ethernet
BACnet IP
EtherNet/IP
GE-EGD
GE-SRTP
Modbus TCP
Omron FINS
OPC
SNMP
SGS Ethernet
TL1
Telnet
XML
60
Figura 4.4: Field Server Bridge [28]
4.1.2.3 Panel de operador PanelView Plus 600 a escala de grises
El panel de operador Panel View Plus 600 se ubica en un gabinete de control. Por
medio de éste fácilmente se podrán visualizar variables del proceso, alarmas, etc. Esta unidad
utilizará comunicación Ethernet/IP para solicitar información al FieldServer.
Figura 4.5: Pantalla PanelView monocromática [28]
Las características más importantes de la pantalla son:
Terminales RS232, USB y Ethernet.
Por el puerto USB se le pueden adherir dispositivos como mouse, teclado, impresora,
Tamaño de la pantalla: 112 x 84 mm
Resolución: 320 x 240 pixeles con una escala de 32 grises (5bits)
Pantalla con teclado o pantalla táctil
Alimentación: (85-264) VAC o (18-32) VDC
Está diseñada de tal forma que impide o disminuye al mínimo la posibilidad de
equivocación por parte del operador a la hora de ejecutar las secuencias de operación
61
del sistema.
Figura 4.6: Puertos entrada/salida, alimentación y memoria del equipo [28]
4.1.2.4 Gabinetes de Control
Los gabinetes de control son de la marca Hoffmann, modelo Aegis (tipo wallmount),
de 300mm x 300mm x 200mm (ancho x alto x fondo), de acero y cumplen con NEMA 12. El
gabinete, una vez ensamblado, cuenta con los siguientes elementos adicionales:
Ductos de PVC para cubrir y guiar los cables
Cables numerados con marcadores plásticos indelebles marca Brady
Protecciones fusibles y termo-magnéticas
Medidor de energía, o pantalla + FieldServer, depende del caso
Nota Importante: Todos los gabinetes son probados en un taller antes de ser despachados. Si
algún representante de Data Center Consultores desea asistir como testigo a estas pruebas,
debe coordinar su asistencia con dos semanas de anticipación.
4.1.3 Condiciones de servicios de ingeniería por parte de Sistemas
IQ
Sistemas IQ impone las siguientes condiciones para los servicios de ingeniería que
ellos ofrecen, de manera que la programación de los ciclos automáticos del sistema y la puesta
en marcha del sistema se hagan mediante los siguientes lineamientos:
62
1. El ingeniero a cargo del proyecto, en la fase inicial del desarrollo, elabora el diagrama
lógico de control a partir de la operación de los equipos y de lo especificado por Data
Center Consultores.
2. El ingeniero de Sistemas IQ, S.A. en conjunto con el ingeniero de Data Center
Consultores, definen las variantes que deben efectuarse a los diagramas lógicos del
punto anterior para la correcta operación del sistema.
3. Una vez definidos los diagramas lógicos de los ciclos, el ingeniero de Sistemas IQ
programará la interfaz de operador, según la lógica definida en el punto 2.
4. Se cotiza un tiempo de puesta en marcha de dos días, esto es, el arranque/paro de cada
equipo en manual y la ejecución en automático de las rutinas definidas en el punto 3.
5. Si fuera necesario extender el plazo de la puesta en marcha por modificaciones o
ajustes de tiempos solicitados por el cliente, este tiempo adicional deberá ser cotizado
y adquirido por separado, ya que en esta oferta sólo se incluye el tiempo especificado
en el punto 4. Se entiende que Sistemas IQ debe poner en funcionamiento las rutinas
del punto 2 en ese plazo, y si se produjere un atraso en la implementación de dichas
rutinas, el tiempo adicional correrá por cuenta de Sistemas IQ.
Para la implementación del programa del controlador, Sistemas IQ cuenta con un
estándar de programación que ha sido probado y mejorado durante los últimos 5 años. Esto
permite que el ingeniero a cargo por parte de Sistemas IQ realice la labor de programación de
una forma estrictamente ordenada y bien organizada. Además, esto facilita notablemente las
labores futuras de ampliación y mantenimiento ya que, entre otros factores, el estándar dicta
cómo se programan los controles básicos, cómo se estructura el mapa de memoria y cómo se
escogen los nombres de las variables. Con estas herramientas, el ingeniero a cargo por parte de
Sistemas IQ podrá elaborar las pantallas de acuerdo con los siguientes principios:
63
Las pantallas deben reproducir adecuadamente la disposición física y forma de los
equipos en planta
Todas las pantallas deben guardar uniformidad de colores, tipos y tamaños de letra,
botones y demás objetos; de forma tal que todas las funciones que sean similares se
ejecuten de forma parecida en las diferentes pantallas
El cliente podrá revisar y aprobar el diseño de las pantallas previo a su desarrollo
La base de datos de las variables será igual que la base de datos del programa del
controlador
Los colores seleccionados deberán expresar claramente las funciones de control, sin
presentar contrastes desproporcionados que dificulten la visión
4.1.4 Responsabilidades de Data Center Consultores
1. Deberá proveer una acometida de 120VAC
2. La acometida total del Data Center estará disponible (para medición) en un solo punto
en un solo centro de carga
3. Data Center Consultores debe proveer la información de los puntos de cada regleta que
alimentan a los equipos de TI
4. Suministrar cualquier requerimiento del alcance inicial del proyecto
5. Suministrar los planos del data center para dar la ubicación aproximada de los equipos
(instrumentación, control, y accesorios)
6. Revisar y aprobar (técnica y económicamente) la propuesta ofrecida
7. Definir un encargado del proyecto
8. Revisar los planos eléctricos
9. Efectuar la instalación electromecánica del sistema
10. Responsabilizarse de la veracidad de la información (datos de proceso para el
64
dimensionamiento de los equipos, así como la secuencia de operación del proceso)
proporcionada al inicio del proyecto
4.1.5 Responsabilidades de Sistemas IQ
1. Suministro de los equipos ofrecidos en este documento para realizar la automatización
solicitada
2. Asignar personal especializado como encargado del proyecto
3. Diseñar y dibujar los planos eléctricos del sistema de control y periféricos
4. Programar el sistema de control según los requerimientos suministrados por el cliente
5. Realizar reuniones durante la implementación del sistema para corroborar su
validación por parte de Data Center Consultores
6. Efectuar el cableado interno los páneles de control
7. Verificar la lectura de las señales de campo (pruebas de impacto y pruebas de no
impacto ) en el sistema de control, cableado de redes, etc
8. Realizar las pruebas de taller a los gabinetes de control
9. Realizar la puesta en marcha del sistema
10. Desarrollar la documentación del proyecto
11. Impartir la capacitación a operadores del data center
4.1.6 Respaldo
Sistemas IQ posee un amplio respaldo de repuestos. Existe completa similitud en los
elementos para que Data Center Consultores no requiera un stock muy amplio de inventarios
para el equipo, lo que permite una reducción en la inversión. Además, los repuestos son todos
originales.
65
4.1.7 Soporte Técnico
Además de la documentación con planos y catálogos de todos los elementos del
equipo que el cliente recibe, el sistema en garantía cuenta con los servicios de un técnico
especializado que está disponible para solucionar cualquier desperfecto del sistema sin costo
alguno para el usuario, siempre y cuando se confirme defecto de fábrica. Si en el futuro una
vez finalizada la garantía de fábrica se requiere de servicio técnico, éste estará a disposición
del usuario por un monto establecido con el cliente.
4.1.8 Puesta en Marcha
Para la puesta en marcha del equipo Sistemas IQ tiene a disposición un ingeniero
especializado en aplicaciones para garantizar en todo momento que todo este proceso sea de
acuerdo con las normas internacionales y nacionales, y que garanticen un buen
funcionamiento del sistema.
El sistema propuesto está dispuesto para implementarse dos días. Cualquier
modificación o requerimiento extra de la jornada de trabajo será debidamente coordinada con
el ingeniero de Sistemas IQ a cargo del proyecto. El ingeniero de proyecto se reserva el
derecho de aprobar o rechazar cualquier labor de trabajo extraordinaria que esté fuera de la
jornada de trabajo antes mencionada.
Si se aprueba alguna jornada de trabajo extraordinaria, la misma se cobra por aparte de
la siguiente manera:
Horas extras en días normales de trabajo US$ 45.00.
Horas normales y extras en un día feriado US$ 60.00.
Cualquier retraso ocasionado por Sistemas IQ en la implementación del proyecto será
compensado sin costo adicional. Así mismo, los retrasos ocasionados por Data Center
Consultores serán cargados al proyecto por hora adicional, los cuales deben ser reportados
66
(por escrito) por mutuo acuerdo entre Sistemas IQ y Data Center Consultores.
4.1.9 Fases del proyecto
1. Aprobación (técnica y económica) de la propuesta ofrecida
2. Recepción de la orden de compra y del adelanto respectivo
3. Pedido de los equipos para la implementación del proyecto
4. Confección de los planos eléctricos del sistema de control y periféricos (por parte de
Data Center Consultores)
5. Entrega de los planos eléctricos a Data Center Consultores por parte de Sistemas IQ
6. Aprobación de los planos eléctricos por parte de Data Center Consultores
7. Ensamblado de los gabinetes
8. Prueba de los equipos en Taller
9. Entrega los equipos
10. Instalación electromecánica
11. Puesta en marcha del sistema
12. Capacitación a los operadores
13. Entrega de la documentación
67
4.1.10 Cronograma propuesto
Tabla 4.1: Cronograma de eventos propuesto [28]
4.1.11 Garantía
Data Center Consultores cuenta con una garantía de 12 meses a partir de la entrega del
equipo.
4.1.12 Expansibilidad
Si el data center requiere una expansión del sistema, ya sea para ingresar mayor
cantidad de variables en sus entradas o salidas, o para manejar mas pantallas de control,
gráficos o tablas, se pueden incorporan nuevos módulos y herramientas de software.
68
4.1.13 Descripción de la oferta
Tabla 4.2: Descripción de la oferta [28]
4.1.14 Términos de la oferta
Precios: se entienden firmes para la entrega en las instalaciones del cliente. Todos los precios
en este documento son en dólares americanos.
Forma de Pago: 50% contra orden de compra, 40% contra equipos en bodega (factura crédito
8 días), 10% contra entrega del proyecto a satisfacción (factura crédito 8 días).
Garantía: 12 meses a partir de la entrega de los equipos.
69
4.2 Propuesta #2: Empresa Siemens
La segunda propuesta del diseño del sistema de monitoreo se realizó usando
únicamente productos de la marca Siemens, aprovechando su gran gama de diversos
productos para la industria. Este diseño fue mejorado con la ayuda del Ingeniero Jonathan
Salas de la empresa Siemens.
Figura 4.7: Logo de la empresa [30]
4.2.1 Esquema del sistema de monitoreo
Se planteo el sistema de monitoreo mostrado en la Figura 4.8:
Figura 4.8: Esquema del sistema de monitoreo
70
El sistema en general funciona de la siguiente manera: los SENTRONPAC’s miden la
energía en varios puntos del edificio, y transmiten la información por ModBus RTU al PLC
S7 (que usa el software STEP7). Este, hace la división necesaria para obtener el PUE, y
manda los datos a la PC, la cual con el software WinCC interpreta los datos, los almacena y
hace las gráficas deseadas.
La programación de los equipos se hace la primera vez en conjunto con los técnicos
de la empresa Siemens, pero la licencia del software se compra para que posteriormente se
programen en Data Center Consultores.
Ciertas consideraciones en el diseño son:
El software WinCC (instalado en la PC) trabaja con una base de datos en SQL, la cual
se puede integrar a BMS’s (Building Management Systems) en ese nivel
Los medidores de energía son transformadores de corriente (medidores tipo dona)
trifásicos, de manera que se mide potencia sólo en tableros, UPS’s, A/C’s, etc, pero
no a nivel de servidores, por lo que no se llega al nivel 3 propuesto por The Green
Grid.
Los medidores usan protocolo ModBus RTU, y miden en tiempo contínuo.
71
4.2.2 Lista de Precios
-PLC S7300:
CPU 315-2 (coma flotante)
$2200
Memory card 128k
$120
Conector Modbus RTU
$70
Fuente 24 V DC
$200
Software STEP7
$2900
Convertidor (para programarlo)
$500
TOTAL-----$5990
-Medidor SENTRON PAC:
SENTRON PAC 4200
$900
Modulo comunicación Modbus RTU
$165
TOTAL--------$1065
-Software WinCC para PC (con licencia para programarse, 128 variables)
$5351
-100 metros de cable a 3$/m
$300
-Pantalla táctil
$1700
El precio total del sistema de monitoreo depende de la cantidad de productos que se
compren. Por ejemplo, el sistema para un data center en el que se mida la potencia en 7
puntos distintos del edificio ronda los $21 000, y a eso, se le tienen que sumar los costos de
instalación y programación de equipos, y aplicarle un descuento de aproximadamente un 10%
por volumen de compra. Así entonces, el precio total para un data center con estas
necesidades puede rondar los $22 000 dólares.
72
4.2.3 Descripción Detallada de los Productos
4.2.3.1 PLC SIMATIC S7-300
Este PLC modular cuenta con las siguientes características:
Sistema de miniautómatas modulares para las gamas baja y media
Amplio abanico de módulos para una adaptación óptima a la tarea de automatización
en particular
Ser de aplicación flexible gracias a la posibilidad de realizar estructuras
descentralizadas e interconexiones por red
Ampliable sin problemas en el caso de que aumenten las tareas
Gran cantidad de funciones integradas
Figura 4.9: PLC SIMATIC S7-300 [30]
Al PLC se le instala el software STEP7, el cual es el software estándar para configurar
y programar los sistemas de automatización SIMATIC. Este software tiene las siguientes
características:
73
Ampliable con los productos de software opcionales integrados en el Software
Industrial SIMATIC
Posibilidad de parametrizar bloques de función y de comunicación
Modo multiprocesador
Comunicación de datos globales
Transferencia de datos controlada por eventos con bloques de comunicación y de
función
Configuración de enlaces
El software estándar se ejecuta bajo los sistemas operativos MS Windows 2000
Professional MS Windows XP Professional, estando adaptado a su funcionamiento
gráfico y orientado a los objetos.
4.2.3.2 SENTRONPAC4200
Información general
Figura 4.10: SENTRONPAC4200 [29]
El multimedidor SENTRON PAC4200 satisface todos los requerimientos para
conocer el estado de la instalación eléctrica del data center. Este equipo es capaz de captar
unas 200 magnitudes eléctricas de medición. De esta manera pueden obtener los datos de
medición para evaluar la calidad de la red. Además de captar la THD (Total Harmonic
Distortion) en redes con tres y cuatro conductores, para armónicas impares desde la 3ª hasta
74
la 31ª, para tensión y corriente, también capta la intensidad de la corriente de distorsión (Id),
el ángulo de fase y la asimetría para tensión y corriente en relación con la amplitud y la fase.
Máxima precisión y seguridad
La precisión de las mediciones que realiza el multimedidor PAC4200 no tiene
precedentes en esta clase de instrumentos. En la medición de tensiones, intensidades de la
corriente, potencias y energías activas, posee una exactitud de 0,2 % referida al valor de
medición según la norma IEC 61557-12. De esta manera, garantiza que el rendimiento, la
seguridad y el comportamiento funcional del data center cumpla con los requerimientos de
las instalaciones más modernas.
Una extensa gama de funciones de almacenamiento
El SENTRON PAC4200 almacena en su memoria interna variaciones de las cargas.
Los valores medios de la potencia aparente, activa y reactiva determinados en períodos de
medición cada 15 minutos se almacenan durante 40 días. Sobre esta base podrá determinar
exactamente la utilización de la instalación y optimizarla, con lo cual logrará reducir sus
costos de energía e incrementar la eficiencia de esa instalación. Además, el SENTRON
PAC4200 realiza el registro de más de 4000 eventos del servicio, de la operación y del
sistema, que se pueden adaptar de acuerdo con los requerimientos necesitados. El reloj en
tiempo real integrado permite trazar todos los eventos con exactitud de un segundo. De esta
manera, se puede ahorrar un tiempo valioso.
Visualizaciones definidas por el usuario
Un total de cuatro representaciones en pantalla configurables en forma individual
ofrecen un confort adicional. Así se pueden visualizar los valores como gráfico de barras o
presentación digital para obtener directamente en el instrumento un panorama rápido del
estado de la instalación del data center.
75
Función integrada Gateway (o Ruteo)
La función integrada Gateway (o Ruteo) permite utilizar el multimedidor SENTRON
PAC4200 para interconectar una red Ethernet con otros equipos mediante una interfaz serie
RS485. Así, se puede utilizar Modbus RTU para transferir al multimedidor SENTRON
PAC4200 los datos de equipos subordinados como por ejemplo, instrumentos de medición o
interruptores de potencia.
Figura 4.11: Sistema de gestión de energía
usando un SENTRONPAC4200 [29]
76
Características Técnicas:
Tabla 4.3: Características técnicas del equipo [29]
77
4.2.3.3 Software SIMATIC WinCC
Información General
El paquete de software WinCC constituye el entorno de desarrollo de Siemens en el
marco de los SCADA’s para visualización y control de procesos industriales que se puede
implementar para un data center. SIMATIC WinCC es un sistema de visualización de
procesos escalable y dotado de funciones para la supervisión de procesos automatizados.
WinCC aporta funcionalidad SCADA completa en Windows para todos los sectores, desde
sistemas monopuesto hasta sistemas multipuesto distribuidos con servidores redundantes y
soluciones para todos los lugares de instalación con clientes web.
Software del sistema WinCC
El software del sistema WinCC está disponible en dos variantes básicas:
WinCC paquete completo (RC: licencia para runtime y configuración)
WinCC paquete Runtime (RT: licencia para runtime)
De las cuales se escoge la RC por su capacidad de configuración.
Ampliaciones SCADA
WinCC/User Archives: Permite usar archivos de usuario en los que se pueden guardar
datos en forma de registros e intercambiarlos a modo de recetas o datos de lote entre WinCC
y el controlador (PLC).
Uso universal
Todos los canales de comunicación esenciales para la integración en controladores
SIMATIC así como para AllenBradley Ethernet IP y Modubus TCP/IP y canales no
propietarios como PROFIBUS/PROFINET y OPC están incluidos en el alcance de suministro
de WinCC. Interfaces abiertas, gran cantidad de opciones y Microsoft SQL Server, incluido
en el sistema básico para el archivo de datos como plataforma de información, apoyan la
integración de TI y negocio del data center.
78
Todas las funciones HMI (Human Machine Interface) a bordo
Funciones HMI aptas para la industria forman parte de la dotación básica del sistema:
Visualización totalmente gráfica de las secuencias y el estado de los procesos
Señalización y confirmación de eventos
Archivo de valores medidos y avisos en una base de datos del proceso
Administración de usuarios y sus permisos de acceso
Configuración fácil y eficiente
Sofisticadas funciones de configuración reducen considerablemente las tareas de ingeniería y
formación:
Editor gráfico confortable y orientado al objetos
Amplias librerías
Eficiente modularidad
Modificación rápida gracias a la configuración online
Herramienta de configuración para datos de masa
4.2.4 Garantía
Se ofrece una garantía de un año.
79
4.3 Propuesta #1 vs. Propuesta #2
Ambas propuestas plantean un sistema de monitoreo de energía con productos de muy
alta calidad. Las empresas Sistemas IQ y Siemens ofrecen un buen soporte en cuanto a
instalación, mantenimiento y garantía.
La propuesta #2 de Siemens tiene ciertas debilidades en cuanto a la parte de medición
de energía. Los SENTRONPAC’s usados para medir la potencia usan transformadores de
corriente (tipo dona), por lo que no se puede medir la potencia a nivel de servidor y así no se
llega al nivel 3 establecido por The Green Grid, sino a un híbrido entre nivel 2 y nivel 3.
Además, cada SENTRONPAC mide la potencia en un solo punto, y tomando en cuenta que
cada uno cuesta aproximadamente $1000, este sistema se vuelve muy costoso para data
centers que necesitan muchos puntos de medición. Otra debilidad de esta propuesta es la falta
de diversidad en el manejo de protocolos abiertos, ya que el sistema tiene una red de
medición que soporta pocos protocolos, entre ellos, Profibus y Modbus.
Por otro lado, la propuesta #1 en conjunto con Sistemas IQ presenta un diseño 100%
consistente con las condiciones para el sistema de monitoreo establecidas al inicio de este
capítulo, permitiendo así una red de medición a nivel 3 con manejo de más de 70 diferentes
protocolos de comunicación. Además, por su diseño simple, es una solución mucho más
barata que la propuesta #2, ya que tiene un costo de $9000 dólares incluyendo todo el equipo
(con 3 medidores VerisE50), la instalación y los impuestos de venta.
Por estas razones, el diseño hecho en conjunto con la empresa Sistemas IQ es el
adecuado para implementar como sistema de monitoreo de energía para el nuevo data center
de la empresa Grupo Electrotécnica, y suficientemente versátil para implementar en cualquier
otro data center.
CAPÍTULO 5: Conclusiones y
recomendaciones
5.1 Conclusiones
-Metodología para la optimización del manejo de energía en data centers:
 Ante el cambio climático mundial, la eficiencia energética se está exigiendo cada vez
más en cualquier ámbito energético, y como la mayoría de los data centers son
grandes consumidores ineficientes de energía, están en la mira regulaciones legales y
bajo presión de los grupos ambientalistas.
 La eficiencia energética en una data center no es fácil de conseguir puesto que los
data centers son grandes sistemas que evolucionan con el tiempo.
 La inversión en una estrategia energética se paga por sí misma en el largo plazo, y
ayuda al ambiente y a la imagen corporativa del data center.
 Los administradores de data centers juegan un papel muy importante en la eficiencia
de los data centers.
 El PUE es una métrica que sirve especialmente para comparar al data center consigo
mismo a través del tiempo.
 El PUE es una métrica que se adecua de buena manera para emplear una estrategia de
manejo eficiente de energía.
 Un buen estudio de eficiencia energética en un data center se hace en un periodo de
aproximadamente un año.
-Sistema de monitoreo:
 Se obtuvo un bajo costo en la propuesta de diseño con la empresa Sistemas IQ gracias
a las buenas negociaciones por ambas partes.
80
81
5.2 Recomendaciones
-Metodología para la optimización del manejo de energía en data centers:
 Dar apoyo a organizaciones que están a favor de la eficiencia energética en data
centers como The Green Grid y a las empresas que diseñan soluciones tecnológicas
eficientes.
 Emplear la estrategia de manejo eficiente de energía a lo largo de todo el ciclo de vida
del data center.
 Si se va a hacer comparaciones (benchmarking) con otros data centers, se debe hacer
con especial cuidado tomando todas las consideraciones mencionadas en este
proyecto.
-Sistema de monitoreo:
 Si se va a diseñar un data center es indispensable implementar un sistema de
monitoreo energético.
 Si se tiene un data center y nunca se ha analizado cómo y a donde se consume la
energía, es indispensable contratar los servicios de auditorías energéticas o
implementar un sistema de monitoreo energético.
 Aprovechar la cualidad de algunos dispositivos de medir por si mismos las variables
energéticas, ya que permiten medir la energía de manera más exacta y ahorra la
compra de un medidor de energía para ese dispositivo.
 Asegurarse que el sistema de monitoreo a implementar pueda ser integrado a un BMS.
 Implementar un sistema de monitoreo capaz de integrar diversos protocolos de
comunicación a la vez.
82
BIBLIOGRAFÍA
Artículos:
[1] Alexander Monestel. “Métricas de Eficiencia Energética para Data Center según The
Green Grid: PUE y DCIE ”, white paper 1, Data Center Consultores.
[2] “Energy Logic: Reducing Data Center Energy Consumption by Creating Savings
that Cascade across Systems”, Emerson Network Power, 2008.
[3] “Guidelines for Energy-Efficient Data Centers”, white paper 1. The Green Grid, 2007.
[4] “Green Grid Data Center Power Efficiency Metrics”, white paper 6, The Green Grid,
2008.
[5] “Five ways to Reduce Data Center Server Power Consumption”, white paper 7, The
Green Grid, 2008.
[6] “Seven Strategies to Improve Data Center Cooling Efficiency”, white paper 11, The
Green Grid, 2008.
[7] “The Green Grid Peer Review of DC Power for Improved Data Center Efficiency
By Lawrence Berkeley National Laboratory”, white paper 12, The Green Grid, 2008.
[8] “The Green Grid Metrics: Data Center Infrastructure Efficiency (DCIE) Analysis”,
white paper 14, The Green Grid, 2008.
[9] “Quantitative Efficiency Analysis of Power Distribution Configurations for Data
Centers”, white paper 16, The Green Grid, 2008.
[10] “Using Virtualization to Improve Data Center Efficiency”, white paper 19, The
Green Grid, 2009.
[11] “Fundamentals of Power and Cooling Efficiency Zones”, white paper 21, The
Green Grid, 2009.
[12] “Proper Sizing of IT Power and Cooling Loads White Paper”, white paper 23,
The Green Grid, 2009.
[13] “The Green Grid Energy Policy Research for Data Centers”, white paper 25, The
Green Grid, 2009.
[14] “Impact of Virtualization on Data Center Physical Infrastructure”, white paper
27, The Green Grid, 2010.
[15] “Best Practices Guide for Energy Efficient Data Center Design”, US Department
of Energy, Federal Energy Management Program, February del 2010.
[16] “Industrial Technologies Program”, US Department of Energy.
[17] Rad & Thoene & Webb. “Best Practices for Increasing Data Center Energy
Efficiency”, Dell Power Solutions, February 2008.
[18] Greg Goth. “Data Centers Face Energy Irony”, IEEE Computer Society, April
2010.
[19] Victor Avelar. “Making Large UPS Systems More Efficient”, white paper 108,
APC.
[20] Neil Rasmussen. “Electrical Efficiency Modeling for Data Centers”, white paper
113, APC.
83
[21] Neil Rasmussen. “Implementing Energy Efficient Data Centers”, white paper 114,
APC.
[22] Suzanne Niles. “Virtualization: Optimized Power and Cooling to Maximize
Benefits”, white paper 118, APC.
[23] Neil Rasmussen. “Strategies for Deploying Blade Servers in Existing Data
Centers”, white paper 125, APC.
[24] Neil Rasmussen. “An Improved Arquitecture for High-Efficiency, High-Density
Data Centers”, white paper 126, APC.
[25] Neil Rasmussen. “A Scalable, Reconfigurable, and Efficient Data Center Power
Distribution Arquitecture”, white paper 129, APC.
[26] John Niemann. “Hot Aisle vs. Cold Aisle Containment”, white paper 135, APC.
[27] Neil Rasmussen. “Electrical Efficiency Measurement for Data Centers”, white
paper 154, APC.
[28] Max Alpízar. “Sistema de Monitoreo de Variables Eléctricas en Data Center”,
Sistemas IQ, 2010.
[29] Siemens. “Multimedidores SENTRON PAC”, Manual del Usuario, 2009.
[30] Siemens. “SIMATIC S7-300”, Manual del Usuario, 2009.
Páginas Web:
[31] Enciclopedia Wikipedia. “Virtualización”.
http://es.wikipedia.org/wiki/Virtualización. Consultada el 2/3/10.
[32] “Senda Oscura. Servidores Blade”.
http://www.hp.com/hpinfo/newsroom/press_kits/2006/blades/images/c7000w16.jpg.
Consultada el 5/3/10.
[33] “Distintos Tipos de Refrigeración”. http://www.chw.net/2007/03/distintos-tipos-derefrigeracion/. Consultada el 22/4/10.
[34] “Cold Aisle Containment”. http://www.42u.com/cooling/cold-aislecontainment.htm. Consultada el 10/4/10.
[35] “Data Center Energy Efficiency Rebates”. http://www.42u.com/power/energyrebates.htm. Consultada el 11/4/10.
[36] “Los Mayores Centros de Datos del Mundo desde Adentro”.
http://www.lasonrisadelahiena.com/2010/04/los-mayores-centros-de-datos-delmundo.html. Consultada el 22/3/10.
[37] “Energia Solar”.http://cocheseco.com/un-nuevo-sistema-de-recarga-rpida-paracoches-elctricos-con-energa-solar/. Consultada el 7/6/10.
[38] “Cableado”.http://www.seguridadintegralchile.cl/cableado-estructura-redesinalambricas-telefonia-ip/. Consultada el 11/5/10.
[39] “Data Center”.http://www.triplepundit.com/tag/Green-Data-Centers. Consultada el
31/5/10.
[40] “Green Data Center”.
http://www.platinum-universe.com/images/gallery/platinum_datacenter.jpg. Consultada
el 22/3/10.
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertisement