Etiqueta: centros de datos

Cómo un PUE puede reducir costos en el data center

El PUE ha sido una métrica importante en el mundo de los centros de datos desde hace tiempo.  Las compañías que operan centros de datos normalmente tratan de conseguir el PUE más bajo con el fin de reducir sus costos operativos y promover acciones sustentables hacia el medio ambiente.  En este artículo me enfocaré en los aspectos económicos del PUE y cómo los proveedores y operadores de centros de datos pueden maximizar el desempeño de sus instalaciones.

Eligiendo la ubicación ideal

Con el fin de alcanzar valores PUE extremadamente bajos, varias compañías grandes de internet eligieron construir centros de datos en los países nórdicos debido a redes estables y precios bajos de energía eléctrica, y acceso a free cooling todo el año.  Google en Finlandia y Facebook en el Node Pole en Suecia son dos ejemplos.  Sin embargo, rangos de temperatura y humedad más amplios (definidos por ASHRAE) para centros de datos, han hecho posible que se implementen instalaciones con PUE bajo en otras ubicaciones geográficas.

Desarrollos en enfriamiento

Un área clave en desarrollo técnico son los sistemas de enfriamiento free cooling indirecto evaporativo, disponibles por parte de un gran número de proveedores de tecnologías de refrigeración.  Al usar un enfriador evaporativo el aire seco exterior de 32°C puede ser utilizado para enfriar el aire en el centro de datos hasta 22°C, permitiendo ahorros importantes al requerir menos electricidad.

Aún más emocionante desde una perspectiva económica es que, para algunas ubicaciones, esto permite usar el aire exterior para enfriar durante todo el año; permitiendo un PUE máximo más bajo y ofreciendo ahorros significativos en CAPEX.  Primero, debido a que el air free cooling puede usarse los 12 meses del año y los sistemas mecánicos de enfriamiento DX requeridos para los días cálidos pueden reducirse.  En algunos casos es posible reducir el tamaño de un sistema de respaldo DX de un total del 100% en enfriamiento a sólo contar con un 25% adicional del total de enfriamiento requerido.  Además, un PUE máximo más bajo implica que la potencia máxima consumida por el centro de datos es menor, permitiendo disminuir el sistema de potencia eléctrica y reduciendo aún más el CAPEX.

Mercados emergentes

Otro aspecto relacionado con el PUE es el costo de la electricidad.  Los precios varían significativamente entre países y pueden lograr o destruir el caso de negocio para invertir en un centro de datos con bajo PUE.  Por otra parte, en muchos mercados emergentes la disponibilidad de la red eléctrica y su estabilidad es limitada, lo que provoca que se tengan que utilizar generadores a diésel por largos períodos. Estos pueden variar entre unas pocas horas al día, hasta centros de datos que se energizan 24/7 con generadores.  Además de los costos del combustible, los generadores provocan gastos en servicios y refacciones.  La tabla que se encuentra a continuación muestra como varían los costos de electricidad anualmente dependiendo del costo de la electricidad ($/kWh) y el valor PUE del centro de datos para uno con carga IT de 1 MW.

Podemos ver que la reducción en PUE de 1.5 a 1.2 en un ambiente con una red estable (0.1 $/kWh) ofrece ahorros en OPEX en más de $260K.  Para un centro de datos operado con diésel (0.3 $/kWh), el mismo nivel de ahorro en OPEX se obtiene a partir de una menor reducción en PUE (de 1.5 a 1.4 por ejemplo), mostrando que los aspectos económicos del PUE son aún más relevantes en países emergentes.

Es aquí donde tiene más sentido considerar diferentes formas para lograr un PUE más bajo, incluyendo contención de pasillos calientes/fríos, temperaturas de centros de datos más elevadas y equipo de potencia modular de mayor eficiencia.  En áreas donde el costo de electricidad es elevado, los sistemas de air free cooling deben considerarse aún si sólo son efectivos en ciertas partes del año o durante las noches cuando las temperaturas exteriores son más bajas.

Entre PUE y redundancia

Una mayor redundancia en el centro de datos (lo que conlleva una clasificación Tier más alta) puede impactar en un PUE más alto debido a que las pérdidas de energía en cada pieza de equipo se incrementan por una utilización más baja.  Con una distribución de potencia completamente redundante, la utilización máxima del equipo considerando una capacidad total es de tan sólo 50%.  Considerando esto, la tecnología de potencia modular puede ofrecer una mayor eficiencia aún con una utilización baja con sistemas modernos de UPS que permitan mantener una alta eficiencia con utilizaciones tan bajas de hasta 25%.  Al comenzar con menos módulos de UPS conectados, el sistema puede mantener una alta eficiencia desde el primer día y de esta forma la tecnología modular de potencia puede contribuir a mejorar los números al reduciendo el CAPEX desde el primer día, así como costos operativos.

El haber construido un gran número de centros de datos en Latinoamérica, Europa, África y Asia, ha permitido aprender en Flexenclosure que los casos de negocio para inversión con base en el PUE y las mejores soluciones técnicas deben ser adaptados a cada ubicación geográfica y tipo de centro de datos.  Un edificio de centros de datos prefabricado con flujos de aire controlados, como el eCentre, siempre es un buen punto de partida.

Tomas Rahkonen, CTO y vicepresidente de eCentre para Flexenclosure

Cómo tener una gestión inteligente en Centros de Datos

A medida que han cambiado las necesidades de infraestructura dentro de los Centros de Datos, los sistemas de gestión tradicionales cada vez han quedado más rezagados al momento de satisfacer dichos requerimientos.

Actualmente, se tiene crecimiento y desarrollo de nuevas tecnologías ahora los desafíos dentro de los centros de datos se encuentran también en cómo gestionar eficientemente los numerosos gabinetes de electricidad, los sistemas de refrigeración, todos los equipos de TI y todas las instalaciones de infraestructura; por ello, se requiere de nuevas soluciones que brinden una administración inteligente, eficiente y que disminuya los riesgos a futuro.

Los Centros de Datos son en la actualidad el núcleo de todas las actividades de una empresa, por lo que su correcto funcionamiento resulta primordial para satisfacer las necesidades crecientes de disponibilidad, conexión y transmisión de datos continua. Con las aplicaciones modernas se exigen cada vez centros de datos más grandes y funcionales, sin embargo, los desafíos también han crecido exponencialmente.

Sebastián Eduardo Mediavilla, Manager Technical Sales CCAS Region en CommScope, señala que, “los Centros de Datos tienen hoy en día cuatro grandes retos principales”:

  • Reducir los costos de operación y mantenimiento.
  • Disminuir el gasto energético, resultado del crecimiento de transmisión de datos y uso de nuevas aplicaciones.
  • Administración del espacio y capacidad de grandes volúmenes de datos.
  • Mantener la infraestructura lista para los cambios a futuro en un entorno de innovaciones y avances tecnológicos constantes.

Contar con una herramienta que permita la gestión adecuada, eficiente e inteligente de toda la infraestructura del centro de datos es hoy más una necesidad que un lujo. Por ello contar con una herramienta inteligente de gestión de infraestructura, que pueda garantizar el menor impacto posible dentro de los centros de datos y de la empresa misma, resulta fundamental.

En la actualidad los retos tanto en funcionamiento como en administración de los Centros de Datos siguen creciendo, ya que ahora el desafío de cada negocio será lograr adaptar las nuevas tecnologías dentro de su infraestructura de red, siempre cuidando minimizar los riesgos de desconexión, intermitencia y seguridad de datos.

N. de P. CommScope

 

Ante un terremoto como el de 1985, ¿cómo garantizaría la disponibilidad de su información?

Han pasado 31 años de aquel triste y sorpresivo acto de la naturaleza, el terremoto de la ciudad de México de 1985, el cual alcanzó 8.1 grados en escala de Richter, fue un evento que ocasionó grandes pérdidas humanas y materiales. De acuerdo al informe final del Comité de Reconstrucción del Área Metropolitana de la Ciudad de México se afectaron 12 mil 747 inmuebles de los cuales el 65% eran de uso habitacional, el 20% comercial y oficinas y el 13% educativos.

Una característica de la naturaleza, es imprevisible, es por ello que ahora la costa de Guerrero y  Oaxaca cuenta con sensores de movimiento que nos previene del inicio de un movimiento telúrico, con 60 a 30 segundos de prevención. En ese momento este terremoto puso en crisis a empresas de todo tipo y tamaño, tales como hospitales, bancos y escuelas, quienes sufrieron pérdidas totales de datos en una época en donde la mayor parte de la información se almacenaba de manera física y era difícil de recuperar. El impacto económico fue devastador, muchas empresas quebraron o tardaron años en recuperarse. Sin contar el enorme dolor que dejó en muchos corazones la pérdida de sus seres queridos.

Con el avance de la tecnología hoy escuchamos hablar de conceptos como virtualización, nube y almacenamiento moderno. El volumen de información que se genera crece aceleradamente, el universo digital se duplica cada dos años y se multiplicará por diez de 2013 a 2020, lo cual sería de 4,4 millón de millones de gigabytes a 44 millones de millones de gigabytes, y es que actualmente a los negocios se les demanda estar en línea en todo momento, no hay tolerancia para tiempos de inactividad, tener la información disponible, 24/7 durante los 365 días del año tiene un valor incalculable y se traduce en pérdida o ganancia de oportunidades.

La pregunta sería: a 31 años de este suceso que marcó al país ¿están las empresas mejor preparadas para proteger y recuperar su información ante desastres naturales?

El año pasado, Google sufrió con cuatro rayos que cayeron en su Centro de Datos en Saint-Ghislain, Bélgica. Gracias a la preparación de Google, la información se recuperó prácticamente al 100% pero esto podría ocurrirle a cualquiera y, por desgracia, es sólo en este tipo de contexto crítico que las empresas se dan cuenta del verdadero valor de un plan de recuperación de desastres. Afortunadamente, Google estaba preparado y debe ser elogiado por sus acciones. Teniendo en cuenta la cantidad de datos y el tráfico que la empresa tiene que gestionar, el incidente podría haber sido mucho peor.

Centro de Datos de Google en Bélgica
Centro de Datos de Google en Bélgica

El tiempo de inactividad en aplicaciones llega a costar a las empresas hasta 16 millones de dólares cada año, además de la pérdida de confianza de los clientes y el daño a la marca de las organizaciones; ante un daño provocado por algún desastre natural como el de 1985, las soluciones tradicionales hoy en día, ya no son suficientes.

Además, de tener plan estratégico de backup, las organizaciones deben prepararse mediante la implementación de Centros de Datos modernos y seguir la regla 3-2-1: tres copias, al menos en dos tipos de almacenamiento de datos, entre ellos uno fuera del sitio.

No basta con hacer un respaldo, éste debe estar al día, y debe ser funcional para minimizar el riesgo de pérdida de datos. Los periodos largos entre pruebas incrementan la posibilidad de encontrar problemas cuando es necesario recuperar datos, punto en el que quizá sea demasiado tarde para estas organizaciones. De las empresas que realizan pruebas de respaldo, sólo el 26% evalúa más del 5% de sus respaldos. Sin embargo, las soluciones de disponibilidad modernas garantizan la calidad de las copias de seguridad creadas sin ningún esfuerzo adicional. Las tecnologías ahora permiten realizar respaldos y replicas que se recuperan hasta en menos de 15 minutos, hacer pruebas en ambientes de producción y garantizar su efectividad.

El 96% de las organizaciones a nivel mundial están incrementando sus requerimientos de minimizar los tiempos de inactividad y 94% de las organizaciones en garantizar el acceso a los datos, es por ello, optar por una solución de disponibilidad efectiva, permite a las empresas no sólo minimizar los riesgos de pérdida y la imposibilidad de recuperar los datos ante cualquier desastre cotidiano o provocado por la naturaleza,  sino también garantizar la continuidad del negocio, es decir, el Always-On Enterprise.

Jonathan-Bourhis---Veeam

Por:Jonathan Bourhis,

director general de

Veeam México.

Energía, fundamental para el centro de datos

Cuando escuchamos el término “Centro de Datos” imaginamos un cuarto que almacena datos, y en parte lo es, pero realmente se le da importancia a la energía que necesita éste.

Vivimos en un mundo cada vez más conectado, donde las personas cada día pasamos más tiempo en Internet, la búsqueda de información y la demanda de más aplicaciones, obtienen un papel importante en nuestro día a día; donde los Centros de Datos son los protagonistas para el desarrollo de cualquier negocio; son la clave para mejorar los procesos, realizar nuestro trabajo y, con ello, crear mayor eficiencia y reducir costos en las organizaciones, es por ello que los Centros de Datos son el núcleo de toda infraestructura de tecnología.

Tan sólo la International Computer Room Experts Association pronostica que el mercado de Centros de Datos tendrá un crecimiento importante, en donde México se posiciona como el país de habla hispana que ofrece mayor fortaleza para implementar tecnologías de Centros de Datos, con un crecimiento pronosticado de 25%.

Gartner estima que para 2020 el Internet de las Cosas (IoT) será un universo de 26 millones de unidades instaladas de sensores inteligentes, software y hardware de todo tipo, tanto en hogares como en oficinas, en donde las empresas tendrán que gestionar un mayor volumen de datos, los que se analizarán obteniendo un impacto directo en los data centers.

Sin embargo, un Centro de Datos no es nada sin energía eléctrica. Por ello es importante incorporar sistemas de energía de respaldo de emergencia de gran calidad; esto ayudará a las empresas a obtener grandes beneficios en cuanto al costo de la construcción, incrementar la confiabilidad y asegurar que están preparados para enfrentar los desafíos del almacenamiento y recuperación de datos industriales.

De acuerdo con datos revelados por IDC, en 2015 los Centros de Datos consumieron 16.2 terawatt-hora a nivel global y se espera que el consumo se triplique en la próxima década. Por otro lado, también señala que para 2017 el crecimiento del mercado de los Centro de Datos a nivel mundial aumentará de forma significativa llegando a 1,945.9 millones de pies cuadrados instalados.

Finalmente, hay que destacar que los Centros de Datos puedan soportar las necesidades de almacenamiento y cómputo en la nube no importando la industria o mercado. Las organizaciones tienen que pensar en la obtención del valor máximo para los negocios y la optimización en el manejo de todos los activos, teniendo en cuenta el uso de los generadores de energía eléctrica, ya que sin esta el Centro de Datos no puede vivir.

N. de P. Generac

Microsoft utilizará más energía renovable en sus centros de datos

El gigante de Redmond, se enfocará en aumentar el uso de energías renovables en sus centros de datos de un 40% a un 60% para la siguiente década; también está experimentando con los data centers bajo el agua.

Gracias a la escalada de la energía escala también la necesidad de afrontar que no se puede continuar utilizando ilimitadamente tal y como han hecho las empresas hasta ahora. Microsoft, una empresa que abandera diferentes causas en su actividad y que suele tomar parte en las preocupaciones sociales de la actualidad ha dado un paso en la dirección de la eco sustentabilidad, y ha prometido reducir su impacto en el medio ambiente.

Para cumplir este objetivo la compañía, el cofundador Bill Gates se propone utilizar más energía eólica, solar e hidráulica en sus data centers, una gran fuente de gasto energético.

“Necesitamos reconocer en el sector tecnológico que los data centers se convertirán a lo largo de la próxima década en uno de los principales consumidores de energía eléctrica del planeta”, ha comentado Brad Smith, el presidente de la compañía y director del Departamento Legal.

A día de hoy el 44% de la energía utilizada en los centro de datos de Microsoft proviene de energías renovables; “nuestro objetivo es superar el 50% para el final de 2018 y llegar al 60% en la siguiente década, siempre avanzando hacia delante”, explica Smith.

Microsoft ha publicado que todos sus centros de datos son ya 100% neutrales en la producción de carbono, aunque como ha comentado Smith, eso no implica que sean absolutamente energías renovables. La empresa compra certificados de energía renovable, y otras herramientas que reflejan su inversión en esas energías; esto les permite llevarse el mérito de ser una empresa limpia, aunque no la consuman directamente.

Además de este enfoque en energía limpia en los data centers, Microsoft también está cortando el uso de energía en otros ámbitos. Carga a cada una de sus unidades de negocio una tasa por el carbono consumido, animándolos a ser más eficientes en su uso. También está experimentando con centros de datos bajo el mar, lo cual podría impulsar también las instalaciones eólicas submarinas y requerir menos energía para enfriarlos.

“Estamos orgullosos de nuestro progreso, pero reconocemos que hay que dar pasos más grandes en el futuro”, ha declarado Smith.

Sobre este contexto también aparece Facebook en una posición similar. En 2015 el 35% de su energía consumida venía de energías renovables, aunque para 2018 planea llegar al 50%.

Redacción

El desafío de la seguridad y las redes en las Arquitecturas Definidas por el Software

He tenido la oportunidad de reunirme con una gran variedad directores de tecnología y gerentes de redes, con quienes –luego de dialogar sobre diversos temas de la industria- llegamos siempre a un tema común: los crecientes desafíos de operar arquitecturas en un entorno multinube altamente distribuido con la movilidad y la agilidad como escenario de fondo.

En ese escenario, es importante que se consideren los tiempos de aprovisionamiento de las redes y la seguridad para cada nueva aplicación o servicio que se pretenda implementar; sin embargo, ellos pueden tardar entre dos semanas y dos meses tratando de aprovisionar las cargas de trabajo para sus centros de datos. En ese camino, muchos lamentan la complejidad asociada a la arquitectura y a la seguridad. Incluso dicen cosas como: “contamos con muchas reglas en el firewall, pero no tenemos idea de lo que hacen. Sentimos temor, ya que no sabemos lo que podría estropearse si los eliminamos”.

Y no se equivocan, ya que -debido a su complejidad- los centros de datos podrían derrumbar los servicios críticos del negocio con sólo eliminar una regla en desuso.

 

Nube y Movilidad

Si eso ya es bastante malo, podría ser peor, ya que la nube y la movilidad representan desafíos aún mayores en donde los datos son accesibles en una variedad de formas desde diferentes aplicaciones y dispositivos los cuales requieren de políticas de seguridad y redes consistentes.

Es aquí donde quiero recalcar que los enfoques tradicionales no pueden utilizarse para resolver los retos actuales; para hacer evolucionar su estrategia de seguridad, vale la pena que se enfoque en tres pilares: Agilidad, Simplicidad y Ubicuidad. Veamos cada uno:

 

Agilidad 

Recordemos que los grandes pioneros de la nube lograron altas tasas de agilidad gracias a las infraestructuras definida por software; 2016 será un año en que las organizaciones seguirán aprovisionándose y manteniendo el hardware con la misma lentitud de años anteriores, pero con la presión de tener un negocio más ágil.

El cambio hacia un modelo de entrega ‘definido por software’ no es sólo aspiracional, sino también histórico para toda la industria. Casi todos los proveedores mundiales de cloud están operando en un contexto definido por software, lo que cambiará de una vez por todas, la cara de la industria. Esto es inevitable.

Es natural que este tipo de cambios cree cierta fricción en los departamentos de TI, ya que los empleados buscan preservar sus habilidades existentes sin pensar que sus roles pueden evolucionar al siguiente nivel. Para hacer que evolucionen, las organizaciones están comenzando a introducir redes definidas por software y ‘pilas’ de seguridad en los centros de datos.

“El cambio hacia un modelo de entrega ‘definido por software’ no es sólo aspiracional.

Sea cual sea  la solución seleccionada, ésta debe estar diseñada para operar a través de cualquier nube y ser capaz de funcionar en cualquier hardware. En otras ocasiones, expertos han logrado demostrar que cuando las nubes privadas iban ‘demasiado lento’ era por causa de la red y la seguridad basada en el aprovisionamiento de hardware. Es por ello que la solución al problema de las nubes privadas consiste en eso: ser más ágiles.

Cloud_Computing

 

Sencillez

A nivel mundial las aplicaciones y contenidos son cada vez más distribuidos y abarcan servicios de IaaS (Infraestructura como Servicio), PaaS (Plataforma como Servicio) y SaaS (Software como Servicio), tanto en los centros datos privados, como en las sucursales, el escritorio, los dispositivos móviles, e incluso los automóviles.Si este escenario no es lo suficientemente complejo, tenga en cuenta el número de dispositivos inteligentes conectados que supondrá la llegada de la Internet de las Cosas (IoT).

A esto hay que agregar el hecho de que las arquitecturas y los enfoques tradicionales de seguridad fueron muy buenos en sus inicios, pero hoy están mal equipados para gestionar la enorme cantidad de objetos conectados. Cuando se enfrentan desafíos de estas proporciones, uno no sabe siquiera por dónde empezar.

Un pequeño paso en la dirección correcta sería alejarse de los modelos de seguridad basados en direcciones IP, algo que utilizan prácticamente todas las empresas actuales. En su lugar, pueden utilizarse soluciones que aseguren objetos (tales como máquinas virtuales, contenedores o aplicaciones móviles) mediante un identificador global único.

De esta manera, si un objeto se vuelve a desplegar en otro lugar, el contexto de seguridad continuará intacto. Este enfoque permite implementar un modelo de seguridad global ‘zero-trust’ con una arquitectura que incluso entrega cifrado de extremo a extremo para datos en movimiento y en reposo.

Es bien sabido por todos los profesionales de TI que las amenazas actuales no permiten tener la solución ‘perfecta’; sin embargo, si Usted toma la decisión de iniciar hoy, puede aplicar el concepto de ‘micro-segmentación’ de aplicaciones, que permite construir nuevas habilidades operativas y modelos de seguridad sin afectar las aplicaciones.

 

Ubicuidad

Ante la pregunta de ¿Cuál herramienta de integración es la ideal?, muchos directivos de TI responden jocosamente: “una de cada una”, y ¡tienen razón!, ya que es difícil imaginar un mundo en donde no exista coherencia entre la aplicación de las políticas de seguridad en múltiples centros de datos y las implementaciones en la nube. Esto no significa que recomiende una solución completa que abarque todo, sino que debemos ser realistas a la hora de afrontar el asunto de la ‘ubicuidad’.

Así las cosas, se hace necesario contar con políticas de seguridad definidas para las redes y para infraestructuras unificadas con múltiples nubes y centros de datos.

Para finalizar, quiero resaltar la importancia de buscar soluciones de identidad multi-nube para centralizar las políticas e identidades en todas las aplicaciones y contenidos. Con sólo proveer un inicio de sesión único para aplicaciones de negocios, Usted obtendrá una victoria muy visible en toda la organización, con un valor muy significativo en los negocios.

El hecho de que la tecnología sea cada vez más compleja no significa que las soluciones también lo sean. De forma paralela, es posible que las arquitecturas heredadas mantengan a su organización funcionando por algunos días, pero ello no es garantía de que su negocio conserve la agilidad y privacidad necesarias para encarar el futuro.

 

Cris-Wolf-VMWare

Por Chris Wolf,

Chief Technology Officer

para Américasde VMware.

Centros de Datos Modulares como evolución de la Infraestructura

Con la innovación constante que existe en la tecnología, además de los nuevos desafíos que se van presentando y los riesgos que todo ello implica dentro de las organizaciones, muchas veces tener o construir un Centro de Datos resulta ser una situación que pone en “jaque” a las empresas, pues la falta de espacio o de tiempo, así como los requerimientos particulares de cada negocio, son elementos que pueden limitar el funcionamiento correcto del mismo.

En la actualidad existen soluciones funcionales que se adecúan a cada negocio, crecen con él y cuya inversión es una opción para quienes quizá no cuenten con el tiempo, o el espacio necesario para poner en operación un Data Center convencional: los Centros de Datos Prefabricados o modulares (DCoD).

“Un Centro de Datos Prefabricado (DCoD) es, en la actualidad, una alternativa real para los requerimientos que se tienen en la industria, ya que se trata de un espacio tecnológico altamente eficiente, listo para operar y hospedar el equipamiento de TI necesario para cumplir las exigencias de un negocio”, afirmó José Bonilla Field Application Engineer en CommScope, durante el pasado Webinar ‘Evolución en Infraestructura de Data Centers. Modularidad – La alternativa’

Aunque los Centros de Datos modulares no son nuevos, sí son un nuevo paradigma que la industria ha venido adoptando recientemente como alternativa a los convencionales. De acuerdo a investigaciones de IDC, en 2014 un 30% de inversionistas en esta industria estaban considerando tecnologías de centros de datos prefabricados; esto quiere decir que para hoy, en el año 2016, probablemente 1 de cada 3 centros de datos que están en proceso de llevarse a operación pueden ser centros de datos prefabricados.

El uso de los Centros de Datos Modulares es un cambio de paradigma para las empresas por ello no han sido adoptados de forma positiva, con ello aún existen muchas dudas respecto del funcionamiento, costo, capacidad e infraestructura que los Centros de Datos modulares pueden brindar al negocio; pero es importante mencionar que, siempre teniendo en cuenta los requerimientos particulares, los beneficios de un DCoD pueden ser al menos tres:

Capacidad: Puesto que tienen el tamaño correcto para operar desde el día uno y son escalables, es decir, están listos para seguir creciendo.

Costo: La inversión resulta más eficiente ya que sólo se ponen en funcionamiento los racks necesarios, lo que significa mCapEx, y también menor PUE y OpEx.

Tiempo: Puede tomar de 16 a 24 semanas ponerlo en producción y operación, dependiendo de los requerimientos de cada negocio. Por ello debe tener una buena planeación.

La aplicación optima de los DCoD, es primero preguntarse ¿qué necesita mi negocio? y de esta forma poder establecer qué tipo de centro de datos se necesita, o si incluso se puede elegir rentar algún espacio que nos ofrezca un tercero. Sin embargo, hay tener en cuenta que los DCoD’s pueden ser una gran alternativa por su infraestructura previamente fabricada, además de su libertad de diseño, con ello pueden ser emplearlos en:

  • Sitios para llevar la red a la nube
  • Centrales telefónicas de última generación
  • Data Center tradicionales
  • Infraestructura de Telecomunicaciones
  • Entidades Privadas
  • Entidades Gubernamentales
  • Instituciones educativas

N. de P. CommScope

 

 

Ericsson compra NodePrime con el objetivo de automatizar centros de datos

La compañía sueca acaba de adquirir la startup NodePrime con sede en San Francisco. La nueva compañía le brindará el conocimiento necesario para mejorar su gestión de centros de datos y, de hecho, ya utilizaba sus servicios y tenía una participación en su accionariado.

Aunque los detalles financieros de la adquisición no han sido revelados, sí se sabe que los empleados de NodePrime se unirán a Ericsson y la empresa planea integrar esta tecnología en su plataforma Hyperscale Datacenter System8000, que permite descubrir, configurar y gestionar de forma automática el hardware de un centro de datos. Al final, la intención de la multinacional es convertirse en líder en centros de datos definidos por software de próxima generación.

NodePrime, cuyo servicios de automatización ya eran utilizadas por la firma sueca, se ha centrado desde sus orígenes en acelerar la transición hacia la infraestructura definida por software en los centros de datos y su servicio permite a los administradores mapear todos los servidores de sus centros y controlar su rendimiento.

Con el contexto de la firma sueca, ya se estaban utilizando los servicios de NodePrime, parece que esta decisión tiene sentido para Ericsson y no es una sorpresa para los analistas, que la ven como una forma de acelerar sus ojetivos.

TechCrunch señala, NodePrime puso en marcha el pasado septiembre una ronda de financiación por valor de 7 millones de dólares, en la que participó la propia Ericsson, junto a otras firmas como Menlo Ventures, NEA, Formation 8, Initialized Capital, Crosslink Capital, Rubicon Venture Capital, y TEEC Angel Fund.

NetworkWorld

 

HPE va por la hiperconvergencia competirá con Nutanix y Cisco

HP Enterprise (HPE) lanzará su producto de sistemas hiperconvergentes basados en su servidor Proliant que va para finales de marzo, según ha anunciado su CEO Meg Whitman.

HPE planea entrar de lleno al masificado mercado de los sistemas hiperconvergentes este mismo mes. La información fue dada conocer por su CEO, Meg Whitman, durante la teleconferencia trimestral sobre ganancias de HPE del jueves. Durante la conferencia, Whitman apuntó a Nutanix como una de las startups pioneras en esta categoría.

“A finales de este mes vamos a anunciar una nueva oferta de sistemas hiperconvergentes, basados en nuestro servidor Proliant”, comunicó Whitman. “Nuestra nueva solución ofrecerá a los clientes una instalación en cuestión de minutos, una experiencia de usuario preparada para uso móvil, sencilla y con las operaciones de TI automatizadas, ofreciendo un costo del 20% menor que Nutanix”.

Los sistemas hiperconvergentes combinan funciones de almacenamiento, de computación y de redes en un solo producto el cual se ofrece como una aplicación. Son una evolución de los sistemas convergentes pero con componentes con los que están más estrechamente ligados. Sistemas convergentes, como VCE Vblocks, tienden a ser productos de gama alta a medida para cargas de trabajo concretas en las grandes empresas. En cambio, los sistemas hiperconvergentes pueden orientarse también a las empresas de tamaño medio y tienden a costar menos y a necesitar menos personalización.

IDC señala que estos sistemas se desarrollaron pensando en los escritorios virtuales aunque con el tiempo se han extendido a otros tipos de servicios. En estimaciones de la consultora, el mercado de sistemas hiperconvergentes habrá crecido un 60% en 2019 alcanzando los 4 000 millones de dólares en ventas. Estas cifras podrían explicar la entrada de HPE en este mercado, aunque no será la única. Cisco ha anunciado esta semana también su intención de introducirse en los sistemas hiperconectados con un producto desarrollado junto a Springpath.

Whitman explicó que HPE está consciente de que este es un mercado bastante concurrido por lo que van a desarrollar sus productos en un tiempo récord. Aún así, no dio fechas concretas para el lanzamiento.

Por otra parte Nutanix, remarca que toda la atención que está recibiendo la compañía en estas semanas no es más que la confirmación de la importancia de los sistemas hiperconvergentes para los centros de datos. “Ganar el mercado de la nube requiere innovación constante y el compromiso con el valor del cliente, no sólo competir en precio”, comentó en un comunicado Sudheesh Nair, presidente de Nutanix.

Durante la videoconferencia, además de los sistemas hiperconvergentes, Whitman presentó lo que será otro de los nuevos proyectos de la compañía aunque sin dar demasiados detalles al respecto. Se trata de lo que HPE ha denominado “memoria persistente” (persistent memory), es una nueva tecnología que permitirá a los servidores hacer un uso más amplio de memorias no volátiles como flash.

-James Niccolai

 

El gasto en almacenamiento crece en infraestructuras de hiperescala y en servidor

IDC dentro de un estudio, revela que el gasto que las empresas dedican a nivel mundial en sistemas de almacenamiento crece cada año alrededor del 2.8%, esto viene junto al nivel de gasto, donde se pronostica un gasto global de 9 100 millones de dólares a esta partida durante el tercer trimestre de 2015.

De acuerdo con el estudio Worldwide Quarterly Disk Storage Systems Tracker de IDC, deja claro que la capacidad total de las adquisiciones se dedicó durante el tercer trimestre de 2015 a la compra de capacidad del almacenamiento con 31.5%, con un total de capacidad adquirida que ascendió a los 33.1 exabytes durante dicho periodo. Asimismo, del informe se desprende que el crecimiento más importante en las ventas dedicadas a la partida del almacenamiento correspondió a ODMs (Original Design Manufacturers), que son las compañías que venden directamente a los centros de datos que soportan infraestructuras de hiperescala.

Este segmento de mercado correspondiente a los centros de datos con infraestructuras de hiperescala crece cada año por encima del 20%, esto representa para el sector que ronda los 1 300 millones de dólares.  Las ventas en sistemas de almacenamiento basado en servidores estuvieron un 9.9% por encima con respecto al periodo precedente, con un volumen de negocio cercano a los 2 100 millones de dólares. A diferencia de los sistemas de almacenamiento externos siguieron representando el segmento de mercado más extenso, con ello unas ventas de 5 800 millones de dólares han mostrado una baja del 3.1%; la cual es una tendencia que se repite año tras año.

“El mercado del almacenamiento corporativo continúa registrando una tendencia consistente y sólida, de acuerdo con los datos obtenidos; unos resultados que muestran que el gasto en sistemas de almacenamiento externos tradicionales ha registrado un retroceso que contrasta con la demanda creciente de sistemas de almacenamiento definidos por software y basados en la nube. Esta tendencia está dirigiendo las inversiones preferentemente hacia infraestructuras de hiperescala y sistemas de almacenamiento basados en servidor”, ha declarado Liz Conner, responsable de investigación especializada en el mercado del almacenamiento TI de IDC.

-Marga Verdú