Centro de Datos, Certificaciones, Del dia, Desarrollo, Desarrollo, Destacado, Green IT, Industria, Infraestructura, Infraestructura, Noticias, Tecnologia

Beneficios del uso de líquidos para regular la temperatura en Centro de Datos

La economía moderna depende en gran medida de la infraestructura de telecomunicaciones ya que ésta permite la conexión entre los proveedores de servicios y los usuarios finales para una amplia gama de actividades, desde operaciones bancarias, transmisión y descarga de videos, hasta el resguardo de información confidencial. Una parte central de esta arquitectura la constituyen los centros de datos, espacios donde servidores se encargan de recibir, procesar y reenviar la información generada en tiempo real.

Según ReportBuyer, México cuenta con 114,000 m2 de espacio construido para centros de datos, casi tres veces el tamaño del mercado brasileño, y de acuerdo con GSMA, es el segundo país de la región con el mayor número de dispositivos móviles, lo que nos ayuda a dimensionar la enorme cantidad de información que viajan a través de los centros de datos.

Aunado a esto, el avance de nuevas tecnologías como machine learning y la evolución de la Inteligencia Artificial requerirán un aumento de capacidad de procesamiento en estas instalaciones, lo cual se traduce en equipos más poderosos y compactos que consumirán más electricidad y que producirán una mayor cantidad de calor.

 

Sistemas de enfriamiento a base de líquidos

Al emplear una fuente de energía, todos los dispositivos electrónicos generan calor. Para que funcionen adecuadamente se debe controlar la temperatura y evitar así la generación excesiva de calor que pueda generar descomposturas o fallas en los componentes de los servidores. Tradicionalmente, se han empleado los sistemas de aire para controlar el calor generado por los equipos que consumen menos de 10 KW por rack. Sin embargo, la implementación de tecnologías cada vez más avanzadas demanda consumos de entre 40 y 80 KW por rack y el aire no es útil para trasladar tales densidades de calor, por lo que obligará a emplear sistemas basados en la conducción de líquidos para desplazar el calor fuera de las instalaciones de manera eficiente.

Existen diversas aplicaciones para el enfriamiento a base de líquidos, la inmersión y el uso de circulación de agua como liquido de intercambio de calor. La primera se basa en sumergir de manera total los equipos TI en líquidos, que, debido a sus propiedades de conducción eléctrica, no es posible emplear agua. En su lugar, se emplean líquidos no conductivos o dieléctricos que disminuyen la temperatura sin dañar a los equipos.

 

Por su parte, en el sistema de circulación de agua, el líquido nunca entra en contacto con los componentes electrónicos.

Una placa fría funciona como una barrera entre el equipo TI y el agua, mientras que el líquido frío circula alrededor de la misma reduciendo la temperatura del equipo.

Esta placa se instala comúnmente en el microprocesador y en algunas ocasiones en los dispositivos de memoria. El agua mantiene fríos los componentes, mientras que otras secciones del servidor, como la fuente de poder o los discos de memoria mecánicos pueden enfriarse a través del sistema tradicional de aire acondicionado. Si se utiliza esta configuración, estamos hablando de sistemas híbridos.

Si bien, el agua fría se emplea para los sistemas de aire ampliamente adoptados en los cuartos de los centros de datos, el cambio en la filosofía de diseño reside en su aplicación directa en el chasis de los servidores para enfriar los chips y otros componentes. Esto se puede lograr mediante el acomodo de tuberías y placas que pueden instalarse en la parte trasera de los racks o gabinetes.

El uso de la unión ranurada

Los requerimientos de Inteligencia Artificial avanzada obligan a los dueños de centros de datos a considerar la adopción de soluciones de enfriamiento más eficientes como el sistema híbrido.

Con la planeación correcta, se puede diseñar un sistema de distribución de líquidos que estén listos para aplicaciones de misión crítica y que puedan reconfigurarse. Al considerar el montaje del sistema de tuberías es importante conocer qué tipo de unión puede garantizar mayor flexibilidad en el diseño. Las soluciones de unión bridada y soldada no son eficientes para usarse en los centros de datos, dado a su dificultad para adaptarse a la constante demanda de expansión y rediseño. En cambio, la unión mecánica ranurada ofrece una solución más confiable, durable y lista para realizar ajustes.

Por ejemplo, en la siguiente imagen se puede observar un sistema de enfriamiento híbrido que fue reconfigurado. El diseño original se planeó para un centro de datos que emplearía unidades de enfriamiento para el sistema de aire; sin embargo, uno de los clientes necesitó instalar una aplicación de súper computadora con sistema de enfriamiento líquido, lo que obligó a implementar un sistema híbrido. Esto fue posible gracias al uso de un sistema de tuberías diseñado con precisión, fácil de ajustar y reconfigurar utilizando coples ranurados, lo que garantizó la instalación de un sistema de distribución de líquidos directo al equipo de TI.

Diseñar sistemas de conducción de fluidos para soluciones de enfriamiento a través de líquidos, requiere de adaptabilidad y facilidad para su instalación. El método de unión ranurada permite usar coples que pueden instalarse de manera rápida, al tiempo que puedan ser reconfigurados si se requiere rediseñar el espacio. Considerando el desarrollo de nuevas tecnologías, los centros de datos deben considerar que la expansión e instalación de nuevos dispositivos que demandan mayor consumo energético y que generen más calor les obliga a buscar soluciones de enfriamiento que resulten más eficientes como son los sistemas híbridos.

 

Por: Sergio Ramírez, especialista en soluciones para HVAC en Victaulic.

Leer más...

Administración de datos, Amenazas, Aplicaciones, Certificaciones, Cloud Computing, Continuidad, Del dia, Desarrollo, Desarrollo, Destacado, Estrategía, Infraestructura, Movilidad, Network World, Redes, Seguridad

Consejos para proteger la información ante cualquier desastre tecnológico

En la actualidad, las empresas de todos los tamaños tienen que gestionar toda la información que se genera día a día, como los datos de clientes, proveedores, colaboradores, etc. Sin embargo, y aunque se tenga un software avanzado para indexar y administrar todos los datos, existe la posibilidad de que uno o más documentos se pierdan y sean ilocalizables después de cualquier desastre tecnológico. Si esto sucede, la confianza de clientes se puede debilitar; la productividad y los ingresos pueden verse gravemente amenazados.

Existen situaciones en que las empresas pueden tener fallas y caídas en sus sistemas críticos del negocio y estas fallas pueden tener costos devastadores directos e indirectos para el negocio. Es por esto que Ricoh nos ofrece estas 4 recomendaciones para tener un sólido plan para proteger la información y ésta se encuentre disponible ante cualquier desastre tecnológico:

 

Digitaliza la información

Se tiende a pensar que la información digital es la principal fuente con la que trabajan las empresas.  Los datos que se generan en redes sociales y las transacciones digitales – incluyendo el Big Data –, junto con la información digitalmente nativa son los principales responsables de que la información digital crezca y se multiplique exponencialmente. Sin embargo, incluso hoy en día, el 95% de la información que maneja una empresa se encuentra en documentos almacenados en papel.

Por ello, la mejor estrategia que se puede implementar es transformar estos documentos en papel en documentos digitales.

Para una correcta transformación se debe tener en cuenta que los documentos digitales forman parte de procesos de negocio, donde muchas veces es el documento en papel el centro del proceso.

Lo ideal es crear el documento digital desde el origen – lo que sería un documento digital nativo, o lo más cercano posible a su creación, para poder incorporarlo al circuito digital lo más temprano posible y que, a su vez, el documento en papel tenga la menor vida posible.

 

Tener la información 100% resguardada

Frente a cualquier eventualidad que surja, las empresas deben tener la capacidad de ofrecer una respuesta ágil y rápida para localizar la información necesaria lo más pronto posible. Resguardar al 100% la información de la compañía y de todos los departamentos hará que el negocio siga en funcionamiento y no genere perdidas monetarias.

 

Contar con estrategias para asignar recursos durante la recuperación de la información

Es crucial que los departamentos de TI prioricen los sistemas orientados al cliente y otros aspectos críticos para el negocio, mientras que ciertos datos (como los archivos de correo electrónico) pueden esperar un poco más de tiempo. Al establecer las prioridades durante la recuperación de información, la continuidad del negocio debe ser primordial. A veces, mientras ciertos sistemas de TI están inactivos, la empresa todavía puede operar a través de procesos manuales o alternativos por períodos de tiempo razonables. Cuando ese sea el caso, otros sistemas – los que no pueden operar en cualquier forma alternativa – deben tener prioridad.

 

El Plan de Recuperación de Desastres debe ser decisivo

Lo que el área de TI tiene que saber sobre los desastres tecnológicos, es que realmente no importa qué tipo de incidente está afectando a su negocio, lo que lo convierte en un verdadero desastre es el impacto que tenga. Y para determinar cómo responder, los encargados del área TI necesitan hacerse la siguiente pregunta: “¿Cuánto tiempo se tarda en restaurar el sistema?”. Es por ello que es necesario tener una supervisión continua. Se tienen que analizar que documentos y programas se verán mayor afectados y cuánto tiempo tardarán en ser restaurados. Es necesario realizar una evaluación completa de lo cómo se ve el rendimiento de los programas en circunstancias normales, y sólo así se podrá juzgar el daño en una emergencia y estimar lo que se necesita para recuperarse.

Los departamentos de TI son, sin duda, una parte importante para la recuperación y restauración de programas e información que pudo verse afectada luego de un desastre tecnológico. Tener un plan de contingencia ayudará a toda la compañía a actuar de manera rápida para no tener pérdidas en el negocio.   Pero, si el departamento de TI no cuenta con el tiempo para implementar adecuadamente un plan de acción, vale la pena considerar externalizar la gestión de reparación de sistemas. Por otro lado, las empresas deberán también asesorar a sus colaboradores para que cuanto un caso así suceda, se centren en actividades estrategias para no perder nada valioso dentro de la compañía.

 

N. de P. Ricoh

Leer más...

Centro de Datos, Certificaciones, Continuidad, Del dia, Desarrollo, Destacado, Energía, Estrategía, Infraestructura, Network World, Noticias, Procesos, Redes, Seguridad, Tecnologia, Tecnología de Apoyo

Un 30% de la inversión en Data Center se dirige a prevención de desastres naturales

El 30 por ciento de la inversión en la implementación de un centro de datos se destina a la seguridad y prevención de riesgos ante contingencias, tales como sismos y otros fenómenos naturales, al menos así lo dieron a conocer expertos en riesgos sísmicos en los Data Centers, dentro del DCD México 2017.

Debido a la planeación que hay previo a la instalación de los data center, los daños en los centros de datos de México fueron mínimos tras el sismo del 19 de septiembre.

Garcerán Rojas, Presidente de PQC explicó que la inversión que se realiza en la puesta en marcha de un data center, que es muy alta, debe ser directamente proporcional a las medidas de seguridad que se contemplan para preservar la integridad del inmueble, incluso ante contingencias ambientales.

Por separado José Luis Friebel, Director de General de DatacenterDynamics para España y Latinoamérica señaló: “las medidas de seguridad ante este tipo de contingencias son una prioridad en el sector, sobre todo si consideramos que los centros de datos son uno de los activos más importante de las empresas”.

Detalló que tras un terremoto, la primera falla en los data center suele ser la falta de suministro eléctrico, por lo cual es fundamental mantener el funcionamiento de los Sistemas de Alimentación Interrumpida (UPS, por sus siglas en inglés), las baterías y los generadores además de contar con redundancia de los sistemas eléctricos.

 

N. de P.

Leer más...

Aplicaciones, Artículos, Centro de Datos, Certificaciones, Cloud Computing, Del dia, Desarrollo, Desarrollo, Gobierno/Industria, Industria TIC, Infraestructura, Más, Movilidad, Network World, Principal, Reporte Especial

[Reporte Especial] El Centro de Datos: convergencia entre on site y cloud

La digitalización del negocio es un paso obligatorio de la empresa, donde cada vez se adoptan más tecnologías disruptivas como Big Data, movilidad e incluso el Internet de las Cosas y la Inteligencia Artificial, haciendo que toda esta carga de procesos y generación de datos recaiga dentro de las operaciones TI y, específicamente, en el centro de datos. Esto obliga a las empresas a invertir en infraestructura y apoyarse en la nube.

Según una encuesta de IDC a líderes TI en las empresas, el 72% de ellos cree que la transformación digital y el crecimiento del negocio es la principal razón para modernizar su infraestructura TI. La consultora afirma que en los últimos tres años la nube híbrida maduró, mientras que las arquitecturas definidas por software y las infraestructuras hiperconvergentes han modificado el estado actual de la infraestructura de TI.

Sin duda la nube se ha convertido en una tendencia que ha crecido con la transformación digital, siendo un aliado para ofrecer agilidad al negocio. ¿Será el centro de datos híbrido el siguiente paso obligatorio? ¿Ya no es suficiente la TI tradicional?

Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica.

El reto es claro: o se modifican, se redefinen o están condenados a caer en el mercado. Al menos así lo consideró Arturo Benavides, Arturo Benavides, Primary Storage Sales Director de Dell EMC Latinoamérica.  “La transformación digital está obligando a todas las empresas a redefinirse y lo está haciendo a través de nuevas aplicaciones de negocio que son más nativas en cloud, apalancando la tercera plataforma. Para esto se tiene que iniciar modernizando las TI”, comentó.

Según un estudio realizado por esta compañía –en el cual se entrevistó a los CIO de 3,000 organizaciones alrededor del mundo– un 45% tiene claro que si no adoptan la transformación digital (conocida también por las siglas DX),  estarán fuera del mercado en un plazo de unos tres años. Sólo un 5% de los entrevistados ya había definido una estrategia de DX, 12% se encuentra trabajando un modelo muy tradicional, y 42% están empezando a tomar iniciativas de transformación.

Convergencia entre On site y cloud

Por su parte, la firma de consultoría Gartner reconoce la necesidad de alinear iniciativas TI para impulsar el valor de negocio a través del desarrollo ágil, la convergencia de tecnología e infraestructura, y la modernización, automatización y migración a plataformas en la nube. “Los encargados de infraestructura y operaciones, así como sus equipos de trabajo, deben garantizar que los sistemas existentes sean confiables mientras implementan los cambios necesarios para sustentar las nuevas cargas de trabajo”, aseveró Federico De Silva León, Director de Investigación de Gartner.

Federico De Silva León, Director de Investigación de Gartner.

Para HPE, la transformación digital de los negocios se trata de un paso obligatorio que, en definitiva, tocará cada una de las empresas en México y el mundo, donde la perfecta convergencia entre on site y cloud jugará un papel protagónico. “Esto claramente impacta en el centro de datos y la nube. En HPE creemos que vamos a vivir en un mundo híbrido”, puntualizó Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dijo que la compañía tiene tres primicias al respecto: 1) el mundo será híbrido con in house y cloud; 2) la periferia que hoy genera tráfico en la red y datos van a apalancar la generación de aplicaciones; y 3) se transformará el modo en que se entregan este tipo de tecnología, que en HPE se cree será a través de servicios. “Debemos ver las cargas que realmente se necesiten llevar a la nube, cuáles podemos comprar como servicios y cuáles aún tienen que vivir en el centro de datos”, aseveró Lomelín.

Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dell EMC ofrece un modelo similar para llevar el negocio hacia la digitalización aplicando mejoras en el centro de datos y la nube, al que han denominado MAT (Modernizar, Automatizar y Transformar). Con este modelo ayudan a las empresas a entender qué se debe modernizar en las TI, cómo se pueden automatizar los procesos en el centro de datos y transformar a la gente.

Para Adrián Simg, Data Center Group Executive de Lenovo, lograr la convergencia perfecta entre el centro de datos y cloud es un proceso completo de transformación que va más allá de proveer una mejora en infraestructura física. “No sólo se trata del fierro, el almacenamiento y el procedimiento, se trata de cómo hago uso de todo ello, para lo cual se requiere software y personas”, comentó Simg.

 

Principales obstáculos

Lograr tal convergencia parece no ser una tarea sencilla. Al respecto, Gartner señala que uno de los principales retos a los que se enfrenta el CIO tiene que ver con la administración de presupuestos TI de modo eficaz. Según una encuesta de la consultora, este 2017 la segunda prioridad para CIOs en América Latina tiene que ver con modernización de Infraestructura y operaciones (mencionado por el 32% de sus encuestados).

Sin embargo, los presupuestos han sido recortados. Las empresas deben entender que no sólo se trata de recortar presupuestos, sino de generar valor y tratar las inversiones TI como activos, no como gastos. “Las organizaciones de TI que quieren ser exitosas en el futuro deberán poner el eje no sólo en la tecnología, sino también en los resultados de negocio”, comentó De Silva León, de Gartner.

 

Hacia dónde se destinará la inversión

Para Dell EMC, si bien la cuestión de presupuestos parece un obstáculo ahora, hacer el esfuerzo por invertir en modernización trae a la empresa beneficios no sólo en costos, sino en productividad del personal, redireccionando esfuerzos a resultados. “Al modernizar se obtienen ahorros significativos en operación y automatización. Estos ahorros los inviertes ahora en investigación, desarrollo e innovación, permitiendo hacer el circulo virtuoso de lo que es la transformación digital”, aseveró Arturo Benavides.

Esto es lo que permite vislumbrar un mercado prometedor en México. “Vemos que la inversión en general de centros de datos en el país crecerá alrededor del 10% en forma anual por lo menos por los siguientes cinco años”, aseveró Marco Damián, Gerente de Mercado Financiero de Panduit. Agregó que muchos centros de datos han crecido bajo demanda, es decir, conforme han surgido las necesidades. “El área de oportunidad que vislumbramos es que este crecimiento por parte de los usuarios se realice en forma estructurada y ágil, destinando importantes recursos para optimizar la parte de energía y enfriamiento en el centro de datos”.

Marco Damián, Gerente de Mercado Financiero de Panduit.

Y por lo que respecta a los proveedores de servicios, las expectativas de crecimiento parecen fundamentarse en soluciones a la medida. “Un elemento importante es ofrecer todo bajo servicio, es decir, no nada más la infraestructura, las aplicaciones o el software sino todos los componentes bajo un modelo integrado con el centro de datos”, resaltó Ricardo Rentería, Director General de Amazon Web Services en México.

De acuerdo con el directivo, esto significa ofrecer soluciones de ERP, web o almacenamiento que pueden ser integradas bajo el concepto de cloud, aportando características de elasticidad y facturación por minuto/hora con los conceptos de los centros de datos actuales. “Esto garantiza la extensión de las inversiones que los clientes ya tienen, incorporando la innovación que ofrece cloud”, señaló Rentería.

Ricardo Rentería, Director General de Amazon Web Services en México.

Otro de los proveedores de infraestructura en este sector, Intel, busca habilitar nuevos modelos de negocio para entregar servicios más personalizados y orientados hacia un sector o empresa en específico, de manera “que al proveedor de nube le dé una ganancia adicional y al usuario una mejora en la experiencia, así como un modelo de negocio más ajustado a lo que necesita”, explicó Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Dijo que la inversión en los centros de datos se debería enfocar hacia dos grandes rubros: un cambio completo en la cultura organizacional (“más ágil, rápida y abierta en cuanto a dónde se genera la información para tomar decisiones”) y hacia una plataforma digital, en la cual intervenga la toma de decisiones informada (con base en Big Data), a partir de muchas fuentes (Internet de las Cosas), con plataformas que mantengan la confianza que ha ganado la empresa con sus clientes, “y que sea un centro de trabajo con pensamiento innovador que genere una experiencia continua hacia el cliente con interacción 7×24”, explicó Cerecer.

Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Por su parte, Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam, afirmó que, de acuerdo con una encuesta aplicada a nivel mundial, en México el 60% de las organizaciones que están invirtiendo en plataformas de Software o en Infraestructura como Servicio, o bien, planean hacerlo en los próximos 12 meses. Este porcentaje es significativo, ya que duplica el promedio de inversión en estos rubros declarado a nivel global. Montes de Oca agregó que su empresa ofrece disponibilidad para el centro de datos moderno, “con tiempos de recuperación menores a 15 minutos para cualquier organización, independientemente de dónde se encuentre su nube”.

Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam.

Ofrecer este tipo de garantías puede asegurar “una larga vida” al centro de datos. De hecho, información proporcionada por Furukawa Electric, empresa dedicada al sector de telecomunicaciones, energía y electrónica, señala que el 76% de los datos que existen a nivel mundial residen dentro de un data center (DC), un 17% se encuentran entre el DC y el usuario, y el 5% restante interactúan entre varios centros de datos. “Además, hay muchas cosas que cambiarán en el ámbito de los data centers: la descentralización de la nube, la distribución de contenido más cercana al usuario, y datacenters distribuidos con ancho de banda hiperescalables con velocidades de 200 y 400 gigas”, advirtió Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Seguridad, control de riesgos y backup

No obstante lo anterior, aún persiste una falta de conciencia respecto a la seguridad de los datos y los sistemas, al menos esa es la perspectiva de Alejandro Lomelín, de HPE, quien aseguró que en las empresas debería haber un mejor manejo de la información y una mejor gobernabilidad. “La información debería vivir en dispositivos muy seguros que no sean vulnerados ni por externos ni por empleados mal intencionados”.

Y es que al producirse mayor cantidad de datos y procesos se generan mayores densidades de calor en diferentes áreas de las salas que alberga el centro de datos. “Es necesario entonces un adecuado sistema de enfriamiento que permita la continuidad del negocio, evitando caídas de sistemas provocadas por el sobrecalentamiento de los equipos”, dijo Alejandro Sánchez, Director Comercial de Stulz México.

Alejandro Sánchez, Director Comercial de Stulz México.

Para lograr lo anterior, recomendó nivelar la carga de energía en todo el centro de datos, estableciendo zonas de baja, media y alta densidad para así enfocar los diferentes niveles de esfuerzos en esas zonas para el suministro del aire acondicionado. “Es un hecho que hoy día estamos viendo una tendencia creciente a que todos los servicios sean a través de la nube y para esto todos los componentes, incluidos los sistemas de enfriamiento, deben estar preparados”, resaltó Sánchez.

Por otra parte, las certificaciones de seguridad juegan un papel importante en esta transformación, especialmente al momento de seleccionar un proveedor de servicios de nube, para que éste garantice que los datos no se van a ver comprometidos, ni mis procesos detenidos. “Existen diferentes niveles de certificación, dando un nivel de confiabilidad que depende de que, en caso de que suceda algo, cuánto tiempo me tardo en recuperar esa continuidad. Entre menos tiempo me tarde, un nivel de certificación más alto se obtiene”, aseguró Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

El papel del CIO en este proceso

Gartner reconoce la importancia de destacar el papel del CIO en este proceso y la necesidad de transformar el rol que ejerce dentro del área TI, pasando de ser simples gerentes a convertirse en asesores confiables de los CEO. Según esta firma consultora, deben estar conscientes de que aquellas habilidades que les permitieron llegar a su puesto no necesariamente los llevarán al siguiente nivel.

“Si bien la tecnología siempre será importante, no es lo único ni lo primordial para el CIO, dado que las personas y los procesos de operación de TI resultan tanto o más importante en este proceso”, afirmó Silva León, de Gartner.

Se trata de una primicia compartida también por HPE: “Queremos empoderar a este personaje de tecnología, al área de Sistemas, para que se vuelva un bróker de estos servicios y tenga cierta gobernabilidad de todo el proceso”, comentó Lomelín.

Los CIO deben entender que su papel está cambiando, que se están convirtiendo en habilitadores de servicios, y deben entender que la TI es el medio para lograr que las aplicaciones de negocio trabajen de un modo más eficiente, rentable y seguras, y deben asegurarse de tener las herramientas para poder orquestar el movimiento de la información, de acuerdo con Benavides, de Dell EMC.

Innovación en Data center, un paso obligatorio

Gartner destaca la necesidad de aumentar la influencia mediante innovación, con la construcción de sistemas de TI ágiles y definidos por software, así como detectar comportamientos anormales para monitorear, gestionar, medir, asegurar y alertar; automatizar la toma de decisiones a partir de datos, y unirse a la economía de las API.

Si bien el cloud computing es una solución que llegó para quedarse al ofrecer muchas ventajas para el negocio, el centro de datos no va a desaparecer, al menos así lo consideró Adrián Simg, de Lenovo. “No creo que una empresa vaya a una nube al 100%. Siempre existirá un equilibrio entre el centro de datos y cloud, si bien puede haber más procesamiento o almacenamiento en la nube, pero el centro de datos jamás dejará de existir”, afirmó.

Es por ello que las empresas no deben dejar este importante proceso de actualización de su infraestructura on site de lado, a través de una serie de herramientas, productos y servicios que les ayuden a efientar el data center.

“La optimización de todo lo que tienes en el centro de datos es algo que no va a parar. Pero los ingredientes adicionales que se le ponen al centro de datos para amalgamar este proceso serán la clave”, aseguró Alejandro Lomelín, de HPE.

Uno de los avances más significativos en este aspecto es el almacenamiento, que ha pasado del tradicional gran gabinete lleno de discos duros giratorios que generaban mucho ruido, ocupaban gran espacio y consumían altos niveles de electricidad, al almacenamiento flash que no genera ruido, disminuye en gran medida la generación de calor y consumen mucho menos electricidad. Hoy en día son drives con mucha más capacidad en menos espacios. Además, ayuda a reducir costos operativos, eficientizar la administración generando un centro de datos verde.

Otras de las innovaciones que se han dado en los últimos años a fin de robustecer la infraestructura para el centro de datos tiene que ver con sus sistemas de supresión de incendios, pasando de sistema tradicional de chorros de agua o químicos que suelen ser dañinos para el ambiente y las personas, a sistemas híbridos.

Estos sistemas híbridos combinan nitrógeno (un gas inerte que no acelera el calentamiento global), con micromoléculas de agua para generar una emulsión que no produce humedad residual, permitiendo proteger el centro de datos y áreas críticas, sin interrumpir las actividades del mismo.

Si se comparan los sistemas tradicionales a chorro de agua –que requieren procedimientos más complejos como almacenamiento de agua, bombas, rociadores y otra clase de infraestructura pesada–, los sistemas híbridos sólo necesitan de un almacenamiento reducido de agua y nitrógeno conectado a tuberías de áreas críticas que se están protegiendo. Además, el costo por toda la infraestructura que debe sobrellevar es mucho menor.

“Si se nos cae el sistema, estás dejando de vender, estás perdiendo confiabilidad y clientes. Una vez que pierdes un cliente estás perdiendo negocio, participación de mercado, y otra serie de grandes pérdidas intangibles, pero que a veces tienen más valor que el monetario, incluso estamos hablando de cosas irreemplazables”, puntualizó Eurídice Ibarlucea, de Victaulic.

Esta nueva alternativa es amigable con el medio ambiente, al mismo tiempo que protege los activos que se están resguardando, evitando que se detenga la transmisión de datos, avalando la continuidad del negocio y operaciones.

Para finalizar, Stulz recomendó contar con una plataforma de DCIM (Data Center Infrastructure Management) que permita tener una completa visibilidad y administración de toda la infraestructura física, y no sólo la parte del enfriamiento.

Por su parte, Ricardo Rentería, de AWS, aseveró que todavía veremos la integración entre ambientes site y cloud por algunos años más, “debido a que hay una fuerte inversión en centros de datos locales en México, ya sean propios o por contratos de outsourcing o hosting.

“En lo que las empresas hacen un ciclo completo de proyecto, capacitación, habilitación, definición de estrategias hasta llegar a un cloud natural, veremos una etapa de transición de por lo menos dos años. Tras ese periodo, veremos compañías que ya harán cloud al 100%”, concluyó Rentería.

 

Por Karina Rodríguez y José Luis Becerra

Leer más...

Aplicaciones, Certificaciones, Del dia, Desarrollo, Destacado, Industria TIC, Infraestructura, Internet de las Cosas, Movilidad, Network World, News, Redes, Robótica, Seguridad, Tecnología de Apoyo, Transformación Digital

[Infografía] Tips para cuidar tu drone en temporada de lluvias

La Ciudad de México, así como la mayor parte del territorio nacional, ha presentado lluvias atípicas, fuertes vientos, y cambios bruscos de temperatura. Esto nos ha llevado a tomar medidas de precaución para que el clima afecte lo menos posible nuestras actividades diarias.

A continuación, te presentamos los siguientes tips para aprovechar al máximo tu drone en esta temporada de lluvias.

1.- Conoce las reglas
Revisa los espacios aéreos donde puedes volar, restricciones, alcances y todo lo necesario para usar tu drone en la página de la Secretaría de Comunicaciones y Transporte.

2.- Revisa el pronóstico del clima
Descarga aplicaciones que te brinden información como velocidad del viento, temperatura, porcentaje de humedad relativa y probabilidad de lluvia.

3.- Cuidate de los fuertes vientos
Recuerda, para un mejor desempeño de tu drone, procura volarlo con vientos menores a los 32km/hr.

4.-  Aprovecha el cielo despejado 
Procura volar tu drone en un día claro, con nubosidad escasa y baja probabilidad de lluvia.

5.- Controla tus espacios
Ubica los límites donde quieres emprender el vuelo, y nunca pierdas de vista tu equipo.

6.- Trae una batería extra
Extiende tus tiempos de vuelo con una batería adicional, y déjalas cargando un día antes.

7.- Vuela con responsabilidad
Comienza por maniobras básicas, ubica edificios, cableado en postes, y personas a tu alrededor.

8.- Abriga a tu dron (y sus baterías)
Utiliza una mochila o maleta especial para drones para cuidar de tu equipo y mantenerlo al 100%

Leer más...

Aplicaciones, Big data, Centro de Datos, Certificaciones, Cloud Computing, Del dia, Desarrollo, Desarrollo, Industria TIC, Infraestructura, Movilidad, Network World, Principal, Redes, Tecnología de Apoyo

Movilidad, Big Data e IoT impulsan el mercado de automatización de Data Centers

La cantidad de datos generados en el mundo crece de forma exponencial y están exigiendo mayores inversiones en la infraestructura para ser almacenados. Las estructuras de Data Centers necesitan apresurarse para poder satisfacer esa demanda, siendo la automatización de sus funciones una de las principales opciones.

Una investigación de la AlliedMarketResearch (AMR) titulada “Data Center Automation 0Market, Oportunidad Global y Previsión, 2014-2022”, prevé que el mercado global de automatización de Data Center debe crecer 19.6%, pasando de US$ 2,483 millones en 2014 para US$ 8,619 millones para el año 2022. Este crecimiento puede ser atribuido al desarrollo de la Computación en la Nube, movilidad a Internet de las Cosas, juegos online, Big Data, redes sociales y otras aplicaciones online.

De acuerdo con la investigación de la consultoría Gartner, el mercado de aplicaciones puede alcanzar $77 billones de dólares este año. Ya el estudio Stateof Mobile, promovido por la compañía Flurry, de Yahoo! en 2013, mostraba que los usuarios gastaban 2.6 horas en dispositivos móviles por día. Hoy, el número alcanza casi el doble, con 4.9 horas gastadas en smartphones y tablets. De todo ese tiempo, 92% son gastados con aplicaciones.

En un seguimiento más profundo, como el mercado de tecnología y servicios de Big Data, una investigación de la consultoría IDC apunta que habrá una expansión seis veces superior a la de la industria de TI como un todo, llegando a generar $41,5 billones de dólares en 2018, un crecimiento compuesto anual de 26.4%.

La misma consultora divulgó que, hasta 2019, el mercado de Internet de las Cosas va a generar cerca de $1,3 trillones de dólares, un crecimiento del 17% al año. De todos los datos que serán generados, 43% de ellos serán en la Nube. O sea, el mercado de Cloud Computing también va a necesitar un espacio para continuar desarrollándose y atender la demanda de este segmento al igual que de todos los otros.

No cabe duda que el crecimiento de la generación de datos, con perspectivas de ser todavía mayores en los próximos años, exigiendo que muchas de las tareas que son realizadas hoy por el Data Center sean automatizadas para que todo el procesamiento sea entregado de forma ágil, así como también deben de estar todos los aspectos de seguridad que abarcan al centro medular de las empresas, mismas que almacenan y procesan toda la información generada por un negocio.

 

Beneficios de la automatización del Data Center

La automatización del Data Center ofrece mayor agilidad a los gestores del sistema para encontrar fallas y pueda trabajar con acciones previamente pronosticadas. Además de eso, ofrece un valor tangible y medible en cuestiones de monitoreo en el sector de TI.

En el Data Center automatizado, el propio computador sigue las etapas que serían elaboradas de forma manual después de programarse, creando mensajes de alerta con ideas específicas de las condiciones del sistema en el momento de la falla. Otros beneficios cubren la automatización de las operaciones y del flujo de trabajo, lo que permite mayor capacidad de almacenar datos, disponibilidad de servidores más avanzados, ofreciendo servicios todavía más veloces.

Pasos básicos para comenzar

Para iniciar el proceso de automatización es necesario hacer una verificación completa en el Data Center, conociendo cada uno de sus componentes, verificar que todos los dispositivos se encuentren conectados entre sí en el switch donde un servidor lo esté, la jerarquía del Data Center en cluster de host de la máquina virtual (VM), entre otras informaciones que van a dar un panorama general de todo el sistema y de forma específica.

En seguida, es necesario programar los comandos para las próximas verificaciones, determinando la constancia del monitoreo. Sí será más de una vez por día, en algunos horarios específicos, si será semana u otro periodo que el gestor determine más pertinente.

La verificación, por ejemplo, puede ser realizada también por evento, programando el sistema para que inicie el proceso de limpieza si una interface en un ruteador queda inactiva por más de 20 minutos. Otra posibilidad es hacer la vigilancia por zonas, sin necesitar sobre cargar todo el sistema, haciendo al mismo tiempo una limpieza completa.

Todas estas acciones facilitan el día a día del gestor que se va a ocupar de la primera programación de la automatización y después podrá hacer pequeños ajustes a lo largo del proceso. El tiempo que se ahorra para hacer la limpieza de forma manual, ahora se utiliza en otras funciones dentro de su misma área.

 

N. de P.  Westcon-Comstor

Leer más...

Administración de datos, Aplicaciones, Centro de Datos, Certificaciones, Ciencia e Innovación, Cloud Computing, Del dia, Desarrollo, Empleos TI, Industria TIC, Infraestructura, Movilidad, Principal, Redes, Tecnologia

Principales certificaciones de almacenamiento para profesionales de TI

Para aquellos profesionales que se encuentren buscando un nuevo trabajo, o simplemente tienen el objetivo de avanzar en su papel actual, una certificación podría diferenciarlos potencialmente de otros candidatos. Y para los gerentes de contratación, las certificaciones pueden ayudar a recortar algunos de los riesgos del proceso de contratación mediante la validación en cierta medida de experiencia en áreas como el almacenamiento conectado a la red, redes de área de almacenamiento y configuración de almacenamiento y gestión de operaciones.

 

Vendedor neutral vs. vendedor específico

En general, las certificaciones de la industria de almacenamiento se dividen en dos categorías: proveedor neutral y proveedor específico. Una organización neutral de proveedores es la organización sin fines de lucro Storage Networking Industry Association (SNIA), que trabaja para desarrollar estándares y programas educativos relacionados con el almacenamiento. Las certificaciones específicas del proveedor están disponibles en los reproductores de almacenamiento como Brocade, Dell EMC, HPE, IBM y NetApp.

La elección de una certificación para seguir depende de la situación del candidato. Los candidatos con certificaciones específicas de los proveedores pueden ser atractivos para las empresas que buscan experiencia en plataformas específicas, pero pueden no ser tan deseables para las empresas que necesitan personas con las habilidades necesarias para trabajar en un entorno de almacenamiento heterogéneo.

Mientras tanto, las tendencias salariales actuales indican una fuerte demanda de experimentados profesionales de TI que trabajan en el área de almacenamiento en red. Como ejemplo, el mayor incremento salarial, en porcentaje, entre todos los roles de TI fue para profesionales de tecnología que tienen experiencia con la plataforma de almacenamiento corporativo Compellent de Dell. Los profesionales de la tecnología con habilidades Compellent ganaron, en promedio, $ 111.457 el año pasado, un aumento de 11%.

Las empresas están intensificando la adopción de almacenamiento flash, almacenamiento definido por software, almacenamiento cloud e hiperconvergencia, y las certificaciones están siendo revisadas para mantenerse al día con estas tecnologías.

Aquí ofrecemos una mirada a algunas de las opciones más valiosas disponibles hoy en día en el mercado de certificaciones de almacenamiento, comenzando con el vendedor neutral SNIA y luego organizados alfabéticamente por el proveedor.

 

Asociación de la industria de redes de almacenamiento (SNIA)

El SNIA Storage Networking Certification Program (SNCP) se centra en los conocimientos y habilidades de redes de almacenamiento neutrales a los proveedores. El programa se basa en cuatro niveles de certificación primaria: SNIA Certified Storage Professional, SNIA Certified Storage Engineer, SNIA Certified Storage Architect y SNIA Certified Storage Networking Expert. SNIA hace hincapié en que sus recursos de educación y certificación están diseñados para integrarse y complementar las certificaciones de los proveedores individuales, proporcionando contexto de la industria para diferentes matices del producto.

 

Brocade

Brocade renovó recientemente su programa de certificación, con la nueva formación entrando en vigor en noviembre de 2016. Las certificaciones de Brocade están organizadas por cuatro funciones principales (arquitecto / diseñador, implementador, administrador y soporte) y cuatro niveles de competencia (asociado, profesional, experto y maestro) ). La pista de certificación IP cultiva experiencia en la instalación, configuración, mantenimiento y solución de problemas de los productos Brocade Layer 2/3, por ejemplo, mientras que la pista Ethernet Fabric IT se centra en el hardware Brocade VDX y la pista de redes de almacenamiento se centra en VCS Fabric Redes de almacenamiento.

 

Dell EMC

El programa de certificación de Dell EMC aborda la amplia gama de hardware, software y soluciones de la compañía combinada. La compañía ofrece cuatro niveles de competencia (asociado, especialista, profesional y experto), y sus certificaciones específicas de almacenamiento incluyen almacenamiento y administración de información; Administrador de almacenamiento; Ingeniero de implementación; Arquitecto tecnológico; y muchos más.

 

Hewlett Packard Enterprise

HPE ofrece una amplia gama de certificaciones en su programa de certificación, que abarca la gestión de TI, grandes datos, seguridad, servidores, cloud computing y mucho más. Ofrece cuatro opciones específicas de almacenamiento: HPE Master ASE – Storage Solutions Architect V2; HPE ASE – Soluciones de almacenamiento Architect V2; HPE ATP – Soluciones de almacenamiento V2; Y HPE Product Certified – OneView.

 

IBM

El programa de certificación IBM Professional abarca todas sus ofertas de tecnología empresarial, incluyendo analítica, cloud, seguridad y más. Actualmente, IBM ofrece nueve credenciales relacionadas con su software de almacenamiento y 12 certificaciones especializadas relacionadas con sus sistemas de almacenamiento.

 

NetApp

Los programas de certificación de NetApp ofrecen 12 credenciales. Está organizado en tres niveles (asociado, especialista y profesional) en cuatro funciones principales (ingeniero de implementación, administrador de almacenamiento, ingeniero de soporte e ingeniero de instalación).

 

Ann Bednarz

Leer más...