Amenazas, Centro de Datos, Cloud Computing, Del dia, Desarrollo, Desarrollo, Infraestructura, Network World, Principal, Redes, Seguridad, Seguridad

Cómo preparar su infraestructura de TI para el Buen Fin

Se acerca el Buen Fin, ese que se promueve como el fin de semana más barato del año en México, donde empresas aprovechan para ofrecer descuentos y aumentar sus ventas. Retail, e-commerce y servicios bancarios deben preparar su infraestructura de TI para asegurar la disponibilidad. 

Leer más...

Centro de Datos, Continuidad, Del dia, Desarrollo, Estrategía, Industria, Infraestructura, Network World, Principal, Redes, Seguridad

Cuatro historias de terror en el centro de datos

Hoy en día los datos y aplicaciones son el pilar de toda organización. Ellos, a través de los sistemas de TI que los resguardan y administran en el centro de datos, sustentan en parte importante el éxito de los negocios en su camino hacia la Transformación Digital. Por tal motivo, su disponibilidad es vital para las organizaciones que buscan convertirse en empresas permanentemente activas.

Sin embargo, el 67% de los directores de Sistemas en México padecen de uno a 10 eventos de inactividad no planeada de sus aplicaciones a causa de fallas de TI, fuerzas externas u otros factores, de acuerdo con el Reporte de Disponibilidad 2017 de Veeam Software.

Este tiempo de indisponibilidad o insuficiente disponibilidad no planificada de las aplicaciones es la causa de que dos terceras partes de las empresas encuestadas por Veeam a nivel global hayan visto inhibidas sus iniciativas de Transformación Digital, ya sea significativamente o de alguna forma, además de que para las empresas las caídas de sus sistemas representan un costo anual promedio de $21.8 millones de dólares, 36% más que la cifra de hace un año.

Las disrupciones inesperadas se presentan en cuatro formas principales, convirtiéndose en historias de terror que ponen en peligro la continuidad de los negocios. He aquí cada una de ellas:

 

  1. Errores humanos

Por mucho que las compañías implicadas traten de esconderlo, hay múltiples ejemplos de hechos en los que algún error humano (el llamado “humanware”) ocasiona verdaderos momentos terroríficos.

Uno de los más recientes es el caso de una de las aerolíneas más importantes en Reino Unido: a fines de mayo pasado un contratista realizaba trabajos de mantenimiento en su centro de datos cuando, sin querer, desconectó una fuente de poder y, al reconectarla, causó mayor daño a los sistemas al provocar una sobrecarga, afectando también su infraestructura de failover. Los 15 minutos que el data center estuvo caído significaron la cancelación de más de 400 vuelos y pérdidas que se calculan en €100 millones (euros).

 

  1. Cibercrimen

Es innegable la evolución que han mostrado las amenazas de seguridad en el entorno actual de las TI empresariales, siendo un claro ejemplo las llamadas amenazas persistentes avanzadas (APTs, por sus siglas en inglés). Éstas, abanderadas por el letal Ransomware, han afectado a docenas de compañías tan sólo en lo que va de este año.

El impacto –y el miedo– en las organizaciones no se ha hecho esperar: el informe Tomando la ofensiva: trabajando juntos para interrumpir el crimen digital, de BT y KPMG, da prueba de ello al señalar que el 91% de los tomadores de decisión en compañías multinacionales admiten que enfrentan obstáculos al intentar defenderse de los ataques digitales de la actualidad.

 

  1. Desastres naturales

Los recientes sismos de septiembre pasado en México, que en conjunto afectaron más de un millar de inmuebles (entre residenciales y empresariales) en varios estados el país son muestra de que los desastres naturales pueden tener lugar en cualquier momento, dejando a su paso inundaciones, fallas eléctricas, derrumbes y otro tipo de daños que pueden conducir a la indisponibilidad temporal o permanente de datos y aplicaciones.

  1. Equipos de TI que fallan

La tecnología no es infalible: el Reporte de Disponibilidad de Veeam indica que cada año al menos uno de cada cuatro servidores a nivel mundial sufre una desconexión no planeada, con una media de 23 minutos de tiempo de inactividad por evento. Para las empresas, son fallas que representan desafíos importantes para la meta de alcanzar el cero en sus objetivos de tiempo y punto de recuperación (RTPO, por sus siglas en inglés); es decir, en su intento por lograr una recuperación sin pérdida de datos y sin disrupción de las aplicaciones.

Estas historias de terror no son aisladas en la dinámica empresarial actual. De acuerdo con el informe Costos por interrupciones en los centros de datos, de Ponemon Institute –el mismo que se basó en encuestas a organizaciones de diferentes industrias que experimentaron al menos una interrupción no planeada en su data center–, el año pasado entre las principales causas de tales interrupciones están justamente las fallas en los equipos UPS (con 25% de las respuestas), los errores humanos y el cibercrimen (con 22% cada uno), los problemas relacionados con aspectos climáticos (10%) y las fallas en los equipos de TI (4%).

El tiempo de inactividad y la pérdida de datos que provocan no son ficción. Es prioritario que la estrategia de seguridad y continuidad del negocio contemple el contar con políticas bien definidas basadas en mejores prácticas y considerar el tener más de un site alterno, así como que el centro de datos opere con una infraestructura de respaldo y recuperación que brinde mecanismos de disponibilidad ágiles y confiables, de forma que habiliten las iniciativas de Transformación Digital de los negocios.

 

 

 

Por: Abelardo Lara,

Country Manager,

Veeam en México.

Leer más...

Aplicaciones, Centro de Datos, Cloud Computing, Continuidad, Del dia, Desarrollo, Destacado, Industria TIC, Infraestructura, Movilidad, Network World, Redes, Seguridad, Seguridad

Garantizar la disponibilidad más allá del ransomware: Veeam

El pasado 16 de mayo, el ransomware WannaCry impactó a más de 150 países, sobre todo europeos, llegando a secuestrar más de 20 mil equipos. Un mes y un día después, el 17 junio, el ransomware Petya afectó a organizaciones en Ucrania, Rusia, Reino Unido, India, Italia, Polonia, Alemania y Estados Unidos.

Ambos casos son prueba de que los daños a la seguridad ocasionados por el ransomware han aumentado a nivel global, y se trata de un evento que seguirá en crecimiento, al menos así lo advirtió Rodolfo Montes de Oca, Ingeniero de Sistemas de Veeam Software en México.

Según el Reporte de Disponibilidad 2017, publicado por Veeamun 77% de las empresas no pueden satisfacer las expectativas de disponibilidad de las áreas de negocios debido a mecanismos de protección y políticas insuficientes.

De acuerdo con el consenso obtenido en este reporte, 72 minutos es el tiempo máximo de pérdida de datos que las empresas podrían tolerar en sus aplicaciones de misión crítica.

Este periodo contrasta con los objetivos de tipo y punto de recuperación (RTPO) menores a los 15 minutos para todas las aplicaciones y datos que propone Veeam mediante el concepto de “Always On-Enterprise” o negocio siempre activo, explicó Montes de Oca.

 

Dos formas de ataque del ransomware

Al participar en el evento “Disponibilidad a prueba de ransomware en la era de Transformación Digital”, organizado por Veeam, Montes de Oca dijo que, según el FBI, tan sólo en los primeros tres meses del 2016 el cibercrimen logró recolectar unos 209 millones de dólares mediante el empleo de ransomware, considerando sólo los casos reportados y sin contabilizar los costos por remediación de daños.

Asimismo, estimaciones de McAfee Security Labs aseguran que los ataques del ransomware han venido creciendo 128% cada año, en promedio.

El vocero de Veeam describió las dos principales formas de ataque a las organizaciones mediante el ransomware:

Uno de ellos es el bloqueo de pantalla, que hace que la computadora se congele y muestre un mensaje con las exigencias del cibercriminal. En este caso, el equipo no puede funcionar hasta que el malware es eliminado.

El otro es el ransomware de encriptación de datos, capaz de restringir el acceso de los usuarios a sus propios archivos tanto en computadoras individuales como en redes corporativas, aseveró Montes de Oca.

 

Leer más...

Centro de Datos, Cloud Computing, Del dia, Desarrollo, Desarrollo, Destacado, Industria TIC, Infraestructura, Movilidad, Redes, Tecnología de Apoyo

Tres etapas para lograr una Transformación Digital exitosa

Cuando el término Transformación Digital se utilizó por primera vez para describir la trayectoria de una empresa moderna, muchos consultores y especialistas de la industria descartaron su relevancia como sólo una nomenclatura o una evolución de las prácticas de negocio actuales. El tiempo ha demostrado que es real: los ejecutivos reconocen la gran necesidad de ofrecer al usuario final servicios digitales relevantes que se conviertan en valor agregado, comunicación y colaboración continua.

Waze, Uber y Airbnb son ejemplos de esta Transformación Digital. Hace 10 años no hubiéramos pensado hacer viajes con un mapa, subirnos al auto con un extraño o dormir en casa de un desconocido. Hoy son prácticas normales. Las personas se enfocan tanto en el valor que otorgan estos servicios digitales que sus expectativas han cambiado, y ahora lo impensable es no tenerlos disponibles.

Lo primero que cada empresa debe preguntarse es cómo brindar valor a sus usuarios a través de un medio digital (sean aplicaciones móviles, herramientas en la nube o servicios basados en Internet), pero es indispensable entender, diseñar y desarrollar esa capacidad digital para sobrevivir y prosperar. Aun así, aunque conformar servicios digitales es esencial, no basta para asegurar el éxito y la diferenciación a largo plazo. El proceso de la Transformación Digital también se debe planear y realizar cuidadosamente en tres etapas sucesivas: continuidad de negocios, agilidad en los servicios y visibilidad.

 

Continuidad de negocios

El enfoque primordial es asegurar que cuando el servicio se solicite, esté disponible y presente de inmediato. Esta etapa se compone de dos elementos: alta disponibilidad y disponibilidad de los negocios.

La alta disponibilidad consiste en diseñar el servicio de tal manera que ninguna falla esperada cause interrupción. Por lo general se asocia con la virtualización —abstraer una carga de trabajo informática del servidor físico y equilibrar el servicio en varios componentes también físicos—. Sin embargo, la alta disponibilidad también abarca el agrupamiento de software en elementos comunes como bases de datos y servidores web.

La disponibilidad de los negocios, en tanto, consiste en diseñar el servicio de forma que no se vea afectado por las acciones humanas accidentales o intencionales. Los errores de configuración accidentales en la nube pública han producido horas de tiempo de inactividad, y la explosión de malware y ransomware han ocasionado la indisponibilidad de los servicios. Las repercusiones financieras y empresariales de esos eventos son tan significativas que es difícil incluso enumerarlas.

Las acciones maliciosas también suponen un problema. Los empleados insatisfechos borran datos o deshabilitan sistemas intencionalmente, de ahí que sea necesario planear e implementar métodos que mitiguen estos problemas. Con frecuencia se relacionan con el respaldo y la replicación de los datos, pero también con la validación continua de que tales prácticas sean suficientes y puedan aplicarse para restaurar la disponibilidad bajo presión. La automatización y coordinación son esenciales en este esfuerzo de recuperación.

 

Agilidad en los servicios

La llegada de los servicios en la nube y el modelo de servicio basado en consumo significan que las empresas pueden utilizar planes contra fallas en caso del colapso total del ambiente.

Planear y automatizar esta agilidad conduce a una entrega de servicios permanente. No obstante, la agilidad en la entrega de servicios no debe considerarse sólo desde una perspectiva de recuperación ante desastres, pues posee un importante valor empresarial conforme las compañías se expanden hacia regiones geográficas donde se requiere soberanía de datos, o para optimizar costos cada vez que los precios asociados con los servicios en la nube presentan una ventaja para la entrega a través de ese medio.

La agilidad también ayuda a las empresas que manejan picos en la demanda de servicios, como las instituciones de educación superior y las tiendas minoristas. Sus picos de demanda son, en ocasiones, insostenibles, ya que administrar el servicio en el pico de demanda más alto no es rentable. Un modelo de consumo para capacidad máxima sólo se puede utilizar de manera eficaz con la agilidad en los servicios digitales.

 

Visibilidad

La última etapa de la Transformación Digital tiene lugar después de que una compañía cuenta con una completa continuidad de negocios a través del respaldo y la replicación, una agilidad en los servicios mediante automatización y coordinación, y cuando avanza hacia la activación de un autoservicio completo a nivel de departamento o línea de negocio. Esto requiere visibilidad en toda la empresa.

El departamento de TI ya no desempeña el papel de soportar o habilitar activamente el servicio digital, sino que se vuelve totalmente transparente debido a que las decisiones se toman vía una visibilidad orientada a políticas y datos.

La Transformación Digital es un imperativo para la empresa, pero lo mejor es seguir una estrategia metódica para llevarla a cabo. La experiencia ha demostrado que la mejor forma de realizar esta metamorfosis es enfocándose en estas tres etapas, en su orden preciso.

 

 

Por: Danny Allan,

vicepresidente de Estrategia de Producto,

Veeam Software.

Leer más...

Aplicaciones, Aplicaciones, Centro de Datos, Cloud Computing, Del dia, Desarrollo, Desarrollo, Destacado, Industria TIC, Infraestructura, Movilidad, Network World, Noticias, Redes, Seguridad

Veeam ayuda a mantener la disponibilidad para Microsoft Azure Stack

Veeam Software anunció la compatibilidad con Microsoft Azure Stack. Esto amplía las capacidades de Veeam para proporcionar protección de datos y disponibilidad a través de Microsoft Azure y Azure Stack como una extensión de Azure, trayendo agilidad e innovación acelerada del cómputo en la nube a entornos on-premises. El soporte de Veeam ayudará a las organizaciones a proteger datos y aplicaciones en Azure Stack.

“Estamos ampliando nuestra colaboración con Microsoft para garantizar la disponibilidad de cualquier aplicación y dato, a través de cualquier nube”, dijo Peter McKay, Co-CEO y Presidente de Veeam.

Con el apoyo de Azure Stack, las soluciones de disponibilidad de Veeam proporcionan a los clientes una plataforma común de respaldo y administración para entornos on-premises, virtuales, físicos y en la nube, garantizando una rápida recuperación de aplicaciones críticas.

Los proveedores de servicios pueden administrar y mantener el control y la visibilidad con un fácil rastreo de las cargas de trabajo y de la utilización de cada usuario final.

Los principales beneficios del soporte de Veeam para Azure Stack incluye:

  • Multi-cliente: Veeam Cloud Connect aísla respaldos para cada cliente garantizando la seguridad y el cumplimiento;
  • Múltiples opciones de recuperación: Veeam Backup & Replication soporta tanto la recuperación a nivel de elemento granular a través de Veeam Explorers para Microsoft Exchange, SQL Server, Microsoft SharePoint, Microsoft Active Directory y Oracle, así como restauraciones a nivel de archivo completo para archivos del cliente que fueron eliminados o corrompidos;
  • Informes y facturación: Veeam Availability Console soporta el monitoreo en tiempo real y la devolución de cargos sobre el uso del cliente permitiendo que los proveedores de Hosting o las organizaciones empresariales administren y facturen fácilmente a sus clientes para el uso de disponibilidad.

 

El soporte de Veeam para Microsoft Azure Stack se espera que esté disponible a principios de 2018.

 

N. de P.

Leer más...

Aplicaciones, Artículos, Centro de Datos, Certificaciones, Cloud Computing, Del dia, Desarrollo, Desarrollo, Gobierno/Industria, Industria TIC, Infraestructura, Más, Movilidad, Network World, Principal, Reporte Especial

[Reporte Especial] El Centro de Datos: convergencia entre on site y cloud

La digitalización del negocio es un paso obligatorio de la empresa, donde cada vez se adoptan más tecnologías disruptivas como Big Data, movilidad e incluso el Internet de las Cosas y la Inteligencia Artificial, haciendo que toda esta carga de procesos y generación de datos recaiga dentro de las operaciones TI y, específicamente, en el centro de datos. Esto obliga a las empresas a invertir en infraestructura y apoyarse en la nube.

Según una encuesta de IDC a líderes TI en las empresas, el 72% de ellos cree que la transformación digital y el crecimiento del negocio es la principal razón para modernizar su infraestructura TI. La consultora afirma que en los últimos tres años la nube híbrida maduró, mientras que las arquitecturas definidas por software y las infraestructuras hiperconvergentes han modificado el estado actual de la infraestructura de TI.

Sin duda la nube se ha convertido en una tendencia que ha crecido con la transformación digital, siendo un aliado para ofrecer agilidad al negocio. ¿Será el centro de datos híbrido el siguiente paso obligatorio? ¿Ya no es suficiente la TI tradicional?

Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica.

El reto es claro: o se modifican, se redefinen o están condenados a caer en el mercado. Al menos así lo consideró Arturo Benavides, Arturo Benavides, Primary Storage Sales Director de Dell EMC Latinoamérica.  “La transformación digital está obligando a todas las empresas a redefinirse y lo está haciendo a través de nuevas aplicaciones de negocio que son más nativas en cloud, apalancando la tercera plataforma. Para esto se tiene que iniciar modernizando las TI”, comentó.

Según un estudio realizado por esta compañía –en el cual se entrevistó a los CIO de 3,000 organizaciones alrededor del mundo– un 45% tiene claro que si no adoptan la transformación digital (conocida también por las siglas DX),  estarán fuera del mercado en un plazo de unos tres años. Sólo un 5% de los entrevistados ya había definido una estrategia de DX, 12% se encuentra trabajando un modelo muy tradicional, y 42% están empezando a tomar iniciativas de transformación.

Convergencia entre On site y cloud

Por su parte, la firma de consultoría Gartner reconoce la necesidad de alinear iniciativas TI para impulsar el valor de negocio a través del desarrollo ágil, la convergencia de tecnología e infraestructura, y la modernización, automatización y migración a plataformas en la nube. “Los encargados de infraestructura y operaciones, así como sus equipos de trabajo, deben garantizar que los sistemas existentes sean confiables mientras implementan los cambios necesarios para sustentar las nuevas cargas de trabajo”, aseveró Federico De Silva León, Director de Investigación de Gartner.

Federico De Silva León, Director de Investigación de Gartner.

Para HPE, la transformación digital de los negocios se trata de un paso obligatorio que, en definitiva, tocará cada una de las empresas en México y el mundo, donde la perfecta convergencia entre on site y cloud jugará un papel protagónico. “Esto claramente impacta en el centro de datos y la nube. En HPE creemos que vamos a vivir en un mundo híbrido”, puntualizó Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dijo que la compañía tiene tres primicias al respecto: 1) el mundo será híbrido con in house y cloud; 2) la periferia que hoy genera tráfico en la red y datos van a apalancar la generación de aplicaciones; y 3) se transformará el modo en que se entregan este tipo de tecnología, que en HPE se cree será a través de servicios. “Debemos ver las cargas que realmente se necesiten llevar a la nube, cuáles podemos comprar como servicios y cuáles aún tienen que vivir en el centro de datos”, aseveró Lomelín.

Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dell EMC ofrece un modelo similar para llevar el negocio hacia la digitalización aplicando mejoras en el centro de datos y la nube, al que han denominado MAT (Modernizar, Automatizar y Transformar). Con este modelo ayudan a las empresas a entender qué se debe modernizar en las TI, cómo se pueden automatizar los procesos en el centro de datos y transformar a la gente.

Para Adrián Simg, Data Center Group Executive de Lenovo, lograr la convergencia perfecta entre el centro de datos y cloud es un proceso completo de transformación que va más allá de proveer una mejora en infraestructura física. “No sólo se trata del fierro, el almacenamiento y el procedimiento, se trata de cómo hago uso de todo ello, para lo cual se requiere software y personas”, comentó Simg.

 

Principales obstáculos

Lograr tal convergencia parece no ser una tarea sencilla. Al respecto, Gartner señala que uno de los principales retos a los que se enfrenta el CIO tiene que ver con la administración de presupuestos TI de modo eficaz. Según una encuesta de la consultora, este 2017 la segunda prioridad para CIOs en América Latina tiene que ver con modernización de Infraestructura y operaciones (mencionado por el 32% de sus encuestados).

Sin embargo, los presupuestos han sido recortados. Las empresas deben entender que no sólo se trata de recortar presupuestos, sino de generar valor y tratar las inversiones TI como activos, no como gastos. “Las organizaciones de TI que quieren ser exitosas en el futuro deberán poner el eje no sólo en la tecnología, sino también en los resultados de negocio”, comentó De Silva León, de Gartner.

 

Hacia dónde se destinará la inversión

Para Dell EMC, si bien la cuestión de presupuestos parece un obstáculo ahora, hacer el esfuerzo por invertir en modernización trae a la empresa beneficios no sólo en costos, sino en productividad del personal, redireccionando esfuerzos a resultados. “Al modernizar se obtienen ahorros significativos en operación y automatización. Estos ahorros los inviertes ahora en investigación, desarrollo e innovación, permitiendo hacer el circulo virtuoso de lo que es la transformación digital”, aseveró Arturo Benavides.

Esto es lo que permite vislumbrar un mercado prometedor en México. “Vemos que la inversión en general de centros de datos en el país crecerá alrededor del 10% en forma anual por lo menos por los siguientes cinco años”, aseveró Marco Damián, Gerente de Mercado Financiero de Panduit. Agregó que muchos centros de datos han crecido bajo demanda, es decir, conforme han surgido las necesidades. “El área de oportunidad que vislumbramos es que este crecimiento por parte de los usuarios se realice en forma estructurada y ágil, destinando importantes recursos para optimizar la parte de energía y enfriamiento en el centro de datos”.

Marco Damián, Gerente de Mercado Financiero de Panduit.

Y por lo que respecta a los proveedores de servicios, las expectativas de crecimiento parecen fundamentarse en soluciones a la medida. “Un elemento importante es ofrecer todo bajo servicio, es decir, no nada más la infraestructura, las aplicaciones o el software sino todos los componentes bajo un modelo integrado con el centro de datos”, resaltó Ricardo Rentería, Director General de Amazon Web Services en México.

De acuerdo con el directivo, esto significa ofrecer soluciones de ERP, web o almacenamiento que pueden ser integradas bajo el concepto de cloud, aportando características de elasticidad y facturación por minuto/hora con los conceptos de los centros de datos actuales. “Esto garantiza la extensión de las inversiones que los clientes ya tienen, incorporando la innovación que ofrece cloud”, señaló Rentería.

Ricardo Rentería, Director General de Amazon Web Services en México.

Otro de los proveedores de infraestructura en este sector, Intel, busca habilitar nuevos modelos de negocio para entregar servicios más personalizados y orientados hacia un sector o empresa en específico, de manera “que al proveedor de nube le dé una ganancia adicional y al usuario una mejora en la experiencia, así como un modelo de negocio más ajustado a lo que necesita”, explicó Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Dijo que la inversión en los centros de datos se debería enfocar hacia dos grandes rubros: un cambio completo en la cultura organizacional (“más ágil, rápida y abierta en cuanto a dónde se genera la información para tomar decisiones”) y hacia una plataforma digital, en la cual intervenga la toma de decisiones informada (con base en Big Data), a partir de muchas fuentes (Internet de las Cosas), con plataformas que mantengan la confianza que ha ganado la empresa con sus clientes, “y que sea un centro de trabajo con pensamiento innovador que genere una experiencia continua hacia el cliente con interacción 7×24”, explicó Cerecer.

Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Por su parte, Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam, afirmó que, de acuerdo con una encuesta aplicada a nivel mundial, en México el 60% de las organizaciones que están invirtiendo en plataformas de Software o en Infraestructura como Servicio, o bien, planean hacerlo en los próximos 12 meses. Este porcentaje es significativo, ya que duplica el promedio de inversión en estos rubros declarado a nivel global. Montes de Oca agregó que su empresa ofrece disponibilidad para el centro de datos moderno, “con tiempos de recuperación menores a 15 minutos para cualquier organización, independientemente de dónde se encuentre su nube”.

Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam.

Ofrecer este tipo de garantías puede asegurar “una larga vida” al centro de datos. De hecho, información proporcionada por Furukawa Electric, empresa dedicada al sector de telecomunicaciones, energía y electrónica, señala que el 76% de los datos que existen a nivel mundial residen dentro de un data center (DC), un 17% se encuentran entre el DC y el usuario, y el 5% restante interactúan entre varios centros de datos. “Además, hay muchas cosas que cambiarán en el ámbito de los data centers: la descentralización de la nube, la distribución de contenido más cercana al usuario, y datacenters distribuidos con ancho de banda hiperescalables con velocidades de 200 y 400 gigas”, advirtió Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Seguridad, control de riesgos y backup

No obstante lo anterior, aún persiste una falta de conciencia respecto a la seguridad de los datos y los sistemas, al menos esa es la perspectiva de Alejandro Lomelín, de HPE, quien aseguró que en las empresas debería haber un mejor manejo de la información y una mejor gobernabilidad. “La información debería vivir en dispositivos muy seguros que no sean vulnerados ni por externos ni por empleados mal intencionados”.

Y es que al producirse mayor cantidad de datos y procesos se generan mayores densidades de calor en diferentes áreas de las salas que alberga el centro de datos. “Es necesario entonces un adecuado sistema de enfriamiento que permita la continuidad del negocio, evitando caídas de sistemas provocadas por el sobrecalentamiento de los equipos”, dijo Alejandro Sánchez, Director Comercial de Stulz México.

Alejandro Sánchez, Director Comercial de Stulz México.

Para lograr lo anterior, recomendó nivelar la carga de energía en todo el centro de datos, estableciendo zonas de baja, media y alta densidad para así enfocar los diferentes niveles de esfuerzos en esas zonas para el suministro del aire acondicionado. “Es un hecho que hoy día estamos viendo una tendencia creciente a que todos los servicios sean a través de la nube y para esto todos los componentes, incluidos los sistemas de enfriamiento, deben estar preparados”, resaltó Sánchez.

Por otra parte, las certificaciones de seguridad juegan un papel importante en esta transformación, especialmente al momento de seleccionar un proveedor de servicios de nube, para que éste garantice que los datos no se van a ver comprometidos, ni mis procesos detenidos. “Existen diferentes niveles de certificación, dando un nivel de confiabilidad que depende de que, en caso de que suceda algo, cuánto tiempo me tardo en recuperar esa continuidad. Entre menos tiempo me tarde, un nivel de certificación más alto se obtiene”, aseguró Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

El papel del CIO en este proceso

Gartner reconoce la importancia de destacar el papel del CIO en este proceso y la necesidad de transformar el rol que ejerce dentro del área TI, pasando de ser simples gerentes a convertirse en asesores confiables de los CEO. Según esta firma consultora, deben estar conscientes de que aquellas habilidades que les permitieron llegar a su puesto no necesariamente los llevarán al siguiente nivel.

“Si bien la tecnología siempre será importante, no es lo único ni lo primordial para el CIO, dado que las personas y los procesos de operación de TI resultan tanto o más importante en este proceso”, afirmó Silva León, de Gartner.

Se trata de una primicia compartida también por HPE: “Queremos empoderar a este personaje de tecnología, al área de Sistemas, para que se vuelva un bróker de estos servicios y tenga cierta gobernabilidad de todo el proceso”, comentó Lomelín.

Los CIO deben entender que su papel está cambiando, que se están convirtiendo en habilitadores de servicios, y deben entender que la TI es el medio para lograr que las aplicaciones de negocio trabajen de un modo más eficiente, rentable y seguras, y deben asegurarse de tener las herramientas para poder orquestar el movimiento de la información, de acuerdo con Benavides, de Dell EMC.

Innovación en Data center, un paso obligatorio

Gartner destaca la necesidad de aumentar la influencia mediante innovación, con la construcción de sistemas de TI ágiles y definidos por software, así como detectar comportamientos anormales para monitorear, gestionar, medir, asegurar y alertar; automatizar la toma de decisiones a partir de datos, y unirse a la economía de las API.

Si bien el cloud computing es una solución que llegó para quedarse al ofrecer muchas ventajas para el negocio, el centro de datos no va a desaparecer, al menos así lo consideró Adrián Simg, de Lenovo. “No creo que una empresa vaya a una nube al 100%. Siempre existirá un equilibrio entre el centro de datos y cloud, si bien puede haber más procesamiento o almacenamiento en la nube, pero el centro de datos jamás dejará de existir”, afirmó.

Es por ello que las empresas no deben dejar este importante proceso de actualización de su infraestructura on site de lado, a través de una serie de herramientas, productos y servicios que les ayuden a efientar el data center.

“La optimización de todo lo que tienes en el centro de datos es algo que no va a parar. Pero los ingredientes adicionales que se le ponen al centro de datos para amalgamar este proceso serán la clave”, aseguró Alejandro Lomelín, de HPE.

Uno de los avances más significativos en este aspecto es el almacenamiento, que ha pasado del tradicional gran gabinete lleno de discos duros giratorios que generaban mucho ruido, ocupaban gran espacio y consumían altos niveles de electricidad, al almacenamiento flash que no genera ruido, disminuye en gran medida la generación de calor y consumen mucho menos electricidad. Hoy en día son drives con mucha más capacidad en menos espacios. Además, ayuda a reducir costos operativos, eficientizar la administración generando un centro de datos verde.

Otras de las innovaciones que se han dado en los últimos años a fin de robustecer la infraestructura para el centro de datos tiene que ver con sus sistemas de supresión de incendios, pasando de sistema tradicional de chorros de agua o químicos que suelen ser dañinos para el ambiente y las personas, a sistemas híbridos.

Estos sistemas híbridos combinan nitrógeno (un gas inerte que no acelera el calentamiento global), con micromoléculas de agua para generar una emulsión que no produce humedad residual, permitiendo proteger el centro de datos y áreas críticas, sin interrumpir las actividades del mismo.

Si se comparan los sistemas tradicionales a chorro de agua –que requieren procedimientos más complejos como almacenamiento de agua, bombas, rociadores y otra clase de infraestructura pesada–, los sistemas híbridos sólo necesitan de un almacenamiento reducido de agua y nitrógeno conectado a tuberías de áreas críticas que se están protegiendo. Además, el costo por toda la infraestructura que debe sobrellevar es mucho menor.

“Si se nos cae el sistema, estás dejando de vender, estás perdiendo confiabilidad y clientes. Una vez que pierdes un cliente estás perdiendo negocio, participación de mercado, y otra serie de grandes pérdidas intangibles, pero que a veces tienen más valor que el monetario, incluso estamos hablando de cosas irreemplazables”, puntualizó Eurídice Ibarlucea, de Victaulic.

Esta nueva alternativa es amigable con el medio ambiente, al mismo tiempo que protege los activos que se están resguardando, evitando que se detenga la transmisión de datos, avalando la continuidad del negocio y operaciones.

Para finalizar, Stulz recomendó contar con una plataforma de DCIM (Data Center Infrastructure Management) que permita tener una completa visibilidad y administración de toda la infraestructura física, y no sólo la parte del enfriamiento.

Por su parte, Ricardo Rentería, de AWS, aseveró que todavía veremos la integración entre ambientes site y cloud por algunos años más, “debido a que hay una fuerte inversión en centros de datos locales en México, ya sean propios o por contratos de outsourcing o hosting.

“En lo que las empresas hacen un ciclo completo de proyecto, capacitación, habilitación, definición de estrategias hasta llegar a un cloud natural, veremos una etapa de transición de por lo menos dos años. Tras ese periodo, veremos compañías que ya harán cloud al 100%”, concluyó Rentería.

 

Por Karina Rodríguez y José Luis Becerra

Leer más...

Amenazas, Blogs, Centro de Datos, Cloud Computing, Continuidad, Del dia, Desarrollo, Desarrollo, Destacado, Infraestructura, Network World, Redes, Seguridad, Seguridad, Tecnología de Apoyo

Los cuatro pilares de la disponibilidad garantizada ante desastres naturales

Hoy día, las empresas necesitan estar siempre conectadas. Incidentes de la naturaleza, como huracanes y sismos, pueden ocurrir en cualquier momento, representando un riesgo para su operación diaria, así como para su estrategia de Transformación Digital.

Debido a las afectaciones directas que estos eventos provocan (fallas eléctricas, inundaciones y daños a la infraestructura física, entre otras), el ritmo actual de los negocios se puede ver obstaculizado por minutos, horas o incluso días, ocasionando brechas de disponibilidad cuyos costos ascienden a $427.4 millones de pesos (el equivalente a $23.1 millones de dólares aproximadamente) en México, de acuerdo con el Reporte de Disponibilidad 2017 de Veeam Software.

El mismo informe señala que las brechas de disponibilidad producen, como resultado, tiempos de inactividad no planeada, mismos que representan costos por $21.8 millones de dólares cada año, en promedio. Cabe señalar que el impacto va en aumento, pues en el Reporte de Disponibilidad 2016 de Veeam Software dicha cifra era de $16 millones de dólares.

En fechas recientes, la fuerza de la naturaleza se hizo presente con huracanes como Katia –que entró por el Golfo de México y trajo importantes lluvias en el este, centro y sur del país, así como suspensión de suministro eléctrico en varios puntos– e Irma –que, al alcanzar categoría 5 devastó las islas del Caribe y pegó con fuerza en la Florida, en Estados Unidos, dejando también lluvias a su paso en gran parte del territorio mexicano–.

Asimismo, 12 días antes de que se cumplieran 32 años del terremoto de 1985 (es decir, el 7 de septiembre) tuvo lugar un sismo de 8.2 grados de magnitud en la escala de Richter, mismo que tuvo epicentro en Chiapas y se sintió también en Ciudad de México, Estado de México, Oaxaca, Tabasco, Puebla, Tlaxcala, Hidalgo, Guerrero, Veracruz y Morelos. Calificado como el más fuerte a nivel nacional en los últimos 100 años, causó daños materiales en escuelas, edificios, hospitales, instancias de gobierno, etcétera, así como fallas eléctricas que afectaron a más de 1 millón de usuarios en CDMX, Puebla, Tabasco, Chiapas y Oaxaca, según reportó la CFE. Aun con la pronta atención de la comisión a esta emergencia, en algunos puntos el apagón se mantuvo hasta por 24 horas.

En una era que se enmarca por una tolerancia cero a tiempos de inactividad, es imperante que las organizaciones garanticen una disponibilidad total, sin importar la intransigencia de los fenómenos naturales. He aquí la forma de lograrlo abarcando estos cuatro pilares:

  1. Infraestructura. Contar con uno o varios centros de datos alternos facilita la operación continua, aun ante fallas internas o situaciones externas que pueden ocasionar la interrupción de los servicios de TI.
  2. Tecnología. Para implementar una disponibilidad real y total, la tecnología debe ir más allá de una solución de respaldo y recuperación común. Estas herramientas deben garantizar un tiempo y punto de recuperación (RTPO) de menos de 15 minutos para todas las aplicaciones y datos, como es el caso de Veeam.
  3. Mejores prácticas. La regla 3-2-1 también es importante, pues es una forma efectiva de asegurar los datos del negocio, lo cual es prioritario para una disponibilidad garantizada. Esta regla se refiere a tener 3 copias de seguridad en 2 medios diferentes con 1 copia fuera de las instalaciones.
  4. Procesos. Contar con un plan de recuperación y replicación efectivo implica poner atención en los acuerdos de niveles de servicio (SLA) con base en la especificación de objetivos particulares, de forma que la empresa esté segura de que sus aplicaciones e información crítica estarán siempre disponibles.

 

De acuerdo con especialistas de la UNAM, podemos esperar precipitaciones aún más intensas debido al cambio climático. Éstas pueden traer consigo más inundaciones e inconsistencias con el servicio de la luz. No es el negocio quien decide – ni la naturaleza – sino los requerimientos de sus clientes y empleados, para responder a las demandas de información, 24 horas al día, 7 días de la semana, desde cualquier lugar y desde cualquier dispositivo.

 

Por: Abelardo Lara,

Country Manager,

Veeam en México.

Leer más...