Cloud Computing, Del dia, Desarrollo, Desarrollo, Destacado, Industria, Industria TIC, Infraestructura, Network World, Noticias, Noticias, Redes

Rackspace y HPE se unen para ofrecer una nube privada OpenStack

HPE y Rackspace se han asociado para lanzar al mercado una oferta de nube privada OpenStack con todas las ventajas de la nube pública; a saber, un precio ajustable, una infraestructura elástica y una TI simplificada.

Leer más...

Aplicaciones, Cloud Computing, Del dia, Desarrollo, Destacado, Industria TIC, Inteligencia Artificial, Noticias, Noticias, Nuevos Productos, Procesos, Tendencias, Transformación Digital

HPE refuerza su apuesta por Deep Learing

Hewlett Packard Enterprise (HPE) anunció nuevas plataformas y servicios creados con el propósito de ayudar a las compañías alrededor del mundo a simplificar la adopción de inteligencia artificial, centrándose inicialmente en un subconjunto clave de ésta conocido como deep learning. 

Inspirado por el cerebro humano, el deep learning se utiliza para tareas complicadas como el reconocimiento de imagen y rostros, la clasificación de las mismas y el reconocimiento de voz, además de obtener el máximo provecho de estos recursos.

Para poder utilizar Deep Learing con éxito, las empresas necesitan una infraestructura informática de alto rendimiento que sea capaz de crear y entrenar modelos.

A su vez, tal y como cita HPE en comunicado, se precisa de capacidad para gestionar grandes volúmenes de datos con el fin de facilitar el reconocimiento de patrones en audio, imágenes, videos, textos y datos de sensores.

“Muchas organizaciones carecen de algunos requisitos esenciales para implementarlo, incluyendo la experiencia y los recursos; una infraestructura sofisticada y personalizada de hardware y software y las capacidades de integración necesarias para incorporar diferentes componentes de hardware y software para ajustarse a los sistemas de AI”, señala el comunicado emitido por HPE, agregando que es el área donde precisament entra HPE con sus nuevas soluciones.

 

Novedades de HPE para Inteligencia Artificial

Entre las novedades presentadas por la compañía para impulsar la adopción de Inteligencia Artificial y Deep Learnig se destaca la solución integrada de hardware y software para desarrollo rápido de software para AI, una guía de aprendizaje automático, la creación de centros de innovación en inteligencia artificial y la mejora de los centros de excelencia que tiene la compañía.

Respecto a la solución integrada de hardware y software, ésta fue creada específicamente para informática de alto rendimiento y aplicaciones de deep learning.

Está basada en el sistema HPE Apollo 6500 e incluye frameworks preconfigurados de software para deep learning, bibliotecas, actualizaciones automáticas de software y soporte a GPU NVIDIA Tesla V100.

Por otro lado, HPE Deep Learning Cookbook es como se llama la guía de aprendizaje automático creada por el equipo de AI Research en Hewlett Packard Labs, que incorpora herramientas diseñadas para orientar a los clientes a la hora de elegir el mejor entorno de hardware y software para diferentes tareas de aprendizaje automático.  Deep Learning Cookbook también puede usarse para validar el rendimiento y para ajustar la configuración de las pilas de hardware y software ya adquiridos.

Respecto a los centros de innovación, éstos están diseñados para la realización de proyectos de investigación a largo plazo y servirán como una plataforma de colaboración para investigaciones entre universidades, empresas a la vanguardia en estudios de AI e investigadores de HPE. Están situados en Houston, Palo Alto y Grenoble (Francia) y ofrecerán tanto a investigadores de universidades como a empresas, el acceso a infraestructuras y herramientas para continuar con sus iniciativas de investigación. Finalmente, los centros de excelencia han sido optimizados para ofrecer ayuda a los departamentos de TI y a los científicos que desean acelerar sus aplicaciones para el deep learning. Están ubicados en Houston y Palo Alto (EE. UU.); Tokio (Japón); Bangalore (India) y Grenoble (Francia).

 

IDG.es

Leer más...

Aplicaciones, Del dia, Desarrollo, Destacado, Industria, Movilidad, News, Noticias, Seguridad

HPE anuncia el lanzamiento de HPE ProLiant para Microsoft Azure Stack

A la hora de responder a las necesidades del negocio y de desarrolladores de nube, los departamentos de TI se encuentran bajo presión ya que además de optimizar la combinación correcta de recursos informáticos tienen que reducir al mismo tiempo los gastos de capital y de las operaciones.

HPE ProLiant para Microsoft Azure Stack permite a los clientes el uso y la gestión de servicios consistentes de Azure en las propias instalaciones, ponerse en contacto con expertos de HPE, Microsoft y de servicios de terceros para planificar, crear y gestionar nubes híbridas, además de simplificar la facturación y reducir costes –

“Nuestros clientes viven en un mundo híbrido y complejo que requiere unas herramientas para simplificar y optimizar sus entornos informáticos híbridos”, indicó McLeod Glass, vicepresidente y director general de Software-Defined and Hyperconverged Solutions en HPE. “HPE y Microsoft comparten el objetivo de facilitar la gestión de las nubes híbridas. Con la habilidad para llevar nuestras capacidades definidas por software al Microsoft Azure Stack, simplificamos y aceleramos el despliegue de prestaciones en la nube en las propias instalaciones, permitiendo a los clientes lograr con éxito sus iniciativas para la transformación digital”

HPE ProLiant para Microsoft Azure Stack ha sido creado conjuntamente por HPE y Microsoft para ofrecer a las empresas y a los proveedores de servicios una experiencia sencilla e integrada de desarrollo, gestión y seguridad, consistente con los servicios de la nube pública de Aexpzure. Por otro lado, permite a las organizaciones modernizar el desarrollo de aplicaciones, instalar aplicaciones en sus emplazamientos favoritos y satisfacer los requisitos de los marcos legales nacionales sobre seguridad de la información.

“Los clientes desean utilizar aplicaciones modernas basadas en la nube, ubicadas en sus propias instalaciones y que, además, cumplan con las políticas empresariales y con los requisitos regulatorios vigentes”, indicó Mike Neil, vicepresidente corporativo de Azure Infrastructure and Management en Microsoft Corp. “Con HPE ProLiant para Microsoft Azure Stack, los clientes pueden innovar en una plataforma de nube híbrida verdaderamente consistente y de alto rendimiento, con el fin de incrementar la agilidad, mejorar la innovación y controlar los costes con la mezcla apropiada de unas prestaciones en la nube y en las propias instalaciones totalmente controlada por ellos”.

Redacción

 

Leer más...

Aplicaciones, Del dia, Desarrollo, Destacado, Industria, Movilidad, News, Noticias, Seguridad

HPE tras reestructuración, planea eliminar 5,000 puestos de trabajo

Tras anunciar una nueva reestructuración y presentar los resultados económicos, Meg Withman dijo que la firma estaba buscando fórmulas para agilizar la estructura y ser más eficientes. 

Cuando HPE presentó sus resultados financieros Meg Whitman, CEO de la compañía, destacó el crecimiento de las áreas de negocio clave y anunció que estaba viendo cómo “cortar” algunas capas de la organización para hacerla más eficiente. 

“Con menos líneas de negocio y estrategias claras tenemos la oportunidad de crear una estructura interna y un modelo operativo más simple, ágil y rápido”, dijo. 

Estas declaraciones cobran más sentido que nunca hoy, cuando fuentes cercanas a la compañía han filtrado a Bloomberg que planea despedir hasta a 5,000 empleados. Las reducciones afectarán a la plantilla en Estados Unidos y en otros países y darán comienzo antes de final de año, según estos datos.  

Se desconocen los detalles concretos, si los recortes afectarán a otros países y hasta el momento HPE no se ha pronunciado al respecto. 

Redacción 

 

Leer más...

Aplicaciones, Del dia, Desarrollo, Destacado, Industria, Movilidad, News, Noticias, Seguridad, Tendencias

HPE realiza otra reestructuración en su organización a nivel mundial     

Once grupos a nivel mundial representarán a HPE en los mercados donde la multinacional tiene las mayores oportunidades de crecimiento.  

Los líderes de estas once nuevas geografías sus regiones son Gilles Thiebaut: Francia, Heiko Meyer: Alemania, Austria y Suiza (también conocido como DACH), Marc Waters: Reino Unido e Irlanda, José María de la Torre: Europa del Sur, Luc Opdebeeck: Europa del Norte, Johannes Koch: Oriente Medio, África Europa del Este, Dan Belanger: América del Norte, Alfredo Yepez: América Latina, Narinder Kapoor: Asia Pacífico, Hitoshi Yoshida: Japón y Som Satsangi: India. 

Dentro de esta reorganización, el gigante tecnológico se embarcará en una nueva estructura de ventas para los equipos globales a partir del 1 de noviembre. El recién nombrado jefe de ventas Phil Davis reemplazará al veterano de HPE Peter Ryan. 

Las geografías representarán a HPE en los mercados donde tenemos las mayores oportunidades de crecimiento. HPE Next es una reinvención de la compañía para permitir que nuestros miembros del equipo sean más acertados y para realizar el potencial lleno de HPE”, afirmó Phil David, jefe de ventas de HPE. “Los principios rectores de HPE Next son cliente primero, enfoque y simplicidad. Esta nueva estructura basada en estos principios acercará nuestros recursos y la toma de decisiones al cliente“, informó Davis. 

La compañía tenía tres regiones clave como su GTM u organización de ventas: Américas, Europa (incluye Oriente Medio) y APJ (incluyendo China, Australia y Nueva Zelanda). Pero esta nueva estructura divide la región de Américas en dos, Europa en seis regiones y APJ se ha dividido ahora en tres regiones. Sólo hay tres países como geografías independientes y dos son de la región de la APJ, India y Japón. 

“La complejidad es una carga y nos arrastra hacia abajo. Tenemos que ser valientes en la eliminación de construcciones viejas”, añadió Davis. “Hay que romper la estrategia de ventas en regiones más pequeñas y enfocadas para aumentar los ingresos de HPE”. 

Redacción  

 

 

Leer más...

Aplicaciones, Artículos, Centro de Datos, Certificaciones, Cloud Computing, Del dia, Desarrollo, Desarrollo, Gobierno/Industria, Industria TIC, Infraestructura, Más, Movilidad, Network World, Principal, Reporte Especial

[Reporte Especial] El Centro de Datos: convergencia entre on site y cloud

La digitalización del negocio es un paso obligatorio de la empresa, donde cada vez se adoptan más tecnologías disruptivas como Big Data, movilidad e incluso el Internet de las Cosas y la Inteligencia Artificial, haciendo que toda esta carga de procesos y generación de datos recaiga dentro de las operaciones TI y, específicamente, en el centro de datos. Esto obliga a las empresas a invertir en infraestructura y apoyarse en la nube.

Según una encuesta de IDC a líderes TI en las empresas, el 72% de ellos cree que la transformación digital y el crecimiento del negocio es la principal razón para modernizar su infraestructura TI. La consultora afirma que en los últimos tres años la nube híbrida maduró, mientras que las arquitecturas definidas por software y las infraestructuras hiperconvergentes han modificado el estado actual de la infraestructura de TI.

Sin duda la nube se ha convertido en una tendencia que ha crecido con la transformación digital, siendo un aliado para ofrecer agilidad al negocio. ¿Será el centro de datos híbrido el siguiente paso obligatorio? ¿Ya no es suficiente la TI tradicional?

Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica.

El reto es claro: o se modifican, se redefinen o están condenados a caer en el mercado. Al menos así lo consideró Arturo Benavides, Arturo Benavides, Primary Storage Sales Director de Dell EMC Latinoamérica.  “La transformación digital está obligando a todas las empresas a redefinirse y lo está haciendo a través de nuevas aplicaciones de negocio que son más nativas en cloud, apalancando la tercera plataforma. Para esto se tiene que iniciar modernizando las TI”, comentó.

Según un estudio realizado por esta compañía –en el cual se entrevistó a los CIO de 3,000 organizaciones alrededor del mundo– un 45% tiene claro que si no adoptan la transformación digital (conocida también por las siglas DX),  estarán fuera del mercado en un plazo de unos tres años. Sólo un 5% de los entrevistados ya había definido una estrategia de DX, 12% se encuentra trabajando un modelo muy tradicional, y 42% están empezando a tomar iniciativas de transformación.

Convergencia entre On site y cloud

Por su parte, la firma de consultoría Gartner reconoce la necesidad de alinear iniciativas TI para impulsar el valor de negocio a través del desarrollo ágil, la convergencia de tecnología e infraestructura, y la modernización, automatización y migración a plataformas en la nube. “Los encargados de infraestructura y operaciones, así como sus equipos de trabajo, deben garantizar que los sistemas existentes sean confiables mientras implementan los cambios necesarios para sustentar las nuevas cargas de trabajo”, aseveró Federico De Silva León, Director de Investigación de Gartner.

Federico De Silva León, Director de Investigación de Gartner.

Para HPE, la transformación digital de los negocios se trata de un paso obligatorio que, en definitiva, tocará cada una de las empresas en México y el mundo, donde la perfecta convergencia entre on site y cloud jugará un papel protagónico. “Esto claramente impacta en el centro de datos y la nube. En HPE creemos que vamos a vivir en un mundo híbrido”, puntualizó Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dijo que la compañía tiene tres primicias al respecto: 1) el mundo será híbrido con in house y cloud; 2) la periferia que hoy genera tráfico en la red y datos van a apalancar la generación de aplicaciones; y 3) se transformará el modo en que se entregan este tipo de tecnología, que en HPE se cree será a través de servicios. “Debemos ver las cargas que realmente se necesiten llevar a la nube, cuáles podemos comprar como servicios y cuáles aún tienen que vivir en el centro de datos”, aseveró Lomelín.

Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dell EMC ofrece un modelo similar para llevar el negocio hacia la digitalización aplicando mejoras en el centro de datos y la nube, al que han denominado MAT (Modernizar, Automatizar y Transformar). Con este modelo ayudan a las empresas a entender qué se debe modernizar en las TI, cómo se pueden automatizar los procesos en el centro de datos y transformar a la gente.

Para Adrián Simg, Data Center Group Executive de Lenovo, lograr la convergencia perfecta entre el centro de datos y cloud es un proceso completo de transformación que va más allá de proveer una mejora en infraestructura física. “No sólo se trata del fierro, el almacenamiento y el procedimiento, se trata de cómo hago uso de todo ello, para lo cual se requiere software y personas”, comentó Simg.

 

Principales obstáculos

Lograr tal convergencia parece no ser una tarea sencilla. Al respecto, Gartner señala que uno de los principales retos a los que se enfrenta el CIO tiene que ver con la administración de presupuestos TI de modo eficaz. Según una encuesta de la consultora, este 2017 la segunda prioridad para CIOs en América Latina tiene que ver con modernización de Infraestructura y operaciones (mencionado por el 32% de sus encuestados).

Sin embargo, los presupuestos han sido recortados. Las empresas deben entender que no sólo se trata de recortar presupuestos, sino de generar valor y tratar las inversiones TI como activos, no como gastos. “Las organizaciones de TI que quieren ser exitosas en el futuro deberán poner el eje no sólo en la tecnología, sino también en los resultados de negocio”, comentó De Silva León, de Gartner.

 

Hacia dónde se destinará la inversión

Para Dell EMC, si bien la cuestión de presupuestos parece un obstáculo ahora, hacer el esfuerzo por invertir en modernización trae a la empresa beneficios no sólo en costos, sino en productividad del personal, redireccionando esfuerzos a resultados. “Al modernizar se obtienen ahorros significativos en operación y automatización. Estos ahorros los inviertes ahora en investigación, desarrollo e innovación, permitiendo hacer el circulo virtuoso de lo que es la transformación digital”, aseveró Arturo Benavides.

Esto es lo que permite vislumbrar un mercado prometedor en México. “Vemos que la inversión en general de centros de datos en el país crecerá alrededor del 10% en forma anual por lo menos por los siguientes cinco años”, aseveró Marco Damián, Gerente de Mercado Financiero de Panduit. Agregó que muchos centros de datos han crecido bajo demanda, es decir, conforme han surgido las necesidades. “El área de oportunidad que vislumbramos es que este crecimiento por parte de los usuarios se realice en forma estructurada y ágil, destinando importantes recursos para optimizar la parte de energía y enfriamiento en el centro de datos”.

Marco Damián, Gerente de Mercado Financiero de Panduit.

Y por lo que respecta a los proveedores de servicios, las expectativas de crecimiento parecen fundamentarse en soluciones a la medida. “Un elemento importante es ofrecer todo bajo servicio, es decir, no nada más la infraestructura, las aplicaciones o el software sino todos los componentes bajo un modelo integrado con el centro de datos”, resaltó Ricardo Rentería, Director General de Amazon Web Services en México.

De acuerdo con el directivo, esto significa ofrecer soluciones de ERP, web o almacenamiento que pueden ser integradas bajo el concepto de cloud, aportando características de elasticidad y facturación por minuto/hora con los conceptos de los centros de datos actuales. “Esto garantiza la extensión de las inversiones que los clientes ya tienen, incorporando la innovación que ofrece cloud”, señaló Rentería.

Ricardo Rentería, Director General de Amazon Web Services en México.

Otro de los proveedores de infraestructura en este sector, Intel, busca habilitar nuevos modelos de negocio para entregar servicios más personalizados y orientados hacia un sector o empresa en específico, de manera “que al proveedor de nube le dé una ganancia adicional y al usuario una mejora en la experiencia, así como un modelo de negocio más ajustado a lo que necesita”, explicó Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Dijo que la inversión en los centros de datos se debería enfocar hacia dos grandes rubros: un cambio completo en la cultura organizacional (“más ágil, rápida y abierta en cuanto a dónde se genera la información para tomar decisiones”) y hacia una plataforma digital, en la cual intervenga la toma de decisiones informada (con base en Big Data), a partir de muchas fuentes (Internet de las Cosas), con plataformas que mantengan la confianza que ha ganado la empresa con sus clientes, “y que sea un centro de trabajo con pensamiento innovador que genere una experiencia continua hacia el cliente con interacción 7×24”, explicó Cerecer.

Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Por su parte, Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam, afirmó que, de acuerdo con una encuesta aplicada a nivel mundial, en México el 60% de las organizaciones que están invirtiendo en plataformas de Software o en Infraestructura como Servicio, o bien, planean hacerlo en los próximos 12 meses. Este porcentaje es significativo, ya que duplica el promedio de inversión en estos rubros declarado a nivel global. Montes de Oca agregó que su empresa ofrece disponibilidad para el centro de datos moderno, “con tiempos de recuperación menores a 15 minutos para cualquier organización, independientemente de dónde se encuentre su nube”.

Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam.

Ofrecer este tipo de garantías puede asegurar “una larga vida” al centro de datos. De hecho, información proporcionada por Furukawa Electric, empresa dedicada al sector de telecomunicaciones, energía y electrónica, señala que el 76% de los datos que existen a nivel mundial residen dentro de un data center (DC), un 17% se encuentran entre el DC y el usuario, y el 5% restante interactúan entre varios centros de datos. “Además, hay muchas cosas que cambiarán en el ámbito de los data centers: la descentralización de la nube, la distribución de contenido más cercana al usuario, y datacenters distribuidos con ancho de banda hiperescalables con velocidades de 200 y 400 gigas”, advirtió Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Seguridad, control de riesgos y backup

No obstante lo anterior, aún persiste una falta de conciencia respecto a la seguridad de los datos y los sistemas, al menos esa es la perspectiva de Alejandro Lomelín, de HPE, quien aseguró que en las empresas debería haber un mejor manejo de la información y una mejor gobernabilidad. “La información debería vivir en dispositivos muy seguros que no sean vulnerados ni por externos ni por empleados mal intencionados”.

Y es que al producirse mayor cantidad de datos y procesos se generan mayores densidades de calor en diferentes áreas de las salas que alberga el centro de datos. “Es necesario entonces un adecuado sistema de enfriamiento que permita la continuidad del negocio, evitando caídas de sistemas provocadas por el sobrecalentamiento de los equipos”, dijo Alejandro Sánchez, Director Comercial de Stulz México.

Alejandro Sánchez, Director Comercial de Stulz México.

Para lograr lo anterior, recomendó nivelar la carga de energía en todo el centro de datos, estableciendo zonas de baja, media y alta densidad para así enfocar los diferentes niveles de esfuerzos en esas zonas para el suministro del aire acondicionado. “Es un hecho que hoy día estamos viendo una tendencia creciente a que todos los servicios sean a través de la nube y para esto todos los componentes, incluidos los sistemas de enfriamiento, deben estar preparados”, resaltó Sánchez.

Por otra parte, las certificaciones de seguridad juegan un papel importante en esta transformación, especialmente al momento de seleccionar un proveedor de servicios de nube, para que éste garantice que los datos no se van a ver comprometidos, ni mis procesos detenidos. “Existen diferentes niveles de certificación, dando un nivel de confiabilidad que depende de que, en caso de que suceda algo, cuánto tiempo me tardo en recuperar esa continuidad. Entre menos tiempo me tarde, un nivel de certificación más alto se obtiene”, aseguró Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

El papel del CIO en este proceso

Gartner reconoce la importancia de destacar el papel del CIO en este proceso y la necesidad de transformar el rol que ejerce dentro del área TI, pasando de ser simples gerentes a convertirse en asesores confiables de los CEO. Según esta firma consultora, deben estar conscientes de que aquellas habilidades que les permitieron llegar a su puesto no necesariamente los llevarán al siguiente nivel.

“Si bien la tecnología siempre será importante, no es lo único ni lo primordial para el CIO, dado que las personas y los procesos de operación de TI resultan tanto o más importante en este proceso”, afirmó Silva León, de Gartner.

Se trata de una primicia compartida también por HPE: “Queremos empoderar a este personaje de tecnología, al área de Sistemas, para que se vuelva un bróker de estos servicios y tenga cierta gobernabilidad de todo el proceso”, comentó Lomelín.

Los CIO deben entender que su papel está cambiando, que se están convirtiendo en habilitadores de servicios, y deben entender que la TI es el medio para lograr que las aplicaciones de negocio trabajen de un modo más eficiente, rentable y seguras, y deben asegurarse de tener las herramientas para poder orquestar el movimiento de la información, de acuerdo con Benavides, de Dell EMC.

Innovación en Data center, un paso obligatorio

Gartner destaca la necesidad de aumentar la influencia mediante innovación, con la construcción de sistemas de TI ágiles y definidos por software, así como detectar comportamientos anormales para monitorear, gestionar, medir, asegurar y alertar; automatizar la toma de decisiones a partir de datos, y unirse a la economía de las API.

Si bien el cloud computing es una solución que llegó para quedarse al ofrecer muchas ventajas para el negocio, el centro de datos no va a desaparecer, al menos así lo consideró Adrián Simg, de Lenovo. “No creo que una empresa vaya a una nube al 100%. Siempre existirá un equilibrio entre el centro de datos y cloud, si bien puede haber más procesamiento o almacenamiento en la nube, pero el centro de datos jamás dejará de existir”, afirmó.

Es por ello que las empresas no deben dejar este importante proceso de actualización de su infraestructura on site de lado, a través de una serie de herramientas, productos y servicios que les ayuden a efientar el data center.

“La optimización de todo lo que tienes en el centro de datos es algo que no va a parar. Pero los ingredientes adicionales que se le ponen al centro de datos para amalgamar este proceso serán la clave”, aseguró Alejandro Lomelín, de HPE.

Uno de los avances más significativos en este aspecto es el almacenamiento, que ha pasado del tradicional gran gabinete lleno de discos duros giratorios que generaban mucho ruido, ocupaban gran espacio y consumían altos niveles de electricidad, al almacenamiento flash que no genera ruido, disminuye en gran medida la generación de calor y consumen mucho menos electricidad. Hoy en día son drives con mucha más capacidad en menos espacios. Además, ayuda a reducir costos operativos, eficientizar la administración generando un centro de datos verde.

Otras de las innovaciones que se han dado en los últimos años a fin de robustecer la infraestructura para el centro de datos tiene que ver con sus sistemas de supresión de incendios, pasando de sistema tradicional de chorros de agua o químicos que suelen ser dañinos para el ambiente y las personas, a sistemas híbridos.

Estos sistemas híbridos combinan nitrógeno (un gas inerte que no acelera el calentamiento global), con micromoléculas de agua para generar una emulsión que no produce humedad residual, permitiendo proteger el centro de datos y áreas críticas, sin interrumpir las actividades del mismo.

Si se comparan los sistemas tradicionales a chorro de agua –que requieren procedimientos más complejos como almacenamiento de agua, bombas, rociadores y otra clase de infraestructura pesada–, los sistemas híbridos sólo necesitan de un almacenamiento reducido de agua y nitrógeno conectado a tuberías de áreas críticas que se están protegiendo. Además, el costo por toda la infraestructura que debe sobrellevar es mucho menor.

“Si se nos cae el sistema, estás dejando de vender, estás perdiendo confiabilidad y clientes. Una vez que pierdes un cliente estás perdiendo negocio, participación de mercado, y otra serie de grandes pérdidas intangibles, pero que a veces tienen más valor que el monetario, incluso estamos hablando de cosas irreemplazables”, puntualizó Eurídice Ibarlucea, de Victaulic.

Esta nueva alternativa es amigable con el medio ambiente, al mismo tiempo que protege los activos que se están resguardando, evitando que se detenga la transmisión de datos, avalando la continuidad del negocio y operaciones.

Para finalizar, Stulz recomendó contar con una plataforma de DCIM (Data Center Infrastructure Management) que permita tener una completa visibilidad y administración de toda la infraestructura física, y no sólo la parte del enfriamiento.

Por su parte, Ricardo Rentería, de AWS, aseveró que todavía veremos la integración entre ambientes site y cloud por algunos años más, “debido a que hay una fuerte inversión en centros de datos locales en México, ya sean propios o por contratos de outsourcing o hosting.

“En lo que las empresas hacen un ciclo completo de proyecto, capacitación, habilitación, definición de estrategias hasta llegar a un cloud natural, veremos una etapa de transición de por lo menos dos años. Tras ese periodo, veremos compañías que ya harán cloud al 100%”, concluyó Rentería.

 

Por Karina Rodríguez y José Luis Becerra

Leer más...

Aplicaciones, Del dia, Desarrollo, Destacado, Industria, Infraestructura, Movilidad, News, Noticias, Seguridad, Tecnología de Apoyo

Llegan nuevas soluciones de seguridad al portafolio de Aruba  

Aruba, compañía de Hewlett Packard Enterprise especializada en ciberseguridad, ha lanzado Aruba 360 Secure Fabric, una solución que pretende, mediante la analítica de comportamiento (puntal en la estrategia de la firma), reducir riesgos ante un panorama de amenazas cambiantes. Asimismo, desde la compañía, afirman, siguen apostando por la expansión de los productos Aruba IntroSpect. 

Una investigación de Gartner indica que las organizaciones no están considerando adecuadamente el riesgo asociado a sus propios usuarios, a pesar de que existen una gran cantidad de casos en los que las empresas han tenido problemas. De manera positiva, Gartner observó casi un aumento del 100% en los clientes que quieren abordar el tema de amenazas internas. 

Los componentes del Aruba 360 Secure Fabric incluyen: 

Solución Aruba IntroSpect UEBA: Se trata de una familia de software avanzado para el monitoreo continuo y detección de ataques. Incluye una versión simplificada y utiliza el aprendizaje automático para detectar cambios en el comportamiento del usuario y del dispositivo que pueden indicar ataques que han evadido las defensas de seguridad tradicionales. Los algoritmos de aprendizaje automático generan una puntuación de riesgo basada en la gravedad de un ataque para acelerar las investigaciones de incidentes ayudando a los equipos de seguridad. 

Aruba ClearPass: Se trata de una solución de control de acceso a la red (NAC) y de gestión de políticas de seguridad que puede reconocer a los usuarios y a los dispositivos BYOD y de IoT, permitiendo una respuesta automatizada frente a ataques; además se integra con Aruba IntroSpect.  ClearPass se puede integrar con redes de cualquier fabricante. 

Aruba Secure Core: Se trata de funcionalidades de seguridad esenciales incorporadas en todos los puntos de acceso Wi-Fi, controladores de movilidad y switches de Aruba, incluyendo el switch de Core/agregación de campus presentado recientemente Aruba 8400 campus. 

Asimismo, las nuevas funciones de Aruba IntroSpect Advanced incluyen: 

Seguridad inteligente con Dynamic Machine Learning, que permite a los equipos de seguridad personalizar los modelos analíticos de IntroSpect basados en el entorno actual de amenazas y prioridades de protección. Además, los más de 100 modelos de aprendizaje automático se pueden combinar entre sí para construir nuevos escenarios de detección y puntuaciones de riesgo asociadas. 

Clasificando Dispositivos Moviles, Cloud e IoT con Device Peer Grouping, que utiliza la funcionalidad de reconocimiento de ClearPass para agrupar dispositivos similares, incluso cuando sólo se conocen por su dirección IP. Por ejemplo, ClearPass puede reconocer una cámara de vigilancia, e IntroSpect compara su comportamiento con del grupo formado por otros dispositivos similares. Introspect detecta el comportamiento inusual del dispositivo, comparándolo con el comportamiento del grupo de dispositivos de esa clase, lo cual es importante para extender la funcionalidad UEBA a los dispositivos IoT. 

Solución con respuesta integrada frente a ataques, que permite a los analistas de seguridad responder a un ataque lanzando una acción en ClearPass directamente desde la consola de IntroSpect. 

Redacción  

 

 

Leer más...