Etiqueta: HDS

Hitachi agrega OpenStack a su oferta empresarial

OpenStack es una propuesta de cómputo en nube tipo IaaS de código abierto. Su objetivo es proveer soluciones flexibles para nubes públicas y privadas, sin importar su tamaño. Sobre esta tecnología, la consultora IDC ha proyectado un crecimiento para el mercado latinoamericano de Cloud Computing en 66.5% para 2016.

“Hitachi Data Systems va a aprovechar la tecnología de código abierto de OpenStack para crear las mejores propuestas de nube en la industria”, aseguró Alejo López Crozet, Director General de Hitachi Data Systems México y Centroamérica.

Ante este panorama, HDS, junto con su socio tecnológico Brocade, participaron en OpenStack Day México, un foro de negocios  y networking donde usuarios y empresas encontraron la respuesta a necesidades puntuales sobre el uso de esta tecnología y el código abierto.

Brocade se une a la alianza, para ofrecer soluciones integrales de red, facilita los objetivos estratégicos del negocio tales como; la consolidación, la convergencia de redes, vistualización y servicios en la nube. Hoy en día las soluciones de Brocade se utilizan en los centros de datos ocupando el 90% del mercado global.

La firma considera que al agregar OpenStack es un gran atractivo para la computación de nube empresarial, ya que como plataforma de nube privada se mantiene la promesa de desarrollo más ágil, la reducción de la carga de gestión y una mejor utilización de los recursos. Además, dispone de un desarrollo alimentado por miles de personas y cientos de empresas proveedoras de todo el mundo. Por ello, Hitachi Data Systems (HDS) está ayudando a fomentar la adopción empresarial de OpenStack mediante la integración y la innovación con sus propias tecnologías, señaló el directivo de HDS.

Hitachi lleva años en el desarrollo de software e implementación de proyectos en la nube. Con un vasto conocimiento en tecnologías y aplicaciones utilizadas en la empresa, Hitachi puede dirigir y administrar los esfuerzos de desarrollo de soluciones técnicas a gran escala y equipos de consultoría para las soluciones de nube. La remarca a través de un comunicado su ampkia experiencia en diferentes industrias, incluyendo servicios financieros, telecomunicaciones, salud, desarrollo de software y muchas más.

Finalmente, destacó Alejo López, “Hitachi tiene una larga y productiva historia de apoyo a la comunidad de código abierto. Con nuestro hardware y middleware, así como servicios”.

Redacción

Video: ¿Cómo administrar el crecimiento de los datos sin exceder el presupuesto?

En esta conversación con CIO México, Víctor Ávila, Solution Consultant de Hitachi Data Systems (HDS), describe una estrategia básica mediante la cual usted puede contar con la infraestructura adecuada para el futuro, al tiempo que administra y gobierna la información durante todo su ciclo de vida.

Hitachi Data Systems ofrece implementación de Big Data en 5 pasos

Analítica es la palabra clave para el procesamiento del cada vez mayor flujo de datos generados por sensores o en tiempo real, los cuales tendrán que ser almacenados, manejados y rápidamente estudiados, para apoyar operaciones óptimas y la toma de decisiones en todo tipo de empresas.

Las organizaciones que integren con éxito el análisis del Big Data en sus operaciones, apoyados por una infraestructura de TI avanzada, tienen el potencial para obtener una ventaja competitiva significativa. La cual se deriva del análisis de predicción en lugar de proporcionar un punto de vista histórico. De hecho, el análisis del Big Data impulsa la evolución de la analítica descriptiva o históricos (lo que pasó y por qué?) Para la analítica predictiva y prescriptivos (lo que sucederá y cuál es el mejor curso de la acción?).

En Hitachi Data Systems, a través de nuestros Big Data Consulting Services, definimos una arquitectura analítica de referencia, estudiando las herramientas e infraestructura tecnológica con la que se cuenta para identificar y superar los desafíos dentro de su organización. A través de nuestros Big Data Consulting Services, los ejecutivos de HDS utilizan un enfoque de Implementación en 5 pasos para crear y poner en práctica una solución de Big Data, que se adapta a cada caso específico y genera beneficios tangibles inmediatos.

Lo cual ayuda a las empresas a experimentar, probar y conocer sus proyectos analíticos con casos de uso probados, agilizando la exitosa implementación de soluciones analíticas para Big Data dentro de sus operaciones comerciales.

 

Cinco pasos de HDS para obtener resultados

En nuestros servicios, llevamos a cabo una serie definida de actividades que han demostrado generar resultados reales a partir de seis semanas. Estas 5 actividades clave son:

1. Definir resultados mensurables para casos de uso sobre preferencias de navegación de los usuarios (clickstream analytics), registro en dispositivos o equipos (equipment or device log analytics) y social sentiment analysis.

2. Definir fuentes relevantes según el tipo de datos: máquina a máquina, datos en memoria, streaming en tiempo real, data warehouse y datos legacy (SGBDR) y datos de navegación (clickstream)

3. Definir herramienta preferida para visualización de datos.

4. Desarrollar informes y tableros de control para cada caso de uso.

– Implementar e integrar el prototipo de plataforma Hitachi para el análisis del Big Data.

– Ejecutar la gestión del proyecto y caso de uso.

5. Presentar modelo financiero de la solución para Big Data y revisión del caso de uso. Obtener acuerdo y aprobación de la gerencia de los resultados y entregables del caso.

Con el enfoque “Implementación en 5”, Hitachi Data Systems resuelve las cuestiones relacionadas con cómo y dónde comenzar el análisis. Además ofrece a su empresa una manera rápida y sencilla de probar herramientas de análisis de Big Data y obtener resultados específicos de su negocio. Mediante este enfoque de tipo Prueba de Concepto (POC, por sus siglas en ingles), brindamos el hardware, software y servicios profesionales necesarios para ponerse en marcha rápidamente.

Además, nuestro equipo de “Implementación en 5” incluye un administrador de proyecto, arquitecto de soluciones, analista funcional y arquitecto técnico.

Por Enrique Erazo, Senior Bussiness & IT Consultant Hitachi Data Systems

Hitachi presenta su nuevo portafolio Flash

Como resultado de la digitalización de los negocios y la demanda de acceso inmediato a la información, los departamentos de tecnología se ven obligados a centrarse en la modernización de las infraestructuras básicas de TI. Como resultado, las empresas, sin importar si son grandes o pequeñas, están adoptando cada vez más las tecnologías basadas en flash para crear entornos de TI más rápidos y con un mayor grado de respuesta.

A medida que emprenden su viaje hacia una infraestructura all-flash, muchas compañías se esfuerzan por entender cómo adoptarla sin ocupar mucho de su presupuestos de TI. Con el propósito de ayudar a los clientes a superar estos retos, Hitachi Data Systems (HDS) anunció la primera serie de soluciones de su cartera flash ampliada, la cual ofrece un mejor desempeño, automatización y resistencia, en comparación con el  modelo tradicional basada en disco.

La cartera flash de Hitachi incluye una nueva gama ampliada de matrices all-flash y flash híbridas, software de optimización del desempeño y capacidades analíticas de datos, entre las cuales se encuentran: la nueva serie F de la plataforma all-flash de almacenamiento virtual de Hitachi (VSP, por sus siglas en inglés), modelos mejorados de las ofertas de la serie G de VSP de Hitachi, módulos flash de Hitachi de nueva generación con compresión de datos alineados (FMD DC2) y director de automatización Hitachi mejorado y herramientas analíticas de centro de datos, a fin de obtener mejores tiempos de respuesta y mayor capacidad efectiva.

 

Serie F de la plataforma de almacenamiento virtual de Hitachi

Las nuevas adiciones a la familia VSP líder de la industria,m–el VSP F400, F600 y F800– reúnen el almacenamiento all-flash y la simplicidad del software de automatización incorporado con la comprobada resistencia y desempeño de la tecnología VSP de Hitachi. La serie F de VSP ofrece 1,4M IPOS para satisfacer los requisitos más exigentes relativos a aplicaciones y potencia nuevos FMD DC2 (módulos flash), para proporcionar compresión alineada, sin penalizaciones, ofreciendo aumentar la capacidad efectiva que mantiene la latencia < 1ms, incluso en una escala máxima.

La serie F de VSP es la matriz all-flash más resistente de la industria y ofrece la única garantía con 100% de disponibilidad de datos. La serie F incluye una gestión de replicación de fácil manejo, con replicación opcional síncrona y asíncrona disponible para proteger los datos. La capacidad de almacenamiento efectivo de la serie F va de 12,8TB a 448TB, y proporciona a los clientes una solución all-flash que funciona con otros productos de infraestructura Hitachi a través de un software de gestión común y herramientas de automatización enriquecidas no disponibles con productos de nicho.

La serie G de VSP de Hitachi también se ha mejorado mediante el potenciamiento del FMD DC2, ofreciendo unos mejores tiempos de respuesta, capacidad efectiva y retorno a la inversión.

 

Unidad del modulo flash de segunda generación con compresión de datos (FMD DC2)

Potenciando las nuevas unidades de FMC DC2, que son la base de la serie F de VSP, la serie G de VSP mejorada ofrece mejores tiempos de respuesta, capacidad flash y un pronto retorno a la inversión. El diseño patentado de FMD DC2 de Hitachi potencia una arquitectura de alta velocidad paralelizada que entrega hasta cinco veces más IOPS de escritura y hasta tres veces más IOPS de lectura que las unidades de estado sólido estándares (SSD). También incluye sólida tecnología multicolas, la cual permite la priorización de E/S sobre operaciones en segundo plano para obtener una latencia baja mejor, aun en situaciones de alta carga.

El FMD DC2 ahora está disponible en capacidades de hasta 6,4TB y viene con compresión alineada, sin penalizaciones.

 

Software mejorado del director de automatización Hitachi

Mediante plantillas de servicio predefinidas y flujos de trabajo de gestión automatizado, el director de automatización de Hitachi les ofrece a los usuarios finales aprovisionamiento autogestionado de almacenamiento flash para acelerar, simplificar y optimizar la implementación de nuevas aplicaciones y recursos más rápidos.

 

Nuevo análisis de centro de datos Hitachi

Para reducir los costos, la complejidad y aumentar la velocidad de la implementación de la aplicación, el análisis de centro de datos Hitachi es el software analítico más eficiente y escalable de la industria. Les brinda a los clientes las herramientas para que puedan posicionar estratégicamente sus inversiones en flash en varios entornos de hardware de múltiples proveedores, con monitoreo de desempeño granular y análisis a escala. El análisis de centro de datos Hitachi monitorea el almacenamiento de Hitachi y de terceros para identificar y resolver problemas de desempeño del ecosistema y permitir una planificación de la capacidad más efectiva.

 

-Comunicado de Prensa.

Hitachi impulsa la creación de Ciudades Inteligentes 

A lo largo de este 2015, Hitachi Data Systems (HDS) adquirió importantes empresas; Pentaho y Oxya, que se sumaron a sus esfuerzos por ampliar la adopción tecnologías y soluciones que lleven a un mayor número de Ciudades Inteligentes, tales como la estrategia que la compañía denominó Innovación Social e Internet de las Cosas que importan.

Se trata de un proyecto en el que la compañía ha estado trabajando por más de cinco años, y donde ya ha logrado colocar sus soluciones y estrategia de Innovación Social en varias ciudades del mundo, tales como Copenhague en Dinamarca. Según datos proporcionados por Hitachi, se estima que para 2025 habrá al menos 26 Smart Cities en el mundo.

Innovación Social tiene como lema el utilizar la tecnología como canal para planificar y ejecutar proyectos de negocio que ayuden a mejorar no sólo su empresa, sino el mundo del cliente y, por supuesto, los servicios, obteniendo un entorno más eficiente, desde aspectos de salud, hasta de seguridad y transportación, impulsando la cuidad inteligente que mejore la calidad de vida del usuario.

HDS ayuda en estos procesos con infraestructura y soluciones que impulsen estos objetivos; software, equipos, servicios y soluciones definidas por software que se adecuen a la visión de las organizaciones y simplifiquen la administración de la TI, con estrategias focalizadas a través de pláticas uno a uno. La compañía es amigable con la infraestructura disponible de la empresa, adquiriendo sólo lo necesario, significando un ahorro en costos.

Hitachi cuenta hoy en día no sólo con soluciones de almacenamiento, sino de gestión y análisis de grandes volúmenes de datos, obtenidos desde el concepto de Internet de las Cosas y bajo el esquema de Big Data y Analítica.

 

Soluciones de Hitachi para Innovación Social y Smart Cities

La cartera de soluciones de Innovación Social de HDS está enfocada a cubrir diferentes problemáticas de la sociedad, contribuyendo a una infraestructura más solida y duradera que impulsen a la Ciudad Inteligente, tanto en el sector público como privado.

Hitachi Live Insight for IT Operations. Se trata de una solución de análisis de la información M2M, ayudando a optimizar el desempeño y garantizando la disponibilidad de infraestructura de TI. HDS asegura que esta solución también ofrece inteligencia operacional con un menor costo total de propiedad.  Permite analizar todos los datos proveniente de “cosas” y sensores.

Hitachi Live Insight Center of Excellence: Creado para ofrecer servicios y asesoría, permitiendo a las empresas a probar, adaptar e implementar las soluciones, aplicaciones y plataformas para el análisis de datos, de una manera ágil y segura, através de un único punto de coordinación para múltiples recursos, tanto de la marca como de soluciones de terceros.

Hitachi Clinical Repository (HCR) for Connected Health:  Como su nombre lo indica, esta solución está enfocada al sector salud, ofreciendo un análisis de caso, con herramientas y métodos que les permita a los profesionales de salud a la mejor tomar decisiones, así como a diagnósticos más precisos y veloces, de gran valor para este sector.

 

 

-Karina Rodríguez, Computerworld México.

Diez tendencias de TI y almacenamiento de datos en 2014, según Hitachi

Hitachi Hu Yoshida buena
Hu Yoshida, vicepresidente y Chief Technology Officer de Hitachi Data Systems

Este año habrá un énfasis por adoptar el modelo de nube privada y se producirá un cambio de enfoque en las inversiones de TI, las cuales se basarán más en los resultados del negocio que en la infraestructura.

Así lo señaló Hu Yoshida, vicepresidente y Chief Technology Officer de Hitachi Data Systems (HDS), en su reciente visita a México, en la cual expuso las diez principales tendencias de tecnologías de la información y almacenamiento de datos que vislumbra su compañía para este año.

El encargado de definir la dirección de tecnología de HDS dijo que estas tendencias son temas en las cuales su compañía “ha invertido gran cantidad de recursos, tiempo y análisis”, y son las siguientes:

1: La actualización de tecnología se centrará en los resultados del negocio.Los presupuestos de las TI en 2014 tienen un progreso moderado, por lo que Yoshida pronosticó un mayor énfasis en los objetivos empresariales. El directivo de HDS citó una encuesta reciente de Computerworld, realizada en Estados Unidos, la cual enlista las 5 prioridades empresariales principales de las TI: contener costos (65% de las respuestas obtenidas), optimizar y automatizar los procesos del negocio (55%), optimizar las inversiones existentes (48%), acelerar el proceso y agilidad del negocio (45%), y mejorar la colaboración con el negocio (34%).

2: Soluciones convergentes para aplicaciones exclusivas. La segunda tendencia consiste en avanzar hacia soluciones convergentes para implementar nuevas aplicaciones de forma más rápida.

La tecnología se ha vuelto tan compleja y especializada que se han asignado especialistas para la administración de almacenamiento, servidores, redes, hipervisores, intercambio y base de datos. Todos estos administradores configuran su parte de la infraestructura o aplicación y coordinan sus acciones con avisos de cambios, a medida que atraviesan los diferentes ciclos de prueba y validación antes de que la aplicación pueda ser desplegada.

En 2012, IDC estimó que este proceso consumió el 23.3 % del tiempo operativo y recursos de una organización de TI. De acuerdo con Yoshida, para solucionar estos problemas existen las soluciones convergentes, las cuales son preprobadas y validadas para aplicaciones exclusivas por proveedores especialistas experimentados.

3: Mayor adopción de la nube privada. El uso de la nube pública para aplicaciones primarias del negocio aún se considera de alto riesgo en cuestiones como seguridad, privacidad, calidad de servicio, cortes de suministro eléctrico y alto costo cuando se procesan aplicaciones.

Aunque los costos de infraestructura pueden ser muy bajos para el almacenamiento inicial, estos pueden escalar muy rápidamente debido a los costos derivados de acceder frecuentemente a estos datos externos.

Por ello la adopción de la nube privada se favorece, la cual brinda mayor agilidad y control por parte de la empresa.

4: La proliferación de los datos impulsa las capacidades de archivos en petabytes. La explosión de datos no estructurados manejados en la red impulsa la Tendencia 4. Ésta requerirá sistemas de archivos de red para escalar a petabytes, conducir IOPS (operaciones de entrada/salida por segundo) más altas e incrementar la eficiencia a través de la deduplicación y sistemas dinámicos en capas.

Según el directivo de HDS, en 2014 se incrementará la conversión de nuevas tecnologías de almacenamiento NAS (Network Attached Storage), que soporten la escalabilidad del Big Data y los requerimientos de servidores virtuales con mayor capacidad, menor costo, mayor desempeño y eficiencia.

5: Soluciones para sincronizar y compartir datos a través de dispositivos móviles. Las encuestas sobre la industria muestran que el 28% de los datos corporativos residen exclusivamente en laptops y dispositivos móviles. Estos datos son las “TI en la oscuridad” que residen fuera del control y supervisión de las TI corporativas.

Aunque estos datos pueden usarse para fines empresariales, no siempre están protegidos o asegurados. “Traiga tu propio dispositivo” (BYOD) está irrumpiendo, e informes de Cisco y otros proveedores de redes indican que más de la mitad de las empresas encuestadas permiten a sus empleados el uso de dispositivos propios en el lugar de trabajo.

Con más dispositivos BYOD –como smartphones y tablets en el lugar de trabajo–, los usuarios y los administradores de TI requieren contar con una sincronización e intercambio de archivos seguros. De esta manera, los usuarios pueden moverse desde sus escritorios a sus smartphones y tabletas para ser más productivos y colaborar con sus colegas, donde sea que estén.

6: El almacenamiento de objetos iluminará los datos oscuros. Yoshida afirmó que este año se producirá una mayor conciencia  sobre los “datos oscuros” y su potencial valor para las empresas.

Al respecto, dijo que Gartner define los “datos oscuros” como los activos de información que las organizaciones recogen, procesan y almacenan durante las actividades normales empresariales, pero que generalmente no logran usar para otros propósitos (por ejemplo: análisis, relaciones empresariales y monetización directa). De hecho, gran parte del enfoque del Big Data recae en el acceso a “datos oscuros”, señaló el directivo.

7: Reducción del respaldo a través del archivado, copias e imágenes. “Una de las tendencias que identifiqué el año pasado fue la explosión de replicación de datos, la cual fue mencionada en un estudio de IDC, en el cual se afirmaba que la creación y administración de múltiples copias excedían el costo de almacenamiento primario en muchos ambientes”, explicó Yoshida. “IDC ha publicado un reloj que monitorea el costo global de las copias de datos desde enero de 2013. A la fecha que escribí esta publicación, el reloj registraba más de 44,128,957,900. De ahí que las TI deben enfocarse en la reducción de copias a través de herramientas como los archivos activos”, aseveró.

8: Multiplicación acelerada de Discos Enterprise Flash. Según el directivo, algunos proveedores de almacenamiento corporativos han comenzado a seguir los pasos de HDS con módulos flash de mayor capacidad y la eliminación de “write cliff”.  La tecnología Flash ha alcanzado el pico de expectativas con SSD (Discos de Estado Sólido). “Conforme los usuarios corporativos ganen experiencia con la tecnología flash, veremos más enfoque en los módulos flash que son diseñados para almacenamiento corporativo y una verdadera explosión de Enterprise Flash”, dijo.

9: El cifrado de datos en reposo se vuelve esencial. El vicepresidente de Hitachi recordó que hace poco tuvo una plática con un cliente quien le comentó que tenía un programa de arrendamiento donde continuamente actualizaba su almacenamiento cada tres años. “Cuando le pregunté qué hacía para asegurarse que sus datos fueran eliminados cuando se hacía la actualización, me lanzó una mirada perpleja. O él no estaba consciente de lo que se estaba haciendo o confiaba en su proveedor para ver que ninguno de los datos de su empresa se quedaban almacenados al final del contrato de arrendamiento”.

Para ello, dijo, la encriptación fuerte de datos con claves generadas aleatoriamente no sólo garantiza que sus datos están protegidos en reposo, sino que también garantiza que los datos están protegidos después de que se retiran los medios. En su opinión, “la encriptación de datos en reposo debería ser esencial para los proveedores de almacenamiento”.

10: Virtualización y automatización transformarán las operaciones de TI.  Por las tendencias aquí descritas, no es de sorprender que las habilidades, roles y responsabilidades del staff de operaciones de TI necesiten cambiar. De hecho, según Yoshida, la virtualización y automatización a través de soluciones convergentes y nube privada eliminarán muchas de las tareas relacionadas con la infraestructura, como el monitoreo, el control de cambios y reportes. Menos gente será necesaria para administrar la infraestructura y aquellos que permanezcan en las operaciones de infraestructura sólo requerirán habilidades de nivel principiante, lo que significará un salario menor.

Sin embargo, advirtió, “esto no significa que se requerirán menos profesionales de TI. Significa que el enfoque de los profesionales de TI deberá recaer menos en infraestructura y más en el valor de las aplicaciones y el negocio. Encuestas recientes muestran que la demanda de profesionales de TI es todavía muy saludable pero las habilidades necesarias están cambiando rápidamente”.

Puso el ejemplo de los arquitectos de nubes quienes tienen gran demanda en el mercado laboral. “Ellos requieren amplia experiencia, habilidades multifuncionales y, en consecuencia, mayor remuneración”. Otras habilidades solicitadas se relacionan con la seguridad, integración de aplicaciones, almacenamiento basado en objetos y herramientas de análisis de datos.

Agregó que, a pesar de que hay mucha propaganda sobre la necesidad de científicos de datos, la realidad demuestra que los analistas de datos con experiencia en bases de datos, conocimiento sobre almacenamiento basado en objetos y herramientas para la recolección, limpieza y perfilado de datos serán más útiles en este momento.

Para concluir, Yoshida dijo que migración de almacenamiento es una tarea pesada que requiere planeación y ejecución cuidadosas, pero no es una tarea diaria. “Las actualizaciones de la  tecnología necesitan conocimientos especializados y quizás requieren una curva de aprendizaje con el fin de maximizar los beneficios de estas tecnologías”. Por ello, en vez de contratar personal para cada nueva migración, será más eficiente y menos costoso tercerizar la migración a un proveedor que conozca la tecnología y sea experto en migraciones, afirmó el directivo.