Aplicaciones, Centro de Datos, Cloud Computing, Del dia, Desarrollo, Desarrollo, Destacado, Infraestructura, Network World, Redes, Seguridad, Seguridad, Virtualizacion

Veeam adquiere N2WS para ofrecer disponibilidad para la nube de AWS

 Veeam anunció la adquisición de N2WS, el proveedor especialista en respaldo y recuperación ante desastres nativa de la nube para Amazon Web Services (AWS), en una operación en efectivo valuada en $42.5 millones de dólares.

Leer más...

Centro de Datos, Cloud Computing, Continuidad, Del dia, Desarrollo, Desarrollo, Destacado, Estrategía, Infraestructura, Network World, Noticias, Redes, Seguridad, Soluciones, Virtualizacion

Veeam extiende la disponibilidad a IBM AIX y Oracle Solaris

Veeam anunció la expansión de su portafolio de soluciones de disponibilidad para soportar los ambientes operativos IBM AIX y Oracle Solaris.

Leer más...

Aplicaciones, Cloud Computing, Del dia, Desarrollo, Desarrollo, Industria, Industria, Industria TIC, Infraestructura, Movilidad, Network World, Principal, Redes, Seguridad, Virtualizacion, Wireless y Movilidad

Seis beneficios que le ofrece la emulación y virtualización

La emulación y virtualización se presentan hoy en día como tecnologías disruptivas, capaces de ofrecer a las empresas numerosos beneficios:

1-   Modernización de sus sistemas heredados. Las soluciones de emulación y virtualización pueden ser utilizadas en todo tipo de industrias y la compañía puede seguir operando sus aplicaciones heredadas sin tener que pasar por un proceso de re adiestramiento.

 

2-   Reducción de costos. Esto se da mediante la reducción de hasta un 85% de espacio físico, y hasta un 90% los costos de consumo de energía y disipación de calor.

 

3-   Aumento de productividad. Estos sistemas modernos tienen mejor rendimiento en términos de “performance”.

 

4-   Incorporación de esquemas de alta disponibilidad. Al tener estos esquemas, se otorga la capacidad de responder rápidamente a las necesidades de los clientes.

 

5-   Transformación Digital y Colaboración. Ser parte de la tan mencionada transformación digital que estamos viviendo y  mejor colaboración,  puesto a que estos sistemas heredados que fueron sistemas aislados en el pasado, pasan a ser parte del eco-sistema y la transformación digital de la empresa.

 

6-   Automatización.  Siendo parte del eco-sistema, antiguos procesos manuales pueden ser automatizados.

 

Y por otro lado se presentan como una tecnología beneficiosa para el medio ambiente. Robert Ruiz, Director General de Stromasys para Latam y el Caribe explica, los sistemas legados, aquellos que fueron diseñados durante 1977-2006, no observaban características de fabricación “Green”, puesto a que no era una necesidad en esos momentos. Aquellos son sistemas poco eficientes en términos de consumo energético y disipación de calor, ocupan mucho espacio físico y eran sistemas dedicados a unos procesos específicos”.

Y agregó que actualmente tenemos una mayor conciencia sobre la importancia del cuidado del medio ambiente y eso se ve claramente en la industria tecnológica. “Hoy podemos virtualizar los sistemas legados con sistemas modernos que ocupan una fracción de espacio físico o reemplazarlos por una máquina virtual más dentro del ambiente de IT de las empresas. Estos sistemas modernos son extremadamente eficientes en términos de consumo de energía y disipación de calor, ya que fueron diseñados con la conciencia del cuidado del medio ambiente. Todo esto se traduce en beneficios de costo y operación, y ayuda a las empresas en sus iniciativas verdes o pro-medio-ambiente”.

 

N. de P. Stromasys.

Leer más...

Aplicaciones, Centro de Datos, Cloud Computing, Del dia, Desarrollo, Desarrollo, Industria TIC, Infraestructura, Network World, Principal, Redes, Virtualizacion, Wireless y Movilidad

¿Cómo administrar un Data Center definido por Software?

Data Center definida por Software (SDDC) virtualiza toda la infraestructura de un sistema, es decir, ofrece como servicio la computación, la red y el almacenamiento. El objetivo es hacer a la base de TI más ágil y flexible, ya que se convierte en programable de la misma forma como sucedería con diferentes sistemas individuales. La infraestructura entonces es controlada por software y las cargas de trabajo son redistribuidas entre los sistemas, las cuales son atendidas por los recursos más apropiados de forma automática.

La flexibilidad del SDDC permite que el usuario construya sus propios centros de datos virtuales utilizando los recursos más adecuados para el negocio entre innumerables herramientas ofertadas por diferentes abastecedores y que el equipo esté más acostumbrado con su utilización.

Para el control de toda esa red, los especialistas indican que la gestión debe ser hecha de la misma forma de otras herramientas en ambientes virtuales tradicionales.

Siendo así, el primer paso es establecer un patrón para mantener la integridad del desempeño y evitar los riesgos del nuevo ambiente. Conociendo y dominando este espacio es posible administrar los cambios que suceden en lo local, además de poder trabajar la conexión de las aplicaciones y otros servicios.

Otro punto, es personalizar alertas para que el sistema pueda automáticamente avisar al administrador del Data Center sobre información importante que necesite de intervención. Todas las aplicaciones y sistemas deben estar funcionando en buenas condiciones y con respuestas rápidas a los usuarios. Las Inactividades en componentes de SDDC deben ser normalizadas con agilidad.

La gestión debe contemplar también cuestiones de seguridad. Es necesario aplicar todo el conocimiento adquirido en el trabajo de Data Centers tradicionales y complementar con las funciones de un ambiente virtual.

Si la red es inmune a los ataques, no se debe a que los recursos estén trabajando como sistemas individuales. Por el contrario, cada capa debe ser protegida con especificaciones propias.

Apostar en herramientas de automatización es una ventaja para la gestión de los centros de datos virtualizados, especialmente para que puedan ser aprovechados todos los beneficios de escalabilidad que el nuevo formato propone. Lo ideal es automatizar parte del Data Center y monitorear sus actuaciones.

Después, poco a poco, avanzar en otros recursos para probar la eficiencia de la herramienta y crear confianza para que las acciones sean hechas con menor intervención humana.

El Data Center definido por Software ofrece nuevas posibilidades para los administradores en TI pero los desafía a probar nuevas formas de coordinar los datos de una empresa una vez que la información estará almacenada en ambientes virtuales.

Es posible crear un centro de datos personalizado, pero debe ser llevada en consideración la agilidad y funcionamiento de los sistemas, cuyos elementos necesiten conversar e interactuar.

Como siempre, las cuestiones de seguridad continúan siendo primordiales.

 

N. de P. Comstor

Leer más...

Aplicaciones, Big data, Business Intelligence/Analytics, Cloud Computing, Del dia, Desarrollo, Desarrollo, Destacado, Infraestructura, Network World, Redes, Virtualizacion

Cisco vende el negocio de virtualización de datos

La adquisición dará a Cisco Information Server, una solución que potencia la virtualización de datos a escala empresarial, y los servicios de consultoría y soporte asociados, pasan a formar parte de TIBCO.

El negocio de Data Virtualization de Cisco también fue el resultado de una adquisición en 2013 de Composite Software por aproximadamente 180 millones de dólares. “La virtualización de datos ayuda a nuestros clientes a encontrar y analizar los datos que necesitan en horas o días, en lugar de meses, para que puedan descubrir rápidamente las ideas y tomar una acción basada en la perspicacia”, afirma Mark Palmer, vicepresidente senior de análisis de TIBCO.

La próxima generación de inteligencia de negocios depende de hacer más con el análisis que poner los datos en un gráfico. La virtualización de datos es un componente clave para obtener los datos correctos en el momento adecuado para los analistas de negocio, los científicos de datos y las aplicaciones automatizadas mediante análisis de flujo.

La adquisición fortalecerá la cartera de análisis de TIBCO, permitiendo a las empresas obtener soluciones analíticas en la producción más rápidamente, mientras continúa adaptándose a medida que las fuentes de datos cambian de bases de datos tradicionales y grandes fuentes de datos a cloud y IoT.

 

Samira Sarraf

Leer más...

Amenazas, Cloud Computing, Continuidad, Del dia, Desarrollo, Desarrollo, Destacado, Estrategía, Industria, Industria TIC, Infraestructura, Network World, Redes, Seguridad, Seguridad, Virtualizacion

Cinco beneficios de la emulación y virtualización frente a una catástrofe

Stromasys nos explica las ventajas de la emulación y virtualización frente a desastres naturales, atentados y cualquier otra vulneración que pueda afectar la disponibilidad de la información crítica de una compañía.

A continuación se destacan algunos de los beneficios de haber realizado una virtualización de los sistemas heredados antes de una catástrofe natural, accidente o atentado a una organización:

  1. Rápida recuperación de servicios de IT en producción en la eventualidad de una catástrofe.
  2. Acceso continuo a la información crítica de la compañía mediante la incorporación de esquemas de alta disponibilidad en computación o la nube.
  3. Reducción de costos operativos asociados con el tiempo de búsqueda o la compra de componentes obsoletos para intentar recuperar un sistema heredado.
  4. Reducción de riesgos, en reputación, cumplimiento de normas y regulaciones, y multas. Ya que después de alguna catástrofe no siempre se logra recuperar el sistema heredado de una compañía y eso puede generar numerosos inconvenientes.
  5. Minimiza el impacto a la reputación empresarial, al poder prestar servicios críticos a clientes.

Los sistemas heredados incluyen software heredado y hardware heredado. Software heredado, es software que ha estado en funcionamiento por mucho tiempo en la compañía y que aún satisface una necesidad requerida por la empresa. Tiene una misión crítica y esta sujeto a una versión particular de un sistema operativo o modelo de hardware (sujeto a un proveedor exclusivo) al que ya le ha llegado el fin de su existencia.

“Generalmente la duración de vida del hardware es más corta que la del software. Al pasar los años, el hardware se vuelve más difícil de mantener, pero se conserva porque esta instalado y (por el momento) funcionando y es demasiado complejo y/o costoso remplazarlo”, comentó Robert Ruiz, Director General de Stromasys para Latam y el Caribe.

Los sistemas heredados están en todas partes: bancos, empresas de energía (incluyendo plantas nucleares), producción de todo tipo (control de procesos), industria de la defensa, transporte, hospitales, seguros y más.

“Gracias a la emulación y virtualización las compañías tienen su información crítica más asegurada, disponible y respaldada. Creemos que la emulación y virtualización es una opción muy conveniente para empresas de cualquier tamaño”, concluyó el ejecutivo de Stromasys.

 

N. de P.

Leer más...

Aplicaciones, Cloud Computing, Del dia, Desarrollo, Destacado, Infraestructura, Movilidad, Network World, Noticias, Open Source, Redes, Virtualizacion

Google anuncia facturación por segundo en su servicio de nube

La semana pasada Amazon Web Services anunció que a partir octubre incorporaría la modalidad de facturación por segundo en algunos de sus servicios entre los que se encuentran EC2. Ahora Google ha hecho lo propio al hacer el mismo anuncio en algo que podría ser un esquema adoptable por los competidores de la nube: la facturación por segundos de los servicios, con las ventajas que conlleva para empresas y usuarios.

De este modo, las máquinas virtuales VM, Google Compute Engine, Container Engine, Cloud Dataproc y App Engine contarán con facturación por segundos, aplicable desde hoy mismo.

La medida afecta a las máquinas virtuales que corren con sistemas operativos como Windows Server, Red Hat Enterprise Linux y Suse Enterprise Linux Server. De este modo, Google se convierte en el primer proveedor de servicios Cloud que ofrece facturación por segundos para instancias básicas tanto de Linux y de Windows Server, así como de otras distribuciones Linux. Recordemos que AWS tan solo lo ofrece para la plataforma Linux.

En cualquier caso, Google también puntualiza que algunos de sus servicios que venía ofreciendo, ya contaban con esta modalidad de facturación por segundos. Es el caso de sus soluciones de almacenamiento persistente, uso de GPUs y determinados recursos tecnológicos.

Mientras que Google sostiene que, para la mayoría de los casos de uso, la facturación por segundo sólo dará lugar a cambios de facturación muy pequeños, la compañía también observa que hay un montón de aplicaciones donde poder escalar rápidamente hacia arriba y hacia abajo, como es el caso del hospedaje web, aplicaciones móviles y trabajos asociados al procesamiento de datos.

 

¿Qué ocurre con Azure?

Así, los dos grandes proveedores de servicios Cloud, como son AWS y Google fuerzan a Microsoft a tener que adoptar alguna medida similar en este sentido, con el fin de ofrecer precios competitivos en este mercado en el que las empresas miden con lupa el hecho de poder ahorrar en las tarifas a los servicios desplegados.

Microsoft parece estar centrado en ofrecer tarifas atractivas asociadas al uso de contenedores de Azure, porque es allí donde la facturación por segundos tiene más sentido, afirma un portavoz de la compañía. Esto no impide que en un corto plazo de tiempo podamos ver novedades en torno a su oferta de máquinas virtuales.

 

Alfonso Casas

Leer más...