Centro de Datos, Cloud Computing, Continuidad, Del dia, Desarrollo, Desarrollo, Destacado, Estrategía, Infraestructura, Network World, Noticias, Redes, Seguridad, Soluciones, Virtualizacion

Veeam extiende la disponibilidad a IBM AIX y Oracle Solaris

Veeam anunció la expansión de su portafolio de soluciones de disponibilidad para soportar los ambientes operativos IBM AIX y Oracle Solaris.

Leer más...

Aplicaciones, Cloud Computing, Del dia, Desarrollo, Desarrollo, Industria, Industria, Industria TIC, Infraestructura, Movilidad, Network World, Principal, Redes, Seguridad, Virtualizacion, Wireless y Movilidad

Seis beneficios que le ofrece la emulación y virtualización

La emulación y virtualización se presentan hoy en día como tecnologías disruptivas, capaces de ofrecer a las empresas numerosos beneficios:

1-   Modernización de sus sistemas heredados. Las soluciones de emulación y virtualización pueden ser utilizadas en todo tipo de industrias y la compañía puede seguir operando sus aplicaciones heredadas sin tener que pasar por un proceso de re adiestramiento.

 

2-   Reducción de costos. Esto se da mediante la reducción de hasta un 85% de espacio físico, y hasta un 90% los costos de consumo de energía y disipación de calor.

 

3-   Aumento de productividad. Estos sistemas modernos tienen mejor rendimiento en términos de “performance”.

 

4-   Incorporación de esquemas de alta disponibilidad. Al tener estos esquemas, se otorga la capacidad de responder rápidamente a las necesidades de los clientes.

 

5-   Transformación Digital y Colaboración. Ser parte de la tan mencionada transformación digital que estamos viviendo y  mejor colaboración,  puesto a que estos sistemas heredados que fueron sistemas aislados en el pasado, pasan a ser parte del eco-sistema y la transformación digital de la empresa.

 

6-   Automatización.  Siendo parte del eco-sistema, antiguos procesos manuales pueden ser automatizados.

 

Y por otro lado se presentan como una tecnología beneficiosa para el medio ambiente. Robert Ruiz, Director General de Stromasys para Latam y el Caribe explica, los sistemas legados, aquellos que fueron diseñados durante 1977-2006, no observaban características de fabricación “Green”, puesto a que no era una necesidad en esos momentos. Aquellos son sistemas poco eficientes en términos de consumo energético y disipación de calor, ocupan mucho espacio físico y eran sistemas dedicados a unos procesos específicos”.

Y agregó que actualmente tenemos una mayor conciencia sobre la importancia del cuidado del medio ambiente y eso se ve claramente en la industria tecnológica. “Hoy podemos virtualizar los sistemas legados con sistemas modernos que ocupan una fracción de espacio físico o reemplazarlos por una máquina virtual más dentro del ambiente de IT de las empresas. Estos sistemas modernos son extremadamente eficientes en términos de consumo de energía y disipación de calor, ya que fueron diseñados con la conciencia del cuidado del medio ambiente. Todo esto se traduce en beneficios de costo y operación, y ayuda a las empresas en sus iniciativas verdes o pro-medio-ambiente”.

 

N. de P. Stromasys.

Leer más...

Aplicaciones, Centro de Datos, Cloud Computing, Del dia, Desarrollo, Desarrollo, Industria TIC, Infraestructura, Network World, Principal, Redes, Virtualizacion, Wireless y Movilidad

¿Cómo administrar un Data Center definido por Software?

Data Center definida por Software (SDDC) virtualiza toda la infraestructura de un sistema, es decir, ofrece como servicio la computación, la red y el almacenamiento. El objetivo es hacer a la base de TI más ágil y flexible, ya que se convierte en programable de la misma forma como sucedería con diferentes sistemas individuales. La infraestructura entonces es controlada por software y las cargas de trabajo son redistribuidas entre los sistemas, las cuales son atendidas por los recursos más apropiados de forma automática.

La flexibilidad del SDDC permite que el usuario construya sus propios centros de datos virtuales utilizando los recursos más adecuados para el negocio entre innumerables herramientas ofertadas por diferentes abastecedores y que el equipo esté más acostumbrado con su utilización.

Para el control de toda esa red, los especialistas indican que la gestión debe ser hecha de la misma forma de otras herramientas en ambientes virtuales tradicionales.

Siendo así, el primer paso es establecer un patrón para mantener la integridad del desempeño y evitar los riesgos del nuevo ambiente. Conociendo y dominando este espacio es posible administrar los cambios que suceden en lo local, además de poder trabajar la conexión de las aplicaciones y otros servicios.

Otro punto, es personalizar alertas para que el sistema pueda automáticamente avisar al administrador del Data Center sobre información importante que necesite de intervención. Todas las aplicaciones y sistemas deben estar funcionando en buenas condiciones y con respuestas rápidas a los usuarios. Las Inactividades en componentes de SDDC deben ser normalizadas con agilidad.

La gestión debe contemplar también cuestiones de seguridad. Es necesario aplicar todo el conocimiento adquirido en el trabajo de Data Centers tradicionales y complementar con las funciones de un ambiente virtual.

Si la red es inmune a los ataques, no se debe a que los recursos estén trabajando como sistemas individuales. Por el contrario, cada capa debe ser protegida con especificaciones propias.

Apostar en herramientas de automatización es una ventaja para la gestión de los centros de datos virtualizados, especialmente para que puedan ser aprovechados todos los beneficios de escalabilidad que el nuevo formato propone. Lo ideal es automatizar parte del Data Center y monitorear sus actuaciones.

Después, poco a poco, avanzar en otros recursos para probar la eficiencia de la herramienta y crear confianza para que las acciones sean hechas con menor intervención humana.

El Data Center definido por Software ofrece nuevas posibilidades para los administradores en TI pero los desafía a probar nuevas formas de coordinar los datos de una empresa una vez que la información estará almacenada en ambientes virtuales.

Es posible crear un centro de datos personalizado, pero debe ser llevada en consideración la agilidad y funcionamiento de los sistemas, cuyos elementos necesiten conversar e interactuar.

Como siempre, las cuestiones de seguridad continúan siendo primordiales.

 

N. de P. Comstor

Leer más...

Aplicaciones, Big data, Business Intelligence/Analytics, Cloud Computing, Del dia, Desarrollo, Desarrollo, Destacado, Infraestructura, Network World, Redes, Virtualizacion

Cisco vende el negocio de virtualización de datos

La adquisición dará a Cisco Information Server, una solución que potencia la virtualización de datos a escala empresarial, y los servicios de consultoría y soporte asociados, pasan a formar parte de TIBCO.

El negocio de Data Virtualization de Cisco también fue el resultado de una adquisición en 2013 de Composite Software por aproximadamente 180 millones de dólares. “La virtualización de datos ayuda a nuestros clientes a encontrar y analizar los datos que necesitan en horas o días, en lugar de meses, para que puedan descubrir rápidamente las ideas y tomar una acción basada en la perspicacia”, afirma Mark Palmer, vicepresidente senior de análisis de TIBCO.

La próxima generación de inteligencia de negocios depende de hacer más con el análisis que poner los datos en un gráfico. La virtualización de datos es un componente clave para obtener los datos correctos en el momento adecuado para los analistas de negocio, los científicos de datos y las aplicaciones automatizadas mediante análisis de flujo.

La adquisición fortalecerá la cartera de análisis de TIBCO, permitiendo a las empresas obtener soluciones analíticas en la producción más rápidamente, mientras continúa adaptándose a medida que las fuentes de datos cambian de bases de datos tradicionales y grandes fuentes de datos a cloud y IoT.

 

Samira Sarraf

Leer más...

Amenazas, Cloud Computing, Continuidad, Del dia, Desarrollo, Desarrollo, Destacado, Estrategía, Industria, Industria TIC, Infraestructura, Network World, Redes, Seguridad, Seguridad, Virtualizacion

Cinco beneficios de la emulación y virtualización frente a una catástrofe

Stromasys nos explica las ventajas de la emulación y virtualización frente a desastres naturales, atentados y cualquier otra vulneración que pueda afectar la disponibilidad de la información crítica de una compañía.

A continuación se destacan algunos de los beneficios de haber realizado una virtualización de los sistemas heredados antes de una catástrofe natural, accidente o atentado a una organización:

  1. Rápida recuperación de servicios de IT en producción en la eventualidad de una catástrofe.
  2. Acceso continuo a la información crítica de la compañía mediante la incorporación de esquemas de alta disponibilidad en computación o la nube.
  3. Reducción de costos operativos asociados con el tiempo de búsqueda o la compra de componentes obsoletos para intentar recuperar un sistema heredado.
  4. Reducción de riesgos, en reputación, cumplimiento de normas y regulaciones, y multas. Ya que después de alguna catástrofe no siempre se logra recuperar el sistema heredado de una compañía y eso puede generar numerosos inconvenientes.
  5. Minimiza el impacto a la reputación empresarial, al poder prestar servicios críticos a clientes.

Los sistemas heredados incluyen software heredado y hardware heredado. Software heredado, es software que ha estado en funcionamiento por mucho tiempo en la compañía y que aún satisface una necesidad requerida por la empresa. Tiene una misión crítica y esta sujeto a una versión particular de un sistema operativo o modelo de hardware (sujeto a un proveedor exclusivo) al que ya le ha llegado el fin de su existencia.

“Generalmente la duración de vida del hardware es más corta que la del software. Al pasar los años, el hardware se vuelve más difícil de mantener, pero se conserva porque esta instalado y (por el momento) funcionando y es demasiado complejo y/o costoso remplazarlo”, comentó Robert Ruiz, Director General de Stromasys para Latam y el Caribe.

Los sistemas heredados están en todas partes: bancos, empresas de energía (incluyendo plantas nucleares), producción de todo tipo (control de procesos), industria de la defensa, transporte, hospitales, seguros y más.

“Gracias a la emulación y virtualización las compañías tienen su información crítica más asegurada, disponible y respaldada. Creemos que la emulación y virtualización es una opción muy conveniente para empresas de cualquier tamaño”, concluyó el ejecutivo de Stromasys.

 

N. de P.

Leer más...

Aplicaciones, Cloud Computing, Del dia, Desarrollo, Destacado, Infraestructura, Movilidad, Network World, Noticias, Open Source, Redes, Virtualizacion

Google anuncia facturación por segundo en su servicio de nube

La semana pasada Amazon Web Services anunció que a partir octubre incorporaría la modalidad de facturación por segundo en algunos de sus servicios entre los que se encuentran EC2. Ahora Google ha hecho lo propio al hacer el mismo anuncio en algo que podría ser un esquema adoptable por los competidores de la nube: la facturación por segundos de los servicios, con las ventajas que conlleva para empresas y usuarios.

De este modo, las máquinas virtuales VM, Google Compute Engine, Container Engine, Cloud Dataproc y App Engine contarán con facturación por segundos, aplicable desde hoy mismo.

La medida afecta a las máquinas virtuales que corren con sistemas operativos como Windows Server, Red Hat Enterprise Linux y Suse Enterprise Linux Server. De este modo, Google se convierte en el primer proveedor de servicios Cloud que ofrece facturación por segundos para instancias básicas tanto de Linux y de Windows Server, así como de otras distribuciones Linux. Recordemos que AWS tan solo lo ofrece para la plataforma Linux.

En cualquier caso, Google también puntualiza que algunos de sus servicios que venía ofreciendo, ya contaban con esta modalidad de facturación por segundos. Es el caso de sus soluciones de almacenamiento persistente, uso de GPUs y determinados recursos tecnológicos.

Mientras que Google sostiene que, para la mayoría de los casos de uso, la facturación por segundo sólo dará lugar a cambios de facturación muy pequeños, la compañía también observa que hay un montón de aplicaciones donde poder escalar rápidamente hacia arriba y hacia abajo, como es el caso del hospedaje web, aplicaciones móviles y trabajos asociados al procesamiento de datos.

 

¿Qué ocurre con Azure?

Así, los dos grandes proveedores de servicios Cloud, como son AWS y Google fuerzan a Microsoft a tener que adoptar alguna medida similar en este sentido, con el fin de ofrecer precios competitivos en este mercado en el que las empresas miden con lupa el hecho de poder ahorrar en las tarifas a los servicios desplegados.

Microsoft parece estar centrado en ofrecer tarifas atractivas asociadas al uso de contenedores de Azure, porque es allí donde la facturación por segundos tiene más sentido, afirma un portavoz de la compañía. Esto no impide que en un corto plazo de tiempo podamos ver novedades en torno a su oferta de máquinas virtuales.

 

Alfonso Casas

Leer más...

Aplicaciones, Centro de Datos, Del dia, Desarrollo, Desarrollo, Destacado, Industria TIC, Movilidad, Network World, Redes, Virtualizacion, Wireless y Movilidad

Panorama actual y futuro del SDN

El analista de Forrester, Andre Kindness, dice que muchos clientes le preguntan cómo deberían pensar en la creación de redes definidas por software (SDN, por sus siglas en inglés), la cual ha sido anunciada durante años como el siguiente gran acontecimiento de la industria.

SDN es un enfoque de arquitectura, no un producto específico – se ha pensado tradicionalmente como la virtualización de redes de centros de datos. Esto significa separar la gestión del plano de control de los dispositivos de red del plano de datos subyacente que reenvía el tráfico de red. El uso de un sistema definido por software para controlar esta desagregación aporta muchos beneficios, incluyendo una mayor flexibilidad de administración de red y poder implementar más fácilmente políticas de seguridad de gran precisión.

Pero Kindness dice a menudo que los operadores de red piensan en SDN con un enfoque demasiado estrecho. Ha habido una evolución en el mercado SDN en los últimos años, impulsada por el aumento de las demandas en la red. Para satisfacer estos nuevos retos, la tecnología subyacente que impulsa a SDN se ha aplicado a otras áreas de redes.

 

Panorama del SDN actual

SDN surgió a principios de 2010 por necesidad, según los analistas de redes de IDC Rohit Mehra y Brad Casemore. Muchas redes de hoy fueron diseñadas para aplicaciones cliente-servidor que se ejecutan en una infraestructura no virtualizada.

La compra de Nicira por parte de VMware en 2013 fue considerada como un momento crucial en la industria de SDN y lanzó al gigante de la virtualización para convertirse en un proveedor de redes. Hoy, el producto NSX SDN de VMware se basa en esa tecnología. Cisco Application Centric Infrastructure es la base de su oferta SDN. Muchas otras compañías, tales como Juniper y Arista tienen sus propias ofertas de SDN también.

IDC estima que el mercado SDN ha crecido de una industria de 406 millones de dólares en 2013 a más de un mercado de 6.600 millones de dólares en 2017. IDC prevé que el mercado de SDN continuará creciendo a una tasa de crecimiento anual compuesto de 25,4% a 13.800 millones de dólares en 2021. IDC estima que SDN está emergiendo de la primera adopción y en la etapa de desarrollo principal temprana.

Una encuesta realizada en 2017 por Network World de 294 profesionales de redes encontró que el 49% están considerando o están pilotando activamente una implementación de SDN; El 18% ya tiene un SDN instalado. IDC ha identificado un puñado de casos de uso principales para SDN hoy.

  • Maximizar las inversiones en virtualización de servidores y cloud privado.
  • Habilitación de la programación de la red.
  • Seguridad

 

Futuros casos de uso de SDN

Mientras que hasta ahora muchos despliegues SDN se han centrado en la red de centros de datos Kindness, el analista de Forrester, dice que el futuro de SDN se definirá por cómo esta tecnología se utiliza fuera del centro de datos. Una variedad de factores que seguirán presionando a los operadores de red, incluyendo el uso creciente de la computación en nube pública; el ataque del tráfico de red creado por Internet de las Cosas; la proliferación de una fuerza de trabajo móvil y un número cada vez mayor de sucursales distribuidas. SDN desempeñará un papel en la configuración de la próxima generación de redes para cada uno de estos casos de uso. Ya hay evidencia de esto en el uso real: SD-WAN – Wide-Wide Networking (SD-WAN) es el uso de una plataforma de gestión de software para controlar el acceso a las oficinas remotas o sucursales de una organización. Normalmente, en el pasado, los clientes tendrían una sola conexión a sus sucursales, pero SD-WAN permite a las compañías agregar varios tipos de conexiones de red a una sucursal y tener una plataforma de administración de software que permite una alta disponibilidad y priorizar automáticamente el tráfico.

Las SD-WAN pueden ahorrar en el gasto de capital de un cliente al instalar un costoso hardware de aceleración WAN personalizado permitiéndoles ejecutar una superposición de software en hardware de hardware menos costoso. IDC espera que la SD-WAN se convierta en un mercado de $ 6 mil millones para el año 2020.

 

Brandon Butler

Leer más...