Etiqueta: confiabilidad

¿Qué proveedores de nube ofrecieron el “mejor uptime” en 2014?

uptime-monitorAmazon Web Services y Google Cloud Platform registraron impresionantes estadísticas sobre la confiabilidad de sus nubes públicas de basadas en Infraestructura como Servicio (IaaS) en el 2014. Ambos proveedores se aproximaron a lo que algunos consideran el Santo Grial de la disponibilidad: los “cinco nueves”.

Retrocedamos al 2012 y veremos que los críticos se quejaron que la nube estaba plagada de caídas, desde aquella caída que afectó a Reddit y a muchos otros sitios, hasta el fiasco de vísperas de Navidad que impactó en Netflix. La historia fue diferente el año pasado.

CloudHarmony, firma de seguimiento de sitios web, monitorea la frecuencia con la que un grupo de más de cuatro docenas de proveedores de nube experimentan caídas en sus servicios. La compañía tiene un servidor web en cada una de las nubes de estos proveedores y registra los momentos en los que no está disponible el servicio, registrando tanto el número como la duración de las caídas. Este método no es perfecto, pero ofrece una buena idea de cómo están trabajando los proveedores. Y en general, los proveedores lo están haciendo bien y están mejorando.

¿Quién fue quién en 2014?

Amazon y Google destacaron en particular. La Elastic Compute Cloud (EC2) de Amazon registró 2.41 horas de downtime en 20 caídas en el 2014, lo cual significa que funcionó en el 99.9974% del tiempo. Dado el tamaño de AWS –Gartner predijo el año pasado que Amazon tenía un sistema distribuido que es cinco veces más grande que sus competidores– estas cifras son impresionantes.

Quizás incluso más impresionante es el uptime del servicio de almacenamiento de la Google Cloud Platform, el cual experimentó 14 minutos de downtime en todo el 2014, de acuerdo con CloudHarmony. Eso significa un porcentaje de uptime de 99.9996%.

“Los actores mejor establecidos están afinando sus sistemas y se están haciendo muy estables”, señaló Jason Read, CEO de CloudHarmony (ver los datos completos aquí). AWS ha estado proporcionando servicios de nube más tiempo que cualquier otro del mercado y Google utiliza su actual infraestructura para su nube, por lo que también tiene un prolongado registro de tiempo administrando un sistema distribuido confiable”.

cloud-uptime-flechasProblemáticas que debieron superar

A pesar de todo esto, los proveedores de nube tuvieron problemas en el 2014. Alrededor del 10% de las instancias EC2 de AWS tuvieron que ser rebootedas luego de que se identificara una vulnerabilidad Xen el pasado otoño. Rackspace también necesitó hacer un gran reboot, y Microsoft tuvo una interrupción en su servicio de almacenamiento en noviembre. Verizon ha comenzado el 2015 diciendo a sus clientes que su nube estará fuera de servicio por hasta 48 horas este mes por mantenimiento programado.

La caída de Microsoft contribuyó para que el año fuera difícil para Azure en términos de disponibilidad. En el campo de la computación, Azure experimentó 92 caídas totalizando 39.77 horas. Su plataforma de almacenamiento tuvo 141 caídas, un total de 10.97 horas. En comparación, la plataforma de almacenamiento de AWS tuvo 23 caídas y 2.69 horas de downtime. Microsoft no ofreció comentarios para este artículo.

¿Se llegará a los “cinco nueves”?

La mayoría de los proveedores parecen estar mejorando sus plataformas, pero ¿podrá algún día la nube llegar al punto de ofrecer los “cinco nueves” de disponibilidad que ofrecen los carriers?

Donnie Berkholz, analista senior de la consultora RedMonk, señala que al mirar con cuidado los datos de CloudHarmony se puede ver que algunos proveedores ya están logrando los “cinco nueves”.

Google, por ejemplo, lo está haciendo con su plataforma de almacenamiento. Algunas de las regiones de AWS –CloudHarmony monitorea múltiples regiones en la nube de AWS– tuvieron sólo unos cuantos minutos o cero downtime el año pasado, y esto logra “cinco nueves”.

Todo parece indicar que, cada año que pasa, con el incremento en el tamaño, los proveedores de nube se vuelven mejores en la oferta de sus servicios. Pero hay otra tendencia interesante, señala Berkholz, y es que los usuarios podrían estar aprendiendo de las caídas.

Algunos proveedores de nube –Microsoft Azure y el relativamente nuevo Digital Ocean, por ejemplo– son populares a pesar de no tener fantásticos uptimes en el 2014 (Azure tuvo 39 horas de downtime mientras que CenturyLink tuvo 26 horas y Digital Ocean tuvo 16). “La frecuencia de las caídas, dentro de un cierto rango, no es un obstáculo para la adopción de un proveedor de nube”, escribió Berkholz en un correo electrónico. “La pregunta entonces no es cuál proveedor es el mejor, sino cuál es el límite de los que los clientes consideran aceptable”.

¿Cómo prepararse ante una caída?

Hay muchas maneras para que los usuarios se preparen para una caída de la nube: no alojar cargas de trabajo en un solo lugar; usar herramientas para transferir el tráfico desde los servidores con problemas; evaluar frecuentemente el sistema en cuanto a su tolerancia a fallas, etcétera.

Quizás los usuarios están prestando atención a estas mejores prácticas. O quizás no están colocando material confidencial en la nube que podría afectarse con una caída. Y es que tanto los proveedores de nube como los usuarios parecen mejorar la provisión y uso de estos servicios.

-Brandon Butler, Network World

Check Point lanza el sistema de seguridad 41000 para centros de datos

Check Point 41000Check Point Software dio a conocer su nuevo sistema de seguridad 41000, el cual ofrece un nivel de seguridad escalable y de alta confiabilidad para estos exigentes entornos de red.

La solución 41000 de Check Point es un sistema de seguridad de tamaño medio con los mismos hardware blades que el sistema 61000, con redundancia completa y blades intercambiables en caliente para fuentes de alimentación y ventiladores, siendo el único sistema de 6U que ofrece interfaces de alta velocidad de 40GbE.

También ofrece mayor segmentación y conectividad con alta densidad de puertos de hasta 30X10GbE; un rendimiento de seguridad mejorado de hasta 11.000 SPU, casi tres veces más alto que en el caso de los appliances 13500 y 21700; y una capacidad de conexión de hasta 80 millones de conexiones simultáneas y 1.1 millones de conexiones por segundo, con un rendimiento real del firewall de 40Gbps, así como 25 Gbps de tráfico IPS.

Casi 70% de las apps móviles no se prueban antes de ponerse en operación

Apps no se pruebanPor tener expectativas muy altas, muchos usuarios móviles se frustran con el mal funcionamiento de las aplicaciones para dispositivos móviles, conocidas como apps. Asimismo, son incontables las empresas que experimentan este sentimiento al comprobar que sus inversiones no corresponden con un aumento en las ventas, pues,  según estimaciones de Micro Focus, el 69% de las apps para smartphones y otros dispositivos móviles se ponen en operación sin haberse probado antes.

“En el ámbito de la movilidad no existe la cultura de testing, un aspecto que sí está presente entre los desarrolladores de aplicaciones para negocio. Hay cientos de nuevos desarrolladores –en muchos casos freelancers– que no tienen ni los conocimientos ni los medios para probar las aplicaciones. Muchas veces ponen más esfuerzo en crear apps atractivas y originales que en asegurar que éstas funciones correctamente y el resultado es un fiasco”, aseveró Ricardo Montes, director de Marketing de Micro Focus para América Latina.

Según esta empresa, el “go to market” de las apps es extremo. “Prevalece la velocidad y el precio sobre cualquier otro factor y las empresas están empezando a aprender de sus errores con un costo nada despreciable, especialmente en las aplicaciones dirigidas a los consumidores”.

El problema es menor cuando se trata de aplicaciones empresariales de acceso móvil, ya que “en estos casos se parte de estándares de calidad y confiabilidad contrastados y se exige que la app los mantenga. También hay menos urgencia”, agregó Móntes.

Sin embargo, no ocurre lo mismo con las apps comerciales y las tiendas online móviles, donde las fallas son habituales “y cuando un usuario se frustra, no vuelve a visitar la página, con lo que se pierden oportunidades de venta”.

Para Micro Focus, el proceso de prueba debe abarcar todo el ciclo de desarrollo de la aplicación, “no sólo la última fase”, y debe incluir un testing que simule la operación del usuario sobre todo tipo de dispositivos, tamaños y resoluciones de pantallas y sistemas operativos. Una labor compleja en un mercado donde cada día salen nuevos modelos y nuevas versiones de los sistema operativos.

Cómo ofrecer apps seguras y confiables

De acuerdo con diferentes analistas, las descargas de aplicaciones móviles pasarán de los 30.1 mil millones en 2011 a más de 200 mil millones en 2016. Para Borland, algunos de estos “desarrolladores no profesionales” a menudo evitan o reducen el tiempo necesario para el testing crítico, con el fin de cumplir los plazos cada vez más cortos de entrega o, simplemente, porque no son conscientes de los riesgos que conlleva esta omisión.

Para ayudar a evitar estos errores, Borland identificó cinco puntos claves, como asegurar las condiciones de la aplicación, pues la mayoría de los problemas que ocurren con las aplicaciones móviles están relacionados con las condiciones de los datos, conectividad o condiciones de memoria física del dispositivo.

Según Borland, el tiempo de prueba es igual a tiempo de reparación. Sin embargo, es común que se emplee más tiempo de prueba en perfeccionar la aplicación que en probar la propia aplicación, lo cual no es una buena idea.

Aunque la confianza es muy importante, probar todo el tiempo las aplicaciones en cada dispositivo es muy tardado y no debería ser así. Sin embargo, es necesario asegurarse que funciona bien en todos los dispositivos habituales. Por ello, según Borland, el tiempo empleado en priorizar los objetivos resultará ser la mejor inversión.

Reutilizar las pruebas ahorra tiempo y dinero. Éste es otro punto clave, ya que, de acuerdo con la compañía, la automatización de pruebas puede ser útil, pues hace posible grabar una vez un proceso y reproducir los tiempos de prueba muchas veces, lo que aumenta su cobertura, pero no sus horas de trabajo.

Asimismo, observar todos los datos mejora la calidad. Prestar atención a los datos previos aporta una ventaja inicial, ya que permite conocer lo que es necesario trabajar. Pero no solamente eso, ya que los análisis también ayudan a determinar cómo probar la aplicación. “Lo que era importante al principio, a menudo se cambia por otras cosas, por eso, las pruebas de aplicaciones deben evolucionar con la misma aplicación”, aseguró Borland.

Ocho errores en las redes sociales que todo profesional debe evitar

Ocho errores de redes socialesLos medios sociales se han convertido en una auténtica bendición para las empresas –tanto pequeñas, medianas y grandes–, pero también se están transformando en un “campo minado” para quienes no saben cómo manejar la creciente complejidad de este nuevo paradigma.

Los errores en redes sociales pueden ocurrir con una rapidez increíble. Y es que, a pesar de que los tuits y mensajes de Facebook tienen la posibilidad de eliminarse, la prueba de su existencia puede ser capturada para la posteridad a los pocos segundos de haberse publicado.

Diga algo mal en una red social y le perseguirá por toda la vida. Pero, ¿qué entendemos por “decir algo mal”? He aquí nueve errores habituales y de gran gravedad en los que caen muchos negocios:

1. Entregar el mando a alguien que no está listo para gestionar las redes sociales
Es comprensible que, como propietario de una pequeña empresa, no quiera pasar sus días administrando la cuenta de Twitter y sus páginas de Facebook. Es un trabajo que requiere un gran esfuerzo que a menudo tiene un impacto mínimo en la caja de la compañía.

De manera que es muy tentador delegar esta tarea a una empresa externa o dejárselo a un empleado de bajo nivel. Gran error. Estos profesionales suelen mezclar su cuenta personal con la de la empresa y no conocen los límites que deben establecerse a la hora de hablar en nombre de una compañía.

2. Despedir a la persona encargada de las redes sociales
Con el tiempo, las empresas pueden tener que despedir a una parte de su personal si el negocio no termina de despegar. Pero, ¿qué ocurre si la persona a la que afectan los despidos es la que administra las redes sociales?

Un minorista del entretenimiento, HMV, descubrió las consecuencias de esta acción cuando comenzó con una ronda de despidos en la que cayó el community manager de la compañía. El sujeto aprovechó la ocasión y publicó numerosos tuits en los que incluía acusaciones de prácticas ilegales contra la dirección de la empresa. Acuérdese, en caso de que el despido sea necesario, procure cambiar todas las contraseñas de sus perfiles oficiales y bloquee el acceso al ex empleado para impedir potenciales “venganzas digitales”.

3. Confundir una respuesta con un mensaje directo en Twitter
Esta falla lleva con nosotros durante décadas. El precedente está en el correo electrónico: accidentalmente “responder a todos” en lugar de sólo al remitente original. Todos hemos cometido este error, pero Twitter ha agravado el problema. Cuando se envía un @reply a un mensaje en lugar del DM que correspondería, no sólo lo verá toda la empresa, sino también todo el mundo… al menos hasta que se elimine.

La publicación de comentarios lascivos por parte de congresistas estadounidenses o la salida al mundo del número de teléfono privado de Charlie Sheen y otros personajes conocidos, son sólo algunos ejemplos de lo que puede pasar si se confunden estos dos términos.

4. Insensibilidad a la hora de obtener alcance en las redes sociales
Muchas empresas se aprovechan de las últimas tendencias o hashtags para publicar sus mensajes corporativos o para obtener algunos seguidores más. Pero si esta relación no es natural y se fuerza en exceso, esta táctica puede resultar contraproducente.

Por ejemplo, hubo una gran cantidad de compañías estadounidenses que se aprovecharon del huracán Sandy para promocionar sus productos en las redes sociales lo cual, dado el sufrimiento humano que generó aquel fenómeno natural, no produjo ninguna mejora en las ventas de estos servicios y además originó una oleada de recelo y rechazo en los medios sociales.

5. No entender la confidencialidad empresarial
Si usted es el director financiero de una empresa que cotiza en Bolsa, el día que no asista a una reunión del consejo de la empresa puede tuitear “Reunión de la Junta. Buenos números = Junta feliz”.

Parecería obvio, pero Gene Morphis, CFO de la tienda de ropa minorista Francesca, cayó en ese error el año pasado, causando una subida artificial del precio de las acciones en un 15%. Este tipo de comportamiento es ilegal, ya que la ley lo puede calificar como divulgación selectiva, en la que la información privada se divulga a unos pocos –en este caso, 238 seguidores en Twitter– en vez del mundo en general.

6. Pida a los usuarios hostiles que participen en su red social

En este error cayó nada más y nada menos que el gigante de las hamburguesas, McDonald’s. Esta cadena de comida rápida creó un hashtag (# McDstories) y alentó su uso entre McFanaticos para hablar de las bondades de sus restaurantes. Por supuesto, los McTrolls llegaron primero, con un torrente de tuits como “Pedimos una McDouble y algo en el maldito pan hizo saltar mi molar”.

Por ello, si piensa fomentar un concurso en Twitter a partir de un hashtag, tenga siempre en cuenta que una vez que se desata, no se puede deshacer. Asegúrese de que el sentimiento es pleno a su favor antes de intentar este truco para evitar sorpresas desagradables.

7. No entender la mecánica de los medios sociales
Las interfaces de usuario de las redes sociales, como Facebook o Twitter, incluyen miles de opciones que, en ocasiones, pueden volver loco a cualquier usuario habituado a estas tecnologías. Sin embargo, cometer un error en este campo si se trata de una cuenta profesional (como tener el perfil de Twitter cerrado) puede generar mucho recelo entre la comunidad y, por ende, desconfianza hacia su empresa.

8. Descuidar la seguridad en social media
En caso de duda, afirme que “ha sido hackeado”. Muchos de los terribles comportamientos en los medios sociales son atribuidos a accidentes o trucos publicitarios (incluyendo todos los “desnudos” robados de celebridades). Sin embargo, algunos de estos comportamientos en realidad se deben a la participación de piratas cibernéticos.

Por último, vale la pena reiterar que la seguridad en los medios de comunicación social es un asunto serio y los ataques de phishing que intentan entrar en su Twitter y Facebook son insoportablemente comunes. Asegúrese de que cuenta con una contraseña segura y políticas de seguridad y confidencialidad para quienes tengan acceso a las cuentas.

¿Por qué se impone la nube móvil?

Nube móvilTodo es móvil hoy, y así lo confirman los datos y previsiones de ventas de las firmas de investigación. Cuanto más se confía en pequeños dispositivos, más dependemos del almacenamiento en la nube. Entramos en la era de la nube móvil.

Los últimos datos de Gartner estiman que las PC apenas supondrán el 13% del mercado global de dispositivos a finales de este año, de los cuales una parte no revelada corresponde a portátiles. Este auge de la movilidad sólo está limitado por la capacidad del alojamiento y los servicios que deben extender la funcionalidad de los móviles, más allá de sus limitaciones. Y la nube es el gran punto de apoyo que debe sostenerlo.

La IEEE Computer Society también menciona a la “nube móvil” como una de las principales tendencias tecnológicas de 2014 y explica que el teléfono móvil está limitado por su memoria, potencia de procesamiento y duración de la batería. Pero, combinado con la computación en la nube, estas limitaciones pueden quedar resueltas.

Una combinación simbiótica

El almacenamiento es una gran limitante, pues apenas se alcanzan 32 GB en la mayoría de los smartphones y tablets actuales, y los equipos que lo superan o no son muy “movibles” o tienen precios prohibitivos para la mayoría de la población.

La nube, en cambio, dispone de espacio prácticamente ilimitado. Servicios como Dropbox, SkyDrive o Google Drive permiten alojar gigabytes o incluso terabytes de datos, para acceder a ellos vía móvil, siempre que se disponga de Wi-Fi o señal en el móvil para conectarse a la nube.

De este modo se valorizan ambos medios, combinados para acceder a muchos más datos de los que el móvil es capaz de contener y que están a salvo de potenciales pérdidas o robo del dispositivo.

Se trata de una combinación simbiótica que va más allá del almacenamiento, que cohesiona tecnologías, en lo que IDC ha bautizado como “tercera plataforma”, que mejora el acceso y sincronización de datos, aporta ed, además de abrir las puertas de la colaboración y la productividad profesionales, prácticamente en cualquier lugar y en momento.