Etiqueta: pronósticos

“¿Cómo conectar mis aplicaciones de negocio con mi target?”

Marketing onlineUno de los aspectos que más preocupan a las organizaciones es encontrar la mejor fórmula para armonizar y aprovechar los esfuerzos que realizan las áreas de TI, Ventas y Marketing, entre otras, para alcanzar a los llamados “consumidores digitales”, ese sector que forma parte de su público objetivo y que crece cada día en nuestro país.

Para hablar de éste y otros temas relacionados con la mercadotecnia y la publicidad en línea, las empresas TNS, J. Walter Thompson y Wunderman realizaron el evento “Connect 2014: Social and Mobile” en la ciudad de México.

Luis Chávez, director de Servicios al Cliente de la empresa de consultoría TNS México, compartió con la audiencia los datos del reciente estudio Connected Life 2014 sobre consumo digital y móvil, efectuado por su compañía en 49 países, entre ellos México.

Chávez distinguió los cuatro principales retos que, según los entrevistados, deben enfrentar quienes definen una estrategia dirigida al ecosistema digital: el primero es cómo integrar la parte digital en una estrategia de marketing; el segundo, cómo desarrollar la capacidad humana y tecnológica para monitorear las tendencias en el mercado y así construir una experiencia exitosa; el tercer reto es comprender las necesidades, actitudes y comportamientos digitales de los consumidores; y el cuarto, cómo generar estrategias para contar al público objetivo con su vida diaria y mediante todas las plataformas.

Marketing online Luis Chávez
Luis Chávez, director de Servicios al Cliente de TNS México, durante la presentación del estudio Connected Life 2014.

Para el estudio Connected Life de 2014 se encuestaron a 54,775 personas a nivel global, 951 de las cuales fueron mexicanos, y entre los hallazgos relativos a nuestro país, Chávez destacó los siguientes:

  • El 54% de los habitantes en México tienen acceso regular a servicios de Internet. La mitad de esos usuarios posee un smartphone.
  • La adopción de tablets tuvo un crecimiento de 25% con respecto al 2013.
  • El promedio de dispositivos que cada usuario en el país posee es de 3.4 (smartphone, tablet y laptop, principalmente).

Los consumidores digitales pasan cerca de 3.13 horas promedio online al día.

Por lo que respecta a los horarios uso, el smartphone está presente en prácticamente en cualquier hora del día, seguido de radio y TV así como el uso de PC/laptops; en menor medida, el usuario consume o consulta horas en la Tablet, periódicos y revistas durante el día.

El porcentaje de consumo general en medios semanal para México es de 44% para televisión de paga y/o video online pagado; 12% para televisión abierta/contenido gratuito; 88% para ver programas de TV en la TV; 50% para eventos en vivo online; 43% para ver eventos no en vivo online;

Otro hallazgo del estudio señala que, aunque los mexicanos siguen fieles a la TV, comienza a verse un desplazamiento hacia los contenidos online y a estar conectado en otros dispositivos al mismo tiempo, principalmente por la mañana y por la tarde. De hecho, según este análisis, los mexicanos usan con mayor frecuencia Internet para tener acceso a redes sociales o buscar entretenimiento.

Entre las actividades digitales que realizan cada semana, TNS detectó que los usuarios digitales en México se conectan para comunicarse (90%); sociabilizar (87%); buscar entretenimiento (82%); efectuar labores productivas (66%); buscar información (64%); realizar compras (59%).

Una estrategia multiscreening, la mejor opción

Por lo anterior, Luis Chávez resaltó que el multiscreening ofrece una multitud de posibilidades de interacción con las marcas. “Una estrategia que combine lo social con video online tendrá el mayor alcance”.

Según los datos del estudio Connected Life 2014, México es un mercado follower en cuanto a la adopción de nuevas tendencias digitales; sin embargo, los consumidores digitales mexicanos están interesados en probar nuevas tecnologías, es decir, es un mercado early adopter.

El directivo de TNS dijo que un 37% de los consumidores digitales mexicanos se relacionan con las marcas a través de redes sociales, ya sea para tener comunicación (subir o compartir contenido o comentarios), discutir (conversar con las marcas a través de medios sociales) o consumo (conocer sobre la marca y acceder a sus productos o servicios).

Asimismo, en nuestro país más del 60% de los consumidores usan online para el proceso de pre-compra; y categorías como viajes, finanzas y autos son las más buscadas y donde los consumidores se involucran más. Sin embargo, la confianza y falta de seguridad son las barreras para la conexión online de los consumidores.

TNS realizó una tipología de usuarios digitales, detectando cuatro clasificaciones: Observadores, Líderes Conectores y Funcionales. En el mercado mexicano, la división se encuentra en 39% de funcionales, 32% de líderes, 16% de los observadores y 13% de los conectores.

Los líderes en México pasan más tiempo en juegos, mientras que los observadores pasan tiempo leyendo noticias y los conectores pasan mayor tiempo en redes sociales

“Como hemos visto, estamos en la era del exceso de información. Todos la producimos y eso implica diversas apreciaciones sobre una marca o producto. Por eso es importante que el responsable de TI, Ventas y/o Marketing en una organización tome en cuenta otras fuentes para comparar y analizar”, concluyó Chávez.

 

Seguridad y calidad, principales motivos para utilizar código abierto: encuesta

Seguridad y calidad código abierto¿Por qué debería utilizarse software de código abierto? El hecho de que sea generalmente gratis puede ser un punto atractivo, pero no es la razón principal por la que la mayor parte de las compañías deciden utilizarlo. En su lugar, la seguridad y la calidad son las razones más citadas, según la encuesta anual 2014 Future of Open Source Survey, elaborada por Black Duck Software y North Bridge Venture Partners.

De hecho, un 72% de los encuestados afirman que utilizan código abierto porque ofrece mayor seguridad que el software propietario. Y el 80% confesó haberlo elegido por su calidad frente a las alternativas de software propietario.

El 68% de los encuestados dijeron que el código abierto ayudaba a mejorar la eficiencia y tenía menores costos, mientras que un 55% indicó que el software también les ayudaba a crear nuevos productos y servicios. El 50% afirmó abiertamente que habían contribuido para adoptar el software de código abierto.

Los resultados del informe 2014 dibujan un futuro todavía más prometedor para el código abierto que los del año pasado. Con una participación récord, 1,240 participantes provenientes de la industria contestaron las preguntas sobre tendencias del código abierto, oportunidades, impulsores de la adopción y problemas de negocio que resuelve el código abierto.

“Estamos viendo un cambio fundamental en la forma como las empresas organizan su infraestructura, descartando marcas propietarias en favor de plataformas abiertas, más eficientes y efectivas en costo”, aseveró Mark Shuttleworth, fundador de Ubuntu and Canonical, y uno de los encuestados en el estudio.

Una ventaja competitiva

Las compañías están “motivadas por el costo, como todo el mundo”, explicó Lou Shipley, CEO de Black Duck. “La utilización de código abierto permite reducir los costos. También ayuda a poder reclutar a los mejores empleados”.

Las organizaciones deben entender que “la utilización de software de código abierto va más de simplemente reducir los costos o cualquiera de las razones tradicionales: consiste en participar y gestionar los retos logísticos para obtener ventaja competitiva, atraer el mejor talento e influenciar la dirección del proyecto”. Sobre todo, “las pequeñas empresas pueden obtener una ventaja competitiva con la estandarización en código abierto”, agregó Shipley.

Dijo que con el fin de Windows XP, las compañías deberían considerar opciones como Ubuntu y Linux. “El riego es mucho menor y se puede estar sobre los hombros de los gigantes en lugar de tener que reinventar la rueda uno mismo”, concluyó Shipley.

Internet de las Cosas crecerá a un ritmo 8.8% anual, pronostica IDC

Internet de las Cosas crecerá 8 IDCLa firma de consultoría IDC acaba de presentar sus previsiones para el mercado global del denominado Internet of Things, haciendo referencia a la necesidad de que esta tendencia se incorpore a todos los sectores económicos, y les abra las puertas a todas sus posibilidades, incluido el acceso a nuevos consumidores.

El documento presentado hace referencia a la oportunidad tecnológica que se abre para todos los sectores verticales que se den cuenta del floreciente nuevo mercado que representa Internet de las Cosas. Estas previsiones están basadas en el modelo interno de información y análisis de IDC, que se utilizan para crear modelos de segmentación en torno a 18 mercados verticales a los que sigue la consultora.

Los expertos de la firma hacen recomendaciones en esta nueva etapa de crecimiento que se abre para los próximos años, con áreas ya muy avanzadas, como el hogar inteligente, los coches conectados o las redes de salud y bienestar personal.

Un mercado billonario

IDC define Internet de las Cosas como una red cableada o inalámbrica que conecta dispositivos o “cosas”, los cuales se caracterizan por disponer de una forma autónoma de gestión o supervisión.

La consultora estima que este mercado global, incluidos tecnología y servicios, pasará de los 4.8 billones (con b) de dólares en 2012, hasta alcanzar los 7.3 billones de 2017, luego de mantener un incremento interanual del 8.8%.

De acuerdo con los analistas, esta oportunidad no es apreciada por muchos sectores, que no han vislumbrado todavía las enormes posibilidades que entraña para todos los ámbitos económicos, a diferencia de la industria automotriz, el transporte o la energía.

Por dónde empezar

Según el informe, el primer paso de cualquier empresa debería ser la profunda comprensión de las implicaciones que esta tecnología tendrá en su sector. Por su parte, los proveedores de TI tienen la responsabilidad de explicar convenientemente las posibilidades de traer esta tecnología a todas las empresas, tales como el potencial de las aplicaciones máquina a máquina (M2M) o la posibilidad de acceder a nuevos mercados y consumidores, a través de soluciones B2B2C, concluye IDC.

Las empresas ya apuestan por la movilidad: IDC

IDC empresas apuestan por movilidadLas principales preocupaciones de los empresarios se centran en agilizar y optimizar sus operaciones sin tener un impacto directo en sus costos. Esta es una de las conclusiones principales a las que llega el estudio presentado por IDC junto con Genexus.

De este informe se desprende también que el desarrollo de software es uno de los ámbitos que menos inversión recibe de la partida presupuestada para TI.

Según el estudio, la inversión en sistemas más inteligentes y automatizados no debe considerarse como un gasto, sino como una inversión que a largo plazo permita evolucionar con las necesidades cambiantes que requiere un negocio, como los desarrollos tecnológicos.

Además, se destaca la necesidad de alinear la estrategia tecnológica a las iniciativas de negocio de la manera más sencilla y con el menor costo posible. Aproximadamente el 22% de las empresas ya cuenta con una estrategia de aplicaciones móviles.

El área de TI, más que un departamento “de soporte”

En el documento se recalca la utilidad de tener herramientas para desarrollar aplicativos de software para la gestión integral del negocio y destaca algunos de los principales beneficios tangibles, como el nuevo enfoque basado en el negocio que pueden adoptar los equipos de TI, la reducción en los costos de actualización y migración de sistemas, o la alineación de la tecnología a la estrategia de negocio.

Además, el estudio concluye que la idea de que el departamento de TI constituye únicamente un área de soporte de las empresas ha quedado rezagada. Los sistemas sobre los que se soporta la operación de una compañía cobran un papel trascendental en la toma de decisiones.

Con atención a su arquitectura, diseño y funcionalidad, los sistemas deben ser capaces de satisfacer la demanda de información de los diversos usuarios y ser lo suficientemente flexibles para incorporar los cambios generados por la actualización de la tecnología y la evolución del negocio, se asienta en el estudio.

 

Las empresas no están preparadas para afrontar la próxima era digital: Gartner

Gartner desafíos para Era DigitalUna reciente encuesta realizada por Gartner entre más de 2,300 responsables de tecnología de todo el mundo revela que la mayoría no están preparados para afrontar la próxima era tecnológica. Incluso, la consultora adelanta que los presupuestos tecnológicos para este año suponen un serio reto para dar el salto hacia esta nueva etapa en el diseño e implementación de sus TI.

Para la firma de análisis, ya se ha iniciado este nuevo tiempo denominado Era Digital, pero la mayoría de los directores de TI no se sienten preparados para afrontarla, como señala en el citado estudio. De hecho, la encuesta mundial revela que se sienten abrumados ante la perspectiva que se les viene encima, un ambiente digital en el que es necesario crear un nuevo liderazgo, a la vez que se renuevan sus principales infraestructuras TIC.

El análisis detecta que el 51% de ellos está preocupado por la situación y por la rapidez con la que acontecen los cambios, mientras que el 42% reconoce no disponer del talento necesario para hacer frente a este futuro.

“El 2014 debe ser un año de cambios significativos para los directores de sistemas, que deben ayudar a sus empresas y organismos a ganar relevancia, en un mundo cada vez más digital”, aseveró Dave Aron, vicepresidente de Gartner.

La encuesta se llevó a cabo en todo el mundo en el cuarto trimestre de 2013 e incluyó a CIO de 77 países que, en conjunto, manejan 300 mil millones de dólares anuales en presupuestos TIC.

Las otras dos Eras

Según el informe, la actual tercera Era tecnológica llega después de que en la primera se prestara gran atención a la forma en que las TI podían ayudar a las organizaciones a hacer cosas nuevas, aparentemente mágicas, para automatizar su operativa, con grandes mejoras en cuanto a velocidad y volumen, y dotando a los líderes empresariales de la información de gestión más útil que nunca antes habían conseguido.

La última década ha representado la segunda Era, muy marcada por la industrialización de las TI, en un intento por hacerlas más confiables, predecibles, abiertas y transparentes. Sin embargo, esta segunda época ha estado marcada por presupuestos ajustados y escasa atracción por el riesgo, lo que no ha dado pie a grandes innovaciones.

Ahora, nuevas tendencias, como el denominado por la propia Gartner “Nexo de Fuerzas” o la llamada Internet de las Cosas, están cambiando todo, no sólo la mejora de la productividad clásica, sino que están transformando las bases de la competencia entre las empresas, incluso creando nuevas industrias.

“El 2014 será un año marcado por el doble objetivo de responder a las necesidades actuales de eficiencia y crecimiento, pero también de explotar el nuevo paradigma digital, fundamentalmente diferente al anterior. Ignorar cualquiera de ellos no es una opción”, dijo Aron.

Próximos desafíos

Para Gartner, esta nueva era de la digitalización plantea cuestiones sobre la estrategia, el liderazgo, la estructura, el talento, el financiamiento y casi todos los temas que tienen que ver con la organización y, como señaló el propio Aron, “todas las empresas, de todos los sectores y geografías, están experimentando esta etapa de transición digital. Se trata de un sueño hecho realidad para el CIO, pero también de un gran desafío profesional”.

Asimismo, la encuesta de Gartner muestra que los presupuestos de TI para este año siguen teniendo una evolución plana (aumentarán apenas un 0.2% en promedio), lo que supondrá un serio desafío para afrontar la renovación necesaria tanto del núcleo de sistemas como de los servicios TI, para poder aprovechar las nuevas oportunidades.

La ‘humanización tecnológica’ y otras 6 tendencias marcarán el Business Intelligence en 2014

Business Intelligence en 2014Este 2014 estará marcado por ciertas tendencias tecnológicas, y algunas de ellas serán clave para el sector del Business Intelligence (BI), al ser una de las herramientas clave para las empresas a la hora de tomar decisiones de negocio.

La empresa de software QlikTech considera como uno de esos puntos clave a “la interacción humana e informática (humanización tecnológica)”. Antes se hablaba de la “consumerización de TI”, pero ahora se evoluciona hacia la “humanización tecnológica”.

La tecnología se construye teniendo en cuenta la forma natural en la que los seres humanos la usamos y no debe condicionar esta forma natural en la que queremos interactuar con la misma.

Los cambios en los mercados y el gran volumen de datos que deben gestionar las compañías requieren un análisis de datos rápido y eficaz. Por ello, las soluciones de Business Intelligence deben facilitar a los usuarios de negocio la interacción y exploración naturales de los datos, así como la información que necesitan en sus departamentos y organizaciones.

De acuerdo con QlikTech, os usuarios no quieren ver los datos sólo en reportes estáticos sino que desean “sentir los datos” e interactuar con ellos. Las soluciones de BI deben capacitar a los usuarios para explorar sus datos –y descubrir conocimientos escondidos– de forma natural.

Hacia una analítica de datos “propia”

Asimismo, QlikTech destaca el aumento de la liberación de la información. “Una nueva generación que ha crecido con la tecnología se está incorporando al mundo empresarial y sus expectativas son diferentes a las de generaciones pasadas. Llevan sus propios dispositivos allí donde van y esperan que sea fácil unir datos, comunicarse y colaborar con sus compañeros”.

Ante ello, señala que las soluciones de BI deben dar a todos los usuarios la posibilidad de crear sus propios modelos de análisis de datos, que les permita identificar tendencias y obtener conocimiento.

La compañía también advierte sobre el “boom de los datos”, actualmente en franca aceleración. “Ante las enormes cantidades de datos disponibles hoy en día, necesitamos reducir el ruido de información. Las plataformas de BI necesitan adaptarse a este crecimiento de los datos y proporcionar soluciones que puedan analizar información de múltiples fuentes para proporcionar un mejor contexto para la toma de decisiones”.

Por ello, QlikTech considera importante que las compañías comiencen a diferenciarse a través de la explotación de la información. Asimismo, las aplicaciones analíticas deben ayudar a las compañías a acceder a los datos que necesitan para diferenciarse de la competencia. “No se trata sólo de tener el dato, sino de que este sea el correcto”.

Puede verse la importancia que está adquiriendo la transformación de los análisis. Ya no vale reportar algo que ha pasado sino que hay que entender y monitorizar lo que está ocurriendo. “Esto supone un cambio en el BI para conectar cosas y descubrir información oculta en los datos para ayudar a anticiparse o incluso predecir lo que va a venir”.

De acuerdo con la compañía, la próxima generación de BI debe enfocarse en permitir una toma de decisiones mejor y más natural.

La evolución y elevación del rol de TI

Según QlikTech, la mayoría de los CIO se pregunta qué hacer para impulsar la innovación y esto pasa por ser un habilitador de información y no tanto un proveedor de ésta, al proporcionar a los usuarios de negocio las herramientas que necesitan para tener éxito. Sin embargo, para lograr esta transformación, necesitan trabajar con herramientas útiles y proporcionar apps o productos de información intuitivos y fáciles de manejar.

Por último QlikTech destaca la necesidad de contar con velocidad y agilidad. “Para obtener el máximo retorno de la información, el análisis debe darse con la velocidad que la gente necesita. Las herramientas de BI deben poder responder a la demanda de velocidad y agilidad”, informó la compañía.

Las máquinas inteligentes podrían reemplazar millones de empleos TI: Gartner

Máquinas inteligentesUn pronóstico reciente de Gartner muestra que, en la mayoría de las industrias, las organizaciones de TI pasan por una “presión acelerada para la transformación fundamental”. Dicho de otra manera: la supervivencia de una organización y la ventaja competitiva depende de su capacidad para abarcar la digitalización.

“La necesidad de adoptar modelos de negocio digitales va para todas las ramas de la industria, y estos impactos crean oportunidades de trabajo que antes no eran posibles”, explicó el vicepresidente de Gartner y analista, Kimberly Harris-Ferrante. “Las empresas deben responder inmediatamente para poder construir el negocio apropiado y el plan para las demandas futuras del mercado”.

Las soluciones digitales, incluyendo las máquinas inteligentes, tendrán un gran impacto en el mercado de trabajo, reemplazando millones de empleos en todas las industrias en la siguiente década. Sin embargo, Gartner afirma que la mayoría de los directores ejecutivos –por lo menos el 60%– subestiman esta amenaza creyendo que “la posibilidad de perder estos millones de trabajos de clase media en 15 años” es una ‘fantasía futurística’”.

En un anuncio, Kenneth Brant, el director de investigación de Gartner, comentó que muchos directores ejecutivos omiten lo que podría convertirse en “el cambio tecnológico más significante de esta década”, y agregó que ya hay una fuerza de trabajo digital, impulsada por los principales jugadores en ambos lados de la oferta y la demanda.

“Este mercado comprende agentes inteligentes, asistentes de realidad virtual, sistemas expertos y software integrado para hacer que las máquinas tradicionales sean ‘inteligentes’ de una manera especializada, además de una nueva generación de robots de bajo costo y fáciles de entrenar, y máquinas automatizadas que podrían devaluar y/o desplazar a millones de seres humanos en el mundo laboral de manera significativa”, afirmó Brant.

¿Las máquinas inteligentes remplazarán realmente a los trabajadores?

En su reporte, Gartner menciona más de una docena de áreas donde estas máquinas reemplazarán a los trabajadores humanos durante los próximos cinco años. Estos incluyen los servicios públicos con las soluciones de medición inteligente, la impresión 3D, grandes análisis basados en la nube de datos y los distintos dispositivos controlados por software, productos y aparatos en campo, así como el transporte, almacenamiento, fabricación, gestión industrial y comercial, y vigilancia.

Por ejemplo, Gartner predice que con la tecnología usada para generar órdenes personalizadas por siete de las “top 10” minoristas de multicanales, 100 mil millones de dólares al año en propiedad intelectual serán perdidos en impresoras 3D en menos de cuatro años. Gartner agrega que otros tipos de inversiones presentarán diferentes desafíos para las organizaciones de TI.

El 80% de las organizaciones de ciencias de la vida “serán superadas por elementos de Big Data”, agrega la firma consultora.

Mientras tanto, 60% de las instituciones financieras de todo el mundo procesarán la mayor parte de sus operaciones en la nube, aunque la transición no ser fácil para el personal de TI. Además, el reporte indica que “más del 60% de las organizaciones gubernamentales que tienen un jefe de información y un director digital, se desharán de uno de estos puestos”.

Esta predicción llega en medio de informes distintos que sugieren que los organismos gubernamentales no están preparados para las tecnologías de Big Data ni de la nube, pero también esperan que los presupuestos de TI sean mayores en los próximos años.

Diez predicciones de cloud computing para el 2014

Cloud 10 predicciones 2014Este es el momento cuando las personas comienzan a estimar cómo les fue en el año que recién concluyó y cómo les irá en el que acaba de comenzar. También es el momento cuando se ponen de moda las predicciones acerca de los desarrollo en la industria tecnológica para los siguientes 12 meses. He publicado predicciones para la computación en la nube por algunos años y éstas siempre se encuentran entre las piezas más populares que he escrito.

Volviendo atrás a mis antiguas predicciones, me siento impactado no tanto por alguna predicción en particular o por la exactitud (o inexactitud) general de ellas, sino por la forma en que se ha transformado el propio tema de la computación en la nube.

Hace cuatro o cinco años, la computación en la nube era un concepto muy controversial y no probado. Me convertí en un fuerte defensor de ella al escribirVirtualization for Dummies y al encontrarme expuesto a Amazon Web Services en sus días iniciales. Concluí que los beneficios de la computación en la nube harían que ésta se convierta en la plataforma TI por defecto en el futuro cercano.

Estoy complacido en decir que mis expectativas, de hecho, se hicieron realidad. Es obvio que la computación en la nube se está convirtiendo en regla, mientras que los despliegues que no son de nube se están convirtiendo en la excepción. Los escépticos continúan planteando deficiencias con respecto a la computación en la nube, pero el alcance de sus argumentos continua reduciéndose.

En la actualidad, los argumentos contra la computación en la nube son limitados. “Algunas aplicaciones requieren de arquitecturas que no encajan bien en los ambientes de nube”, señalan los críticos, sugiriendo que los ambientes de nube no son universalmente perfectos para cada aplicación. Esto no es una sorpresa.

Otros críticos citan alguna mezcla entre seguridad y cumplimiento, aunque el nivel de ruido en este tema es mucho menor que en el pasado. En sus predicciones para el 2014, James Staten, de la firma de consultoría Forrester Research, sostiene “si uno se está resistiendo a la nube debido a los problemas con la seguridad, se está quedando sin excusas”, y señala que la seguridad de la nube ha mostrado su valía.

Siempre he tomado una perspectiva diferente: la alarma que surgió en torno a la seguridad de la nube fue solamente una cortina de humo del personal de TI que no quería cambiar sus prácticas establecidas. Más aún, las preocupaciones en torno a la seguridad desaparecerían no porque los proveedores de nube repentinamente “probaron” que eran lo suficientemente seguros, sino porque los recalcitrantes miembros del personal de TI se dieron cuenta que debían adoptar la computación en la nube o enfrentar la posibilidad de un cambio mucho mayor: el desempleo.

Con el triunfo de la computación en la nube en camino, ¿qué nos traerá el 2014 como desarrollos en este campo? Este va a ser un año especialmente emocionante para la computación en la nube. Y la razón es simple: en el 2014, todos se darán cuenta que la nube puede generar tipos completamente nuevos de aplicaciones. En este año vamos a ver artículos periodísticos que proclamen lo maravilloso de una aplicación de nube o de otra, y la forma en que la computación en la nube pudo hacer posible la aplicación cuando en el pasado no hubiera podido existir.

Con esto en mente, a continuación describo mis predicciones sobre la computación en la nube. Como en años anteriores, presento la lista dividida en dos secciones: cinco predicciones para usuarios finales y cinco pronósticos para proveedores. Hago esto porque demasiadas predicciones se concentran en el lado del proveedor. Desde mi perspectiva, el efecto de la computación en la nube sobre los usuarios es igualmente importante y merece tanto o más atención.

1. Más empresas se convertirán en compañías de software
Hace un par de años, Mark Andreessen, cofundador de la empresa Netscape y coautor del navegador Mosaic, proclamó que “el software se está comiendo al mundo”. El próximo año, esto será absolutamente obvio. Para ponerlos en términos simples, todos los productos y servicios están quedando envueltos en TI, y todas estas aplicaciones tendrán su hogar en la nube.

Para proporcionar un ejemplo personal, mi doctor sugirió durante mi examen físico anual que comience a registrar mi presión sanguínea.

¿La solución para enviarle los resultados? En lugar de registrar los números en una hoja de cálculo y enviársela por correo electrónico, él recomendó un monitor de presión sanguínea que se conecta a una aplicación para smartphone, la cual automáticamente envía los resultados a su firma y se comunica con una aplicación que descarga las cifras en mi historia clínica.

El efecto neto del cambio hacia productos y servicios envueltos en TI es que el gasto global en TI se incrementará significativamente a medida que TI pase del soporte de backoffice a la entrega de valor en en el frontoffice. El tamaño de TI superará la capacidad on premises y dará como resultado una masiva adopción de la computación en la nube.

2. Los desarrolladores de aplicaciones serán más importantes
Si las aplicaciones se están volviendo más importantes para las ofertas del negocio, entonces aquellos que crean las aplicaciones serán más importantes. La firma de análisis RedMonk afirma que los desarrolladores son ahora cruciales en el diseño e implementación de las ofertas del negocio.

Se están produciendo grandes transformaciones en las prácticas de desarrollo, impulsadas por el actual cambio hacia el código abierto y la adopción de procesos de entrega ágiles y continuos. Esto mejora la productividad y la creatividad de los desarrolladores, y hace que éstos lancen aplicaciones más interesantes e importantes.

No es un secreto que los desarrolladores dirigieron gran parte del crecimiento inicial de la computación en la nube, frustrados por la pobre respuesta de las TI centrales y atraídos por la disponibilidad inmediata de recursos provenientes de los proveedores de nube. Esta adopción temprana cimentó las expectativas de los desarrolladores, pues acceder a los recursos de nube debería ser fácil y rápido, lo cual dio como resultados una mayor adopción de la cloud.

Será interesante observar como las compañías convencionales enfrentan la importancia de los desarrolladores. Muchas han subestimado la importancia de TI y la han tratado como un centro de costos al cual exprimir –o eliminar completamente– a través del outsourcing. Cuando estas compañías comiencen a incrementar sus esfuerzos de desarrollo de aplicaciones, confrontarán un pool de recursos costoso con muchas opciones laborales. O bien, podrán tercerizar estas aplicaciones hacia agencias e integradores especializados cuyos altos precios pueden pagarse sin impactar en la estructura de pagos dentro de la compañía.

Cloud Computing 23. La carga de trabajo de las aplicaciones continuará cambiando hacia los usuarios finales
Gartner causó revuelo el año pasado cuando pronosticó que los CMO (Chief Marketing Officers) controlarían más del 50% del gasto en TI para el 2017. Por supuesto, uno no puede saber cómo va a resultar este pronóstico, pero las dos predicciones anteriores claramente reflejan una perspectiva similar: cuando se trata de aplicaciones, los usuarios finales tienen cada vez más las manos puestas sobre el timón. La cuestión es si éstas aplicaciones orientadas a las empresas serán desplegadas on premises (operadas en casa) o en la nube.

Hay tres hechos relevantes aquí:

* Los usuarios de negocio, como los CMO, tienen mucho menos compromiso con los despliegues on premises. De hecho, les es indiferente el lugar de la carga de trabajo y están, quizás, más abiertos a la nube que sus contrapartes de TI. Existe una mayor probabilidad de que el auspiciador de la aplicación coloque la carga de trabajo en un ambiente de nube, quedando todo lo demás constante.

* Pero no lo está, y ese es el segundo factor. Como se ha anotado, los desarrolladores ya usan el cómputo en la nube para escribir aplicaciones. Existe una gran probabilidad que, al decidir dónde desplegar la aplicación de producción resultante, la elección sea el mismo ambiente en donde ocurrió el desarrollo: la nube.

* El tercer hecho importante es la forma en que el diseño e implementación de la aplicación impactará la decisión de despliegue. Muchos desarrolladores usan características o funcionalidades específicas de un ambiente de nube. Cuando llega el momento del despliegue, la aplicación se encuentra ligada al ambiente de desarrollo y requerirá más trabajo para ser desplegada en otro lugar. Esta “incomodidad” propiciará que otras decisiones de despliegue se realicen en favor de la nube.

Veremos muchas historias en el 2014 de compañías que lanzan nuevas ofertas de negocio para Internet y reconocen que el 99% de ellas se basan en la nube para su procesamiento backend.

4. La nube privada tendrá su momento de la verdad
En años anteriores, las organizaciones TI reconocieron que la computación en la nube proporciona beneficios indudables, pero las preocupaciones en cuanto a la seguridad y la privacidad requirieron que se implementara una nube interna antes de que las aplicaciones “reales” fueran desplegadas.

Muchas de estas iniciativas de nube privada han sido procesos amplios, aunque empantanados por presupuestos limitados, prolongadas evaluaciones por parte de los proveedores, construcción de las habilidades de los empleados y, sí, por políticas internas.

Aunque este tipo de demoras podrían ser aceptadas como parte de los problemas de cambiar hacia una nueva plataforma, el 2014 forzará a las compañías a realmente evaluar el progreso de sus esfuerzos de nubes privadas.

Las decisiones del despliegue de las cargas de trabajo de las aplicaciones se toman todos los días. Olvide la retórica de “transferir sus aplicaciones de nube a una nube interna de calidad de producción”, que usualmente aconsejan los proveedores. La realidad es que, una vez desplegadas, las aplicaciones encuentran su hogar permanente.

Esto significa que las organizaciones TI que están planeando ambientes de nube tienen un corto camino para entregar resultados. Una “nube” que hace que los trabajos de los operadores TI sean más convenientes, pero que no hace nada por los usuarios de nube terminará como un pueblo fantasma: abandonado por los desarrolladores que buscan la agilidad y respuesta del negocio.

5. La gestión de nube atraerá la atención de las personas
De la misma forma en que el cómputo en la nube privada enfrentará algunas duras verdades en el 2014, también lo hará la visión de la nube híbrida como una sola tecnología homogénea que abarcará los centros de datos internos y los ambientes de nube externos alojados por el proveedor de tecnología interno.

En realidad, todas las empresas usarán múltiples ambientes de nube con plataformas heterogéneas. La necesidad más crucial será la de crear u obtener capacidades para administrar los diferentes ambientes de nube con un marco de gestión consistente.

La necesidad de gestionar la nube va más allá de lo técnico. Aunque es crucial tener “un solo panel” que use herramientas consistentes y un gobierno corporativo para toda la variedad de ambientes de nube, también es importante administrar la utilización y el costo de esos ambientes, y eso será cada vez más evidente en este 2014.

6. AWS continuará con su tórrido ritmo de innovaciones
Una de las cosas más sorprendentes de Amazon, es la rapidez con que evoluciona su servicio y entrega nuevas funcionalidades. En ocasiones la industria de los cloud service provider (CSP) se asemeja a una de esas películas en las que un personaje va rápido en una escena mientras que los otros actores se movilizan a un ritmo agonizantemente lento.

Cuando un proveedor tiene un nuevo producto o servicio establecido, su ritmo de innovación cae al confrontar la necesidad de ayudar a sus clientes para que adopten su prometedora oferta inicial. Este fenómeno se le conoce como Crossing the Chasm (cruzar el abismo), proveniente del libro del mismo nombre, el cual refiere la forma en que los proveedores deben parecerse a sus competidores para lograr un éxito generalizado.

A pesar de que los Amazon Web Services (AWS) cruzan la línea de los cuatro mil millones de dólares en ingresos, no parece desacelerar su paso en la innovación. Lejos de ello. En su reciente conferencia re:Invent 2013, AWS anunció cinco nuevas y grandes ofertas, y señaló que ofrecería más de 250 mejoras de servicios en el 2013.

Nada indica que el 2014 será diferente; esperemos muchos nuevo servicios y ofertas de servicio de AWS. En un reciente conjunto de publicaciones acerca de la infraestructura de hardware y software de AWS, noté que, durante sus primeros años, AWS creó una infraestructura global muy grande que entrega confiablemente capacidades fundamentales de computación, almacenamiento y networking.

Amazon logra su innovación porque enfoca el cómputo en la nube como una disciplina de software, no como una extensión del hosting, como lo hacen la mayoría de sus competidores. Este año veremos más evidencias de que el enfoque del software entrega valor al cliente mucho más rápido que el enfoque del hardware.

7. Google y Microsoft tomarán más en serio la nube
Cloud Computing 3De alguna forma, AWS ha tenido ‘pista libre’ hasta el momento. La mayor parte de su competencia ha venido del mundo del hosting, y, como se señaló, ésta es incapaz de tomar un enfoque de software en este terreno. Como resultado, AWS ha mejorado y crecido más rápido que los otros CSP.

Esta ‘pista libre’ terminará en el 2014. Tanto Google (con Google Cloud Platform) como Microsoft (con Windows Azure) tienen a AWS en mente y están desplegando ofertas muy competitivas, diseñadas para dar la batalla.

Las dos han reconocido que sus ofertas iniciales de nube no eran adecuadas. Con la versión 2.0, ambas compañías introdujeron ofertas de nube competitivas.

Microsoft tiene una oportunidad obvia: posee una enorme base instalada y una gran comunidad de desarrolladores. Sus ofertas se integran directamente con las herramientas de desarrollo existentes y hacen que sea sencillo alojar una aplicación en Azure. Su mayor desafío podría no ser la tecnología, sino redirigir la inercia de su actual negocio y base de socios.

He escuchado rumores de distribuidores de Microsoft muy sensibles quienes se preguntan cuál será su rol en el futuro de la compañía. La inevitable tentación para la compañía será moderar su iniciativa Azure para aplacar a los socios actuales. Eso sería negativo, pero son entendibles los motivos por los que la dinámica de las relaciones existentes podrían evitar (o dificultar) el progreso de Azure. Sin embargo, Microsoft entiende que AWS representa una amenaza mortal y ha decidido enfrentarla.

Google se encuentra en una posición diferente. No tiene una base instalada que se vea amenazada por AWS. Sin embargo, ha resuelto ir tras Amazon, usando como armas su respaldo financiero y sus excepcionales recursos técnicos. Un interesante post, que describe las numerosas ventajas que tiene Google Compute Engine frente a AWS, deja en claro que Google apunta directamente a las carencias técnicas de AWS.

De alguna forma, este es un cambio refrescante con respecto a los ineficaces intentos de otros competidores, que insisten en enarbolar “ventajas” sobre AWS de las que nadie se preocupa.

La oferta de Google es quizás la más intrigante de las dos. En la década pasada, Google fue más innovadora que Microsoft. Esto implica que podría ser el oponente más creativo que AWS enfrente en 2014.

En cualquier caso, para AWS el mercado CSP ya no será como “quitarle el caramelo a un niño”, y el 2014 marcará el inicio de una lucha multianual por el dominio entre estas tres empresas.

8. La importancia del ecosistema quedará clara
Casi todos han escuchado del “efecto red”, el cual se refiere al valor añadido a un grupo de usuarios cuando uno más se une al grupo. En ocasiones se resume como “si solo uno tiene fax, entonces éste no es de mucha utilidad”, a menos que muchas personas tengan faxes para poder enviar y recibir mensajes, poseer un fax no ofrece mucho valor.

Con respecto a las plataformas tecnológicas, existe una relación simbiótica entre el “efecto red” del número de usuarios y la riqueza de la funcionalidad que ofrece una plataforma. Esto generalmente no se basa en la capacidad de la propia plataforma sino en los servicios y productos de terceros que son complementarios.

En la actualidad, la riqueza del ecosistema CSP se encuentra totalmente dispareja. No sólo AWS proporciona una plataforma más rica en servicios que sus competidores, sino que también tiene, con mucho, el mayor número de servicios complementarios proporcionados por terceros. En el 2014, a medida que más aplicaciones se desplieguen en proveedores de nubes públicas, la importancia del ecosistema será un punto de interés.

La riqueza del ecosistema de una plataforma afecta directamente la velocidad con la que las aplicaciones pueden crearse y entregarse. Las plataformas de nube que tienen un ecosistema insignificante van a sufrir, incluso si sus servicios fundamentales, como las máquinas virtuales y la capacidad de red, son mejores que las de Amazon.

Claramente, Microsoft debería poder desplegar un ecosistema rico, ya que la clave del éxito de Windows es su ecosistema; gran parte de él, presumiblemente, debería poder portarse a Azure de manera muy sencilla. Veremos cómo Google progresa en este campo durante 2014.

9. VMware se dará cuenta que vCHS es crítico para su futuro
VMware ha estado en una posición entretenida con respecto al cómputo en la nube. Las indudables ventajas de la plataforma dentro del centro de datos corporativo no han sido igualadas por un similar éxito en la nube pública. Por alguna razón –o quizás por muchas razones– los socios CSP públicos de VMware no han podido generar una gran adopción del sabor de VMware en el cloud computing.

VMware está tomando otro sentido en este campo, con un enfoque explícitamente diseñado para ampliar e integrar los ambientes on premises en una oferta de nube híbrida dirigida por VMware. Este enfoque promete mucho, ya que la capacidad para transferir sin problemas una carga de trabajo de ambientes internos a ambientes externos podría resolver muchos dolores de cabeza para las organizaciones de TI.

Este enfoque, llamado vCHS, puede proporcionar beneficios que van más allá de la simple consistencia de la tecnología, ya que permitiría que las organizaciones TI se concentren en un conjunto de habilidades personales, reduciendo así los costos y la complejidad.

El próximo año será importante para VMware y su oferta vCHS. Como se señaló antes, las compañías están tomando decisiones en estos momentos que establecerán el curso para el futuro. Si VMware espera tener un papel importante en la computación en la nube pública como lo tuvo en los ambientes de centro de datos internos, necesita ser parte de esas decisiones. No queda mucho tiempo para obtener una posición en las listas. Uno puede estar seguro que VMware reconoce cuán importante va a ser el 2014 para su futuro y que está planeando una campaña agresiva para mantener su posición de liderazgo en el mercado.

Cloud Computing 410. Se aproxima un “baño de sangre” en precios para la nube pública
Amazon ha tenido “pista libre” hasta el momento. La mayoría de su competencia, en efecto, luchaba en el frente equivocado, o a menos trató de diferenciarse en aspectos acerca de los cuales la mayoría de los adoptadores son apáticos. Una diferencia fundamental entre AWS y la mayoría de su competencia es el costo. Mientras que gran parte de la competencia de Amazon ha alineado sus precios con los modelos de alojamiento existentes, requiriendo compromisos significativos en términos de la cantidad de recursos y la duración del contrato, Amazon hace que sea sencillo comenzar con unos cuantos dólares, sin compromisos.

En efecto, esto ha significado que Amazon está compitiendo con ella misma –y, ha reducido precios desde que lanzó AWS. Ese campo de uno va a expandirse este año con la llegada de Microsoft y Google. El resultado va a ser una feroz guerra de precios, en donde las tres compañías reducirán sus costos de manera repetida para mantener (en caso de Amazon) o lograr (Microsoft y Google) participación de mercado.

Ésta no sólo es una batalla por el dominio del mercado, sino que refleja la naturaleza de la computación en la nube: una industria intensiva en capital en donde es crítico mantener un alto nivel de uso.

Para otros proveedores de nube, ser testigos de esta aglomeración competitiva no sólo será un deporte de observación. Todos los proveedores de nube van a ser confrontados –de manera diaria y continua– con tres competidores con buenos recursos financieros cada uno de los cuales supera a los otros cada vez que reducen sus precios.

Inevitablemente, otros CSP sufrirán daños colaterales, ya que los clientes potenciales llevarán la lista de precios de los tres grandes a las negociaciones de los contratos y esperarán que éstos igualen lo que ofrecen. Para aquellos sin un bajo costo de capital y sin sus propios recursos financieros, el próximo año será el inicio de un largo y lento descenso hacia un problema financiero que sólo se resolverá mediante la consolidación de la industria o cerrando sus ofertas.

La industria de las aerolíneas es un buen ejemplo de ello. Como con la computación en la nube, las aerolíneas son un negocio intensivo en capital; los aviones cuestan mucho, mientras que los asientos son vendidos a bajo costo y con pocos compromisos. La clave para la industria de las aerolíneas es la administración del rendimiento, que es su versión de la utilización de la infraestructura.

En los pasados años se ha visto varias bancarrotas entre las aerolíneas y una manía por las fusiones. El próximo año el mercado de la computación en la nube se verá muy parecido a la industria de las aerolíneas, algo bueno para los clientes, pero peligroso para los proveedores.

Bueno, ahí lo tienen, mis predicciones para el 2014 del cómputo en la nube. Habrá muchos éxitos a medida que los usuarios aprendan a aprovechar las nuevas capacidades que ofrece la computación en la nube, junto con desafíos a muchos en la industria –tanto usuarios como proveedores– que luchan por realizar una transición exitosa a la plataforma en el futuro.

_________________

Bernard Golden es director senior del grupo Cloud Computing Enterprise Solutions de Dell. Es autor de tres libros sobre virtualización y cómputo en la nube, incluyendo Virtualization for Dummies.

2014, “año de la verdad” para las SDN

SDN en 2014El año pasado hubo mucha actividad en las redes definidas por software, incluyendo la respuesta de Cisco a la tendencia de marginalización del hardware.

Este 2014 promete no ser diferente al anterior. Podemos esperar una expansión y extensión de las tendencias vistas en 2013 (más implantaciones por usuarios finales, más trabajo de estandarización de los APIs de SDN, más implantaciones de productos de los proveedores más importantes, como el Cisco ONE y el NSX de VMware, más consolidación de la industria y más aplicaciones revolucionarias).

“Al parecer, los clientes potenciales han alcanzado el límite con el auge de SDN y ahora están más en un estado de ‘muéstrenme que todo de lo que hemos hablado funciona y déjenme hablar con las referencias que existen en el mercado’”, afirmó Bob Laliberte, analista senior de Enterprise Strategy Group. “Por lo anterior, espero que 2014 sea el año de la verdad para SDN, y las soluciones de los proveedores sean puestas a prueba para ver si la realidad cumple o excede las expectativas. En este escenario, los proveedores necesitarán cumplir sus promesas”.

Un mercado de más de 3 mil mdd

Toda esta actividad ayudará a empujar el mercado de SDN por arriba de los 3,000 millones de dólares en los próximos dos o tres años, según estimaciones de IDC e Infonetics Research.

IDC cree que alcanzará los 3,700 millones en 2016, mientras que Infonetics es un poco más conservador, con una previsión de 3,100 millones en 2017.

Los clientes serán los catalizadores. En 2013, los pioneros como Marist College, Bloomberg, Henry Ford Health System y University of Pittsburgh Medical Center compartieron sus experiencias con SDN.

Este 2014 debería traer más historias nuevas, y algunas deberían ser sobre implantaciones más estables, y de las aplicaciones que van sobre ellas.

Cisco espera que la automatización de la seguridad, las aplicaciones analíticas y los habilitadores de movilidad estarán entre las aplicaciones más importantes de SDN para este 2014.

La próxima desaparición de XP incrementa el uso de Windows 7 y Windows 8

Windows XP Windows 8Windows continúa dominando el panorama de sistemas operativos. Así lo ha hecho saber NetApplications, cuyo informe destaca que Windows ostenta el 90.73% de participación de mercado. A pesar de este dominio, Microsoft bajó ligeramente el porcentaje desde febrero de 2013 cuando disponía del 91.62%. Mac, con una participación del 7.54% (en febrero tuvo el 7.17%) y Linux, con un 1.73% (en febrero era del 1.21%) son los otros dos sistemas operativos más utilizados.

Por versiones, parece que los usuarios ya comienzan a abandonar Windows XP. Y es que la paulatina desaparición del sistema operativo más longevo de Microsoft (el próximo 8 de abril la multinacional lanzará la última actualización de seguridad para Windows XP) provoca que Windows 7 incremente su participación desde febrero, al pasar de un 44.55% a un 47.52%, y continúe siendo el sistema operativo más utilizado.

Uno de los sistemas operativos que más ha visto incrementar su participación de mercado es Windows 8. El último sistema operativo de Microsoft tuvo una presencia del 2,67% en febrero de 2013 y del 6.89% en diciembre de este año. También hay que tener en cuenta Windows 8,1, la última versión de Windows 8 anunciada en el último trimestre de 2012 y que ya está en 3.60% de las PC.

A pesar de esto, Windows XP todavía está en el 28.98% de las PC. La parte positiva es que este porcentaje se ha reducido considerablemente desde diciembre de 2012, cuando Windows XP se encontraba en el 39.08%.

Por su parte, Windows Vista continúa registrando descensos, ya que este sistema operativo ha pasado del tener una cuota del 5.17% en febrero de 2013 a 3.61% en diciembre, según NetApplications.