Etiqueta: perspectivas

¿Qué modelos están emergiendo en los centros de datos?

Tradicionalmente, el centro de datos ha evolucionado en respuesta a innovaciones tecnológicas ¬–la mayoría basadas en servidores– y tanto el ritmo como la dirección de tal evolución han sido hasta cierto punto predecibles. Tendencias disruptivas como la informática en la nube, la sostenibilidad, la ciberseguridad y el Internet de las Cosas están impulsando profundos cambios informáticos en todos los sectores, creando oportunidades y retos para las áreas de TI. Como resultado, están emergiendo nuevos arquetipos que cambiarán el panorama de los centros de datos y que prometen mejorar la productividad, reducir los costos y aumentar la agilidad, entre otras bondades. CIO México acudió a distintas fuentes para recopilar algunas de las tendencias tecnológicas y administrativas que se vislumbran para este 2016.

 

Asegurar la continuidad, todavía una carencia

La más tendencia citada sigue siendo el interés que tienen los CIO, CDO y CTO por fortalecer los datos que tienen bajo su cuidado.

Y es que el mundo en que vivimos, cada vez más conectado, crea un mayor número de oportunidades a los piratas informáticos. En lo referente al diseño de los centros de datos, las organizaciones han empezado a asumir una propuesta en la que la seguridad esté por encima de todo. Esto les lleva a desplegar contenedores de datos fuera de la red para información altamente confidencial, en algunos casos con equipamiento de refrigeración y suministro eléctrico separado y exclusivo.

Sin embargo, en nuestro país las organizaciones todavía enfrentan un sinnúmero de problemas para asegurar la continuidad de sus data centers, como señala la encuesta que realizó Computerworld México (ver recuadro). La mitad de los entrevistados afirmó haber tenido al menos una caída su centro de datos en los últimos 12 meses, y un 15% dijo haber sufrido más de dos caídas en este mismo lapso.

 

La llegada de un lenguaje común

Otra de las tendencias que veremos en este 2016 será que los centros de datos encontrarán un lenguaje común. “El arribo del Internet de las Cosas no sólo repercutirá sobre las arquitecturas de los futuros data centers al aumentar el volumen de datos que deban procesarse; también cambiará la gestión de los centros de datos, y esto último pasará antes que lo primero”, afirmó Franco Costa, Vicepresidente y Director General de Sistemas de Alimentación en Emerson Network Power.

Dijo que los centros de datos de hoy en día incluyen miles de dispositivos que hablan multitud de lenguajes como el IPMI, SNMP y Mod Bus. Esto crea “lagunas” entre sistemas que limitan los esfuerzos de gestión holística. Sin embargo, Costa señaló que tal limitación dejará de existir a medida que el estándar abierto de la industria Redfish consiga aceptación.

Redfish creará interconectividad a través de sistemas de centros de datos, permitiendo nuevos niveles de visibilidad, control y automatización, aseveró Costa.

 

Nube, ante servidores “comatosos”
Respecto al mundo de la nube, sin duda éste se ha vuelto más complejo. La evolución desde modelos de Software como Servicio (SaaS) a ambientes verdaderamente híbridos –en los que los servicios en la nube se utilizan para aportar mayor agilidad a instalaciones antiguas– sigue avanzando a medida que más organizaciones se pasan a una arquitectura bimodal (nube privada/pública).

Sin embargo, en lugar de permanecer estable, la nube podría volverse cada vez más compleja. El último estudio de investigación sobre utilización de servidores, llevado a cabo por Jonathan Koomey de la Universidad de Stanford y Jon Taylor de Anthesis Group, reveló que los servidores de centros de datos empresariales proporcionan apenas entre el 5 y el 15% de su potencial de computación máximo en el transcurso de un año, en promedio.

El estudio también reporta que el 30% de los servidores físicos está en estado “comatoso”, lo cual significa que no han proporcionado servicios informáticos en seis meses o más. La presión para identificar y eliminar “servidores comatosos” continuará aumentando y es un paso necesario para la correcta gestión del consumo energético. Sin embargo, también se explorará el potencial de que la capacidad no utilizada de los centros de datos pase a formar parte de un servicio compartido, un modelo de nube distribuido, lo que permitirá a los centros de datos empresariales vender su capacidad excedente en el mercado libre.

 

Servicios de última generación

De acuerdo con los pronósticos de IDC, para el 2016 el tráfico de datos a nivel mundial alcanzará los 10.4 Zettabytes. El desafío que enfrentarán las organizaciones será modernizar su infraestructura para analizar la información, procesarla, entenderla y de esta manera crear negocios de nueva generación, declaró Juan Carlos Durán, Gerente de Desarrollo de Negocios para Data Center y Virtualización para Cisco México.

Dijo que en nuestro país se ha incrementado la demanda de servicios de cómputo de última generación. “Esto significa que más empresas están interesadas en renovar y poder optimizar el uso de infraestructura, ya las organizaciones quieren garantizar el retorno de inversión de manera adecuada”.

Para ejemplificar esto, Durán aludió a estimaciones de IDC, las cuales señalan que en América Latina aumentó un 72% la presencia de servidores tipo blade en el último trimestre de 2014, comparado con el mismo periodo del año anterior.
Esta demanda se incrementó particularmente en segmentos clave como el de Proveedores de Servicios, explicó el directivo de Cisco.

 

Informática en la niebla

A medida que el ‘edgecomputing’ se hace más crítico, las arquitecturas distribuidas se están haciendo también más habituales. Por ello, en este 2016 deberá tenerse en cuenta la llamada “Informática en la niebla”.

Introducida por Cisco, la Informática en la niebla conecta varias redes pequeñas en una sola red grande, con servicios de aplicaciones distribuidos en dispositivos inteligentes y sistemas informáticos que mejoran el rendimiento y se concentran en el proceso de datos más cerca de dispositivos y redes. Esto es una respuesta lógica a la masiva cantidad de datos que genera el Internet de las Cosas (IoT).
“El IoT se comienza a ver como una ‘fórmula’ para mejorar tanto los procesos como la toma de decisiones dentro de las organizaciones. Va a ser algo excepcional en materia de infraestructura y con ello las empresas cambiarán la forma de hacer negocios”, aseguró Durán, de Cisco.

 

Instalaciones más sustentables

Durante 2016 se dará mayor importancia a la responsabilidad social. Si bien desde 2007 el sector TIC ha incorporado la eficiencia energética en los centros de datos, hasta ahora se centraba sobre todo en aspectos financieros. Pero gracias a iniciativas como la que impulsa la Unión Europea, algunas empresas están cambiando su enfoque de ahorro financiero por el de sustentabilidad, y están mirando sus centros de datos a través la lente de responsabilidad social.

“Las operaciones de los centros de datos, incluidas la huella de carbono, el uso de energías alternativas y la eliminación de equipos, se están incluyendo ahora en las declaraciones de responsabilidad corporativa, creando una mayor presión para avanzar en estas áreas”, señaló Costa, de Emerson Network Power.

Agregó que el impacto de esta tendencia no se limitará a decisiones tecnológicas en las instalaciones. De hecho, “para que sea significativa, deberá abarcar todo el ecosistema del centro de datos, incluidas la colocación y los proveedores de la nube”. Y a medida que esta práctica crezca, la sustentabilidad alcanzará el nivel de disponibilidad y seguridad, como atributos imprescindibles de un centro de datos de alto rendimiento.

 

Bienvenidos los microcentros de información

Finalmente, el centro de datos se consolida. El crecimiento en el consumo de contenido digital y la recopilación de datos está desafiando el modelo de centro de datos centralizado. Y aunque los grandes centros de datos seguirán proporcionando la mayoría de la computación, estos se verán respaldados cada vez más por instalaciones limítrofes, o centros de datos propios, que proporcionarán contenido y aplicaciones de baja latencia a usuarios o el procesamiento de datos para redes de IoT.

Y a medida que estos microcentros de datos –funcionando como satélites de una instalación central– proliferen en los campus corporativos y en áreas residenciales de alta densidad, su éxito dependerá del uso de sistemas inteligentes y estandarizados que puedan gestionarse remotamente.

 

Por: Karina Rodríguez, Computerworld México

Gerardo Esquivel, Computerworld México

y José Luis Becerra, CIO México.

¿Cómo será la banca para el 2020?

banca-digital-pagosLos clientes de la industria financiera hoy día tienen más opciones que nunca en la forma cómo hacen uso de la Banca Digital. Los Bancos están evolucionando, de un lugar a dónde ir, a ser una alternativa más dentro de las múltiples opciones que tiene una persona para adquirir un servicio financiero.

Esto ha generado una serie de cambios y desafíos. Algunos de los cuales se producen por la creación de una propuesta de valor e incorporación de la creciente cantidad de personas susceptibles de ser bancarizadas, para generar una banca social, el aumento en la insatisfacción con los niveles de calidad de servicio por parte de los clientes, la presión para adaptarse a los nuevos cambios en el ambiente tecnológico, la incorporación de nuevas fuentes de información en los modelos de evaluación actuales, y la necesidad de optimizar y mejorar de manera continua los costos operativos.

Todos estos factores llevan a los bancos  a plantearse fuertes cambios y a discutir un nuevo modelo de banca para el futuro basado en estos requerimientos, lo que probablemente nos lleve a un nuevo modelo de industria en los próximos cinco años.

Con base en lo anterior, es conveniente revisar los cambios que se están introduciendo en al menos cinco ámbitos, donde parece haber consenso en la mayoría de las instituciones que están liderando este proceso:

Canales de atención

Tradicionalmente, los bancos han medido su penetración y participación de mercado a través de la cantidad de sucursales, tamaño de ellas y cantidad de ejecutivos que trabajan. Esto basado en el modelo en el que los clientes tenían que acudir a un lugar cercano y cada uno de ellos debían tener un ejecutivo de cuenta que pudiera atender sus necesidades.

Dado el aumento en la cantidad de clientes que tienen acceso hoy al sistema bancario, este modelo tradicional es cada vez más difícil de cumplir, los costos operativos han aumentado y la cantidad de clientes por ejecutivo se ha duplicado o triplicado.

Ante esto, han proliferado canales de auto-atención que rompen con la premisa anterior: internet, smartphones, quioscos inteligentes, ATMs, etcétera, en donde los clientes no necesitan contactarse con un ejecutivo ni acudir a una localidad física para resolver sus necesidades. Para los bancos, esto trae como beneficio una disminución en sus costos operativos. Al respecto, es muy probable que en los próximos cinco años se defina un nuevo modelo de sucursales, en donde los bancos van a disminuir significativamente la cantidad de sucursales manteniendo sólo algunas estratégicas para atender operaciones complejas (créditos hipotecarios, banca de inversiones, finanzas personales, etcétera). Y en este sentido, los asesores deberán migrar a un modelo de asesoría personalizada que genere valor a los clientes del futuro,

 

Experiencias personalizadas por cliente

Debido al aumento de personas que tienen acceso al sistema bancario hoy día, es imposible identificarlas a todas con las herramientas y plataformas tradicionales. Esto hizo que los bancos recurrieran a la estandarización de sus propuestas de valor, diferenciadas básicamente por segmentos de acuerdo a la renta y ventas.

Esto ha provocado la insatisfacción de los clientes con sus instituciones bancarias, justamente por esta falta de personalización. Los consumidores demandan productos de acuerdo a sus necesidades y a su comportamiento, quieren que las instituciones anticipen sus problemas, que la información histórica ya esté incorporada, que los tiempos de atención sean cada vez más cortos y que los bancos estén preparados para atenderlos en cualquiera de los formatos habilitados.

Dado lo anterior, la mayoría de las instituciones bancarias se encuentra revisando sus modelos de segmentación y de venta, su propuesta de productos y servicios, e incorporando las variables de comportamiento a sus análisis, mostrando muy buenos resultados.

Además, es muy probable que veamos cada vez a más instituciones que utilizan modelos analíticos más complejos para incluir todas las variables de comportamiento, a las variables demográficas tradicionales de sus modelos.

 

Negocios_asesorDigitalización y el rol del CEO

El avance hacia la digitalización de las operaciones bancarias es otra tendencia que viene en alza, como parte de las iniciativas de los bancos para disminuir sus costos operativos y sus tiempos de atención.

Podemos agregar el hecho que la supervisión de los organismos reguladores hacia los bancos también está aumentando, lo que lleva a enfatizar la necesidad de preparar informes regulatorios de manera rápida. En general, las áreas de negocio de los bancos están acostumbradas a trabajar en silos, y por ello, temas como la cantidad de clientes vigentes, productos, saldos promedio, etcétera, no es una información fácil de obtener.

Para solucionar este tema, se ha buscado implementar nuevos roles dentro de las organizaciones, tales como el CDO (Chief Data Officer), COO, (Chief Operating Officer), CIO (Chief Information Officer, aparte del IT Officer).

 

Implementación de nuevas plataformas tecnológicas

La dificultad para lidiar con los sistemas ‘legacy’ de los bancos y los problemas que estos generan en términos de estabilidad, mantención y comunicación con otras plataformas ha sido ampliamente discutida a nivel de la industria.

Sin embargo, al día de hoy el problema parece exacerbarse, ya que la velocidad a la cual avanzan las actualizaciones de estas plataformas y la incorporación de nuevas tecnologías a las arquitecturas de sistemas de los bancos, no está relacionada con el avance del mercado. En particular, la industria muestra un avance muy lento hacia la incorporación de nuevas tecnologías que les permitan absorber el gran volumen de información que se está generando hoy en día, conocido como el big data, y el poder procesar e incorporar fuentes de datos semi-estructuradas.

La proliferación de nuevos canales y fuentes de información muestra un crecimiento exponencial en términos del volumen de datos generados, mientras que la velocidad de adopción de nuevas tecnologías se mueve de manera lineal, por lo que la brecha continúa ensanchándose.

Es por ello que se vuelve cada vez más urgente la discusión sobre la adopción de una arquitectura de datos unificada, donde se puedan incorporar ágilmente nuevas tecnologías analíticas que permitan integrar de manera transparente el ambiente tradicional de data warehouse y data marts junto con los nuevos tipos de información.

A lo anterior, hay que agregar la nueva tendencia relacionada con la incorporación de un nuevo elemento a la arquitectura de sistemas tradicional: la utilización de la nube (cloud technology).

Actualmente, muchos bancos ya están utilizando la plataforma cloud para gestionar muchas de sus actividades comerciales, como campañas de marketing digital, gestión de campañas y manejando sus actividades de redes sociales y atención a cliente. Adicionalmente, muchos de ellos se encuentran haciendo consultas a superintendencias y organismos gubernamentales locales relacionadas con los permisos y posibles objeciones para guardar la información de clientes y productos en la nube. En este sentido, es muy probable que veamos un uso exponencial de esta plataforma en el corto y mediano plazo.

 

Medios de pago

La proliferación de nuevos medios de pago también es un fenómeno creciente al interior de la industria. La tendencia sobre el uso de smartphones como medio de pago es una realidad que va a estar implementada en el corto plazo.

Hoy, el uso de POS (tanto por parte de los vendedores como por parte de los usuarios individuales) y de los canales de corresponsalía es una práctica extensiva en la industria, y se observa que la tendencia de uso viene en aumento, incluso compitiendo con los canales remotos “más tradicionales” (transferencias web y portales electrónicos).

Esta tendencia probablemente traiga consigo mayor presión a la estabilidad de los sistemas de los bancos, ya que el volumen de este tipo de transacciones continuará aumentando.

 

banca-digitalPerspectivas de la Banca

En los próximos cinco años vamos a vislumbrar una industria de servicios financieros muy distinta, dependiendo de la velocidad con la que los actores de la Banca evolucionen en las tendencias mencionadas.

Es muy probable que tengamos una industria bancaria más concentrada y con menos actores, ya que va a haber una reducción en los márgenes de rentabilidad por cliente, producto y banca.

Dentro de este proceso, la implementación de nuevas tecnologías va a jugar un rol clave, y es por ello que se observa una mayor injerencia de parte de los CO´s  debido a que, el uso extensivo de temas analíticos en las decisiones de negocio, la decisión sobre que arquitectura y modelo de datos implementar y gobierno del uso de la información, se están convirtiendo en parte importante de la toma de las decisiones estratégicas y un factor de ventaja competitiva para las empresas.

 

 Por: Jesús Flores, Finance Industry Consultant Teradata

Gartner: software empresarial y dispositivos impulsan el crecimiento del gasto de TI

Gartner software empresarial y dispositivosEl gasto mundial de TI crecerá este año el 3.2%, para alcanzar 3.8 billones de dólares, impulsado por un repunte de las ventas de dispositivos móviles y un fuerte crecimiento en la categoría de software empresarial, según Gartner.

Además, esta firma de consultoría pronostica que la facturación de software empresarial crecerá un 6.9% hasta lograr 320,000 millones de dólares, gracias a un mayor interés en el software social, tecnologías de bases de datos y de gestión de datos.

Por otro lado, “2014 será un año muy diferente a 2013”, cuando muchas organizaciones planificaron proyectos de software, pero no llegaron a ejecutarlos, afirmó el vicepresidente de investigación de Gartner, John Lovelock. “No obstante, el 2013 también tuvo el espectro del futuro. Sabíamos que los cosas iban a cambiar para bien”. Y confió en que este año más compañías empiecen a ejecutar esos proyectos planificados.

Las cifras sector por sector

En este sentido, el segmento de servicios de TI está preparado para crecer el 4.6% para alcanzar los 964,000 millones de dólares en 2014, según los datos recogidos.

Mientras tanto, las ventas de dispositivos crecerán un 4.4%, para lograr 689,000 millones de dólares. La demanda de los teléfonos de gama más alta se está reduciendo, ya que los compradores de regiones como los Estados Unidos y Europa se están prefieren inclinarse hacia el segmento “premium medio”. Por su parte, los usuarios de mercados emergentes se decantan por los teléfonos más baratos de Android, según la consultora.

También hay un cambio en la forma en que la gente está reemplazando los dispositivos, explicó Lovelock. Los compradores no están reemplazando las PCs “casi tan frecuentemente” como antaño. En cambio, están comprando “el siguiente formato de dispositivo”, como una portátil en vez de una PC, o una “ultrabook” en vez de una portátil, afirmó el analista.

¿Y qué hay de los data centers?

Las ventas de sistemas de centros de datos serán este año de unos 143,000 millones de dólares, un crecimiento del 2.3% con respecto al 2013, cuando las ventas cayeron un 0.2% comparadas con 2012. El repunte este año será impulsado por el interés en cloud computing, la virtualización y la tecnología de Wireless LAN para soportar a los dispositivos móviles, según Gartner.

Las tendencias como los más eficientes “centros de datos hiper escalados”, así como el decrecimiento de las ventas de servidores x86, limitarán el crecimiento en este segmento, señaló Lovelock.

Por último, la facturación de los servicios de telecomunicaciones, el mayor segmento del estudio de Gartner, crecerá 1.3% hasta alcanzar los 1,655 billones de dólares.

De los diferentes conceptos que incluye la facturación de servicios de telecomunicaciones, sólo los datos móviles muestran crecimiento. De hecho, los datos móviles pasarán de ser el sub-segmento más pequeño de la categoría a ser el mayor en 2016, sostuvo el analista.

Este crecimiento en datos móviles se debe “no sólo a que se quiere Internet en el dispositivo portátil”. En realidad, las aplicaciones en los dispositivos demandan más y más datos, igual que los cada vez más populares sistemas a bordo de los automóviles, aseveró Lovelock.

15 mil millones de dispositivos tendrán acceso a contenidos multimedia en 2020

Dispositivos con acceso a multimediaEn el 2020 habrá más de 8,000 millones de usuarios de banda ancha móvil y 1,500 millones de hogares con televisión digital. Según Ericsson, la visión de la Sociedad en Red será un hecho, con más de 50,000 millones de dispositivos conectados, de los cuales 15,000 millones permitirán el acceso a contenidos multimedia y circularán sobre redes IP dominadas por el tráfico de video.

Este es el escenario que Ericsson dibuja en su estudio Media Vision 2020, que refleja la visión estratégica de la compañía sobre la evolución de la TV y el sector de los medios en los próximos seis años.

Este proyecto, basado en más de seis meses de investigación, incluye datos estadísticos, informes detallados, entrevistas individuales y grupos de trabajo con individuos y clientes de la compañía a nivel mundial.

En el estudio se estima que en mercados avanzados, como el de Europa Occidental y Estados Unidos, en el 2020:

La Sociedad en Red será una realidad. Unos 15,000 millones de dispositivos con acceso a video estarán conectados a banda ancha IP, transformando la experiencia del consumo de TV. La banda ancha móvil es esencial en todas las regiones y fundamental en los países en desarrollo.

El empaquetamiento de contenidos y servicios sigue siendo la última oportunidad. Los consumidores valorarán la simplicidad y percibirán el valor de una factura única. No obstante, la necesidad básica de banda ancha permitirá la separación de propuestas valor entre el acceso de banda ancha y los contenidos.

Servicios ‘over the top’ para todos. La distribución de contenidos ‘over the top’ será aplicable a todos los proveedores de servicios de TV y de contenidos como una forma de llegar a los consumidores, así como de mejorar las plataformas ya existentes de difusión de contenidos.

El video bajo demanda alcanzará al consumo de TV en directo. Las redes IP habrán acelerado el cambio generado por los consumidores y accederán bajo demanda a un total de hasta un 50% de los contenidos de TV.

Nuevos entrantes traerán nuevas inversiones. La aceleración tanto de la capacidad como de la penetración de la banda ancha, así como la existencia de cada vez más dispositivos conectados, permitirá que un dispositivo avanzado o que un ecosistema social llegue a convertirse en un agregador de TV Premium.

Los ingresos del mercado llegarán a 750,000 millones de dólares, en comparación con los 530,000 millones de dólares que se obtuvieron en 2013. La distribución de los ingresos cambiará entre proveedores de contenidos, difusores de TV, proveedores del servicio de televisión y de red, a medida que las marcas cambien sus objetivos en cuanto a la publicidad.

“El futuro es incierto, pero la dirección y la tendencia están claras. Las reglas de la TV están cambiando y es esencial para nuestros clientes evaluar sus estrategias”, aseguró Per Borgklint, vicepresidente Senior y Responsable de la Unidad de de Negocio de Soluciones de Soporte de Ericsson.

Para permitir a los distintos jugadores de esta industria sacar ventaja de esta visión y construir estrategias de éxito de cara al año 2020, Ericsson ha extraído lo que denomina “Game Changers”, que son los principales motores y facilitadores de disrupción, de captura de las oportunidades y de cambio. Estos “Game Changers” serán analizados de manera pormenorizada mediante varios informes que se publicarán a lo largo de 2014.

Seguridad y calidad, principales motivos para utilizar código abierto: encuesta

Seguridad y calidad código abierto¿Por qué debería utilizarse software de código abierto? El hecho de que sea generalmente gratis puede ser un punto atractivo, pero no es la razón principal por la que la mayor parte de las compañías deciden utilizarlo. En su lugar, la seguridad y la calidad son las razones más citadas, según la encuesta anual 2014 Future of Open Source Survey, elaborada por Black Duck Software y North Bridge Venture Partners.

De hecho, un 72% de los encuestados afirman que utilizan código abierto porque ofrece mayor seguridad que el software propietario. Y el 80% confesó haberlo elegido por su calidad frente a las alternativas de software propietario.

El 68% de los encuestados dijeron que el código abierto ayudaba a mejorar la eficiencia y tenía menores costos, mientras que un 55% indicó que el software también les ayudaba a crear nuevos productos y servicios. El 50% afirmó abiertamente que habían contribuido para adoptar el software de código abierto.

Los resultados del informe 2014 dibujan un futuro todavía más prometedor para el código abierto que los del año pasado. Con una participación récord, 1,240 participantes provenientes de la industria contestaron las preguntas sobre tendencias del código abierto, oportunidades, impulsores de la adopción y problemas de negocio que resuelve el código abierto.

“Estamos viendo un cambio fundamental en la forma como las empresas organizan su infraestructura, descartando marcas propietarias en favor de plataformas abiertas, más eficientes y efectivas en costo”, aseveró Mark Shuttleworth, fundador de Ubuntu and Canonical, y uno de los encuestados en el estudio.

Una ventaja competitiva

Las compañías están “motivadas por el costo, como todo el mundo”, explicó Lou Shipley, CEO de Black Duck. “La utilización de código abierto permite reducir los costos. También ayuda a poder reclutar a los mejores empleados”.

Las organizaciones deben entender que “la utilización de software de código abierto va más de simplemente reducir los costos o cualquiera de las razones tradicionales: consiste en participar y gestionar los retos logísticos para obtener ventaja competitiva, atraer el mejor talento e influenciar la dirección del proyecto”. Sobre todo, “las pequeñas empresas pueden obtener una ventaja competitiva con la estandarización en código abierto”, agregó Shipley.

Dijo que con el fin de Windows XP, las compañías deberían considerar opciones como Ubuntu y Linux. “El riego es mucho menor y se puede estar sobre los hombros de los gigantes en lugar de tener que reinventar la rueda uno mismo”, concluyó Shipley.

Crece la insatisfacción con las TI

Crece descontentoLas empresas quieren gastar menos en las operaciones de TI y en la infraestructura, y transferir los recursos a las áreas que producen ingresos, de acuerdo con un estudio del grupo Hackett Group y otro de McKinsey. Además, aumenta el nivel de descontento entre las empresas líderes y ejecutivos de TI, conforme se incrementan las exigencias tecnológicas.

Los resultados de ambos estudios señalan que los empresarios quieren que las TI mejoren la línea de fondo, y que las empresas gasten menos en la infraestructura.

Las malas noticias para quienes trabajan en operaciones TI, es que gran parte de las empresas espera recortar personal este año (alrededor del 2%) debido a la automatización y la subcontratación, según la encuesta realizada por Hackett en 160 empresas con ingresos superiores a mil millones de dólares. Una de las vías usadas para esa mejora de la automatización puede ser a través de la adopción de las infraestructuras definidas por software, como planea hacer el Bank of America.

Además, los presupuestos de TI crecerán un 1.7 % este año, y evolucionarán en las operaciones como “proveedor de servicios” para convertirse en un “generador de ingresos”, según el mismo estudio.

Y es que a los administradores de TI “se les ha dicho que deben hacer crecer los negocios, no sólo llevar sus riendas”, explicó Mark Peacock, de Hackett.

Cómo solucionar las deficiencias

Por su parte, la encuesta de McKinsey & Co, realizada entre 800 ejecutivos, obtuvo conclusiones similares. Los encuestados, en general, quieren que menos de su presupuesto vaya a la infraestructura para que así puedan dedicar más recursos a la analítica y a la innovación.

El mismo estudio destaca que ahora los ejecutivos son menos propensos a declarar la efectividad del funcionamiento de las TI, en comparación con hace dos años.

“Los ejecutivos de TI son más negativo que antes”, describe McKinsey. Según sus estimaciones, sólo el 13% de ellos considera que sus departamentos de TI son “totalmente” o “muy eficaces” a la hora de introducir nuevas tecnologías rápidamente, frente a sus competidores. Sin embargo, “ese porcentaje era de un 22 % en 2012”. Estos resultados negativos “probablemente reflejen las crecientes expectativas globales de TI de la empresa “, según McKinsey .

Frente a la pregunta de cómo solucionar las deficiencias, los encuestados citaron la mejora de la rendición de cuentas de negocios, destinar más fondos para proyectos prioritarios y un aumento del nivel de talento de TI, según el informe.

La encuesta Hackett Group no incluye datos sobre la insatisfacción, pero afirma que este año la principal meta de las organizaciones de TI es “intensificar la colaboración y la alineación de objetivos entre TI y el negocio”.

IDC: La nube crecerá más del doble para 2017

Nube crecerá al doble en 2017La computación en la nube fue una industria estimada en 47.4 mil millones de dólares en el 2013, pero se espera que crezca a más del doble, a 107 mil millones de dólares en el 2017, predice la firma de investigación IDC.

La tasa de crecimiento anual compuesta de 23.5% de la nube es cinco veces más rápida que la del mercado tecnológico, indicó Rick, vicepresidente de centros de datos y nube de IDC, durante la conferencia IDC Directions realizada en Boston.

Dijo que la adopción de la nube ha sido liderada por tres grandes factores: la escalabilidad, la complejidad y la velocidad. En efecto, la nube ofrece una escalabilidad que los negocios regulares no tienen, lo cual les permite entregar servicios más complejos y de forma más rápida.

La explosión de los dispositivos móviles fue una de las primeras megatendencias que incrementó significativamente la necesidad de los servicios de computación en la nube.

“Por cada dispositivos móvil que se lanza, tiene que haber un gran centro de datos detrás que lo habilite”, afirmó Villars. Esto condujo a una ola de construcción de “mega centros de datos” como los de Google, Verizon y otros.

Agregó que la siguiente ola de la revolución móvil se acerca sigilosamente hacia nosotros, y lo podemos ver en la tecnología wearable, los dispositivos conectados y el Internet de las Cosas. Los dispositivos wearable –que forman parte de nuestra ropa– incrementarán la necesidad de más centros de datos que sirvan el contenido que se entrega a estos dispositivos.

“El futuro de la nube tiene que ver con el Internet de las Cosas”, sostuvo Villars. “(La nube) es el fundamento sobre el cual se entregará el Internet de las Cosas. Por ello se debe tener el centro de datos y la nube antes de poder entregar los servicios”.

A medida que proliferen los dispositivos conectados, también habrá necesidad de tener estos centros de datos más cerca de los dispositivos finales. Esto, según IDC, dará paso a una nueva estirpe de “micro centros de datos”, los cuales serán muy modulares, construidos con componentes ensamblables –como un Lego–, y darán a sus propietarios la posibilidad de agregar capacidad rápidamente en la medida que la necesiten.

Oportunidades y sugerencias

Pero, ¿qué significa todo esto para los usuarios finales y los CIO de las empresas? Villars afirmó que los usuarios finales tendrán la oportunidad de beneficiarse de la continua madurez de la industria de la nube. De esta forma, el ejecutivo recomendó que los usuarios tomen un enfoque de “gestión de los activos” para la evaluación de los servicios de nube.

El analista dijo que las empresas tendrán lo que se denomina “activos TI líquidos o fijos”. Los “fijos” son los datos regulares, o las aplicaciones legacy de misión crítica que probablemente nunca serán tercerizadas a un ambiente de nube. Los “activos líquidos” son aquellos que pueden ser tercerizados por un proveedor de nube para aprovechar la escalabilidad y la infraestructura del proveedor de servicios. “Para los CIO, es momento de evaluar qué partes del sistema son fijas y qué partes puede uno tener en demanda”, afirmó Villars.

Y mientras menos recursos TI tenga que correr el negocio por sí mismo, más eficiente será y más grande será la industria de la computación en la nube, aseveró.

Crece la demanda de expertos en Linux

Linux crece demandaLa infraestructura cloud –incluyendo los Amazon Web Services– está basada gran parte en Linux, y el crecimiento general de los servicios en la nube está incrementando las implantaciones de servidores Linux. Además, por lo menos un 30% de todos los servidores vendidos este año serán para servicios en la nube, según la firma de investigación IDC.

Este cambio puede estar contribuyendo a la tendencia de contratación de expertos en Linux, según un informe presentado por la Linux Foundation y el sitio web Dice. El informe indica que el 77% de los directivos han puesto la contratación de talento en Linux en su lista de prioridades, cifra que supera el 70% del año pasado.

El estudio no conecta explícitamente el cambio en la utilización de servidores con la contratación, pero Shravan Goli, presidente de Dice, atribuye la creciente demanda de profesionales de Linux a las implantaciones cloud, así como al incremento de aplicaciones móviles. “Muchos de los servicios móviles están construidos sobre sistemas de código abierto”, afirmó.

En el tercer trimestre del año pasado, los servidores Linux constituían el 28% de toda la facturación de servidores, según IDC. En el tercer trimestre de 2012, los servidores Linux representaban un 21.5% de la facturación de servidores.

Actualmente, Dice tiene unos 11,000 anuncios de puesto de trabajo de Linux en su sitio web, afirma Goli. “Y es que la utilización del sistema operativo Linux crece más y más”.

 

Según estimaciones de IDC, Windows está perdiendo terreno en el mercado de hardware de servidores, al tener el 50.3% de toda la facturación de hardware de servidores en el tercer trimestre de 2013. La cifra era del 51.1% en el mismo trimestre un año antes.

Por su parte, los sistemas Unix experimentaron una caída del más del 31% en 2013 con respecto al 2012. Sin embargo, es un mercado particularmente débil, pues el de servidores decrece en total un 3.7% cada año.

El caso de Linux

Linux es “por mucho” la plataforma elegida para implantaciones de cloud computing, según Charles King, analista de Pund-IT, quien asevera que el incremento de la facturación de servidores Linux “sirve como dato de soporte para el incremento” de las contrataciones Linux.

En el área de Unix, King destaca la creciente promoción por IBM de Linux sobre Power. Cabe recordar que, a finales del año pasado, IBM anunció un plan de inversión de 1,000 millones de dólares para promocionar el desarrollo de Linux sobre su sistema Power.

Al respecto, King asevera que la inversión de IBM es un esfuerzo por capturar el mismo tipo de momentum con Linux sobre su plataforma Power que el que ha tenido con su mainframe Linux.

Más de 1,100 directivos responsables de contratación a nivel global fueron entrevistados en el estudio de Dice y Linux Foundation, al igual que más de 4,000 profesionales de Linux.

El estudio cita un número de puntos para soportar lo que denomina “demanda explosiva de profesionales Linux”. Entre sus descubrimientos, cita un incremento en la utilización de Linux en la empresa. El número de managers que afirman que Linux se está convirtiendo cada vez más en “aspecto clave para sus negocios” creció 10 puntos porcentuales desde el año pasado.

En total, 93% de los entrevistados afirmaron que pensaban contratar profesionales de Linux en los próximos seis meses. No sorprende que el 86% de los profesionales de Linux respondieran diciendo que sabían que Linux les había dado más oportunidades profesionales.

El análisis de los datos del estudio para Estados Unidos indica una tendencia similar, pero con algunas diferencias en la demanda de profesionales Linux.

A nivel global, la mayor demanda es de desarrolladores, con el 68%, pero en el vecino país del norte los puestos más buscados son los de administradores de sistemas, con el 66%, seguido por los desarrolladores con el 58%.

En 2017 habrá 1,300 millones de clientes de 4G/LTE

4G LTE creceráCoincidiendo con la realización del Mobile World Congress, que se lleva a cabo esta semana en Barcelona, el organismo independiente de investigación y consultoría especializado en telecomunicaciones, IDATE, publicó el informe LTE 2014 – Markets & Trends, cuyas conclusiones apuntan a un nivel de ingresos generados por estos servicios 4G de unos 78,000 millones de dólares a finales del año pasado, momento en que sumaban 450 operadores móviles, con más de 1,000 dispositivos diferentes y 19 bandas de frecuencias. El video ya representa el 60% del tráfico de Evolución a Largo Plazo (LTE).

Según el informe, a mediados de 2013 más del 54% de los suscriptores de LTE correspondían a Estados Unidos, mercado en el que domina Verizon Wireless, que cubría en ese momento el 96% de la población de ese país. A nivel global existían 200 redes LTE comerciales, de las que 180 son LTE FDD y 20 TD-LTE. En la segunda mitad del pasado año, Corea del Sur estrenó LTE Advanced.

Para Yves Gassot , CEO de IDATE, “el éxito de LTE es sin duda el ejemplo espectacular del inexorable auge de las tecnologías inalámbricas. Es más, la asignación de nuevas bandas de frecuencias a los operadores móviles, el esperado progreso que supone LTE Advanced, la complementariedad con Wi-Fi y las buenas expectativas para M2M y el Internet de las Cosas potenciarán aún más esta tendencia durante los próximos años”.

Entre los muchos efectos que LTE ejerce en el sector de las telecomunicaciones es de resaltar su potencial para proporcionar servicios diferenciados por calidad y velocidad, al tiempo que permite a los operadores redefinir sus modelos de negocio.

Por otra parte, LTE marcará una nueva era de consolidación y de acuerdos de compartición de infraestructuras. Consolidación que no se limitará al mercado de la movilidad, ya que abarcará también los mercados de cable y de comunicaciones fijas.

Las PC todo-en-uno con Android, una tendencia al alza

Android PC todo en unoCada vez más fabricantes apuestan por Android en equipos de escritorio, una tendencia que pretende aprovechar la demanda cada vez mayor de nuevas aplicaciones, almacenamiento y entretenimiento en red. Se trata de equipos con precios asequibles y buenas prestaciones, pero que aún plantean dudas en ambientes corporativos.

Lenovo y Hewlett-Packard han sido los últimos en lanzar sus PC todo-en-uno con el sistema operativo de Google, y a un precio asequible. Son equipos con pantallas de 20 y 21 pulgadas, que aprovechan el sistema operativo desarrollado específicamente para tablets y smartphones, pero que también ofrece buenos resultados en sistemas PC.

Hasta ahora, Android se venía utilizando en tablets y smartphones, pero el creciente uso en PC de aplicaciones basadas en Internet, entretenimiento y servicios de almacenamiento, está propiciando esta nueva tendencia que adelanta un cambio en la forma en que el usuario emplea su computadora.

Así lo cree Nick Reynolds, director ejecutivo de Lenovo, quien asegura que “todo el mundo está descubriendo que dispone de enormes cantidades de contenido digital personal que debe ser almacenado y administrado. Por eso, está cambiando la forma en que trabaja con su computadora de escritorio”.

Incluso, Android se está incluyendo en monitores profesionales de alta definición, como el modelo ThinkVision 4K de 28 pulgadas de Lenovo, diseñado como pantalla de uso profesional, pero que también funciona como PC Android todo-en-uno. Es el caso también del modelo Acer TA272 HUL, una pantalla profesional de 27 pulgadas que también funciona como PC Android.

Parecidas, pero no iguales

No obstante, existen diferencias entre las computadoras convencionales y los nuevos modelos basados en Android. Windows está diseñado específicamente para una informática de escritorio, mientras que los modelos con Android son más un gran centro de comunicaciones, entretenimiento online o incluso una forma de automatizar el hogar, subrayan los expertos.

De esta manera, los equipos con Android pueden constituir un elemento fundamental como centro de computación de empresas y hogares que pueden sincronizarse fácilmente, vía servicios de nube pública o privada.

“La mayoría de los dispositivos multifunción Android son esencialmente monitores inteligentes, por lo que aún son algo diferente y realmente menos potentes que una PC”, afirma Bob O’Donnell, analista de Technalysis.

A pesar de ello, se espera que su adopción sea creciente, a medida que más aplicaciones migren a modelos cloud computing e híbridos, asegura Jim McGregor, experto de la consultora Tirias.

Las PC Android están basadas en procesadores ARM y son más baratas de fabricar que las PC con Windows, señala McGregor, puesto que los procesadores ARM son menos costosos que los de Intel para PCs con Windows, y Android es prácticamente libre.

Pero más allá del costo, HP vislumbra en Android una forma de personalizar mucho más el sistema operativo y de ajustarlo mejor a las funciones de administración y seguridad que reclaman los ámbitos empresariales.

Sin embargo, hay carencias que deberán subsanarse. Por ejemplo, los equipos Android no están diseñados para ejecutar aplicaciones de alto  rango y, al igual que los dispositivos móviles, son más eficaces cuando se conectan. Además, la mayoría de las aplicaciones Android están escritas para dispositivos móviles y hay dudas de que sean igualmente eficaces en equipos PC todo-en-uno.