Día: 9 diciembre, 2013

Claves tecnológicas que marcarán el 2014… y más allá

Claves tecnológicas 2014Las predicciones sobre los cambios clave que guiarán el sector tecnológico a partir del 2014 están hechas. Cisco Technology Radar se ha atrevido a adelantar durante su evento en San Francisco los cambios que afectarán la evolución del sector a partir del próximo año.

Por un lado, la colaboración interactiva a través de la web se convertirá en una herramienta fundamental con la generalización de la tecnología WebRTC (Real Time Communication), ya que cualquier navegador podrá incluir las funcionalidades de una videoconferencia, llamadas de voz, mensajería instantánea y compartición de contenido, sin que el usuario tenga que instalar ningún plug-in.

Además, la analítica en tiempo real, basada en distintas tecnologías, se aplicará a campos como el Business Intelligence, y se extenderá desde las primeras herramientas de análisis financiero a distintos segmentos como publicidad o transporte, aprovechando el valor de los datos en movimiento.

Clouds multiproveedor 

Los ambientes de nube públicos, privados e híbridos basados en configuraciones estáticas dejarán paso a ambientes cloud dinámicas y multiproveedor.

Nuevas tecnologías Intercloud permitirán a los proveedores descubrir servicios cloud a través de múltiples ambientes, adoptar Acuerdos de Nivel de Servicio (SLAs) comunes o crear acciones para ofrecer el servicio más económico.

Cisco Technology Radar destacó la importancia de los servicios para el usuario basados en su contexto. La compañía señaló que está cambiando la forma de interactuar con los dispositivos, que albergan información acerca de los usuarios y su vida cotidiana, de manera que pueden ofrecernos la información precisa en el momento oportuno. Aplicaciones como Google Now o Voice Search ofrecen esta tecnología.

También se prevé el aumento del Internet of Everything (IoE) y las comunicaciones M2M, que combinan distintas tendencias tecnológicas incluyendo video, movilidad, cloud, Big Data y comunicaciones máquina-a-máquina (M2M).

Según la compañía, en el año 2022 las conexiones M2M representarán el 45% del total, mientras las conexiones persona-a-máquina (P2M) y persona-a-persona (P2P) supondrán el 55% restante. El IoE requiere también nuevas tecnologías de seguridad, como RPKI (Resource Public key Infraestructure) o DNSSEC (Domain Name System Security Extensions), y nuevas soluciones de gestión de dispositivos móviles (MDM, Mobile Device Management) más escalables y centradas en el Cloud.

Arribo de nuevas arquitecturas de Internet 

Cisco Technology Radar señaló que Internet no es lo suficientemente robusta para soportar el crecimiento exponencial de dispositivos conectados. Sin embargo, aseveró que ya existen propuestas para reemplazar las infraestructuras basadas en el protocolo IP con un nuevo paradigma como WebRTC, que permitiría comunicar la información mediante nombres y no mediante direcciones host.

Otra aproximación consiste en las tecnologías definidas mediante software (SD-X, Software Defined Any), que deben ir más allá de la virtualización de red (SDN y NFV) para incrementar su escalabilidad a través tanto de recursos físicos como virtuales.

El video en ultra-alta definición formará parte imprescindible de smartphones, lentes de realidad aumentada, tablets y otros dispositivos equipados con cámara. Con una resolución hasta 16 veces superior a la actual TV en alta definición (1080p), su impacto sobre la red requiere la adopción de nuevas tecnologías como streaming P2P, redes federadas de distribución  de contenidos, HEVC (H.265) o streaming HTTP adaptativo.

Y por último, las redes serán capaces de auto-gestionarse en términos de configuración, protección, optimización y reparación mediante tecnologías como Networking Autónomo o SON (Self-Organizing Networks), pronosticó Cisco Technology Radar.

Caída de las PC será peor de lo esperado: IDC

PC ventas bajas IDCIDC reportó que el mercado de PC se desplomará en más de 10% este año, pues las ventas de PC para consumidor caerán un 15%. Esto es con mucho la caída más pronunciada del mercado de computación personal en la historia.

En total, se pronostica que el número de PC vendidas decline en 10.1% en el 2013, un poco por encima de las proyecciones previas, que eran cercanas al 9.7%.

La firma consultora espera que las ventas de PC alcancen los 314,8 millones de unidades, lo cual irá a la par con las cifras de ventas del 2008.

No obstante, IDC reportó que las ventas de PC comerciales tendrán un comportamiento ligeramente mejor, ya que su decremento será del 5%; por el contrario, las ventas de PC para consumidor caerán alrededor de 15% en comparación con el año anterior.

Y continuarán a la baja el próximo año

También espera que las ventas mundiales de PC caigan 3.8% en el 2014. Anteriormente, IDC había predicho una caída de 9.7%, luego de que las ventas de Windows 8.1 no se pudieron materializar.

“Quizás la principal preocupación sobre la futura demanda de PC es la falta de razones para reemplazar un sistema más viejo”, sostuvo Jay Chou, analista senior de investigación de IDC, en una declaración.

“Aunque las investigaciones de IDC encuentran que la PC sigue siendo el principal dispositivo de cómputo –por ejemplo, las PC son usadas más horas al día que las tablets o los teléfonos– el uso de las PC está, sin duda, declinando cada año”.

Y a pesar de los esfuerzos de la industria, el uso de las PC no se ha movido significativamente más allá de las tares de consumo y productividad para diferenciar a las PC de otros dispositivos. Por consiguiente, el tiempo de vida de las PC se incrementa, limitando con ello el crecimiento del mercado”, aseveró Chou.

IDC definió a la PC dentro de los equipos desktops y notebooks, así como los dispositivos híbridos que pueden funcionar como un clamshell y una tablet.

En los mercados maduros como Estados Unidos, la compañía de análisis de mercado afirmó que las PC –ya sea que se trate de desktops o laptops– continuará declinando, recuperándose algo en el 2017 con sólo un 0.4% de crecimiento. Y en los mercados emergentes, sólo las notebooks mostrarán algún incremento real –de 4.8% en notebooks y de 2.2% en general– para el 2017.

Para entonces, IDC predice que el mercado de PC totalizará los 305.1 millones de unidades, de los cuales unos 120.8 millones estarán en mercados maduros como Estados Unidos.

Algunos consideran ahora que las tablets y los teléfonos son dispositivos de computación personales, lo cual significa que el panorama puede ser más halagüeño para las compañías con portafolios de hardware diversificados. Pero para los tradicionales proveedores de PC como Dell y HP, parece que se avecinan mares tormentosos.

Inicia la “guerra Core”: Intel lanzará un chip de 15 núcleos

Intel chips familyLa ‘guerra de los núcleos’ entre los fabricantes de chips x86 llegó a un periodo de calma hace un par de años, cuando se consideró que los procesadores ofrecían suficiente desempeño. Sin embargo, los planes de Intel para lanzar un procesador de 15 núcleos podría cambiar de nueva cuenta este “escenario de paz”.

Intel confirmó que lanzará un procesador de 15 núcleos para servidores, cuyo nombre código es Ivytown, el cual estaría basado en la arquitectura Ivy Bridge.

Hasta ahora, Intel había llegado a los 12 núcleos con los chips Xeon E5 v2, que presentó en el tercer trimestre de este año.

Para servidores de alto rango

El chip de 15 núcleos está destinado a los servidores de alto rango. Probablemente vaya en los servidores de cuatro a ocho sockets, los cuales generalmente manejan computación high end para bases de datos y sistemas ERP.

Agregar núcleos de CPU es una manera eficiente de incrementar el poder de procesamiento. Los fabricantes de procesadores comenzaron a agregar núcleos como una alternativa para incrementar la velocidad de reloj de las CPU, algo que causaba que los chips usaran más energía.

Uno de los primeros chips multinúcleo fue lanzado por IBM en el 2001 y estaba basado en la arquitectura Power4; sin embargo, agregar núcleos fue una técnica que caló en la industria cuando Advanced Micro Devices (AMD) mostró el primer chip dual core x86 en el 2004.

Este chip de 15 núcleos acerca a Intel hacia AMD, empresa que ha instalado 16 núcleos en sus chips Opteron 6300.

Cabe señalar que AMD lanzó su primer chip Opteron de 16 núcleos, de nombre código Interlagos, en el 2011 y no ha agregado núcleos desde entonces. Para el próximo año, esta compañía planea lanzar chips x86 para servidores que también tendrán 16 núcleos.

El Ivytown de Intel ya está siendo fabricado mediante el proceso de 22 nanómetros. Sin embargo, la compañía no proporcionó una fecha específica de su lanzamiento. Lo que sí adelantó es que formará parte de una línea de chips para servidores Xeon E7 v2, que tiene nombre código Ivy Bridge-EX.

Servidores y supercomputadoras, un mercado en disputa

El mercado de servidores es el nuevo campo de batalla, “ya que las aplicaciones demandan más poder de computación y los desafíos de la programación multinúcleo han sido superados”, aseveró Dean McCarron, analista principal de Mercury Research.

Los chips dual core dominan las laptops, mientras que las desktops son por lo general quad core. Pero se requiere de procesadores más rápidos en los servidores que manejan las tareas que van desde las básicas transacciones de nube hasta la supercomputación, que es el motivo por el cual se están agregando más núcleos a los chips, indicó McCarron.

El chip de 15 núcleos proporcionará beneficios en el desempeño superiores al chip de 12 núcleos, señaló el analista.

Muchas supercomputadoras también se encuentran equipadas con coprocesadores –a los que también se les llama “aceleradores”– como los procesadores gráficos que ayudan a las CPU a acelerar la computación.

En noviembre, la compañía Nvidia lanzó el chip gráfico Tesla K40, que ofrece 2,880 núcleos de procesamiento. En el 2015, Intel planea lanzar un nuevo chip Xeon Phi, Knights Corner, que podría tener más de 60 núcleos y también ser un CPU primario. Sin embargo, a diferencia de los CPU para servidores Xeon, los chips Phi pueden necesitar más energía y ser más ineficientes en el procesamiento de las tareas básicas del sistema operativo y en el scheduling.

El desafío de escribir aplicaciones para que funcionen con chips multinúcleo es menor ahora, ya que los programas y chips para servidores se encuentran diseñados para manejar varios hilos, indicó McCarron.

Fructífero, el mercado de servicios outsourcing en México: IDC

Outsourcing MéxicoEn los últimos cinco años, el valor de los contratos (TCV) por servicios de tercerización (o outsourcing) alcanzó los 18.3 mil millones de dólares en América Latina. Así lo señala el estudio Latin America Outsourcing Trends 2013, elaborado por la firma de consultoría IDC.

El estudio indica que en el periodo comprendido entre el segundo semestre de 2008 y la primera mitad del 2013, México logró una recuperación después de la crisis de 2009 y firmó Mega deals (contratos con un valor mayor a los 250 millones de dólares). Por su parte, Brasil sigue siendo el país más relevante del mercado en servicios de TI en la región.

El comportamiento del valor total de los contratos de servicios de outsourcing a nivel Latinoamérica durante el tecer trimestre de 2008 y el segundo del 2009, mostró un crecimiento importante de 131%.

Sin embargo, el documento apunta que en 2010, la crisis mundial afectó a la región logrando así un decrecimiento del 60% en cuanto a contratos que se firmaron en ese periodo. Para 2011 se observó una recuperación del 85%, mientras que para 2012 se reflejó un decrecimiento del 18%.

En cuanto a los ingresos provenientes de los contratos firmados en 2013 –más los provenientes de los contratos recurrentes de años anteriores en el mercado latinoamericano– se observa que hasta septiembre de 2013, se obtuvieron ingresos por 4.06 mil millones de dólares.

Para finales de este año, se espera que exista un crecimiento de 5% a 10% en mercados de TI debido a los contratos que se presenten al cierre de año.

Verónica Hernández, analista de investigación para the BuyerPulse Services Deals Data Base en IDC, mencionó que las empresas petroleras y del gas son las que más contratan servicios de outsourcing.

La especialista afirmó que Brasil y México siguen ocupando el 80% de participación en servicios cloud (SaaS, Paas, IaaS) en América Latina, donde México obtuvo hasta el primer semestre de 2013 el 72.6% gracias a dos mega contratos (finanzas y manufactura) con un valor cada uno de mil millones de dólares.

Para los próximos dos años, América Latina tendrá la oportunidad de obtener más de 5 mil millones de dólares gracias a los contratos que se estarán renovando, aseveró Hernández.

2014 será de nuevo un año determinante para Wi-Fi

WiFi
Ruckus Wireless pronostica que 2014 será, de nuevo, un año determinante para la tecnología Wi-Fi, tanto para empresas como para las operadoras.

Tras conocer que serán las redes sociales o los hotspot 2.0 los protagonistas de las tendencias WiFi para empresas, llega el turno de saber cuáles son las predicciones que Ruckus Wireless realiza en lo que se refiere a las operadoras.

Según la compañía, los consorcios de roaming Hotspot 2.0 a gran escala se convertirán en una realidad. “Estos permitirán una conectividad automática y segura a redes Wi-Fi con miles de partners de roaming y millones de puntos de acceso. La mayor parte de estos partners serán instalaciones públicas con grandesdespligues Wi-Fi de interiores”.

Además, la compañía cree que se seguirá trabajando en soluciones de políticas que ayuden a los smartphones a seleccionar entre conectividad Wi-Fi y móvil y que las empresas continuarán buscando proveedores de servicio para un servicio Wi-Fi gestionado.

El objetivo será afrontar de mejor manera los problemas de complejidad de red, los nuevos servicios y la escasez de personal cualificado en muchos departamentos de TI.

Los servicios basados en localización, por su parte, se convertirán en un área muy rentable de las oportunidades de servicios gestionados para empresas y los operadores de cable multisistema (MSO) seguirán incorporando de forma agresiva la tecnología Wi-Fi gratuita como una forma de defensa ante los over-builders, es decir, compañías que despliegan cable en zonas donde éste ya existe.

El legado de Mandela en Twitter

Nelson Mandela TwitterEl 5 de diciembre de 2011, Computerworld México publicabaque una de las personalidades que se había unido a Twitter ese año era Nelson Mandela, el recordado luchador social quien falleció este jueves a la edad de 95 años en su natal Sudáfrica.

La cuenta @NelsonMandela, que inició en marzo de 2010, fue sido actualizada desde entonces por la Fundación Nelson Mandela, y suma hasta hoy 752,520 seguidores. Una frase del Premio Nobel de la Paz 1993 –contundente y quizá premonitoria– se publica desde esta tarde en varios idiomas:

“La muerte es algo inevitable. Cuando un hombre ha hecho lo que considera que es su deber para con su gente y su país, puede descansar en paz”.

Pero el recuerdo por este líder carismático, aquél que pasó 27 años en prisión y salió para convertirse en presidente de su país, se ha engrandecido en otra cuenta de esta red social, denominada @Mandela_Quote, que se ha dedicado a publicar algunas de sus frases, hoy memorables:

  • “As I walked toward my freedom, I knew if I didn’t leave my bitterness behind, I’d still be in prison”. (Mientras caminaba hacia mi libertad, sabía que si no dejaba atrás mi amargura, todavía estaría en prisión).
  • “The brave man is not he who does not feel afraid, but he who conquers that fear”. (El hombre valiente no es aquel que no siente miedo, sino el que conquista ese miedo).
  • “You will achieve more in this world through acts of mercy than you will through acts of retribution” (Usted logrará más en este mundo por actos de misericordia que por actos de represalia, publicada el pasado 18 de julio, en su cumpleaños 95).
  • “Education is the most powerful weapon which you can use to change the world”. (La educación es el arma más poderosa que puedes usar para cambiar el mundo).
  • “It always seems imposible, until its done” (Siempre parece imposible, hasta que se hace).

Con frases como éstas –precisas, sentidas, contundentes– el legado de Nelson Mandela, en vida y obra, perdurará en las redes sociales para inmortalizar la grandeza de un ser humano.

Microsoft protegerá a sus usuarios del espionaje gubernamental

Microsoft espionajeConsciente de que muchos de sus usuarios tienen serias preocupaciones acerca de la vigilancia que ejercen algunas dependencias gubernamentales en Internet, Microsoft afirma en un post que está “tomando medidas para asegurar que los gobiernos utilicen los procesos legales, en lugar de la fuerza bruta tecnológica para acceder a los datos del cliente”.

La compañía trabaja en ampliar del cifrado a todos los servicios, reforzar las protecciones legales para los datos de sus clientes, y mejorar la transparencia de su código de software, de manera que los clientes estén más seguros de que sus productos no contienen puertas traseras.

En qué consistirán estas acciones

Respecto a la primera medida, Microsoft señala que realizará un esfuerzo integral de ingeniería para fortalecer la encriptación de los datos de los clientes en sus redes y servicios. Este esfuerzo incluirá a los principales servicios de comunicaciones, productividad y desarrollo como Outlook.com, Office 365, SkyDrive y Windows Azure, y proporcionará protección a lo largo del ciclo de vida completo del contenido creado por el cliente. “Aunque se trata de un esfuerzo de ingeniería importante, dado el gran número de servicios que ofrecemos y los cientos de millones de clientes a los que servimos, estamos comprometidos a realizarlo rápidamente”, asegura la compañía.

Microsoft también reforzará la protección legal de los datos de sus clientes. Por ejemplo, la compañía asume el compromiso de notificar a los clientes empresariales y gubernamentales si recibe órdenes jurídicas relacionadas con sus datos. “Cuando alguna orden intente prohibirnos hacer esto, la impugnaremos ante los tribunales. Lo hemos hecho con éxito en el pasado, y vamos a seguir haciéndolo en el futuro, para preservar nuestra capacidad para alertar a los clientes cuando los gobiernos traten de obtener sus datos”, señaló Microsoft.

Finalmente, la compañía se ha propuesto ser más transparente, por lo que abrirá una red de centros de transparencia que proporcionarán a los clientes empresariales y gubernamentales la capacidad de revisar el código fuente y garantizar el nivel de integridad de los productos de Microsoft. Estos centros se abrirán en Europa, América y Asia, y se ampliará aún más la gama de productos incluidos en estos programas.

Escasa demanda de sistemas Unix contrae mercado de servidores

ServidoresLa segunda mitad del 2013 no empezó bien para el mercado de servidores. Así lo indican los datos recogidos por dos firmas consultoras, que muestran un descenso de los ingresos, del 3.7% según IDC, y del 2.1% según Gartner.

En cuanto a las ventas, IDC apunta a que éstas registraron un crecimiento plano en el tercer trimestre del año, con 2.3 millones de unidades suministradas, mientras que Gartner estima que se vendieron 2.5 millones de servidores, un 1.9% menos que el pasado año.

IDC señala en su informe que los sistemas de volumen experimentaron un crecimiento de sus ingresos del 3.5%, mientras que los servidores de mediano y alto rango sufrieron sendas caídas del 17.8 y del 22.5%, respectivamente, algo que la consultora atribuye a la continua debilidad de la demanda de equipos Unix, mientras que el crecimiento de servidores de bajo rango se ha impulsado por la sólida demanda de sistemas x86.

Los mainframes están de vuelta

Jeffrey Hewitt, vicepresidente de investigación de Gartner, explicó que “los servidores x86 mantuvieron bajos niveles de crecimiento, del 2.1% en ventas y del 4.4% en sus ingresos. Los servidores RISC/Itanium Unix continuaron disminuyendo un 4.5% en volumen de ventas, y un 31% a nivel de ingresos con respecto al mismo trimestre del año pasado, mientras que “otra” categoría de CPU, que abarca principalmente mainframes, mostró un aumento del 7.8%”.

Ambas consultoras sitúan a HP en lo más alto del mercado, tanto en volumen de ventas como en ingresos. Por lo que respecta a los ingresos, IDC señala que HP creció un 1.5% en el tercer trimestre, lo que le permitió hacerse con una cuota de mercado del 28.1%. En cambio, IBM sufrió un fuerte descenso del 19,4%, reduciendo su participación al 23.4%.

La tercera posición es para Dell, que también sufrió un descenso de un dígito, reduciendo su participación de mercado al 16.2%. Por su parte, Cisco logró ascender a la cuarta plaza del ranking tras registrar una subida anual de ingresos del 42.8%, elevando su participación al 5%, mientras que Oracle perdió un 16%, dejando su presencia en 4.1%.

Respecto a las ventas de servidores, Gartner señaló que HP también aumentó ligeramente su participación, al obtener el 26.7% del mercado, seguido por Dell que, a pesar de reducir su volumen de ventas un 14%, su cuota asciende al 19,3%.

En tercera posición está IBM, que sufrió la mayor caída en ventas, cifrada en 28%, lo que redujo su participación de mercado al 8.1%. Le siguen Huawei, cuyo espectacular crecimiento de más del 200% le ha ayudado a ascender a la cuarto lugar del ranking con un 2.8% de las ventas, y Fujitsu, con una participación de mercado del 2.7%.

Un 35% de las aplicaciones SaaS utilizadas en empresas no están autorizadas: estudio

SaaSUn estudio de McAfee pone de manifiesto que el 80% de los empleados utilizan aplicaciones no autorizadas en el trabajo, con el riesgo que conlleva para la seguridad empresarial. Es más, un 35% de todas las aplicaciones de Software como Servicio (SaaS) utilizadas en las empresas no están autorizadas.

Así, y según el informe de Frost Sullivan, el riesgo de la descarga de aplicaciones SaaS no autorizadas en el ámbito laboral es real. Es más, Frost & Sullivan estima que el mercado del SaaS crecerá un 16% solo en Norte América, para alcanzar un valor de 23,500 millones de dólares en 2017.

“La generalización del cloud ha permitido a los empleados adquirir e implementar aplicaciones SaaS sin tener que involucrar al departamento de TI”, resalta el estudio que también asegura que el resultado es que muchas de estas aplicaciones son utilizadas por los empleados, pero también por terceros como partners o proveedores, sin el conocimiento ni autorización del departamento de TI.

Según el estudio, casi un 35% de todas las aplicaciones SaaS utilizadas en las empresas no están autorizadas, contribuyendo al denominado “Shadow IT”. Además, Microsoft Office 365 es la aplicación SaaS más utilizada sin autorización, como lo confirman el 9% de los encuestados, seguida por Zoho (8%), LinkedIn (7%) y Facebook (7%).

En promedio, el 15% de los usuarios han tenido algún problema relacionado con la seguridad, acceso o riesgo, mientras utilizaban estas aplicaciones SaaS, mientras que un 39% de los profesionales TI que utilizan SaaS no autorizados afirman hacerlo porque “me permite evitar ciertos procesos de TI”, mientras que el 18% explica que las restricciones de TI “dificultan mi trabajo en muchas ocasiones”.

El estudio, además, destaca que a la hora de utilizar apps no autorizadas los empleados se basan en que es más fácil realizar su trabajo.

Pat Calhoun, director general de seguridad para redes de McAfee, afirma que “con un 80% de los empleados admitiendo utilizar SaaS sin autorización en sus trabajos, la empresas necesitan claramente protegerse al tiempo que permiten el acceso a aplicaciones que ayuden a sus empleados a ser más productivos. Lo más recomendable es implementar soluciones que monitoricen de forma transparente aplicaciones SaaS (y otras formas de tráfico web), aplicando las normativas de la empresa, sin que esto afecte a los empleados en el desempeño de su trabajo. Esto no sólo permite un acceso seguro a aplicaciones SaaS, sino que también encriptará información sensible, prevendrá pérdida de datos, protegerá del malware, y permitirá al departamento de TI hacer cumplir las políticas y normativas”.

Falta de expertos, principal obstáculo para rentabilizar Big Data

Los conocimientos especializados técnicos y analíticos actuales no son suficientes. Y este es el desafío más inminente a los que se enfrenta el uso de Big Data, según el estudio Big Data Survey 2012/2013 BARC, patrocinado por Teradata.

Si bien la mayoría de las empresas tienen la intención de invertir en tecnologías de Big Data, la falta de equipo humano y conocimientos especializados evita que adquieran una comprensión más profunda.

Como razones principales que impulsan la demanda de soluciones de Big Data, el 72% de los participantes citan la necesidad de obtener el control sobre el crecimiento exponencial de los volúmenes de datos en sus organizaciones, el 75% mencionó las nuevas y mejores posibilidades para el análisis de datos que proporcionan dichas tecnologías.

Por otro lado, dos tercios (66%) de los encuestados ya han identificado el valor de los llamados datos poliestructurados procedentes de distintas fuentes, como los social media, los sensores o los weblogs. Sólo el 7% opinó que no hay una necesidad urgente para actuar en materia de Big Data.

Dificultades y oportunidades de inversión

Los datos de este estudio revelan que las empresas no sólo han identificado sus dificultades con respecto a los Big Data, sino que están dispuestas a invertir sustancialmente en las nuevas tecnologías que posibiliten el análisis en profundidad. Los participantes manifestaron que sus empresas gastan la mayor parte del presupuesto para Big Data en software, seguido de hardware y consultoría.

Curiosamente, las empresas que afirmaron hacer un uso más eficiente de sus datos en comparación con sus competidores no figuraban entre las que tenían el mayor gasto en tecnologías Big Data.

Las empresas consideradas “rezagadas” con relación a la utilización de Big Data planean hacer inversiones en Big Data en todas las áreas por arriba del promedio. Esto puede implicar que ya son conscientes de su necesidad de actuar y desean ponerse al día con sus competidores, según el estudio.

¿En qué aplicar el Big Data?

Las empresas esperan que las tecnologías de Big Data, además de almacenar y analizar sus datos de manera profunda y confiable, lo hagan lo más rápidamente posible.

En la actualidad, el 27% de los datos de las empresas se actualizan para presentación de informes, supervisión y análisis una vez al mes; el 45% se actualizan a diario. Sin embargo, sólo el 4% de los datos pueden analizarse en tiempo casi real (datos disponibles en menos de cinco segundos). Según el estudio, existe una clara tendencia hacia la actualización en intervalos menores de tiempo.

En el futuro, las empresas encuestadas planean integrar el 17% de sus datos en menos de un minuto, en vez del 8% actual, según la encuesta.