Día: 4 marzo, 2016

La Transformación Digital, un camino sin retorno

De nada sirve quedarse esperando hasta poder saber con absoluta seguridad hacia qué lado va a soplar el viento. Alistar las velas del barco fue una tarea para ayer. El consumidor ya se ha embarcado en ese viaje y no se va a detener a esperarlo a usted.

Esto supone un enorme desafío para las empresas. Más aun considerando que ahora, justo cuando las organizaciones empiezan a entender el ambiente de Internet y la resolución de las tecnologías móviles, vemos como las redes sociales dan un giro al tablero y dictan las nuevas reglas del juego. Por ello, definitivamente, la digitalización de las empresas es un camino sin retorno.

Sin embargo, eso no significa que las empresas tengan que emprender esta cruzada sin la ayuda de una brújula. Hoy, más que nunca, es necesario planificar. Antes, la planificación del área de Tecnología de la Información (TI) era un proceso aparte, pues era considerada un soporte para las actividades de la organización, pero actualmente esa situación ha cambiado y TI debe integrarse a la planificación estratégica de la propia empresa.

Hora de Repensar los Negocios

¿De qué manera las tecnologías disruptivas pueden impactar en su industria? ¿Cuáles son los nuevos negocios digitales que se deben desarrollar? ¿Qué unidades pueden ser descontinuadas porque se volvieron obsoletas en el mundo digital? ¿Qué negocios del mundo físico deben ser incorporados al medio digital y qué sinergias pueden crearse con eso? Son muchas preguntas que exigen respuestas del nivel de decisión más alto de la compañía. Es el nivel denominado Business Digital Transformation, la “Transformación Digital de los Negocios”.

La mirada digital sobre el futuro es clave. Si no la tenemos en cuenta, será imposible prosperar en este nuevo ambiente de negocios, en el que algunos mercados pueden simplemente desaparecer. Con la evolución de las tecnologías de Inteligencia Artificial, por ejemplo, una gran parte de la atención de nivel 1 en el sector de Call Centers puede ser sustituida por máquinas en los próximos cinco años. Eso ya es una realidad en los mercados más avanzados y esa tendencia llegará. Es algo inevitable.

Hacer un seguimiento de ese proceso en permanente cambio es exhaustivo, pero absolutamente necesario. Nuevas disrupciones tecnologías se avecinan, como Internet de las Cosas – la integración de software y hardware en equipos de uso diario -, lo que cambiará radicalmente el mundo de los negocios en los próximos años. Esa tecnología dejará muy pronto la fase experimental y se usará en todos lados, transformando los hábitos de los consumidores y la estrategia de las empresas.

Transformación de los Procesos de Negocios

Para embarcarse en el viaje digital, la empresa necesita contar en su planificación estratégica con mucho más que un mapa de amenazas y oportunidades tecnológicas. Al final, todo ese discurso de transformación no contempla únicamente a donde queremos llegar, sino también de qué manera lo haremos. Nos encontraremos entonces en la etapa que en TOTVS denominamos de Business Process Transformation o Transformación de los Procesos de Negocios.

Es un paso esencial para poder aprovechar los beneficios en materia de productividad que resultan de la transformación digital de las empresas, partiendo de la premisa de que no hay procesos dentro de una empresa que no puedan someterse a cambios. Pero esto nos plantea un dilema: ¿qué debemos cambiar? En realidad, las posibilidades son tantas que es muy fácil perderse entre todas las opciones que están disponibles en el mercado de tecnología.

Un buen camino para tomar la decisión correcta es no olvidarse de la perspectiva estratégica de la organización. El objetivo final es lograr una transición adecuada de la empresa hacia el nuevo escenario: el primer paso es mapear los procesos que tendrán un mayor impacto digital dentro de la planificación de la compañía. Es importante considerar que no se trata de cambiar solo por el hecho de cambiar. Lo que es fundamental para una organización puede tener poco impacto en otra. Por eso es muy importante el filtro estratégico de los procesos. Al final, la transformación tecnológica debe tener sentido para su empresa, su negocio y su cliente, de otro modo solo será dinero mal invertido.

Una vez identificada las prioridades, es necesario analizar minuciosamente las inversiones y los plazos asociados a la digitalización, así como el potencial de reducción de costos y los ingresos que serán generados con la transformación digital. Este análisis se lleva a cabo junto con un levantamiento de los productos y servicios que están disponibles en el mercado para satisfacer esa demanda específica.

Al cruzar esos datos, se podrá determinar una solución ideal basada en la relación entre costo y beneficio para la empresa.

A pesar de todas las dificultades de esta transición, tenemos que verla con optimismo. En los próximos años, se abrirá una enorme ventana de oportunidades para lograr incrementos de escala, de productividad y de generación de ingresos para las empresas que estén dispuestas a emprender la transición y cambiar sus modelos de negocios.

Y la buena noticia es que todo ese cambio aún está en su inicio. Muchas empresas, incluso las gigantes en sus respectivos sectores, todavía están perdidas en ese océano, sin saber exactamente a dónde tienen que llegar. Y eso no ocurre solo en los mercados emergentes, como América Latina y en nuestro país. Se trata más bien de un fenómeno que también afecta a las organizaciones de países que representan la vanguardia tecnológica, como los Estados Unidos. Por lo tanto, aquellos que tomen la delantera, tendrán ventajas para explotar las nuevas posibilidades de la cultura digital.

 

Rubén-Bruno

  Por Rubén Bruno,

Head of Consulting,

Mercado Internacional,

TOTVS

EMC rediseña el VMAX All Flash enfocado para el almacenamiento empresarial

EMC Corporation ha anunciado el lanzamiento de la nueva plataforma VMAX All Flash, un salto al desarrollo de su almacenamiento empresarial.

El nuevo producto se trata del primer array de almacenamiento all-flash para soporte nativo de bloque, archivos, sistemas abiertos, iSeries y Mainframe con la capacidad de escalar hasta 4 petabytes (PB) de datos, otorgando la fiabilidad y flexibilidad de la plataforma VMAX.

La firma señala que la ventaja es que ofrecen un TCO más reducido que el de los arrays empresariales tradicionales basados en disco; además, su formato de tipo appliance ahora incluye tanto hardware como software.

El VMAX ha sido rediseñado para ofrecer dos posibles configuraciones modelos all-flash: el EMC VMAX 450 y el EMC VMAX 850. Ambos modelos están diseñados para aprovechar el rendimiento, la densidad y las economías de escala que ofrecen los medios de almacenamiento flash de última generación.

Según comenta Guy Churchward, Presidente, Core Technologies, EMC Corporation “2016 es el año de la tecnología All-Flash para el almacenamiento primario y EMC está marcando el camino con VMAX All Flash -una plataforma completamente rediseñada que aprovecha las unidades flash extremadamente densas, junto con la potencia y la sencillez de la plataforma de servicios de datos VMAX”.

Más allá del rendimiento

El VMAX All-flash está diseñado específicamente para aprovechar el rendimiento de flash y el costo por gigabyte de los discos SSD de gran capacidad, ya que son más recientes, además incorpora la tecnología Write Folding, que mejora la durabilidad de flash sin perder rendimiento.

La escalabilidad es proporcionada a través de su arquitectura de V-Brick en el que cada unidad contiene un motor VMAX, ya que cuenta con 53TB de capacidad escalable hasta 500TB. También se podrían combinar los V-Bricks para escalar hasta un máximo de ocho motores VMAX y 4PB.

EMC amplía también el Programa Xpect More para ofrecer planificación, implantación y gestión simplificadas del nuevo array VMAX All Flash; este ofrece la combinación de un modelo de precio fijo para siempre y de protección de flash permanente, lo cual permite planificar las adquisiciones futuras de los clientes.

El software de protección de datos EMC ProtectPoint se puede añadir a cualquier configuración de VMAX All Flash para realizar una copia de seguridad directa entre VMAX y la solución de protección de datos Data Domain, sin la necesidad de una infraestructura de backup tradicional.

Flash para entornos de críticos

EMC señala que VMAX All Flash cuenta con millones de IOPS y con 500 microsegundos de latencia para cargas de trabajo de lectura/escritura; también soporta hasta 150 GB/s de ancho de banda y tiene un conjunto nativo de servicios, VMAX All Flash, está diseñado para resistir los sistemas más potentes de misión crítica y aplicaciones, con capacidades de continuidad de negocio y de recuperación de desastres de primer nivel que proporcionan disponibilidad de nueve cifras a través de la tecnología de replicación remota de EMC SRDF.

VMAX All Flash admite un amplio ecosistema de aplicaciones y sistemas, entre ellos: VMware, Oracle, Microsoft y OpenStack, así como soporte para IBM Mainframe e iSeries. La División de Plataformas Convergentes de EMC (VCE), ya está disponible, además comercializa la plataforma All-flash VMAX en los sistemas VCE Vblock y VxBlock 740, ofreciendo a los clientes el camino más seguro y rápido hacia un centro de datos moderno.

-Redacción

¿Por qué es importante la virtualización de redes?

En la dinámica actual de negocios, considerar que una organización de TI debe estar separada o no necesariamente alineada con los procesos del negocio, es ya una premisa fuera de lugar.

La producción de servicios de TI en red es un “tejido” complicado, ya que se deben gestionar switches, routers, firewalls, entre un sinfín de aplicaciones, y que basta con tener un error en alguna de ellas para que toda la infraestructura en red presente complicaciones. Y entonces, ¿qué hacer? Las redes virtualizadas podría ser la respuesta,

Se trata de una arquitectura que tiene el mismo funcionamiento que las redes físicas, sólo que la “maravilla” está en que las redes están en software, mientras que las aplicaciones no representan diferencia alguna con el modelo de redes físico; y por lo contrario, resulta en un mejor desempeño y escalabilidad para las aplicaciones.

 

Infraestructura de red, frente a grandes desafíos

Las actuales soluciones de red y seguridad son rígidas, complejas y, en la mayoría de las veces, para proveedores específicos. En el modelo operacional actual, como una infraestructura física de red, el aprovisionamiento de red es lento; además, la ubicación y movilidad de las cargas de trabajo se ven limitada por la topología física y el aprovisionamiento manual.

Las limitaciones de las redes y la seguridad físicas hacen que un mundo virtual cada vez más dinámico quede ligado a un tipo de hardware dedicado e inflexible. En consecuencia, se generan barreras artificiales que impiden la optimización de la arquitectura de red, limitando la capacidad de las empresas para implementar, trasladar, escalar y proteger las aplicaciones y los datos de manera rápida y según las necesidades del negocio.

 

Redes… también virtualizadas

Sin duda que una de las mejores vías para hacer frente a estos desafíos relacionados con la infraestructura de red, es la virtualización, una tecnología con gran impacto en la actualidad, cuyas implementaciones han comenzado a convertirse en verdaderos casos de éxitos. El analista IDC afirma que la tendencia hacia la virtualización en México se fortaleció hace aproximadamente cinco años, cuando las empresas tomaron conciencia de que la potencia de su infraestructura estaba siendo aprovechada sólo en un 30% en promedio, cuando en realidad debía traducirse en eficacia, reducción de espacio e incluso de energía.

Entonces, ¿es posible llevar esta tecnología a una infraestructura de red? Así es. De acuerdo con VMware, la virtualización de la red es un modelo que proporciona instancias virtuales de redes físicas mediante la separación de ancho de banda en canales independientes. Al igual que la virtualización de servidores para procesamiento, el enfoque de virtualización de redes permite que los operadores del centro de datos traten su red física como un depósito de capacidad de transporte que se puede consumir y reasignar según la demanda.

Tomás Valles, Gerente de Ingeniería de VMware, asegura que las Redes Definidas por Software (Software Defined Networking, SDN) son un cambio tecnológico que se refiere a una arquitectura dinámica, manejable, rentable y adaptable, ideal para un gran ancho de banda y la naturaleza dinámica de las aplicaciones de la actualidad. El hipervisor se encuentra en el lugar ideal para ejecutar las reglas de switcheo, ruteo, firewall y balanceo ya que todas las cargas de trabajo virtuales deben de pasar por él. Así también se logra reducir hasta un 70% el trafico este/oeste en el centro de datos ya que evita que el paquete viaje a las capas de agregación y core. Manejo y control de estas reglas se simplifica radicalmente al estar relacionadas con el objeto del centro de datos virtual y no a los puertos físicos de los switches”. De hecho, IDC prevé que el mercado de SDN alcance los 3,700 mdd en 2016, frente a los 252 millones de 2012.

¿Qué beneficios ofrece a las organizaciones de TI?

1.- Redes probadas para el centro de datos definido por el software

La virtualización de redes es una arquitectura transformadora que permite aprovechar todo el potencial de un centro de datos definido por el software, lo que hace posible crear y ejecutar redes completas de forma paralela con el hardware de red existente. Para Tomás Valles, de VMware, “esto da como resultado una implementación más rápida de las cargas de trabajo, así como mayor agilidad frente a los centros de datos cada vez más dinámicos”.

2.- Agilidad y operaciones optimizadas

Una plataforma de virtualización de redes se puede implementar sin interrupciones en la infraestructura física existente. Al igual que con la virtualización de servidores, la virtualización de redes permite tratar la red física como un depósito de capacidad de transporte, con servicios de red y seguridad asociados a las cargas de trabajo que aplican una estrategia regida por políticas. Valles asegura que se puede reducir “el tiempo de aprovisionamiento de servicios de seguridad y redes de múltiples niveles de semanas a minutos creando redes virtuales. Cada red se puede personalizar para las cargas de trabajo que admite y aislar de todas las demás redes virtuales”.

3.- Seguridad y microsegmentación

La virtualización de redes aplica una estrategia de centro de datos definido por el software a la seguridad de red. Las capacidades de virtualización de redes habilitan las tres funciones básicas de la microsegmentación: aislamiento (no hay comunicación entre las redes no relacionadas), segmentación (comunicación controlada dentro de una red) y seguridad con servicios avanzados (integración estrecha con soluciones de seguridad líderes de terceros).

Tomás Valles señala que la virtualización de redes “ofrece una plataforma para que los socios de tecnología incorporen sus soluciones al centro de datos definido por el software. Con las etiquetas de seguridad de una plataforma de virtualización de redes, estas soluciones pueden adaptarse a las condiciones constantemente cambiantes en el centro de datos a fin de mejorar la seguridad”.

4.- Plataforma para servicios de redes y seguridad avanzados

El cambio en las redes tradicionales puede ser lento y propenso a errores, lo que las hace una opción poco viable para las demandas cambiantes del centro de datos. Por el contrario, puede configurar las redes virtuales con una plataforma de virtualización de redes de forma dinámica y automática, y agregar nuevos servicios, ya sean virtuales o físicos, según sea necesario.

Los negocios necesitan adaptarse y responder rápidamente a las nuevas situaciones de negocio. Sin embargo, esto puede enfrentar grandes desafíos si no se cuenta con un modelo eficaz que permita la entrega ágil de los servicios de TI. La virtualización de redes tiene un gran potencial para ayudar a hacer frente a estos grandes retos y permitir que los negocios crezcan y se vuelvan más competitivos.

 

-N. de P. VMware.

HPE va por la hiperconvergencia competirá con Nutanix y Cisco

HP Enterprise (HPE) lanzará su producto de sistemas hiperconvergentes basados en su servidor Proliant que va para finales de marzo, según ha anunciado su CEO Meg Whitman.

HPE planea entrar de lleno al masificado mercado de los sistemas hiperconvergentes este mismo mes. La información fue dada conocer por su CEO, Meg Whitman, durante la teleconferencia trimestral sobre ganancias de HPE del jueves. Durante la conferencia, Whitman apuntó a Nutanix como una de las startups pioneras en esta categoría.

“A finales de este mes vamos a anunciar una nueva oferta de sistemas hiperconvergentes, basados en nuestro servidor Proliant”, comunicó Whitman. “Nuestra nueva solución ofrecerá a los clientes una instalación en cuestión de minutos, una experiencia de usuario preparada para uso móvil, sencilla y con las operaciones de TI automatizadas, ofreciendo un costo del 20% menor que Nutanix”.

Los sistemas hiperconvergentes combinan funciones de almacenamiento, de computación y de redes en un solo producto el cual se ofrece como una aplicación. Son una evolución de los sistemas convergentes pero con componentes con los que están más estrechamente ligados. Sistemas convergentes, como VCE Vblocks, tienden a ser productos de gama alta a medida para cargas de trabajo concretas en las grandes empresas. En cambio, los sistemas hiperconvergentes pueden orientarse también a las empresas de tamaño medio y tienden a costar menos y a necesitar menos personalización.

IDC señala que estos sistemas se desarrollaron pensando en los escritorios virtuales aunque con el tiempo se han extendido a otros tipos de servicios. En estimaciones de la consultora, el mercado de sistemas hiperconvergentes habrá crecido un 60% en 2019 alcanzando los 4 000 millones de dólares en ventas. Estas cifras podrían explicar la entrada de HPE en este mercado, aunque no será la única. Cisco ha anunciado esta semana también su intención de introducirse en los sistemas hiperconectados con un producto desarrollado junto a Springpath.

Whitman explicó que HPE está consciente de que este es un mercado bastante concurrido por lo que van a desarrollar sus productos en un tiempo récord. Aún así, no dio fechas concretas para el lanzamiento.

Por otra parte Nutanix, remarca que toda la atención que está recibiendo la compañía en estas semanas no es más que la confirmación de la importancia de los sistemas hiperconvergentes para los centros de datos. “Ganar el mercado de la nube requiere innovación constante y el compromiso con el valor del cliente, no sólo competir en precio”, comentó en un comunicado Sudheesh Nair, presidente de Nutanix.

Durante la videoconferencia, además de los sistemas hiperconvergentes, Whitman presentó lo que será otro de los nuevos proyectos de la compañía aunque sin dar demasiados detalles al respecto. Se trata de lo que HPE ha denominado “memoria persistente” (persistent memory), es una nueva tecnología que permitirá a los servidores hacer un uso más amplio de memorias no volátiles como flash.

-James Niccolai

 

Así será el ciberespionaje gubernamental del futuro

La batalla que los gobiernos enfrentan cada vez más en el ciberespacio, muchas veces no salen a la luz, tiene connotaciones que pueden afectar a múltiples sectores como la economía, la seguridad y los derechos civiles. Es una lucha silenciosa por recursos, información y posicionamiento global que se señala básica hoy en día.

Vicente Díaz, analista principal de Kaspersky Lab, durante la celebración de la RSA Conference 2016, presentó una visión hacia el futuro de cómo será el ciberespionaje de los países en el futuro. Obviamente, en la era de la transformación digital, todas las naciones se están viendo obligadas a desarrollar sus capacidades en materia de ciberseguridad y espionaje, no solo en nombre de la seguridad de sus ciudadanos, sino en una carrera por tomar recursos y posicionamiento.

En este contexto se diferencian tres tipos de estado: los que cuentan con medios ilimitados, la “clase media”, y los que se ven obligados a acudir al mercado para comprar servicios externos. “No hay una lista estricta sobre los países que están en cada grupo, pero se puede relacionar fácilmente a los que invierten más en función de su posición estratégica, militar y económica”, aseguró Díaz.

Los estados buscan cada vez más un control sobre infraestructuras que da muchas ventajas a los atacantes. “Cuando hablamos de intromisión, generalmente nos referimos a infecciones sobre una persona a la que roban los datos. Sin embargo, en la actualidad la información circula, y muchas veces la encontramos en servicios externos que no sabemos dónde se encuentran localizados. Controlar esto da una gran ventaja, y ‘tirar’ de empresas externas es un método en auge”, confirmó Díaz.

Uno de los factores más importantes pretenden tener un control sobre un tablero del que participan la legislación, el control de las infraestructuras y las relaciones con las compañías. Por ello, las tendencias del futuro no solo serán de espionaje, sino que se basarán en hacerse con el mando de sistemas críticos de adversarios. Por ello, las herramientas que los estados usarán serán la de la diplomacia cibernética y las alianzas y las infecciones de IoT sobre ordenadores.

El año pasado, Estados Unidos y China firmaron un acuerdo en esta materia. En él acordaron no llevar a cabo robos de propiedad intelectual o de secretos comerciales. Si estos dos países podrían ser jugadores antagónicos, el ciberespionaje ha facilitado alianzas que cambiaran las relaciones entre los estados muy rápidamente.

“Si quieres acceder a la infraestructura de terceros, puedes hacerlo a través de infecciones o a través de la diplomacia. Este es un frente que no se tenía muy en cuenta en el pasado, pero que ahora está muy latente”, afirma Díaz. “No podemos asegurar lo que va a suceder en el futuro, pero sí que estamos prediciendo como estas tendencias van a cambiar el ciberespionaje de gobierno”.

-Mario Moreno

 

 

HP espera ser una base en el área de impresión 3D en la nueva revolución industrial

La compañía está planeando la introducción de sus impresoras 3D en el área industrial comercial; con ello, espera no solo reducir costos además espera eliminar la complejidad en los procesos de fabricación y también simplificar los procesos industriales.

Las primeras impresoras de HP se lanzarán al mercado este año según ha comentado Cathie Lesjak, Director de finanzas de HP, en la conferencia de Tecnología, Medios y Telecomunicaciones de Morgan Stanley.

La empresa ya anunció en el 2014 el lanzamiento de impresoras 3D, pero este es el lanzamiento más importante de HP hasta la fecha en este tipo de dispositivos; de hecho, la compañía está contratando a expertos en materiales, ingenieros mecánicos, directores y personal de ventas con el fin de darle un buen empujón a su producto.

Durante los últimos 20 años, HP ha tenido un historial intenso con las impresoras 3D definido por problemas tecnológicos o de soporte. Ahora, sin embargo, quiere convertir estos dispositivos en impresoras rápidas, baratas y cómodas para los negocios, su auténtico target. “No estamos realmente interesados en el comprador privado, si no en el aspecto comercial”, ha puntualizado Lesjak.

La compañía quiere propiciar una nueva revolución industrial mediante los beneficios de esta tecnología: en vez de tener que emplear varias máquinas para crear un producto, las impresoras 3D acortarán el proceso; los costos caerán y las compañías no tendrán que preocuparse por un inventario demasiado amplio.

En la actualidad esta idea ya se está poniendo en marcha en la NASA, dónde están construyendo un cohete motor con una impresora 3D, mientras que otras empresas están construyendo también partes de coches y equipo médico.

La impresora que está a punto de lanzar al mercado HP está basada en la tecnología MultiJet que permite mezclar la tecnología convencional 3D con nuevas técnicas y materiales. El proceso de creación envuelve la fusión de materiales con un fluido a presión en la cabeza de la impresora; se aplica más adelante calor para solidificar el objeto y entonces se añade otro material para los acabados, para luego repetir este proceso en numerosas ocasiones.

Las impresoras de HP emplearán tinta y materiales complejos, además de utilizar unas reglas definidas de creación y métodos de precisión en producción típicamente utilizados en circuitos de fabricación.

Las expectativas que se tiene sobre la impresora 3D llegaron a su punto más alto en el 2014, pero desde entonces han caído en picada. Los precios de las compañías como Stratasays o 3D Systems han bajado al mercado de consumo privado. Esta es una de las razones por las que HP quiere centrarse en el mercado comercial exclusivamente, según ha comentado Lesjak.

Muchas empresas pioneras de la impresión 3D se fundaron en los 80, pero su auténtico despegue llegó en los 90 conforme la tecnología maduraba. La tecnología que empleará HP ahora se llama blinder-jetting (“cegador-a-presión” así se traduce en español). Esta misma tecnología es la que empleó en los 90 Z Corp, una compañía que ha sido adquirida por 3D Systems.

-Agam Shah

 

 

El 43% de las empresas utilizará soluciones IoT en 2016

La consultora Gartner, señala en un estudio que en la actualidad sólo un 29% de las empresas utiliza tecnología IoT y un 14% quiere introducirlas este año. El 21% esperará hasta después de 2016.

Dentro del documento se revela que durante 2016 el 43% de las empresas implementará soluciones de Internet de las Cosas (IoT) en sus negocios. De las compañías que han participado en el análisis, todas miembro del Gartner Research Circle, sólo un 29% utilizan tecnología IoT en el momento de la encuesta mientras que un 14% espera introducirlas este año. El 21% esperará hasta después de 2016 para lanzarse a utilizar soluciones IoT.

Del estudio se desprende el interés por implementar el IoT aunque un 9% de las compañías encuestadas no ven ninguna relevancia en utilizar esta tecnología. Incluso un 38% no tiene planes para introducir el IoT en sus empresas frente a un 64% que tiene en sus planes incluirlas en algún momento.

“Aunque hay una aceptación de la importancia del IoT, menos de un tercio de las organizaciones encuestadas  están explotando activamente sus posibilidades”, explicó Get Geschickter, director de investigaciones de Gartner. Para los analistas de de la firma, estas cifras son resultado por dos motivos: por una parte las empresas aún no tienen claro cuáles pueden ser los beneficios del IoT para sus negocios ni han invertido en desarrollo y, por otra parte, la falta de formación en este campo de los profesionales de las organizaciones encuestadas.

En cuanto a los sectores que lideran la adopción del IoT destacan las industrias pesadas seguidas por las orientadas a servicios públicos como las Utilities. Según las estimaciones de Gartner un 56% de las industrias pesadas y un 38% del sector de orientado a los servicios habrán implementado el IoT a finales de año.

Según el informe, para las empresas que ya utilizan soluciones IoT el siguiente paso se dirigirá a mejoras en la experiencia con el cliente, algo a lo que hasta ahora sólo han dedicado su desarrollo el 40% de las empresas encuestadas. Y es que hasta el momento, los desarrollos se han centrado en mejorar los procesos internos, el 52% del total señala que hacerlos más eficientes o reducir costos.

Para Jim Tully, vicepresidente y analista de Gartner,” la encuesta muestra un aumento dramático en el enfoque hacia los beneficios en la experiencia del cliente, pasando del 18% al 34%. Esto indica que podemos esperar un mayor enfoque de la IoT en los clientes finales durante los próximos 12 meses. Los procesos y desarrollos del IoT se convertirán en  competitivas armas de mercado a partir de 2016”.

Finalmente, los analistas de Gartner señalan la ciberseguridad, la integración y la gestión de los requerimientos del desarrollo como los principales desafíos a los que se enfrentarán las empresas que ya han implementado IoT en sus procesos. Para las que pretenden adentrarse en esta tecnología, el principal reto será gestionar los procesos y los flujos de trabajo. “El 2016 será el gran año para adopción de IoT. El gran reto ahora es demostrar el retorno de la inversión. Los ejecutivos tienen que validar la contribución que el IoT puede hacer con el fin de justificar los despliegues a gran escala”, explicó Geschickter.

-Toñi Herrero Alcántara