Día: 18 octubre, 2017

[Video] Bitcoin y el futuro de las criptomonedas

Fernando Thompson, CIO de la Universidad de las Américas Puebla, hace un recorrido por el pasado, presente y futuro del Bitcoins y las criptomonedas que, desde su aparición como divisas, han generado dudas por no estar sujetas a ningún control bancario o respaldo físico. Sin embargo, su crecimiento ha sido exponencial e incluso hay una empresa mexicana que promueve su uso y afirma tener miles de clientes.

Recuperación después de los desastres, el gran reto para las empresas

Actualmente, las empresas dependen totalmente del procesamiento de datos para el flujo de información esencial y así poder accionar de manera exitosa.  En consecuencia, toda organización es vulnerable en caso que las operaciones de cómputo no funcionen, ya que se ven forzadas a interrumpir su actividad diaria de manera parcial e incluso total.

Emergency Management Forum, afirma que de cada 100 empresas que afrontan un desastre sin contar con un Plan de Continuidad de Negocio (BCP por sus siglas en inglés), el 43% nunca reabre su negocio y desaparece del mercado, el 51% cierra en menos de 2 años y solo el 6% sobrevive a largo plazo.

Falta prevención empresarial en el país, ya que solo el 27% de las organizaciones mexicanas cuentan con un plan de recuperación de desastres.

Por lo que se vuelve necesario contar con herramientas que le permitan volver a la operación parcial o total lo antes posible, disminuyendo el impacto en sus procesos de negocios y reduciendo las pérdidas de recursos.

Un plan de continuidad de negocio es un conjunto de procesos y procedimientos para actuar antes, durante y después de un evento de interrupción de la operación. Mediante una metodología interdisciplinaria, permite crear y validar planes tecnológicos y logísticos, para que una organización pueda recuperar sus funciones críticas, después de una interrupción o desastre.

Los riesgos que pueden afectar a las tecnologías de la información, según Protección Civil, se clasifican en tres amenazas principalmente:

  • Naturales: Terremotos, huracanes, inundaciones e incendios. Siendo estos los que más problemas y daños causan a las empresas.

  • Humanos: Errores de operación, sabotaje, hurto de los equipos, implantación de código malicioso.

  • Tecnológicos: Fallas del equipo, errores del software, virus informáticos, seguridad, fallas eléctricas.

Existen proveedores de servicios tecnológicos que ofrecen sus servicios para realizar y ejecutar un BCP adecuado a las características de cada empresa, siendo una solución ideal para la prevención de una catástrofe empresarial.

El Plan de Continuidad de Negocio está enfocado a la creación de una capacidad de respuesta real y totalmente documentada, que garantice la cobertura técnica y organizativa de las áreas críticas del negocio.

Existen dos parámetros fundamentales que debemos tener en cuenta al momento de elaborar un Plan de Continuidad de Negocio, mismos que permitirán dimensionar y decidir qué tipo de soluciones tecnológicas son necesarias para cada tipo de servicio, estos parámetros nos ayudarán a definir las capacidades que tiene la empresa para hacer frente a la interrupción de su actividad o a la pérdida de datos.

  1. Punto de recuperación Objetivo (RPO):

Capacidad que tiene la organización de recuperar su información en un punto en el tiempo. Es decir, cuantos datos o transacciones considera tolerable perder antes de que se vea afectado en dinero o reputación.

  1. Punto de Recuperación en el Tiempo (RPO):

Tiempo definido en el que un proceso de negocio debe ser recuperado después de un desastre o pérdida. Es decir, cuánto tiempo tiene el personal dedicado a IT para volver a poner en funcionamiento el sistema después de una parada o pérdida de información.

Hoy en día, prevenir y proteger una empresa de un desastre ya no es un lujo, sino una necesidad estratégica para que esta pueda sobrevivir en un mercado cambiante.

 

N. de P.

Personas, clave en el proceso de transformación digital: Red Hat

La digitalización ha reinventado los modelos de negocio de diferentes empresas, sin importar su tamaño o industria. Si bien la tecnología lleva un papel protagónico en este proceso de innovación, el éxito de ésta podría depender de los procesos y las personas involucradas, al menos esta fue una de las conclusiones de la cuarta edición del Red Hat Forum, Ciudad de México.

“La tecnología es sin duda fundamental, pero el equipo de trabajo es igual de importante; la cultura, la colaboración y la comunicación que se tenga con ellos acelera su implementación. La elección de las personas correctas es tan importante o más que la tecnología que seleccionamos, a veces también hasta es más difícil conseguir”, afirmó Sebastián Cao, Director de la Oficina de Tecnología LATAM de Red Hat.

Por su parte Alejandro Raffaele, Director General de Red Hat México agregó que “La transformación digital es una conjunción de fuerzas, talentos, tecnología, visión y estrategia. Sin duda, está cambiando la manera en que las empresas operan y hacen negocio. Para afrontar estos cambios y aprovechar las posibilidades del desarrollo tecnológico, hay que unir las capacidades y la creatividad de los individuos. Las personas y las organizaciones deben encontrar nuevas formas de trabajar juntas y así dar paso a nuevas maneras de innovar”, aseguró.

Sebastián Cao, Director de la Oficina de Tecnología LATAM de Red Hat; y Alejandro Raffaele, Director General de Red Hat México.

En el panel de discusión que abrió el evento, donde se encontraban representantes de empresas de retail y finanzas, secundaron esta idea. “Por mucha tecnología que apliquemos, si bien es clave, el secreto está en la gente. Yo enfocaría en que se deben crear métodos internos que permitan entender cada pedazo del negocio y saber qué tipo de tecnologías puedo meter ahí. Debemos también empoderar a las personas para que puedan tener decisiones”, puntualizó Vicente Fenoll, Fundador y CEO de Kubo.

Por su parte, Carlos Hernández, CTO de BIVA comentó que ellos crearon espacios libres donde la experimentación de los ingenieros sea libre,barata y sin riesgos, es decir, con esperanza de fracaso donde se está consciente de que puede haber error pero que no ocurran daños mayores. “A medida que das poder a las personas y libertar de creación, de influenciar el destino del negocio, éstos se convierten en un centro de innovación”.

Hassan Yassine, cofundador y CTO de Gaia Design afirmó que la cultura de innovación, así como la apertura para hacer pruebas en el negocio tomando en cuenta el factor riesgo aún dependen de los líderes del negocio, ya sea del CEO o incluso del CIO, quienes debe dar libertad para poder explorar opciones. “Tienen que dar la confianza en su equipo, darles presupuesto y tiempo para experimentar. Nosotros creemos que el camino al éxito es a través de crear hipótesis y probar esas hipótesis, de ahí si bien puede salir un error puede salir una tecnología disruptiva”, afirmó.

Sebastián Cao, Director de la Oficina de Tecnología LATAM de Red Hat; Vicente Fenoll, Fundador y CEO de Kubo; Hassan Yassine, cofundador y CTO de Gaia Design; Carlos Hernández, CTO de BIVA; y Blas Caraballo, General Manager de PayPal México.

Vicente Fenoll, Fundador y CEO de Kubo secundó esta moción al asegurar que, dentro de la empresa “hay veces que en una experimentación fallamos el proyecto al 100% pero debemos seguir experimentando porque incluso a veces atrás del error está la clave para llegar al éxito. Es parte de la cultura organizacional y debemos permitir que pase”, agregó el CEO de la fintech.

Pero las personas no sólo hacer referencia al equipo de trabajo, sino a los socios y, por supuesto a los clientes, sin los cuales la empresa no podría obtener el éxito en el mercado, por ello la importancia de tenerlos siempre en la mente. “Las empresas deben mantener una cultura de innovación, estar escuchando constantemente al cliente para ofrecerle siempre el mejor servicio. Este es el modo de avanzar en el mercado”, aseveró Blas Caraballo, General Manager de PayPal México.

 

Open Source como acelerador de la Transformación Digital

El open source va ganando terreno en los negocios como el motor que acelera la innovación con la capacidad de lanzar software de manera ágil y capaz de responder a las constantes y cambiantes demandas del cliente y del ritmo del mercado competitivo.

El código abierto es una de las principales ofertas que permite disminuir el tiempo de reacción ante el mercado en procesos de innovación y digitalización, al menos así lo afirmó Sebastián Cao, ofreciendo ventajas como el costo de inversión. “Tenemos muchos casos de éxito en México y Latinoamérica que lograron grandes proyectos de transformación digital con presupuestos bajos, y que definitivamente no hubieran logrado con software propietario que además de costoso, es poco flexible. Nosotros lo que queremos es democratizar el acceso a la innovación”, puntualizó el ejecutivo.

Además, Cao aseveró que no importa de qué tamaño sea la empresa o a qué industria se dedique, ya que con la flexibilidad y agilidad que ofrece el open source un retail o una pyme puede obtener los mismos beneficios que una empresa disruptiva como Uber, quienes incluso iniciaron siendo retails y, aún ganando millones de dólares, siguen aprovechando el código abierto. “Se trata más de un tema de beneficios que de costos”, comentó.

En Red Hat se plantearon el reto de expandir el uso del open source en México, incluso sin importar si no es de Red Hat. “Queremos que México abrace el open source, ojalá sea de Red Hat pero si no, no importa. El open source es una forma de vida, un impacto en los negocios y el modo de agilizarlos”, aseveró Alejandro Raffaele.

 

-Karina Rodríguez, Computerworld México.

SAP introduce Machine Learning para optimizar la experiencia de compra

SAP presentó nuevas tecnologías en el sector de consumo, tales como el reconocimiento facial, aprendizaje automático e Internet de las Cosas (IoT), para permitir campañas de marketing específicas y ayudar a los consumidores a optimizar su experiencia de compra.

Compartir, es demostrar interés: Una encuesta de SAP revela lo que hace felices a los clientes (y lo que les enoja)

El 89% esperan una respuesta a su consulta dentro de las primeras 24 horas, de acuerdo con el informe de Insights Consumer Insights de SAP Hybris 2017.

La encuesta involucra a 20,000 consumidores en todo el mundo donde se encontró que la manera más fácil de mantener a los clientes satisfechos es responder, y la manera más rápida de perderlos es compartir sus datos sin su consentimiento.

De acuerdo con el estudio, cuatro de cada cinco compradores (80%) están dispuestos a compartir algunos de sus datos personales con las marcas, siendo Japón el que menos se inclina por esta práctica (52%), en comparación con Colombia e India (ambos con 92%). Los encuestados de todos los países, excepto Rusia, están dispuestos a compartir sus direcciones de correo electrónico, pero solo la mitad de los consumidores de Oriente Medio desean compartir sus números de teléfono móvil.

Diez clientes se unieron a SAP Hybris para incorporar capacidades de aprendizaje automático en los portafolios de SAP Hybris Sales Cloud y SAP Hybris Service Cloud. Las soluciones SAP Hybris tienen acceso a los datos de los clientes y los productos de manera frontal. Con el software SAP tocando más del 76 por ciento de las transacciones comerciales mundiales, SAP está en una posición única para acceder y aprovechar los datos a este nivel.

Gracias a esto, se encuentran disponibles varios casos en diferentes aspectos como marketing, ventas, servicios y comercio. Incluyen personalización avanzada, merchandising contextual, uso de bots como asistentes de compras, puntuación de afinidad, análisis de sentimiento, análisis de texto de ticket de servicio y un servicio de atención al cliente.

N. de P. SAP

 

Telcos no están invirtiendo en inteligencia artificial y robótica

Cuando se trata de revoluciones industriales, no todas las industrias son iguales. Por ejemplo, hace más de un siglo, la línea de montaje transformó la forma en que los automóviles construidos en la industria automotriz. Pero su impacto ha sido mucho menos directo y sustancial en otras industrias, como las telecomunicaciones según el “Tiempo de apostar por la inteligencia artificial y la robótica”, publicado recientemente por The Boston Consulting Group.

Los fabricantes de automóviles, junto con las empresas de bienes industriales y otros negocios, han experimentado una nueva revolución en su forma de trabajar.

Gracias a la inteligencia artificial (AI) y la robótica, estas industrias parecen estar ganando otra victoria. Pero esta vez, ¿también podrían beneficiar a las empresas de telecomunicaciones? Destaca Borja Martín, en relación con el studio de BGC. Esa es una pregunta que muchas empresas de telecomunicaciones se preguntan a sí mismas cuando comienzan a invertir en inteligencia artificial y robótica.

Es uno de los que TeBIT, el estudio comparativo desarrollado conjuntamente por ETIS-The Community for Telecom Professionals y The Boston Consulting Group, también se lo pregunta. Cada año, TeBIT examina el gasto, el rendimiento y los procesos de las unidades de TI de las empresas de telecomunicaciones. Pero también se analiza a fondo un tema emergente, algo que podría ayudar a las empresas de telecomunicaciones en un mercado cada vez más competitivo. AI y la robótica, dado su gran éxito en reducir costos y mejorar la calidad para los fabricantes de automóviles y otros, parecía ser un punto focal natural para la inmersión profunda de este año.

Entonces, ¿las telcos realmente están al borde de una revolución? Las respuestas de los participantes de TeBIT sugieren que los casos de uso que se están llevando a cabo ahora, así como aquellos que las empresas de telecomunicaciones visualizan, pueden de hecho dar lugar a retornos importantes, quizás incluso transformadores. Y las empresas de telecomunicaciones ya comienzan a ver algunos de los pagos. Pero TeBIT también revela que, a pesar de su interés, las compañías de telecomunicaciones aún no tratan a AI y la robótica como cambiadores de juegos. Los niveles de inversión de Telcos son bajos y sus proyectos están limitados en número y alcance. Muchas iniciativas aún se encuentran en la etapa de prueba de concepto, y la mayoría de las empresas de telecomunicaciones aún tienen que desarrollar un plan estratégico para AI y robótica.

Los desafíos abundan, como la integración de inteligencia artificial y robótica con plataformas heredadas, saber dónde invertir y qué desarrollar, y rastrear beneficios, que a veces son menos tangibles que el ahorro de costos.

Pero quizás el mayor desafío sea, simplemente, que AI y la robótica sean nuevas tecnologías para las empresas de telecomunicaciones. Pedirle a las empresas que las integren es como poner una computadora en manos de alguien que ha usado papel y lápiz por mucho tiempo. A primera vista, esa persona no tiene idea de qué hacer con él.

Las telecomunicaciones finalmente comienzan a tener una idea. Pero para saber si la tecnología puede ser transformadora para las empresas de telecomunicaciones, como lo ha sido para los fabricantes de automóviles, será necesaria una mayor inversión y, tal vez, algunas apuestas arriesgadas. También se necesitará más atención para afrontar los desafíos. Pero aquí hay una idea. TeBIT solo es posible gracias a la tradición de los participantes de compartir información. Las empresas de telecomunicaciones participantes se permiten compararse con otros operadores y, a cambio, pueden acceder a un conjunto completo de resultados de referencia, junto con otros análisis de tendencias. La inteligencia artificial y la robótica también pueden madurar para la colaboración. Al intercambiar ideas, las empresas de telecomunicaciones podrían ser más capaces de identificar prácticas y estrategias óptimas. Pueden descubrir -como una industria- si AI y la robótica también serán buenas para ellos.

Redacción

 

Qualcomm doblará su inversión en el mercado de wearables

Qualcomm tiene una firme apuesta en el mercado de wearables, que Gartner estima en 30,500 millones de dólares en 2017.

El máximo responsable de Producto de la firma, Atheros Pankaj Kedia, ha dicho que doblará su inversión en el segmento de los wearables en el marco del evento sobre 4G y 5G que la compañía celebra estos días en Hong Kong y que recoge ZDNet.

“Hemos visto anuncios de algunos competidores que están abandonando el mercado de wearables; Qualcomm está doblando la inversión porque estamos liderando y queremos seguir haciéndolo”, ha dicho el ejecutivo.

A su modo de ver, el mercado está aún empezando y el verdadero crecimiento está aún por llegar.

Actualmente Qualcomm, y en concreto su plataforma Wear 2100, tiene más del 85% del mercado de Android Wear.

Las propuestas para wearables de la compañía de San Diego se basan en la tecnología Snapdragon, así que la capa de seguridad está asegurada, ha defendido Kedia. Es una cuestión clave en la medida que se van añadiendo funcionalidades de biometría, sensorización, conectividad e inteligencia artificial a los dispositivos.

Redacción

 

Intel avanza en informática cuántica con su chip de 17 qubit

Intel ha anunciado el desarrollo de un chip superconductor de 17 qubit destinado a soluciones de informática cuántica. El nuevo chip de 17 qubit, fabricado junto a la empresa holandesa QuTec especializada en este campo, cuenta con un diseño que permitiría lograr rendimientos sin precedentes. Destaca el hecho de haber podido encapsularlo en un tamaño que permitiría su utilización en entornos de informática más tradicional.

En esencia, la informática cuántica es lo último en informática paralela, con el aliciente de poder abordar problemas que las computadoras convencionales no han podido abordar tradicionalmente. Por ejemplo, las computadoras cuánticas pueden ofrecer avances en investigación, ciencia, modelado molecular, simulaciones, así como ayudar con el descubrimiento de nuevos fármacos.

El Dr. Michael Mayberry, vicepresidente corporativo y director gerente de Intel Labs ha destacado que “nuestra investigación cuántica ha avanzado hasta el punto que la colaboración nos ha permitido que nuestro socio QuTech simule cargas de trabajo de algoritmos cuánticos, mientras nosotros conseguimos fabricar nuevos chips qubit de forma regular y en nuestras instalaciones”.

Pero estos avances en informática cuántica se enfrentan a retos importantes, puesto que los qubit son tremendamente frágiles y cualquier ruido en la señal puede conducir a la pérdida de datos. Dicha fragilidad hace que requieran un entorno de funcionamiento de unos 20 milikelvin (entorno 250 veces más frío que el espacio profundo). Así, el embalaje de los qubit se vuelve crítico para garantizar su funcionamiento. De hecho, el Grupo de Investigación de componentes de Intel ubicado en Oregón y los equipos de Ensayo de Desarrollo Tecnológico ATTD de Arizona trabajan frente a los desafíos del encapsulado y embalaje de la computación cuántica.

El diseño del nuevo chip de 17 qubit, presentado en el tamaño de una moneda, cuenta con las siguientes nuevas características:

  • Nueva arquitectura que permite una mayor fiabilidad, rendimiento térmico y menor interferencia de radiofrecuencia entre los qubit.
  • Esquema de interconexión escalable que permite garantizar el intercambio de señales dentro y fuera del chip.
  • Diseños avanzados que permiten que los embalajes de Intel escalen para circuitos integrados, los cuales resultan ser más grandes que los chip de silicio convencionales.

La colaboración entre Intel y QuTec data del año 2015, momento en el que unieron sinergias para avanzar en este campo. Desde entonces, ambas compañías han conseguido acortar los tiempos desde el diseño y la fabricación del chip, hasta la prueba de campo. “Con este chip nos centramos en conectar, controlar y medir múltiples quimbs hacia un esquema de corrección de errores para lograr el qubit lógico”, destaca el profesor Leo DiCarlo de QuTech.

Intel está investigando en diversos tipos de qubit, entre los que cabe mencionar los qubit superconductores incorporados en este nuevo chip de prueba, y un modelo alternativo llamado spin qubit de silicio.

Estos qubit de spin se asemejan a los tradicionales de silicio basados en transistores convencionales, con lo que pueden ser fabricados con procesos muy similares.

 

IDG.es

¿Qué es la computación en nube híbrida?

Cómo construir una nube híbrida y lo que significan Amazon, Microsoft y Google en la núbe híbrida.

Muchos creen que la Nube Híbrida es el estado final en el que operan la mayoría de las empresas: algunos recursos de infraestructura en las instalaciones, otros en la nube pública. Otros creen que es un término que ha sido confundido por diversas definiciones de una variedad de proveedores, lo que disminuye el término para que ahora sea vago y nebuloso.

Entonces, ¿qué significa realmente la nube híbrida y cómo pueden los usuarios implementarla?

¿Qué es la computación en nube híbrida?

Si bien no existe una única definición acordada de computación en nube híbrida, tal vez lo más cercano que tenemos es de los Institutos Nacionales de Estándares en Tecnología (NIST): la infraestructura en la nube (híbrida) es una composición de dos o más infraestructuras en la nube distintas (privadas, comunitarias o públicas) que siguen siendo entidades únicas, pero están unidas por tecnología estandarizada o propietaria que permite la portabilidad de datos y aplicaciones.

¿Qué significa eso en términos simples? Básicamente, la mayoría de las personas creen que la computación en nube híbrida significa gestionar una nube pública y una privada como una sola, o al menos poder tener herramientas de administración en ambos entornos. Sin embargo, hay muchos tipos de nube híbrida.

Arquitecturas híbridas en la nube

Si tiene más de un entorno de nube (público y privado, multipublico), entonces puede ser útil contar con una plataforma de administración que abarque estos entornos. Administrar estos entornos por separado puede crear una duplicación innecesaria de esfuerzos y riesgos de seguridad potenciales.

Hay múltiples enfoques para la arquitectura de una nube híbrida:

Software híbrido de gestión de la nube: una plétora de nuevas empresas y proveedores de gestión de infraestructura establecidos han desarrollado un software que permite a los usuarios gestionar de forma centralizada tanto la infraestructura como las aplicaciones en la nube pública y local. En una sola consola, las máquinas virtuales, el almacenamiento, las bases de datos y otros recursos se pueden girar hacia arriba y hacia abajo, independientemente de si están en un centro de datos de la empresa o en la nube pública.

Nube híbrida nativa de vendedor

Otra forma de pensar en la arquitectura de una nube híbrida es ampliar la huella local a la nube pública o viceversa, y conectar los recursos de la nube pública con un centro de datos. En los últimos años, todos los vendedores en la nube de infraestructura popular como servicio (IaaS) han hecho esto más fácil de hacer.

Para la extensión local a la nube pública, las compañías que incluyen VMware, Red Hat, Hewlett Packard Enterprise, Cisco, Dell e IBM permiten a los clientes administrar los recursos de la nube pública. Mientras tanto, los proveedores públicos de IaaS están creando conexiones desde su nube pública a los centros de datos de sus clientes (vea más abajo sobre las estrategias específicas de proveedores de la nube a continuación).

PaaS

Muchas organizaciones utilizan una plataforma como servicio (PaaS), una plataforma de desarrollo de aplicaciones para que los desarrolladores escriban aplicaciones personalizadas sin proporcionar la infraestructura subyacente que necesitan para funcionar. Ejemplos de PaaS incluyen Pivotal Cloud Foundry, Red Hat OpenShift, IBM Bluemix y Apprenda. La mayoría del software principal de PaaS puede ejecutarse en las instalaciones del cliente, alojadas en un entorno privado o de forma nativa en la gran nube pública de IaaS. PaaS configura automáticamente los recursos de infraestructura en estos entornos, convirtiéndolos en una plataforma para la nube híbrida.

AWS, Microsoft y Google se acercan a la nube híbrida

A pesar de una reticencia anterior, los principales proveedores de IaaS en los últimos años han adoptado la integración de su infraestructura de nube pública con los recursos locales de los clientes. Los vendedores están creando herramientas que funcionan en estos entornos y se están asociando con empresas que tienen fuertes vínculos en centros de datos empresariales.

Amazon Web Services: AWS, visto por la mayoría como el líder de la nube público de IaaS, inicialmente se mostró reticente a comercializarse como una compañía de nube híbrida, en lugar de centrarse en sus capacidades de nube pública. En los últimos años, AWS ha creado herramientas como Amazon Storage Gateway, AWS DirectConnect y herramientas de desarrollo de aplicaciones como CodeDeploy. Quizás el mayor movimiento de AWS para respaldar la nube híbrida es una importante alianza con VMware que se anunció por primera vez en 2016. Los clientes pueden ejecutar una suite completa de software VMware en una infraestructura dedicada en la nube pública de AWS.

Microsoft Azure: de los tres grandes proveedores de la nube de IaaS, Microsoft ha sido, con mucho, el vocal más importante en marketing como una compañía de nube híbrida, lo cual no es sorprendente dada su popularidad en la mayoría de las tiendas de informática ya. La plataforma de nube híbrida primaria de Microsoft se denomina Azure Stack, que es un hardware de infraestructura convergente distribuido por Dell EMC, Cisco, Lenovo y HPE. Está diseñado para funcionar como la nube pública de Azure, pero se encuentra en las instalaciones de los clientes. Microsoft también permite que muchas de sus herramientas de administración de software se extiendan dentro de las instalaciones, incluida su plataforma de administración de acceso y seguridad de Active Directory, así como su amplia gama de aplicaciones SaaS, incluida Office 365 y Outlook.

Plataforma Google Cloud: como AWS, Google centró sus primeros esfuerzos de marketing en la nube pública. Desde que la compañía contrató a la ex CEO de VMware, Diane Greene, para encabezar sus esfuerzos en la nube, ha adoptado más plenamente la nube híbrida. El ejemplo más notable de esto es una asociación con Nutanix, el proveedor de infraestructura hiperconvergible, que permite a los clientes ejecutar aplicaciones en Nutanix en las instalaciones y en la nube pública. Google también se asoció con VMware. Google tiene software que se ejecuta en una nube pública y local llamada Kubernetes. Esta plataforma de gestión de contenedores de aplicaciones de código abierto desarrollada por Google puede ejecutarse en las instalaciones o en la nube pública de Google en Google Container Engine.

Brandon Butler

Cisco presenta los primeros servicios predictivos con Inteligencia Artificial

Cisco anunció hoy una nueva cartera de servicios diseñados para que los departamentos de IT vuelvan a tener el control. Desarrollado con Inteligencia Artificial (AI), el conjunto de servicios de predicción de Cisco anticipa posibles fallas de IT, mitiga el riesgo, reduce los costos de mantenimiento y ayuda a las organizaciones a conseguir las habilidades necesarias para transformar sus negocios. Con las nuevas capacidades preventivas y de predicción avanzadas, los nuevos servicios de Business Critical Services y High Value Services de Cisco permitirán a las organizaciones invertir en un mejor uso de sus presupuestos de IT en innovación tecnológica, en medio de la brecha tecnológica creciente que representa una amenaza inminente para la continuidad y el crecimiento empresarial.

“En el mundo actual que se mueve más rápido que nunca antes, contar con la combinación adecuada de talento y servicios de TI es esencial para el éxito empresarial”, dijo Chuck Robbins, CEO Cisco.

“Al aprovechar la inteligencia artificial y el aprendizaje de las máquinas para abordar problemas críticos de IT la nueva oferta de servicios de Cisco ayudarán a nuestros clientes a ahorrar tiempo para enfocarse en la creciente brecha de talento de TI y continuar siendo competitivos en el futuro”.

Hoy, más que nunca, las organizaciones requieren directores de IT para crear nuevas fuentes de ingresos para sus negocios. Sin embargo, la escasez de habilidades digitales y la brecha de habilidades técnicas están poniendo a las organizaciones en peligro de perder su competitividad. El nuevo conjunto de servicios predictivos de Cisco se diferencia por la administración unificada, la inteligencia y la automatización que ayudan a minimizar el impacto de la brecha de habilidades y el personal técnico para enfocarse en acelerar la innovación.

Cisco está lanzando hoy dos nuevas incorporaciones a su cartera de servicios:

Servicios Críticos Empresariales (Business Critical Services) y Servicios de Alto Valor (High–value Services). Estos dos nuevos servicios ofrecen el poder y la inteligencia de IA y el aprendizaje automático para optimizar el talento, los conocimientos y las habilidades de IT; además de permitir a las organizaciones resolver sus problemas primero y, en última instancia, acercarse a su usuario y cliente final.

Cisco Business Critical Services:

Con el diverso entorno tecnológico de hoy en día, cada vez más complejo y dinámico, las empresas deben abordar de manera agresiva estos desafíos. Cisco presenta una nueva cartera de servicios de suscripción, Business Critical Services que va más allá de la optimización básica para ofrecer nuevas capacidades en materia de análisis procesables, automatización, cumplimiento con regulaciones y seguridad con expertos de tecnología de Cisco Advance Services para permitir un entorno de tecnología segura, eficiente y ágil. Business Critical Services impulsará la minimización de los errores humanos y ayudará a aprovechar al máximo el valor de los productos y soluciones, al tiempo que creará una estrategia de IT segura para el futuro. Estos servicios de optimización de próxima generación ofrecen a las empresas:

  • Reducción de la complejidad y el costo a través de la automatización, la organización y la experiencia técnica.
  • Aceleración de la agilidad empresarial y la transformación a través de capacidades avanzadas de análisis y aprendizaje de máquinas, para proporcionar información crítica, infraestructura prioritaria y recomendaciones de aplicación.
  • Reducción de riesgos con servicios automatizados de cumplimiento y solución, junto con una sólida cartera de seguridad incluyendo respuesta a incidentes para protección contra amenazas.

Estos nuevos Business Critical Services ayudan a reducir en un 74 por ciento el tiempo de inactividad, resuelve problemas 41 por ciento más rápido y reduce los costos operativos en 21 por ciento de acuerdo con Cisco Optimization Services Executive Summary

Cisco High-value Services:

Para ayudar a las organizaciones a utilizar software avanzado, soluciones y la red, Cisco está entregando la siguiente generación de servicios técnicos llamados servicios de alto valor (High- Value Services). Esta cartera está basada en nuestros servicios de soporte de producto líderes con ofertas que usan analíticos, incorporación, experiencia y escala para ofrecder servicios más proactivos y prescriptivos, permitiendo a nuestros clientes obtener un mayor valor, más rápido, de sus inversiones en TI.

Soporte de software: Proporciona soporte para el software de Cisco. Las nuevas funciones de servicios de alto valor incluyen: Opciones de servicios de niveles múltiples mejoradas y premium, además del soporte de nivel básico (reactivo).

Soporte de solución: Proporciona soporte centralizado para hardware, software y soluciones para los partners de Cisco, desde la primera llamada a la resolución. El soporte de soluciones es la oferta de servicio predeterminada para Cat 9K / DNA.

Soporte de red: Technical Services (TS) Advantage proporciona soporte a nivel de red.

De acuerdo con la Encuesta a Líderes Mundiales en Transformación Digital (DX) 2017 de IDC, la falta de habilidades digitales en la organización fue citada como el mayor desafío para implementar exitosamente la transformación digital. En consecuencia, las empresas que buscan implementar la transformación digital necesitan otras fuentes de talento creativas para habilitar sus estrategias digitales sus relaciones y atraerán nuevos clientes.

N. de P. Cisco