Día: 14 noviembre, 2016

Disponibilidad: indispensable para el comercio electrónico durante Buen Fin

Vivimos en una era en donde prácticamente todo es digital, esto ha cambiado la manera en que las empresas se comportan, y en ocasiones muchas se han visto obligadas a sumergirse en la ola de la transformación digital para sobrevivir en un mundo competitivo.

El comercio electrónico es un ejemplo de cómo la tecnología ha impulsado la creación de nuevos modelos de negocios, adoptando formatos en donde al final sea un ganar-ganar – ofrecer a los consumidores la posibilidad de acceder a productos y servicios a través de computadoras o dispositivos móviles, mientras los negocios se mantienen siempre en línea y logrando mantener su ventas 24.7.365 -. Con la transformación digital, el comercio electrónico más que un canal de ventas, implica llevar a cabo una estrategia digital en donde la tecnología juega un papel fundamental.

Este año,  la Asociación Mexicana de Venta Online (AMVO) anunció su apoyo a la iniciativa del Buen Fin para impulsar el comercio electrónico, lo que sin duda marcará un crecimiento significativo, en especial al ser una temporada en donde como resultado de las múltiples promociones generadas por un gran número de establecimientos y negocios, las ventas en el país se ven beneficiadas

Hay que considerar que el aumento del gasto en el comercio electrónico conduce a una mayor actividad de tráfico en línea y generación de datos por las compras, lo que requiere infraestructuras de TI que puedan soportar el número de movimientos y garantizar el funcionamiento de las aplicaciones y la infraestructura en todo momento y lugar, asegurando que los usuarios tengan acceso y evitar que éstos se vayan a la competencia.

De acuerdo a un estudio de la Asociación Mexicana de Internet (Amipci), durante 2015, el comercio electrónico en México alcanzó los 257,000 millones de pesos, lo que representó un crecimiento del 59% respecto a los 162,100 millones de pesos en 2014.

Las demandas por un acceso continuo muestran la necesidad por parte de los negocios de estar siempre disponibles, esto lo confirma Veeam en su Reporte de Disponibilidad 2016, en donde se muestra que el 48% de las cargas de trabajo son de misión crítica, y en promedio, una caída de las aplicaciones de este tipo tardan en recuperarse 2 horas. Estos tiempos inactivos llegan a impactar a las empresas hasta 15 veces al año y pueden llegar a representar un costo de hasta 16 millones de dólares.

El mismo reporte arroja que dentro de las pérdidas, el 68% de las empresas reconocen que, al sufrir tiempos inactivos, se pierde la confianza del cliente, que el 62% sufre un daño a la marca y un 51% que pierde la confianza de los empleados por no poder ejecutar una oportuna toma de decisiones; esto sin duda es un riego para todos los negocios que buscan atraer clientes.

Se acerca el Buen Fin y las empresas deben estar conscientes que la implementación de una solución de disponibilidad es fundamental para que sus negocios se mantengan competitivos; soluciones que ofrezcan funciones clave que garanticen los negocios Always-On, que proporcionan el nivel adecuado de disponibilidad en el centro de datos a la vez que garantiza que el canal de comunicación se optimiza constantemente. Además, las organizaciones deben prepararse mediante la implementación de Centros de Datos modernos y seguir la regla 3-2-1: tres copias, al menos en dos tipos de almacenamiento de datos, entre ellos uno fuera del sitio.

A principio de año, IDC dio a conocer en sus predicciones que durante 2016, el 30% de las compañías de productos de consumo masivo invertirán en tecnologías de la tercera plataforma para sacar ventaja de la explosión de comercio electrónico. Esto es una muestra de cómo las empresas se preocupan cada vez más por adoptar soluciones que les ayude a prevenir pérdidas y garantizar a sus clientes el acceso en todo momento a los sitios para realizar compras en línea.

Estamos en una época en donde los mexicanos esperamos las mejores promociones de productos en el año, y para los negocios, un momento donde cada minuto es vital para el éxito. Las empresas deben garantizar el acceso a sus sitios en todo momento y que sus operaciones funcionarán de manera normal 24.7.365, sin embargo durante el Buen Fin, cuando la demanda incrementa, es indispensable estar siempre disponibles.

Jonathan-Bourhis---Veeam

Por Jonathan Bourhis,

director general de

Veeam en México.

 

Agilidad, la clave en la evolución del Data Center: IDC [Video]

Para el 2020, IDC estima que el 60% de los datos en el universo digital serán creados en mercados emergentes, como el nuestro. Ante ello, la “agilidad” es un término que deberá estar relacionado con las actividades a cargo de los responsables de las áreas TI, aseveró Claudia Medina, Gerente de Investigación de Enterprise en IDC México, al término de su participación en el Data Center Executive Forum 2016.

 

Nuevos estándares Ethernet para sector automovilístico, industrial y de vídeo

Hay Tres nuevos consorcios que promueven redes Ethernet Time-Sensitive Networking (TSN) para los sectores automovilístico, industrial y vídeo, tiene el objetivo de desarrollar redes con el estándar Ethernet, pero orientadas a las necesidades específicas de aplicaciones de misión crítica en tiempo real.

De acuerdo con el laboratorio de innovación de la Universidad de New Hampshire, UNH-IOL, los estándares TSN permiten la comunicación en tiempo real a través de Ethernet, haciendo posible que la oferta se construya para proporcionar una sincronización extremadamente precisa y predecible a través de la red. Gracias a funciones añadidas a Ethernet, como la sincronización de tiempo, política de ingreso, redundancia transparente, marco de preferencia, el tráfico programado y la reserva de flujo, TSN promueve un ecosistema interoperable que abarca muchas industrias.

Los tres nuevos consorcios de redes TSN presentados son:

Automotive Ethernet: El futuro vehículo autónomo conectado requiere sensibilidad y previsibilidad del tiempo en la conexión en red que TSN proporciona para respaldar los requisitos del Sistema Avanzado de Asistencia al Conductor (ADAS), los sistemas de entretenimiento de los consumidores y otros elementos de la electrónica del vehículo. Según ha hecho público el laboratorio de innovación de la Universidad de New Hampshire (UNH-IOL) el TSN Automotive Networking Consortium ofrece un marco para la colaboración y la participación en la formación de los estándares emergentes a través de la neutralidad, la conformidad de terceros y las pruebas de interoperabilidad.

Redes industriales: La importancia de TSN también está emergiendo en la automatización industrial debido al aumento del interés en torno al IIOT, específicamente los datos críticos y sensibles al tiempo que deben ser transferidos y compartidos dentro de límites estrictos de latencia y confiabilidad. Las mejoras TSN para Industrial Ethernet proporcionan determinismo y fiabilidad basados ​​en estándares para estas aplicaciones. El TSN Industrial Networking Consortium reúne a las partes interesadas para aprovechar los beneficios de TSN – ancho de banda, seguridad, interoperabilidad y latencia y sincronización para IIOT, robótica, plantas de ensamblaje y máquinas, así como dar forma a los estándares y protocolos para TSN en el mercado industrial.

Redes A / V Pro: Las recientes mejoras y certificaciones en el mercado de audio y vídeo han creado una mayor variedad de productos compatibles y tecnología abierta que ofrece una red AV de alta calidad al alcance de cualquier sistema AV Professional de cualquier tamaño. Las mejoras de TSN proporcionan la importante sincronización de audio y vídeo que necesitan los sistemas. El Pro AV Networking TSN Consortium es un campo de pruebas para las promesas de redundancia sin fisuras, baja latencia y sincronización en el mercado profesional de audio y vídeo.

El nuevo esfuerzo de los consorcios no es sino uno de los numerosos avances en curso en la industria para construir una Ethernet más sensible al tiempo. Por ejemplo, el laboratorio de pruebas de Redes Sensibles al Tiempo del Consorcio de Internet Industrial (IIC) está diseñado para evaluar las tecnologías de TSN a medida que llegan al mercado. “TSN abrirá aplicaciones de control crítico tales como control de robots, control de unidades y sistemas de visión a la Internet Industrial. Esta conectividad permite a los clientes, proveedores y vendedores acceder más fácilmente a los datos de estos sistemas y aplicar rutinas preventivas de mantenimiento y optimización a estos sistemas”, escribió la CII.

El IEEE tiene una serie de grupos de trabajo estándar propuestos desarrollando todo tipo de tecnologías TSN o Ethernet determinista. El IETF también tiene su grupo Deterministic Networking (detnet), que trabaja con el IEEE, para desarrollar “una arquitectura general que abarca el plano de datos, OAM (Operaciones, Administración y Mantenimiento), sincronización de tiempo, gestión, control y aspectos de seguridad Que son necesarios para habilitar una ruta de salto múltiple, y el reenvío a lo largo de la ruta, con las propiedades determinadas de latencia controlada, baja pérdida de paquetes, baja variación de retardo de paquetes y alta confiabilidad”.

N. Cooney

 

IBM Watson, ahora con nuevas capacidades y soluciones

IBM anunció el lanzamiento de diversas soluciones, tecnologías, capacidades y alianzas que ayudarán a los clientes, desarrolladores, científicos de datos, industrias y profesiones a incorporar capacidades cognitivas y acelerar la aplicación de la inteligencia artificial a los negocios.

 

Nuevas soluciones Watson enfocadas en Profesiones

IBM presentó una serie de nuevas soluciones cognitivas destinadas a los profesionales en recursos humanos, marketing, commerce, cadena de suministro, educación y servicios financieros. Con estas nuevas soluciones, IBM está habilitando a organizaciones de todas las industrias y todos los tamaños a integrar nuevas capacidades cognitivas a sus negocios.

Las soluciones de Watson aprenden en forma experta, algo que es crítico para los profesionales que quieren descubrir insights ocultos en su masiva cantidad de datos, para entender, razonar y aprender sobre  sus clientes y procesos de negocio más importantes. Estas soluciones ayudan a los profesionales a aumentar sus conocimientos y experiencia existentes, sin necesidad de involucrar a un analista de datos, y los empodera para tomar decisiones de negocio informadas, vislumbrar oportunidades y tomar acción con confianza.

 

IBM incorpora capacidades Cognitivas a su tecnología Cloud Video

Servicios cognitivos basados en Watson para la tecnología Cloud Video, diseñados para transformar el modo en que las organizaciones aprovechan sus conocimientos acerca del contenido de videos y de su público.

El video digital es un área floreciente que sigue estando mayormente inexplorada, pues forma parte del más del 80% de datos no estructurados del mundo que sólo se puede analizar con computación cognitiva. Se cree que la aplicación de tecnología cognitiva será un próximo paso crítico para minería y análisis de datos complejos en video – plataforma que dificulta su comprensión y análisis-, de modo que las compañías puedan comprender mejor y entregar al espectador el contenido que desean.

 

Aplicaciones:

  • Análisis de eventos en vivo: Combina APIs de Watson con soluciones streaming video de IBM Cloud Video para hacer un seguimiento de la reacción del público a eventos en vivo y en tiempo real en redes sociales, analizando actualizaciones en medios sociales.
  • Detección de escenas de video: Segmenta videos en forma automática en escenas coherentes, aumentando la eficiencia para encontrar y brindar contenido focalizado.
  • Conocimiento del público: Integra las soluciones IBM Cloud Video con la Plataforma IBM Media Insights, una solución cognitiva que usa APIs de Watson para ayudar a identificar preferencias del público, incluso lo que están mirando y diciendo, a través de medios sociales.

 

Plataforma con motor de ingestión de datos más veloz del mundo, habilitada por Watson

Plataforma de Datos IBM Watson (IBM Watson Data Platform) para ayudar a las empresas a valorizarse aún más. La plataforma ofrece el motor de ingestión de datos más veloz del mundo y facilita la toma de decisiones con potencia cognitiva para los profesionales, permitiéndoles colaborar en una nube, con los servicios que prefieran. IBM también pone a disposición IBM Watson Machine Learning Service, que simplifica el aprendizaje de máquina con una interfaz intuitiva y autoservicio.

Watson Data Platform capitaliza la inversión de IBM en Apache Spark y The Weather Company, y aprovecha varias tecnologías desarrolladas por IBM Research. Dando a los profesionales de datos la capacidad de:

  • Usar uno de los motores de ingestión de datos más rápidos del mercado para procesar grandes volúmenes -de datos- diversos, provenientes de una amplia variedad de fuentes
  • Depurar, editar y moldear datos más fácilmente
  • Arrastrar y soltar servicios en notebooks analíticos para una mayor productividad y gestión del tiempo.

A través de la Watson Data Platform basada en IBM Cloud, las compañías pueden combinar sus datos propios con datos externos bajo la gobernanza que las empresas requieren, y al mismo tiempo mantener el control y los conocimientos obtenidos. Esto ayuda a las empresas y a los profesionales a preservar sus derechos sobre los datos.

Otros anuncios realizados por IBM en World of Watson:

  • Nuevas capacidades conversacionales de IBM Watson acercan a las marcas y a los consumidores. Watson Virtual Agent amplía las capacidades de conversación para los usuarios principiantes y desarrolladores experimentados por igual, mejorando cómo los clientes y las empresas se comunican.
  • The Weather Channel lanza Bot para Facebook Messenger, impulsado por IBM Watson. Apalancando la tecnología de IBM Watson, el nuevo Bot aprenderá las preferencias de usuario, ofreciendo informaciones personalizadas, sobre condiciones climáticas, previsiones, nuevos contenidos y más.
  • IBM fortalece aplicaciones para iOS con Watson para impulsar la toma de decisiones de los profesionales: IBM ofrece aplicaciones empresariales existentes con capacidades cognitivas de avanzada, incluyendo la interacción a través de la voz y el procesamiento del lenguaje natural para las conversaciones.
  • IBM Watson Education y Pearson promueven el aprendizaje cognitivo para estudiantes universitarios. La combinación de las capacidades cognitivas de IBM con servicios digitales de educación de Pearson ofrece a los alumnos una experiencia de aprendizaje más dinámica en los cursos universitarios.
  • IBM ofrece velocidad, escala y simplicidad con Hybrid Cloud Database. IBM presenta avances significativos en IBM DB2, database software, ayudando a las empresas a reducir sus costos operacionales a medida que reúne transacciones en el mismo banco de datos, para aumentar la velocidad de análisis de datos en tiempo real.

 

Comunicado de Prensa

Seis claves para aumentar la protección en outsourcing

En las organizaciones hay una creciente preocupación por la forma en que los proveedores de servicios TI terceros están protegiendo los datos corporativos. A continuación, le compartimos seis pasos que los líderes de TI pueden dar para realizar una mejor gestión de la ciberseguridad y de la privacidad de la información.

Como resultado, la ciberseguridad y la privacidad de los datos se constituyen como una de las áreas más difíciles en la elaboración de contratos de outsourcing TI, tal como explica Rebecca Eisner, abogada en el bufete Mayer Brown.

“Los proveedores están comprensiblemente preocupados por no pagar compensaciones que son desproporcionadas a los ingresos recibidos y, por tanto, procuran limitar o negar su responsabilidad”, señala Eisner. “Los clientes están igualmente preocupados, particularmente donde los proveedores no tienen los mismos incentivos para proteger la información del cliente como lo hace este, y porque los impactos negativos de un incidente de seguridad son generalmente mucho más importantes para el cliente que para el proveedor”, añade.

El entorno de TI cada vez más complejo y geográficamente disperso también dificulta las cosas. Hoy en día, los datos están dispersos por centros de datos, la nube y los dispositivos móviles. “Los puntos de acceso y los posibles puntos de fallos de seguridad se multiplican en este ecosistema en constante expansión. Además, muchos de estos sistemas son proporcionados y gestionados por terceros proveedores”, explica Eisner.

Por estas razones, los CIO deben realizar una propuesta de gestión de riesgos para seleccionar, contratar y supervisar a los proveedores de servicios TI de su compañía. Existen seis pasos que los directores de TI pueden dar para fortalecer la privacidad de los datos y aumentar las protecciones de ciberseguridad en sus interrelaciones con los proveedores de TI, según Eisner:

  1. Conocer qué proveedores procesan o tienen acceso a los datos personales o regulados más sensibles de la compañía, así como a los datos que representan la “joya de la corona” de la organización.
  2. Colaborar con la seguridad de la compañía, con la gestión de distribuidores y con los equipos jurídicos para determinar cuáles son las relaciones con proveedores que generan los mayores riesgos para la compañía con el fin de concentrar el nivel adecuado de atención y de recursos en los servicios de outsourcing.
  3. Examinar los acuerdos con los proveedores de servicios TI a través del prisma de los requisitos de privacidad de datos y de la ciberseguridad actualizada y bien definida de la compañía. Modificar estos contratos para cerrar algunos gaps.
  1. Asegurarse de que el equipo de seguridad está supervisando a los proveedores de alto riesgo y actualizando los cuestionarios de evaluación de la seguridad de estos de forma anual o semestral. Revisar informes de auditoría, certificaciones y pruebas de penetración y, cuando proceda, realizar visitas sobre el terreno.
  2. Revisar regularmente las condiciones contractuales de privacidad y seguridad de la empresa con el asesor jurídico para asegurarse de que los requisitos básicos estén actualizados. “Esto es particularmente necesario debido a la rápida evolución de la regulación de privacidad en los Estados Unidos y en todo el mundo”, explica Eisner.
  3. Tomar el tiempo necesario para educar a la junta directiva de la compañía y a los empleados sobre los riesgos en la privacidad y seguridad y explicarles los pasos que deben dar para mitigarlos.

Stephanie Overby

 

Trump derrotó a Clinton usando analíticos como Obama

Existen tres reglas para los Analíticos, y el presidente electo de los Estados Unidos los siguió para ganar las elecciones a Hillary Clinton.

Lo que todavía es increíble es cómo los servicios de noticias pronosticaron mal el resultado de las elecciones estadounidenses del martes pasado. Parecía que Clinton era la ganadora y prácticamente todos estaban equivocados. Las estrategias de análisis realizadas para la campaña de Clinton parecían llevarla a la victoria, y a esto sólo le daba una lectura, además de tener un presupuesto más grande que del magnate, aunque suene raro. Por ello, Trump al tener un presupuesto reducido, tenía que obtener varias lecturas, así que utilizó el concepto An​alytics para mejorar la posición de su presupuesto limitado, de su tiempo y de su mensaje. La ironía es que, durante las dos últimas elecciones, Obama superó a sus rivales republicanos utilizando análitica de datos, algo que solo Trump al iniciar la contienda entendió mejor que Clinton.

Los partidarios de Trump fueron señalados por los medios de comunicación y el campamento de Clinton. Esto no era una estrategia sabia porque en lugar de obligarlos a cambiar de lado, al parecer alimentaron sus sentimientos de ser atacados y engañados.  Pero el mayor problema para los analistas es que esto hace que no quieran responder, o si responden, no respondan con veracidad. Esto introdujo un sesgo masivo pro-Clinton y debería haber invalidado los estudios relacionados.

A diferencia de Clinton, la gente de Trump identificó correctamente estas cuestiones. Diez días antes de las elecciones, un pequeño equipo reescribió la metodología de muestreo para eliminar tanto el sesgo como el llegar a los votantes potenciales. Esto les permitió asesorar mejor a sus clientes a dónde ir y cómo gastar sus fondos limitados.

En resumen, se dieron cuenta de que todo el mundo estaba haciéndolo mal y que tenían disponibles pruebas sustanciales durante las primarias. De esta manera, crearon un arma estratégica para su cliente y que les ayudó significativamente a convertir lo que era probablemente una pérdida en una de las mayores y sorprendentes victorias en la historia de Estados Unidos.

Dentro de toda su campaña, esto es lo que probablemente funcionó para Trump, por ello él no creía en los números de las encuestadoras y las cadenas de televisión, ya que iba perdiendo. A Clinton, en cambio, sí le gustaron. No desafiar la muestra es un error común enorme porque te lleva a un mal resultado. Por ello, es importante tener en mente tres reglas de análisis que se debe tener en mente siempre.

En primer lugar, usted tiene que asegurar su fuente de datos. Si usted no tiene una metodología de muestreo fuerte, no tendrá resultados precisos y, por lo tanto, sería mejor no dar mal consejos a los tomadores de decisiones. En segundo lugar, hay que identificar y eliminar prejuicios. Y finalmente, los responsables de tomar decisiones deben aprender a desafiar el análisis, especialmente cuando les dice lo que quieren oír. Así pues, hay que asegurar los datos, identificar y mitigar el sesgo, y desafiar siempre el análisis para asegurar que el consejo que usted consigue conduce a un resultado positivo.

Redacción

 

Zuckerberg descarta que Facebook inclinó la elección americana

Mark Zuckerberg, CEO de Facebook, ante los cuestionamientos sobre notas falsas que pudieran haber inclinado la elección en los Estados Unidos, señaló, “personalmente creo que la idea de que las noticias falsas en Facebook, que es una cantidad muy pequeña del contenido, influyeron en la elección de alguna manera, creo que es una idea bastante loca. Los votantes toman decisiones basadas en su experiencia vivid”, en una entrevista en la conferencia de Techonomy 2016 en Half Moon Bay, California. Además, quiso dejar claro que se estaba sobrestimando el papel de las noticias falsas simplemente porque fueron sorprendidos por los resultados de las elecciones.

“Creo que hay una cierta profunda falta de empatía al afirmar que la única razón por la que alguien pudo haber votado como lo hicieron es porque vieron algunas noticias falsas”, insinúa Zuckerberg. “Si usted cree eso, entonces no creo que haya interiorizado el mensaje que los partidarios de Trump están tratando de enviar en estas elecciones”. “Facebook promueve la democracia permitiendo a los candidatos comunicarse directamente con la gente”, explica.

Además de Facebook, Twitter también se caracterizó por su papel en influenciar a los votantes a respaldar a Trump. La red social dijo que se están utilizando a los medios sociales como una cabeza de turco para justificar el resultado de las elecciones, haciendo caso omiso de los roles que los candidatos, los periodistas, y electores juegan en el proceso democrático.

El papel de los medios de comunicación social en las elecciones es probable que sea debatido durante mucho tiempo. Recientes descubrimientos del Pew Research Center sugieren que el 20% de los usuarios de los medios de comunicación social dijeron que habían modificado su postura en un tema social o político debido al contenido que veían en las redes sociales, mientras que el 17% dijo que las redes sociales ayudaban a cambiar sus opiniones sobre un tema específico. “Sin embargo, es importante tener en cuenta que la mayoría de los usuarios de las redes sociales no son influenciados por lo que ven en sus redes”, escribió Mónica Anderson, investigadora asociada del Pew.

Redacción