Día: 28 diciembre, 2015

Big data entrega valor en la agricultura

Cada vez más la agricultura explota los recursos big data por medio de la analítica avanzada de datos a fin de  perfeccionar  su nivel de producción, ganancias y competitividad. Actualmente, los agricultores  de las principales economías del mundo, aprovechan las soluciones analíticas para tomar decisiones, por ejemplo,  respecto a las fechas de siembra y cosecha, optimizando el rendimiento de los cultivos.

Los productores agrícolas, han optado por  recolectar y generar información valiosa de manera regular con equipamiento de última generación: tractores, cosechadoras, pulverizadoras y sembradoras equipadas con computadoras, sensores y GPS. Por citar dos ejemplos, existen tractores que pueden manejarse solos por medio de señales de GPS y sensores que indican sobre la efectividad de ciertas semillas y tipos de fertilizantes en las distintas partes de un sembradío. Así también,  a través del monitoreo del sistema de riego y el acceso en tiempo real a información sobre el clima, la composición del suelo e imágenes por satélite, es posible diseñar planes de riego eficiente de plantación a fin de conocer la cantidad adecuada de fertilizante a utilizar, mejorando y controlando la productividad de los cultivos a un menor costo.

Estos equipos inteligentes registran datos, otorgando información precisa a los agricultores, posibilitando maximizar la producción y reducir la pérdida de nutrientes y sedimentos del suelo.

En este sentido, Big Data ayuda a la economía agrícola permitiéndoles a los agricultores el utilizar datos de sensores, imágenes de satélite, el uso histórico de los fertilizantes, entre otros insights, para correlacionar y obtener análisis que los llevan a la toma de decisiones más acertadas  e informadas.

Es así como la introducción de la analítica predictiva en el campo permite optimizar los procesos de producción y reducir sus costos, además de ser posteriormente aprovechada para el asesoramiento de desarrollo del producto, manufactura y comercio del mismo.

 

Por Francisco Bernal, Country Manager Teradata México.

SMS, voz y mensajería: el futuro de la interacción con el cliente

Según las últimas predicciones de la consultora IDC, la comunicación global en la nube de que los ingresos crecerán 7.5 mil millones de dólares en 2018 de los 123 millones de 2013, en donde es muy probable que los mensajes A2P (de aplicación a persona) jueguen un papel importante, tales como los SMS, voz y, cada vez más, aplicaciones de chat y otros servicios de mensajería instantánea.

El SMS es más que un simple mensaje de texto. Se trata de un canal de comunicación cercano, inmediato y ubicuo, fundamental para mejorar procesos de negocio a través de una mejor experiencia del usuario. El problema surge cuando observamos que las redes de telecomunicaciones no están diseñadas para la mensajería crítica de negocio, especialmente cuando el envío es internacional, ya que la tasa de entrega es sólo del 60%.

Para ayudar a tapar los agujeros de las redes globales, es necesario contar con una API de SMS, pero necesita ser capaz de enviar millones de mensajes al día en todo el mundo. Además esta API debe resolver las complicaciones que puedan ocurrir si surgen problemas de rendimiento, algo con los que se suelen topar los desarrolladores cuando tratan de construir comunicaciones globales por sí mismos. Esto daría como resultado un incremento de hasta un 30% en los índices de entrega de los mensajes, aumentando de manera exponencial el éxito de la acción.

Pero el SMS no será el único medio base para la interacción con el cliente. La Voz ha sido durante mucho tiempo una herramienta importante para este ámbito, crítica para el negocio de las comunicaciones. Si bien hoy en día la mayoría de los usuarios móviles usan con mayor frecuencia el texto, vemos una necesidad continua de usar la voz, especialmente para servicios escalados de atención al cliente, clientes con discapacidad visual o áreas donde la alfabetización puede ser un problema, o simplemente por la facilidad del contacto.

Más allá de las comunicaciones establecidas, las aplicaciones de mensajería instantánea aportan una experiencia multimedia completa para el usuario final. Y no solo esto, también consiguen enriquecer la conversación entre marcas y usuarios con aptitudes y capacidades interactivas. Para esto es importante que el tiempo de respuesta sea casi inmediato.

Gracias a las nuevas tecnologías, los consumidores ya no tendrán que cerrar sus aplicaciones de mensajería instantánea y abrir las aplicaciones de cada empresa para comprar sus productos y comunicarse con sus marcas favoritas. Al revés, todo el proceso tendrá lugar dentro de la propia aplicación de mensajería instantánea, facilitando así la comunicación entre ambos.

De hecho, alrededor de 8 millones de compañías ya se comunican con sus usuarios a través de famosas aplicaciones de mensajería instantánea como WeChat en China, donde este tipo de aplicaciones de comunicación ya han reemplazado casi por completo a las propias aplicaciones de las empresas. Además, hemos observado que esta tendencia se está propagando hacia Japón, Taiwán y Tailandia con LINE, y en Korea con Kakao. Sin duda, esta tendencia se transmitirá a Europa, América y otras regiones.

Los usuarios tienen sus propias preferencias de comunicación y estas preferencias son diferentes en cada mercado. Por ello es importante permitir a los clientes elegir entre sus canales favoritos de comunicación. Pronto viviremos en un mundo donde todas las comunicaciones procedentes del marketing personalizado, de las actividades de comercio electrónico o del servicio de atención al cliente se podrán recibir a través de tu aplicación favorita de mensajería instantánea. El objetivo debe ser facilitar el acceso de marcas y plataformas de CRM a los usuarios de aplicaciones de chat, a través de canales de comunicación segmentados y multimedia (incluyendo SMS y voz).

 

Tony Jamous, cofundador y CEO de Nexmo.

Cinco tecnologías disruptivas que impactarán en 2016

Existen cinco tecnologías y tendencias que diferentes expertos de TI consideran disruptivas: la explosión de las DevOps, virtualización 2.0, tecnologías para la reducción del uso de carbón, la convergencia del marketing y las TI, y la tendencia de una tecnología focalizada en la experiencia del usuario.

 

1. DevOps

En su recorrido por convertirse en herramientas más responsables y proactivas con el objetivo de adaptarse a los cambiantes requerimientos de los negocios, las TI se desplazan hacia ecosistemas de desarrollos de DevOps, como un modo de avanzar con decisión al soporte e implementación de servicios de TI que emplean metodologías Agile. DevOps enfatiza  más profundamente que otras tecnologías en términos más elevados de colaboración  a lo largo de todo el proceso entre equipos de desarrollo y operativos, ayudados por un conjunto de herramientas de automatización.

 

2. Virtualización 2.0

Una vez descubierto por la mayoría de las empresas que la virtualización reduce costos y proporciona mayor rendimiento del sistema fuera del desktop, las TI ahora están preparadas para recibir a la siguiente generación de tecnología de virtualización, que proporcionará beneficios similares a los que funcionan en otros sistemas, además de la que ya está instalada en la propia plataforma. Como alternativa a la inmersión total en el uso de sistemas virtualizados, algunas empresas están empezando a “contenedizar” sus servidores, centros de datos y aplicaciones montadas en la nube.

 

3. Green IT, en busca de la reducción en el consumo de carbón

Cada vez más las empresas de cualquier tamaño e industria se preocupan por implementar estrategias verdes y la huella medioambiental, lo cual está generando el desarrollo de tecnologías orientadas al ahorro de energía. Las tecnologías enfocadas en la reducción del uso de carbón será una nueva área de investigación en la que varias organizaciones estarán trabajando en 2016. Especialmente en sus Centros de Datos, donde las empresas invierten en virtualización, tecnologías de refrigeración más eficientes y menos costosas a nivel energético.

 

4. Alineación entre TI y el área de marketing

En la era del negocio digital, la tecnología se ha convertido en un elemento crítico a la hora de ayudar a les empresas a llevar adelante tanto clientes como proyectos. Como resultado de ello, los departamentos de marketing y el de TI están colaborando y formando maridajes que, tiempo atrás, hubieran sido impensables.

 

5. La Experiencia del Cliente (CX)

Las compañías integran sistemas que simplifican la interacción y generan compromiso con sus audiencias, en un proceso en el que la experiencia del cliente se ha convertido en una prioridad TI.

 

-Marga Verdu.

.

Grandes momentos de la Transformación Digital en 2015 (Parte 1)

La industria de la tecnología está lleno de grandes ejemplos de los que se ha hablado en 2015 incluyendo la nube y la seguridad, Windows 10, la gran compra de Dell, la privacidad en la UE, sin olvidar la admiración que sigue causando Apple, los drones, o los malos momentos vividos por algunas empresas a causa de la ciberdelincuencia.

El año 2015 ha puesto en el ojo del huracán informativo a las tecnologías cloud y a la movilidad por haber creado un dominante en el mundo TI: transformación o fracaso. Este año, fabricantes de plataformas como Del, EMC y Microsoft ponían en marcha estrategias de gran calado con el objetivo de reinventarse, conformando con ello algunas de las historias más interesantes.

Todo a nuestro alrededor ha estado plagado de portentos que ejercen de catalizador entre la tecnología y la cultura. Vehículos autónomos, wearables, el uso de drones por diversión o trabajo…  y con un incremento importante de la atención puesta en seguridad, privacidad y políticas públicas que afectan tanto a ciudadanos como a empresas, pasando por imaginar cómo ha der ser un hogar inteligente en un mundo totalmente conectado. Aquí van las 10 grandes historias de 2015 que hemos seleccionado en las que el orden de aparición es el criterio menos importante.

Se acabó el monopolio de Google

En abril de 2015, la Comisión Europea acusaba a Google de abusar de su posición dominante en los servicios de búsqueda que se realizan en internet, al favorecer a los productos que se comercializan en su tienda virtual Google Shopping. Una decisión contra Google de estas características podría llevarla a tener que abonar el 10% de sus ventas globales de todo un año.  De esta forma la Unión Europea, habló sobre otra investigación antimonopolio al sospechar que Google está ejerciendo presión para que los fabricantes de sistemas Android utilicen los servicios y aplicaciones de Google en los entornos de los sistemas operativos móviles.

Microsoft lanza Windows 10

Un año atrás parecía que Microsoft estaba acabando de exprimir todo lo que se pudiera en retroalimentación de su SO Windows, mientras enfrentaba su entrada la era pos PC con poca relevancia. Sin embargo, el lanzamiento de Windows 10 a mediados de 2015, junto con sus respectivas releases para dispositivos móviles, ha proporcionado a Microsoft un aliciente en su vida. Con estos lanzamientos, Microsoft está proporcionando una plataforma verdaderamente unificada para dispositivos móviles en la que las aplicaciones universales pueden funcionar en una gran variedad de dispositivos, incluso en plataformas Xbox y sistemas holográficos de Windows. El lanzamiento del Windows 10 y sus versiones para móviles ha sido complementado con la tableta Surface Pro 4 y el primer laptop de Microsoft, llamado Surface Book; un notebook equipado con teclado que se convierte en tablet.

Dell compra EMC mientras HP se divide en dos compañías

Los 67 mil millones de dólares que Dell tuvo que abonar por la compra de EMC han supuesto la adquisición más cara de historia TI; una fusión de dos grandes titanes del sector cuyo dominio se ha visto erosionado con la llegada del cloud. Del, junto con EMC y la subsidiaria de ésta, VMware, van a proveer sistemas cloud tanto privados como híbridos para plantar cara a las nubes públicas de Amazon, Microsoft y Google. Por otra parte HP se ha dividido en dos empresas: HP Inc. Es la firma de PCs e impresoras, y HP Enterprise en un proveedor de software sobre Azure, ha sido otra reacción llevada a cabo en nombre de la transformación digital: diversificar como una manera de que los grandes proveedores de sistemas legacy permanezcan vivos.

 

Segunda parte, clic aquí.

Tercera parte, clic aquí.

-Marga Verdú

 

Empresas acusan a sus competidores de lanzar ataques DDoS contra ellos

Según una reciente investigación de Kaspersky Lab y B2B Internacional, se estima que el 48% de las empresas creen conocer la identidad y la motivación de quienes están detrás de los últimos ataques DDoS lanzados contra ellos, donde se destaca que los responsables de dichos ataques son empresas competidoras del mercado.

El informe de Kaspersky señala que, mientras que los delincuentes que buscan interrumpir las operaciones de una empresa constituyen un 28% de los sospechosos, un 12% de las empresas creen que sus competidores son los responsables y han pagado por los ataques DDoS lanzados contra ellos, por lo que estas ciberamenazas son aún más dañinas. Esta sospecha aumenta aún más para las empresas de la industria de servicios, con un 38% de las cuales creen que sus competidores estaban detrás de un ataque DDoS.

Otros posibles culpables citados por los encuestados son criminales que buscan perturbar o distraer mientras que otro ataque tiene lugar con el 18%, mientras que los criminales buscan interrumpir sus servicios para pedir un rescate se destaca con 17%, con un 11% para activistas políticos, y gobiernos o poderes del Estado con 5%.

“En los ataques DDoS ya no se trata sólo de que los ciberdelincuentes busquen detener las operaciones de una empresa. Las empresas se están convirtiendo en sospechosas y existe una preocupación real de que muchas empresas, incluidas las pequeñas y medianas, están siendo afectadas por las tácticas poco limpias de sus competidores, como es el lanzamiento de ataques DDoS directamente contra ellas, dañando sus operaciones y reputación “, comenta Evgeny Vigovsky, jefe de Kaspersky DDoS Protection de Kaspersky Lab.

Vigovsky añade que “no importa la industria en la que opere, su organización tendrá competidores, por lo que es aconsejable permanecer vigilantes y entender completamente las consecuencias de un ataque DDoS en su negocio en términos de potencial daño financiero y de reputación. Asegúrese de que tiene las medidas de seguridad adecuadas para ayudar a controlar el aumento del riesgo que representan para su empresa los ataques DDoS”.

-Hilda Gómez

 

¿A dónde se dirigirá la inversión en seguridad para 2016?

Según Ovum, en 2016 se gastarán 37 000 millones de dólares a nivel global, dedicados a la detección y protección de ataques y amenazas en la red. Construir sistemas de seguridad adaptados a las necesidades empresariales será clave para pronosticar riesgos.

Uno de los objetivos clave, es el que permite a las TI continuar creciendo en innovación y utilidad es la seguridad. Por eso, el próximo año, los focos están puestos en las nuevas tendencias que mejoraran la protección contra ataques y amenazas. Según la consultora Ovum, en el 2016 se destinarán más de 37 000 millones de dólares a la ciberseguridad. Buena parte de este gasto será dedicado a ayudar a las organizaciones a conocer más sobre los riesgos a los que se enfrentan. Las TI se van a enfocar en la capacidad de análisis para detectar el panorama de amenazas y tomas medidas contra ellas. Además, la industria proveerá de nuevas tecnologías que han sido diseñadas para identificar y abordar las acciones arriesgadas que los cometen los usuarios.

Las tendencias de 2016

  • Mejorar la utilidad de los análisis de seguridad e inteligencia para evitar amenazas.
  • Mantener los datos del negocio a salvo ante una tecnología más innovadora.
  • Desarrollar los controles de seguridad para enfrentar a los sistemas empresariales de próxima generación.
  • Evolucionar en gestión de la identidad para contrarrestar al ciclo de vida digital completa.

Andrew Kellet, autor del informe para Ovum, asegura que en 2016 “los esfuerzos en seguridad deben ir a software y a proveedores de servicios que pueden identificar amenazas antes y proporcionar a las organizaciones la calidad de inteligencia de seguridad para mantener los datos a salvo”.

Según la firma asegura que la necesidad de mejorar la seguridad se verá impulsada por las exigencias operativas, incluyendo el uso de la tecnología que hace que la información de negocios tenga más fácil acceso y por lo tanto sea más vulnerable a ataques cibernéticos. El aumento del uso de los servicios basados en la nube, la movilidad del usuario y la cantidad de dispositivos que hay en la actualidad añaden complejidad a la seguridad, en particular a los requisitos de identidad y gestión de acceso.

“El enfoque en la conservación de los datos de usuario y negocio seguro es un tema vital que tiene que poner el interés en los elementos de seguridad que definen lo que los usuarios están autorizados a hacer: las instalaciones y servicios basados en la nube que pueden o no utilizar y los datos a los que pueden acceder”, concluye Kellet.

-M. Moreno

 

La computación cuántica está más cerca de lo esperado

En la actualidad estos temas todavía nos hacemos a la idea que se dará en el futuro, hasta pensar que sólo ocurren en las películas de ciencia ficción pero la realidad es que en cinco o diez años, la computación cuántica puede formar parte de nuestra realidad.

El funcionamiento de la tecnología cuántica puede resultar difícil de entender en la práctica por su complejidad. Mientras que las computadoras tradicionales tienen bits que se representan mediante un 1 ó 0, los equipos cuánticos usan bitscuanticos (qubits) que pueden representar ambos simultáneamente. Esto supondría una nueva forma de programar nuevos algoritmos y puertas lógicas. Supone el cálculo de varias ecuaciones a la vez lo que se traduce a que algunos problemas antes intratables pasan a ser tratables.

Esto crearía una gran revolución en el mundo digital. Cuando sea una realidad cotidiana, la industria tecnológica tanto del sector público como del privado, serían capaces de resolver conflictos hasta ahora desconocidos. Charles King, analista en Pund-It, dice que aunque consigan hacer cálculos más rápidos que las computadoras convencionales, también están definidos por sus limitaciones.

D-Wave toma la delantera

Se rumoreaba durante años que la empresa canadiense D-Wave System, había construido el primer eq1uipo de cómputo cuántico y es ahora cuando están saliendo a la luz los primeros resultados del sistema. La NASA y Google testearon el equipo durante más de un año y la conclusión es que la computadora de la compañía canadiense podía resolver problemas 100 millones de veces más rápido que un procesador Core normal. La NASA afirma que los problemas que antes podían tardar años en resolverse, ahora pueden resolverse en apenas segundos. Hartmut Neven, director de ingeniería en Google, certifica que en un solo segundo se calculan problemas que las computadoras convencionales podrían tardar 10000 años. Desde septiembre, ambas compañías tienen un contrato firmado con D-Wave para probar el equipo, durante siete años, a medida que se vaya desarrollando.

d-wave~1

D-Wave ha conseguido revolucionar el mercado de la tecnología tal y como la entendemos pero, de momento, la computadora cuántica se utilizará solo en casos específicos que requieran cálculos masivos para solucionar cuestiones complejas.

Los científicos, por su parte, esperan poder aplicar esta nueva tecnología al ámbito sanitario, siendo capaces curar el cáncer o el Alzheimer y también para buscar distantes planetas habitables en la galaxia.

Competencia de IBM

D-Wave no tiene el monopolio de la computación cuántica. El 8 de diciembre, IBM anunciaba que la Inteligencia Norteamericana de Actividad para Proyectos Avanzados de  Desarrollo (IARPA por sus siglas en inglés) había cedido públicamente una subvención para que  la compañía investigue a tecnología cuántica en la computación. Ninguna de las dos organizaciones ha querido revelar la cantidad invertida en el proyecto.

“Es todavía pronto para hablar con certeza de la mecánica cuántica”, dice Steve Conway, analista en IDC. “Ahora que IBM tiene la aceptación de IARPA para la investigación de la computación cuántica, algo que ya llevaban haciendo desde hace tiempo, hay más confianza en que se convierta en una realidad. La competencia es poca ya que no muchas empresas estarían dispuestas enfrentarse a esta tecnología”.

Esta actividad de investigación en el campo de la computación cuántica es una señal de que los equipos de tecnología cuántica están cada vez más cerca de nuestras vidas. Sin embargo, todavía quedan muchos años para que las computadoras cuánticas estén disponibles en el mercado y, según Conway, todavía más tiempo hasta que forme parte de las empresas.

-Jaime Buitrago

Nanodispositivos que sólo cuestan centavos

Investigadores del Instituto Tecnológico de Massachusetts (MIT), encuentran nuevas técnicas de fabricación de sistemas microelectromecánicos a un costo mínimo y con muchas más posibilidades de uso.

Los sistemas microelectromecánicos o MEMS llegaron a ser un negocio que facturó 12 000 millones de dólares en 2014. Este mercado está dominado por un puñado de dispositivos como los acelerómetros que reorientan las pantallas de la mayoría de smartphones. La fabricación de MEMS ha requerido tradicionalmente instalaciones de semiconductores sofisticados que cuestan decenas de millones de dólares. De este modo, el desarrollo de MEMS potencialmente útiles ha caído ya que no cuenta con mercados suficientemente potentes como para justificar la inversión inicial de capital en la producción.

A pesar de ello, dos artículos publicados por investigadores del MIT ofrecen la posibilidad de un cambio de tendencia en el mercado de los sistemas MEMS. En el primero, los investigadores muestran que un sensor de gas fabricado con un dispositivo de escritorio funciona de la misma manera que los sensores comerciales construidos en las instalaciones de producción convencionales. Por otro lado, muestran que el componente central del dispositivo puede ser creado con una impresora 3D. De esta forma, los artículos sugieren que un tipo de sensor de gas MEMS podría ser producido por una mínima parte del costo sin que haya pérdida de calidad aparente.

La fabricación de este dispositivo elude muchos de los requisitos que hacen la manufactura de los MEMS convencionales mucho más cara. “La fabricación aditiva que hacemos se realiza a baja temperatura y sin vacío”, asegura Luis Fernando Velásquez García, investigador principal de tecnología de microsistemas del MIT. “La temperatura más alta que hemos utilizado es probablemente 60 grados. En un chip, es probable que se necesite hacer crecer al óxido, lo que se da en torno a los 1 000 grados Celsius. También hacemos los dispositivos con gran rapidez. Los dispositivos que producimos se hacen en cuestión de horas”.

Bienvenida a la resistencia

Velásquez García ha estado investigando durante años las técnicas de fabricación que implican matrices densas de emisores que expulsan corrientes microscópicas de líquido cuando se someten a fuertes campos eléctricos. Para los sensores de gas, García y Anthony Taylor, investigador visitante de la empresa británica Edwards Vacuum, utilizan los llamados “emisores alimentados internamente”. Estos tienen orificios cilíndricos que permiten que el fluido pase a través de ellos. En este caso, el fluido contiene diminutas escamas de óxido de grafeno, que cuenta con unas propiedades eléctricas notables. Los investigadores usaron sus emisores para pulverizar el fluido en un patrón descrito sobre un sustrato de silicio. El fluido se evapora rápidamente, dejando una capa de motas de óxido de grafeno de solo unas pocas decenas de nanómetros de espesor. Las escamas son tan finas que la interacción con moléculas de gas cambia su resistencia en una forma medible, haciéndolos útiles para la detección.

“Lo que demostramos es que estos dispositivos, son tan precisos y más rápidos. Los hacemos a un coste muy bajo, probablemente céntimos”. Para producir estos sensores se utilizan emisores electrospray que habían sido construidos mediante procesos convencionales. Sin embargo, en el informe destaca la utilización de una impresora 3D para producir emisores electrospray de plástico cuyo tamaño y rendimiento se combinan con los de los emisores que arrojaron los sensores de gas.

Hechos a medida

Además de la fabricación de dispositivos electrospray, Velásquez García asegura que la impresión 3D hace que sea más fácil personalizar los dispositivos para aplicaciones particulares. “Cuando empezamos a diseñarlos no sabíamos nada, pero al final de la semana tuvimos 15 generaciones de dispositivos donde cada diseño actuó mejor que las versiones anteriores”

El investigador asegura que las ventajas del electrospray no ayudan tanto a fabricar más barato como a permitir la creación de dispositivos totalmente nuevos. Además de hacer de los MEMS un producto rentable en el mercado, el electrospray podría permitir que los productos incompatibles se amolden al proceso con las técnicas de fabricación nuevas. “En algunos casos, los fabricantes de MEMS tienen que elegir entre lo que pretendían hacer, a partir de los modelos, y lo que se puede hacer sobre la basa de las técnicas de microfabricación”, dice Velásquez García. “Nos permite depositar materiales que no serían compatibles con la fabricación de semiconductores de alta temperatura, como las moléculas biológicas”.

-Redacción