Día: 14 marzo, 2016

La trasformación digital sigue siendo un reto en México

En nuestros días la tecnología está cambiando de manera constante, haciendo que revolucionen no sólo el modo en que se hacen los negocios, sino el entorno general, entre ellos la economía y desarrollo de cada país.

Sin embargo, la digitalización no sólo se trata de innovación tecnológica, sino de todo un proceso que incluye una transformación económica, educativa y social, al menos así lo dio a conocer el Grupo Assa (gA) en su más reciente informe ‘Estudio América Latina 4.0’. Según la consultora, cuando más rápido avanza un país en la digitalización, más rápido crece su economía.

Para gA, la Transformación Digital refiere a la adopción de tecnologías digitales desde todas las fases de la cadena de valor, para así aumentar tanto ingresos como productividad, y, en consecuencia, la competitividad no sólo a nivel nacional sino mundial.  Para lograr estos objetivos se deben reorganizar los procesos, restructurar la organización y capacitar los recursos humanos.

“América Latina tiene un gran desnivel y ese desnivel es una brecha social que tenemos con nuestro pueblo y esta brecha social se cierra solo con educación. Es una tarea y compromiso de todos. Los empresarios tenemos al tope nuestra agenda, pero debemos buscar cómo colaborar en el proceso de digitalización”, comentó Roberto Wagmaister, Director General y Fundador de gA.

La transformación digital sigue siendo uno de los desafíos más grandes de las empresas en Latinoamérica, incluido por supuesto México, para los próximos años, a pesar de que se incrementa su adopción, pero ésta no se realiza del modo correcto, haciendo que no se explote todo el potencial que esta tendencia ofrece.

Según el estudio, un 75% de las empresas en Latinoamérica ya han adoptado o están en proceso de adoptar una estrategia de digitalización, sin embargo, la asimilación de estos procesos es baja ya que, de este total, sólo un 46% explota su potencial. Además, un 50% de los encuestados afirmó que sus iniciativas digitales se encuentran aisladas, y que aún no tienen planes para expandirse a lo largo de la organización.

Entre las industrias que mayor han avanzado en el camino hacia la digitalización se encuentra el sector salud, finanzas y telecomunicaciones. Por otro lado, entre aquellas que mayor beneficios pueden obtener, pero  que su nivel de adopción y aprovechamiento es bajo se encuentra minería, petróleo y gas.

 

Según gA, las empresas deben adoptar con aglidad la transformación digital y los procesos que ésta requiere, a fin de proveer un mejor servicio a la empresa, clientes y la sociedad en general, sin embargo, no se trata sólo de adoptar la tecnología como un ente aislado, sino como un proceso que beneficie a cada sector.

El estudio de la consultora compete cinco países de latinoamérica: Argentina, Brasil, Chile, Colombia y México.

 

-Karina Rodríguez, Computerworld México.

Minecraft ayuda a Microsoft a desarrollar proyectos de Inteligencia Artificial

Microsoft anunció su nueva plataforma de código abierto para investigadores de  proyectos de inteligencia artificial. Se trata de AIX, utilizada por Microsoft Research y que está disponible bajo una versión beta privada para un selecto grupo de investigadores académicos. La idea es que AIX permita a los investigadores usar el juego desestructurado de Minecraft como banco de pruebas para sus investigaciones sobre inteligencia artificial.

AIX estará disponible este verano bajo una licencia de código abierto. El anuncio llega en un momento en que Google DeepMind acaparó la atención con el torneo de Go que están disputando el programa de inteligencia artificial Alpha Go contra uno de los mejores jugadores profesionales de Go, Lee Se-dol. Aunque AlphaGo había ganado las tres primeras partidas del total de cinco, el domingo perdió contra Lee.

Con AIX, Microsoft se centrará en proyectos que impliquen inteligencia general, que según la compañía “es más parecida a la forma  compleja y con matices en que los seres humanos toman decisiones”.

“Las computadoras pueden actualmente hacer tareas específicas y complicadas como comprender un diálogo y traducirlo o reconocer imágenes y escribir un texto sobre ellas”, comentó Allison Linn, escritora senior de Microsoft, en un post en el blog oficial de Microsoft. “Un algoritmo informático puede ser capaz de tomar una tarea y hacerla tan bien o incluso mejor que un adulto promedio, pero no puede competir con la forma en que un bebé se va adaptando a las cosas nuevas como la luz, el olfato, el tacto, el sonido o las molestias y va aprendiendo que si llora es muy probable que su mamá venga a alimentarle”.

“Los investigadores de inteligencia artificial han sido capaces de desarrollar estas herramientas, como reconocer palabras por ejemplo, pero no han podido combinar estas habilidades como lo hacen los humanos”,  añadió Linn.

Los investigadores que intentan enseñar a un robot real a escalar una colina deberían reemplazarlo o repararlo cada vez que éste cayera en un río. Cinco expertos en computación del laboratorio de Nueva York de Microsoft Research están haciendo esto a un menor costo, intentando utilizar el sistema de Minecraft para escalar la colina. Microsoft adquirió en 2014 Mojang, el desarrollador de Minecraft.

La plataforma AIX, desarrollada por el laboratorio de Microsoft en Cambridge (Reino Unido), consiste en un “mod” para la versión Java y el código que ayuda a los agentes de inteligencia artificial a sentir y actuar dentro del entorno Minecraft, explicó Linn. Ambos componentes pueden funcionar en Windows, Linux o MacOS, y los investigadores pueden usar cualquier lenguaje de programación para programar sus agentes.

 

John Ribeiro

¿Se debe apostar por las DevOps para la seguridad empresarial?

¿Ofrece DevOps mejor seguridad gracias a su agilidad, o acelera el desarrollo y despliegue demasiado como para que sea seguro? Esta es una pregunta que muchos se hacen. Después de todo, se está modificando código, actualizando funciones y añadiendo nuevas capacidades constantemente. Varios expertos opinan sobre ello.

Este año puede ser el de gran despegue de DevOps, según predice Gartner, que fija en el 25% de las mayores compañías globales va a utilizar técnicas DevOps, y HP Enterprise incluso llega más lejos afirmando que en el plazo de cinco años, DevOps será la norma en cuanto a desarrollo de software. ¿Significa eso que los problemas de seguridad están a punto de llegar?

Craig Miller, un especialista que ha ayudado a Bing de Microsoft a implementar un modelo de despliegue continuo (el servicio se actualiza cuatro o cinco veces al día), no cree que esto sea necesariamente cierto. “La respuesta clásica es que ser más rápido podría llevar a menor calidad y no creo que eso sea cierto, en absoluto”, dice Miller.

El analista de Forrester, Kurt Bittner está de acuerdo y asegura que “hay una percepción de que con DevOps, la velocidad se consigue recortando pasos importantes, que no se controlan y es todo lo contrario; es un entorno muy controlado, muy estructurado y aporta mayor calidad, mejor visibilidad y velocidad”.

Este especialista es inflexible sobre la importancia de automatizar las pruebas. “Creo que es la mejor forma de detectar los fallos”. Para el analista, el mayor fallo de muchas compañías es que los permiten en las pruebas y no hay que tener tolerancia alguna al fallo”.  Dice, además, que esto podría implicar cambiar las herramientas y las prácticas de desarrollo.

“Poner barreras de protección permite ir más rápido, no más lento”, asegura Alan Sharp-Paul, co-fundador de Upguard, proveedor de herramientas DevOps. “Con los controles adecuados, detectando los problemas antes de que lleguen a producción, se reducen los riesgos de seguridad en producción y la sobrecarga de trabajo es prácticamente nula”.

Lo mismo se aplica a la detección de brechas, como señala Sam Guckenheimer, del equipo de herramientas para desarrolladores de Microsoft. Con DevOps estás preocupado por cosas como el tiempo medio de detección, el tiempo medio de resolución y la velocidad de solucionarlo. “Si ocurre algo anómalo en una configuración, las empresas disponen de telemetría que les ayuda a detectarlo”, señala, por lo que si los indicadores son buenos, una empresa estará en mejor posición para remediar el problema.

El desarrollo continuo hace la vida más difícil a los potenciales atacantes de dos maneras, detectando antes sus intenciones y reaccionando más rápido para impedirlas, sostiene también este experto.

 

IDG

Nuevas computadoras Dell Vostro, enfocadas a Pymes

Dell dio a conocer la nueva versión de sus computadoras Vostro, una línea diseñada especialmente para las Pymes, se trata de la Serie 3000, con equipos portátiles y de escritorio que ofrecen rendimiento, seguridad y funcionalidades que hasta el momento la compañía sólo ofrecía para grandes corporativos. Se trata del equipo portátil Vostro 14 Serie 3000 y Vostro Serie 3000.

La primera de ellas, la Vostro 14 Serie 3000 cuenta con una pantalla antireflejante LED de 14 pulgadas, un diseño delgado, ligeras y con una batería de gran capacidad para varias horas de trabajo, estas características, además del rendimiento, seguridad y compatibilidad con aplicaciones de terceros ayudan a impulsar la movilidad, un aspecto muy demandado en los trabajadores de hoy en día.

Está potencializada con los procesadores Intel Core, con opción de Core i3 de cuarta generación o Core i5 de sexta generación, con plaba de video Intel HD Graphics, opciones de 4GB y 8GB de memoria RAM, y almacenamiento de 1TB.

El equipo de escritorio Vostro 3000 cuenta con procesadores de sexta generación Intel Pentium con opción de Core i3 y Core i5, con placa de video Intel HD Graphics, memoria RAM de 4 hasta 16 GB, almacenamiento interno a escoger entre 500 GB o 1TB, además de puerto HDMI. Ambos equipos están integrados de paquete con Windows 7, con licencia para actualizar a Windows 10.

Sabiendo que muchas veces los archivos se encuentran en viejas unidades de almacenamiento, ambos equipos además de incluir puertos USB 3.0 y USB 2.0, incorporan lector y grabador de DVDs.

 

Precio y disponibilidad

La nueva familia de Dell Vostro ya se encuentra disponible sólo a través de canales de distribución a un precio sugerido de 500 dólares, para la versión portátil y de 440 dólares para la versión de escritorio.

 

-Karina Rodríguez, Computerworld México.

Vuelven a surgir fallas en Java por parches rotos

Investigadores han detectado que el parche de Oracle de 2013 se puede sortear fácilmente para atacar las últimas versiones de Java. A raíz de lo publicado sobre la vulnerabilidad sea explotable de nuevo, se ha corregido el camino a nuevos ataques sobre PC y servidores que utilizan la última versión de Java.

El fallo, que está registrado como CVE-2013-5838 en la base de datos Common Vulnerabilities and Exposures (CVE), fue puntuado por Oracle con un 9.3 sobre 10 usando el Common Vulnerability Scoring System (CVSS). El fallo se puede utilizar de forma remota, sin autentificación, comprometiendo totalmente la confidencialidad, integridad y disponibilidad de un sistema.

Según los investigadores de la compañía polaca Security Explorations, que fueron los primeros en informar a Oracle del fallo, los atacantes pueden utilizar el exploit para burlar los sistemas de seguridad de Java. En condiciones normales, el Java Runtime Environment (JRE) ejecuta el código Java dentro de una máquina virtual que está sujeta a restricciones de seguridad.

El jueves, Security Explorations reveló que el parche de Oracle para la vulnerabilidad se había roto. El fallo se podría evitar con un sencillo desvío, cambiando cuatro caracteres en el código lanzado por Oracle en 2013, según escribió el CEO de Security Explorations, Adam Godwdiak, en un correo electrónico enviado a la lista completa del Full Disclosure.

Los investigadores de la compañía aseguran que su nuevo exploit se han probado con éxito en las últimas versiones disponibles de Java: Java SE 7 Update 97, Java SE 8 Update 74 y Java SE 9 Early Access Build 108.

En su primer informe en octubre de 2013, Oracle notó que el CVE-2013-5838 sólo afectaba a las implementaciones de los clientes de Java y podían ser explotadas a través de “sandboxed Java Web Start applications y sandboxed Java applets”. Según Security Explorations, esto no sería correcto. “Hemos verificado que podría ser utilizado con éxito en entornos de servidores así como en Google App Engine para Java”, explicó Godwiak en el mensaje al Full Disclosure.

En la parte del cliente, el incumplimiento del nivel de seguridad de Java, señala que sólo permite ejecutar applets de Java y su comportamiento  click-to-play puede actuar como mitigador. Estas restricciones de seguridad pueden prevenir ataques silenciosos automatizados.

Para explotar la vulnerabilidad de las actualizaciones de Java, los atacantes necesitarían encontrar un fallo independiente que les permitiera eludir las indicaciones de seguridad o convencer a los usuarios de que aprobaran sus applet maliciosos, siendo esta  última ruta la más probable.

Security Explorations no ha notificado a Oracle de esta desviación de CVE-2103-5838 antes de su divulgación. Según Gowdiak, la nueva política de la compañía es informar al público inmediatamente cuando se encuentran vulnerabilidades de las cuales ya se ha informado a los vendedores. “No vamos a tolerar más parches rotos”, aseguró Gowdiak.

Dada esta medida de preferir alertar de forma pública ante un fallo, se desconoce si Oracle pondrá en marcha una actualización de emergencia de Java para contrarrestar esta vulnerabilidad o si esperará a la próxima actualización trimestral programada para el 19 de abril.

Lucian Constantine

Barack Obama opina sobre encriptación en SXSW

Durante su intervención, el presidente de los Estados Unidos ha señalado que la comunidad de empresas tecnológicas no puede permitirse aislarse del problema y debe ayudar a debatir las cualidades del cifrado.

Obama ha sido el primer presidente de la historia que acude a la conferencia de tecnología South by Southwest (SXSW) celebrado en Austin, Texas. El mandatario lo hace en un momento transcendental en lo que a seguridad de la información se refiere, por la controversia de Apple y el FBI en torno al cifrado o no de los teléfonos de la compañía.

En una entrevista realizada con Evan Smith, editor jefe de Texas Tribune, el presidente de los Estados Unidos, señalaba que “la privacidad en ocasiones debe sacrificarse por el bien de los ciudadanos, como viene sucediendo con los registros de seguridad en los aeropuertos”. Sin embargo, el presidente dejó claro que no le gusta la idea de que los gobiernos tengan acceso de cierta forma a los teléfonos inteligentes de sus ciudadanos.

Obama lanzó su mensaje en la conferencia a las empresas de tecnología para que ingenieros y pensadores creativos trabajen en soluciones innovadoras que ayuden a mantener la democracia estadounidense, como el hecho de facilitar las votaciones, y que el acceso a Internet sea posible por parte de más personas.

Con referencia a Snowden, el cual apareció en la edición de SXSW del año 2014, Obama dijo que “se ha exagerado enormemente los peligros de los ciudadanos de Estados Unidos en términos de espionaje”, aunque también indicó que el cifrado es esencial para impedir que los hackers puedan destruir los sistemas digitales fundamentales, como pueda ser la gestión de la  banca o el control del tráfico aéreo. “Vamos a tener que tomar algunas decisiones sobre cómo equilibrar los riesgos”, dijo el presidente.

La siguiente audiencia sobre este caso que enfrenta a Apple y al FBI, se realizará el 22 de marzo. El Departamento de Justicia de la unión americana asegurado que existe causa probable de que el iPhone bloqueado que utilizó uno de los autores de la masacre de San Bernardino contenga evidencias del ataque. Los Fiscales insisten que el gobierno necesita tener acceso al teléfono y que Apple, debe cumplir con la orden judicial de desbloquear el dispositivo. Sin embargo, Snowden ha declarado recientemente que no cree que el gobierno necesite de Apple para llevar a cabo el desbloqueo del iPhone y pone en duda que el FBI esté persiguiendo ese caso y quiera obtener otros beneficios.

Caitlin McGarry, IDG

 

Veritas hace su relanzamiento tras separarse de Symantec

Después de pertenecer a Symantec por 10 años, la compañía de software especializada en la gestión de la información se separa oficialmente de ésta para enfocarse en su legado tecnológico.

El crecimiento de datos exponencial está suponiendo un problema para la mayoría de las organizaciones; solo el 1.7% de la información almacenada es sensible y necesaria, mientras que un 54% es irrelevante y desconocida: es el resultado de una mala gestión de la información, problema que Veritas propone solucionar con sus diferentes respuestas de software y servicio.

“En esta época donde todo está en la nube, muchas organizaciones no son dueñas de sus centros de datos ni de sus propias aplicaciones”, ha señalado el nuevo CEO de Veritas, Bill Coleman. Respondiendo a esta nueva perspectiva del mercado, la compañía americana apuesta por dos unidades de negocio: la seguridad, donde busca dar la agilidad necesaria a las empresas para poder atajar los problemas que surjan desde un principio (un desafío a corto plazo), y por otro lado, los sistemas de manejo de información, un problema cuyo tratamiento es a largo plazo.

“No hay ni una sola compañía a día de hoy que no tenga problemas con la gestión de los datos masivos que poseen; el crecimiento de la empresa no va a parar”, señala Marco Blanco, nuevo director general de Veritas para España y Portugal, remarca el directivo que el desafío al que alude Blanco es real: para 2020 la cantidad de información generada será tal que si cada byte fuese un grano de arena se necesitarían seis planetas Tierra para almacenarlos.

Si se hiciese una correcta gestión de la información, no sería necesario almacenarla o encriptarla en muchos casos, variaría el tipo de migración que se hiciese (en nube pública, privada o híbrida según el caso) y permitiría reducir costes en gestiones innecesarias. El reciente informe Veritas Data Genomics señala que un 41% de los datos corporativos están en desuso (no se han consultado durante más de tres años).

La división entre Veritas y Symantec tiene de hecho su origen en las dos unidades de negocio en las que se va a centrar la compañía: “Los clientes demandaban productos diferentes según sus variadas necesidades”, ha señalado el director general de la empresa; una necesidad que Veritas busca satisfacer con sus dos unidades separadas (de seguridad y de gestión de información) con los productos tradicionales de siempre, actualizados a los nuevos tiempos tecnológicos.

“Siendo realistas, las empresas pueden externalizar cualquier área que no les interese, menos los datos. Siempre deben controlarlos, y para eso estamos nosotros aquí”, ha añadido Joan Garcia, Technical Sales and Services Manager. En el informe ya mencionado de Data Genomics Index se señalan las tendencias de los datos empresariales y las claves que hay para optimizar para su almacenamiento y gestión: un tercio de la información pertenecen a imágenes, archivos de desarrolladores y archivos comprimidos, mientras que el almacenamiento de PowerPoint ha descendido en un 500%.

La firma señala que en otoño, los trabajadores crean un 91% más de archivos de texto, un 48% más de hojas de cálculo y un 89% más de archivos de sistemas de información. Otro dato relevante es la gran cantidad de archivos huérfanos, sin dueño, que navegan sin objetivo alguno por el almacenamiento corporativo.

En este aspecto lo que diferencia a Veritas de otras compañías es la heterogeneidad con la que abordan los diferentes problemas de las empresas: “cualquier SAP es combinable con nuestra empresa, nuestros clientes se sienten libres para adoptar el sistema que más se ajuste a ellos”, explica Blanco.

La firma señala que la clave en la que se han basado es el equipo humano, “nuestros expertos en tecnología entienden qué información es crítica, dónde se guarda, como protegerla…”, añade el director general de la compañía.

Soluciones

Dentro del informe que señala Veritas es claro: en primer lugar se han de identificar los datos oscuros, exponer los riesgos e identificar la información valiosa. También es necesario eliminar los datos ROT (redundantes, obsoletos o triviales) rápidamente para reducir costos innecesarios.

El siguiente paso es definir una estrategia de control de la información que sea factible para los datos no estructurados con el apoyo de los directivos, y por último, Veritas aconseja aumentar la agilidad empresarial mediante el uso de un entorno de almacenamiento en la nube.

Patricia Bachmaier