Día: 14 febrero, 2014

Unión Europea quiere reducir la influencia de Estados Unidos en Internet

ICANNLos responsables de la Unión Europea se manifestaron a favor de reducir la influencia de Estados Unidos en la infraestructura de Internet. La iniciativa se puede considerar como una reacción ante las revelaciones sobre la actividad de espionaje online de la National Security Agency (NSA). En concreto, la UE quiere globalizar la Internet Corporation for Assigned Names and Numbers (ICANN).

“Los próximos dos años serán críticos para redefinir el mapa global de la gobernanza de Internet”, comentó Neelie Kroes, vicepresidenta de la Comisión Europea, en un comunicado. “Europa debe contribuir de forma creíble a la gobernanza global de Internet. Europa debe jugar un papel destacado en la definición de lo que será la Red en el futuro”.

Son muchos los países que llevan años quejándose de que la fuerte implicación de Estados Unidos en ICANN le da gran influencia en los registros de los dominios raíces de Internet, los cuales controlan el ruteo del tráfico hacia y fuera de las naciones. Cabe recordar que ICANN depende del Departamento de Comercio del Gobierno estadounidense.

Sin mencionar a la NSA, la Comisión Europea afirmó que sus propuestas surgen en un momento marcado por las noticias surgidas sobre “la vigilancia a gran escala de Internet y la reducción de la confianza en la Red”. Por ello, la Comisión remarca su compromiso con la globalización de la toma de decisiones y la mejora de “la transparencia, responsabilidad e inclusión” de los países que dependen de Internet para las comunicaciones y el comercio.

Ante la postura de la UE respecto de la gobernanza de Internet, algunos analistas de Estados Unidos recuerdan que la mayoría de los países más activos de los que defienden esa posición no son occidentales, como es el caso de China, Irán y Rusia, interesados en conseguir un mayor control de los gobiernos sobre la Red para prevenir la disidencia política interna. Por el contrario, los países occidentales han optado por una menor implicación de los gobiernos en Internet a fin de potenciar la libertad de información y de innovación.

Asimismo, en Estados Unidos recuerdan que los países que defienden un mayor control internacional de Internet intentan transferir la gobernanza de la Red a la International Telecommunications Union (ITU), organismo dependiente de la ONU. Si eso sucediera, dichos países tendrían una influencia excesiva sobre Internet.

Las listas negras del SAT, ¿cambio o simulación?

SAT listasA partir del primero de enero del 2014, el Servicio de Administración Tributaria (SAT) del gobierno mexicano publicó varias listas con los nombres de contribuyentes –tanto personas físicas como personas morales– que tienen algún adeudo con esta dependencia de la Secretaría de Hacienda y Crédito Público.

Así, pudimos conocer qué artistas, políticos o funcionarios estaban en la “lista negra”, ya sea por no pagar impuestos a tiempo, por tener deudas con el fisco, o bien, por “no encontrarse” en los domicilios registrados.

Esto generó un gran revuelo en la sociedad mexicana. Pero más allá de los reclamos y justificaciones, representa una transformación en la manera de operar del gobierno mexicano donde, al menos, se alcanzan a apreciar tres grandes cambios:

Primer cambio: un sitio web de listas negras

Si bien el portal del SAT es poco intuitivo y bastante deficiente en su estructura, es posible ordenar los datos por nombre y apellido, por razón social de las empresas, por entidad o por el tipo de adeudo que se presente. Esto podría volverse más eficiente y ofrecer datos con mayor precisión para, por ejemplo, conocer exactamente cuál es el motivo de la sanción, el número del crédito, el importe del mismo, etc.

Por ahora, el portal sólo presenta al inculpado sin mayores datos.

Segundo cambio: comprobantes fiscales y declaraciones en línea.

La posibilidad de generar comprobantes fiscales electrónicos de forma gratuita y poder enviar la contabilidad de personas físicas para evitar los gastos de un contador, si bien implican un mayor control por parte de la autoridad hacendaria, también significan un cambio en los usuarios al tener éstos la posibilidad de hacer sus trámites en cualquier lugar, las 24 horas, los 365 días del año, mediante un acceso a Internet.

Este cambio de mentalidad –en el que el fisco mexicano le otorga a la plataforma de Internet la posibilidad de interactuar con los contribuyentes– es un cambio radical muy importante hacia las tendencias mundiales de gobierno electrónico.

Tercer cambio: información y debate al alcance de las redes sociales

Uno de los efectos de las “listas negras” de contribuyentes fueron las reacciones generadas en Twitter, Facebook, correo electrónico y los medios de comunicación tradicionales que reprodujeron estos comentarios.

Si el SAT no hubiera tenido las cuentas @SATMX y FB satmexico, la posibilidad de replicar hubiera sido nula. Pero, gracias a las críticas recibidas, tuvo que aclarar mucho más y emitir una infografía que explica los alcances y limitaciones de las listas negras tanto a los contribuyentes como a los que reclamaron.

En suma, estos tres cambios reflejan una transformación más profunda, pues finalmente se comienzan a liberar estos datos que estaban en poder del gobierno federal –ya sea como parte de una estrategia para intimidar a los contribuyentes, o bien, como una nueva forma de relacionarse con ellos– usando las tecnologías de la información y comunicación vigentes.

Esperemos que se liberen más datos y no sólo conozcamos a quienes no pagan, sino ¿cómo se gastan los impuestos? El temor de todos los contribuyentes precisamente es que su dinero y su esfuerzo se vaya a los bolsillos de los políticos y servidores públicos en lugar de propiciar el bien común.

Si se lograra tener un #mexicoabierto con prácticas de datos abiertos, trámites y procesos abiertos y datos libres del control gubernamental, tendríamos un mayor pago de impuestos y se generarían las condiciones para una rendición de cuentas clara y contundente de los fondos públicos.

Finalmente, resta decir que el SAT está siguiendo muy lentamente las mejores prácticas e innovaciones sobre los procesos impositivos, pues la migración hacia el gobierno electrónico tiene el propósito de aumentar la captación, reducir los costos y mejorar los controles fiscales, tal como ya lo hacen muchos países avanzados. Esperemos que tales cambios sea por el bien de México.

__________

Rodrigo Sandoval Almazán es Profesor Investigador en la Universidad Autónoma del Estado de México, 

http://www.rodrigosandoval.mx

@horus72

HP se alía con Schneider Electric en los centros de datos

HP Scheneider centros de datosSchneider Electric dio a conocer que trabajará con HP en la gestión del centro de datos y TI. La plataforma proporcionará una sólida visión tanto para el departamento de facilities como para el de Tecnologías de la Información, con lo cual se pretende ofrecer una mejor colaboración y eficiencia.

La solución conjunta contará con los servicios HP Converged Management Consulting Services combinados con la solución de Data Center Infrastructure Management (DCIM) de Schneider Electric, denominada StruxureWare for Data Centers.

De esta manera, Schneider Electric y HP desean ofrecer a los clientes la capacidad de vincular sus activos físicos con sus procesos de negocio permitiendo la mejora del análisis de negocio en su totalidad.

“Permitir que los proveedores de servicios de IT detecten al instante el impacto de cualquier cambio en su centro de datos, así como los costos operativos asociados a estos cambios es un paso importante hacia la mejora de la eficiencia energética en los centros de datos y de los ambientes TI”, afirmó Soeren Jensen, vicepresidente de Enterprise Management & Software de Schneider Electric.

La capacidad que brinda StruxureWare for Data Centers para proporcionar un visión en profundidad, informes y un análisis de la infraestructura del centro de datos, así como de las instalaciones y el edificio donde reside, hace de la tecnología DCIM un complemento para el software Asset Manager de HP. La combinación de las dos tecnologías proporcionará a los clientes un importante ahorro energético y una gestión más eficiente de sus servicios y activos TI.

“DCIM proporciona una visión integral del centros de datos para permitir una mejor eficiencia operativa y capacidad de planificación, sin embargo, muchas organizaciones carecen de la integración entre TI, facility y de experiencia en la gestión de servicios necesaria para aprovechar al máximo los beneficios de DCIM”, comentó Rick Einhorn, vicepresidente de Technology Services, Datacenter Consulting de HP.

Se anunció que Schneider Electric y HP integrarán StruxureWare for Data Centers y HP Universal Configuration Managment Database, para comunicar y compartir la información entre las plataformas DCIM e IT Service Management.

Además, HP ubicará las funcionalidades y características de StruxureWare for Data Centers en su HP Converged Management Consulting Framework. Este mapeo facilita a los consultores hacer recomendaciones referentes al despliegue de la solución en el centro de datos del cliente y determinar la mejor manera de integrar ITSM y los sistemas de DCIM en su ambiente.

La suite de software end-to-end de DCIM de Schneider Electric, permite al centro de datos supervisar, manejar, analizar y optimizar su potencia, refrigeración, seguridad y energía, informó la compañía.

¿Tienes XP? Eres un irresponsable

XP irresponsable 3 bajo la laptopEl martes 8 de abril de 2014 será la última vez que Microsoft publique parches de seguridad para la plataforma Windows XP. Al menos eso sucederá para el público en general y la gran mayoría de las organizaciones.

Existe un programa especial “Custom Support” donde el gigante te cobrará 200 dólares por PC a la que quieras que le sigan proveyendo de parches. Pero si no eres un gran corporativo que califique para este programa y que esté dispuesto a pagar esa cantidad de dinero, simplemente dejarás de recibir parches de seguridad de XP.

Pero si en tu empresa aún tienes XP, déjame decirte que eres un irresponsable y que serás parte del problema y no de la solución. Los maleantes en línea esperan con ansias esa fecha para descubrir vulnerabilidades en XP y atacar. Saben que ya no habrá parches que les den solución, de modo que será un verdadero paraíso.

De hecho, probablemente ya existen debilidades informáticas descubiertas por estos criminales que permanecen sin usar y que están guardadas en el armario esperando el 8 de abril para ser liberadas.

Lo anterior significa que si tienes XP conectado a la red, es garantía de que tendrás problemas de virus y hackeos en algún momento. Una vez dicho esto, también puedo ver esta realidad desde tu perspectiva: “si XP aún funciona y hace su trabajo, ¿para qué cambiarlo?” Y desde otro punto de vista: “hay aplicaciones que desde hace años funcionan en XP y por falta de tiempo o dinero no se han migrado a versiones más recientes de Windows, ¿no es preferible dejarlas ahí corriendo?”.

¿Por qué Microsoft dejará de soportar XP?

Como mencioné, sabemos que esta compañía seguirá haciendo parches bajo demanda y que varias de las debilidades encontradas en Windows 7 o Windows 8 también afectan a XP porque comparten una base común de código fuente, así es que al gigante no le debería costar tanto trabajo seguir creando parches para el público en general.

Mi teoría es que el fabricante quiere que los usuarios migren a nuevas versiones de su sistema operativo para ganar dinero por el pago de las nuevas licencias que puede recibir de algunos de sus clientes, sobre todo de los usuarios finales (muchos corporativos tienen convenios de soporte donde el hecho de migrar a un nuevo Windows no impacta el costo del servicio). Otra idea más romántica es que Microsoft quiere que los usuarios tengan nuevas versiones de su sistema operativo para que gocen de sus ventajas, entre ellas mayor seguridad. En fin, tal vez esto nunca lo sepamos a ciencia cierta.

Lo que sí sé es que tener XP será un mayor riesgo a partir de abril. Aquí te presento algunas opciones:

Migrar. Ni modo, pagar lo que haya que pagar para tener nuevas versiones de Windows en tus sistemas.

Desconectar XP. Si tienes alguna aplicación que sólo se ejecuta en XP, te recomendaría desconectar el equipo de la red. Así reducirás el riesgo de que se contamine o que contamine a otros sistemas. Algo importante: no le introduzcas USB, ya que son conocidos por transportar virus (o hazlo con cuidados extremos).

Tener XP en virtual. Algo que puede funcionar es montar tu XP en máquinas virtuales encima de versiones de Windows más modernas o de Linux/Mac. Lo mejor es que esa máquina virtual de XP no interactúe mucho con el resto del entorno para evitar contagios.

Endurecer XP. Puedes buscar en Internet las palabras “XP hardening”. Encontrarás guías que te dirán cómo endurecer tu XP para fortalecerlo contra virus y ataques informáticos.

Suspender el uso de XP. Si no es estrictamente necesario tener XP, entonces apágalo. Te aseguro que así te ahorrarás futuros dolores de cabeza.

Mantener XP. Tal vez seas de los vivos que han tenido XP desactualizado por años. Los casos abundan en los puntos de venta (“point of sales”) hackeadosrecientemente o bien en algunos cajeros automáticos. Supongo que si has tenido XP desactualizado por años, te importa un cacahuate que ya no existan parches a partir de abril de 2014 porque de todas maneras no pensabas actualizarlo. ¡Ave César, los que van a ser infectados, te saludan!

Aproximadamente un tercio de las computadoras alrededor del mundo todavía usanXP (dato a enero de 2014). A mí me parece un número inquietante, pues se trata de miles y miles de máquinas yendo hacia una trampa mortal sin salvación y cientos de lobos hambrientos esperando a que lleguen los corderos. Si en tu empresa o casa tienes XP, lo único que me resta decirte es “mucha suerte”.

_____________

Fausto Cepeda es Maestro en Ciencias en Seguridad de la Información y cuenta con las certificaciones CISSP, CISA, CISM y CEH. Puede contactarle enfausto.cepeda@gmail.com

Samsung se suma a IBM y Google en la alianza OpenPower

OpenPower ConsortiumSamsung se unió al OpenPower Consortium, una alianza liderada por IBM que busca fomentar diseños de chips basados en Power en los productos de hardware, como los servidores.

El OpenPower Consortium fue formado en agosto pasado, luego de que IBM anunciara que iniciaría el licenciamiento de su arquitectura Power para terceros. Las metas del consorcio incluyen la cooperación en el desarrollo de hardware y software alrededor de la arquitectura Power, la cual es ampliamente usada en servidores de alto rango.

Con esta medida, Samsung se unirá a Google, Tyan, Mellanox y Nvidia como miembro de la alianza. Hasta ahora los servidores basados en Power han sido lanzados sólo por IBM, pero se espera que Tyan sea el primer fabricante de servidores, además de IBM, en lanzar un servidor basado en Power. Nvidia también anunció que conectaría sus procesadores gráficos a los sistemas basados en Power.

No se reveló el papel que tendría Samsung en el OpenPower Consortium, aunque Samsung ha coqueteado con varias arquitecturas de chip incluyendo la x86 y la ARM. Esta compañía fabrica chips móviles llamados Exynos basados en la arquitectura ARM que son utilizados en sus smartphones y tablets, y también fabrica chips para servidor basados en ARM. Asimismo, Samsung ofrece laptops basadas en procesadores x86 de Intel y AMD.

El mes pasado, dos organizaciones chinas, Suzhou PowerCore Technology Company y el Instituto de Investigación de Jiangsu Industrial Technology, también se unieron al OpenPower Consortium.

Esta alianza nombró a Gordon MacKean, director de ingeniería del grupo de plataformas de Google, como su nuevo presidente.

Ha habido reportes de que IBM intentó vender sus operaciones de semiconductores, aunque la empresa no ha querido comentar el tema. En enero, IBM acordó vender su negocio de servidores x86 a Lenovo por 2.3 mil millones de dólares.

Cuándo preferir la nube de Google y cuándo la de Amazon

Google o AmazonEn general, las nubes de Google (Google Compute Engine o GCE) y de Amazon (Amazon Web Services o AWS) son servicios similares: Ambas ofrecen computación y almacenamiento bajo demanda, lo que significa que los clientes pueden crecer o decrecer sus necesidades en infraestructura sin tener que invertir capital en hardware.

AWS ofrece servicios IaaS basados en la nube por mucho más tiempo que Google, por lo que la empresa tiene una ventaja en la docena de servicios que ofrece en la nube y en la confiabilidad de los mismos, señala el cofundador y vicepresidente de productos de Cloudyn, Vitally Tavor.

Por su parte, GCE tiene sólo un puñado de servicios, pero las ofertas que ha puesto en el mercado son, por lo general, de mayor rendimiento, dándoles a los consumidores más explosión teórica por cada dólar.

Entonces, ¿es momento de mover sus cargas de trabajo de AWS a GCE? Tavor anota que para algunas aplicaciones, la respuesta es un “sí”.

En general, para aplicaciones de corta duración que requieren una máquina de alto rendimiento, la nube de Google parece ser la mejor, señala Tavor. Para aplicaciones complicadas que están alojadas en la nube por un periodo largo de tiempo y que usan una variedad de diferentes tipos de servicios basados en la nube –desde bases de datos warehouse, balanceadores de carga, sistemas de nombre de dominio y redes de entrega de contenido– AWS es todavía la mejor elección, agrega.

Cuándo sí y cuándo no

Una manera fácil de determinar si es un candidato para migrar todas sus cargas de trabajo de AWS a GCE es mirar qué servicios de AWS son los que está utilizando, y ver si están disponibles en la nube de Google.

Cabe señalar que Google ofrece una infraestructura de cómputo, almacenamiento, bases de datos y análisis de datos (llamada BigQuery). Los equivalentes de AWS de estos servicios son Simple Storage Service (S3), Elastic Compute Cloud (EC2) y Elastic MapReduce (EMR).

De los usuarios de Cloudyn, casi la mitad sólo utiliza los servicios de computación y almacenamiento básicos en la nube de AWS, los cuales Google tambien ofrece. Así que, en teoría, podrían mover sus cargas de trabajo a la nube de Google, señala Sharon Wagner, cofundadora y CEO de Cloudyn. La otra mitad de los clientes de Cloudyn usan las características avanzadas de la nube de AWS, las cuales Google aún no ha implementado, y por lo tanto no son candidatos ideales para hacer la mudanza de nube, añade.

Cuestión de precios

Una gran diferencia entre AWS y GCE es el esquema de precios. Al respecto, AWS ofrece tres opciones a los clientes: 1) El valor se establece por demanda o a la carta, es decir, los precios pueden subir o bajar según lo que el cliente quiera y sin compromiso a largo plazo; 2) Las instancias puntuales que se adquieren mediante subastas o remates son mucho más baratas, pero son mejores para aplicaciones tolerantes a fallas porque los servicios pueden ser interrumpidos inesperadamente en cualquier momento; 3) Las instancias reservadas son las menos costosas, pero requieren un contrato de uno o tres años.

Por lo que respecta a GCE, éste tiene una facturación por minuto, comparada con la facturación por hora de AWS. Por lo tanto, si los clientes quieren ejecutar trabajos de cómputo de corta duración, GCE sería una mejor opción. Además, si un cliente busca ejecutar algo en la nube por mucho más tiempo, entonces los precios de AWS serán más favorables.

A modo de comparación, la instancia de m3 estándar de AWS cuesta 0.113 dólares la hora, mientras la instancia estándar de Google cuesta 0.104 dólares, ambos vienen con 3.75GB de memoria.

“Para muchas aplicaciones, GCE es muy buena”, señala Tavor, aunque agrega que todavía hay algunos problemas donde se debe trabajar. Por ejemplo, Tavor ha programado mantenimiento un par de veces por año, pero los servicios no han estado disponibles.

Es más fácil decirlo que hacerlo

Hasta ahora, GCE sólo apoya a Linux OS y no a Windows. Sin embargo, es una plataforma de nube de alto rendimiento y distribuida globalmente, por lo que sin duda vale la pena considerarla como una opción, añade Tavor.

Si un consumidor está en condiciones de utilizar GCE, Tavor afirma que por lo general es una buena idea repartir cargas de trabajo a través de diferentes proveedores de nube. Incluso con los Acuerdos de Nivel de Servicio (SLA, por sus siglas en inglés), los cuales garantizan un cierto nivel de tiempo de actividad, estos servicios IaaS en la nube todavía pueden bajar.

AWS recomienda a los clientes dividir la carga de trabajo a través de varias zonas de disponibilidad dentro de la nube; para los clientes que buscan extra protección, pueden dividir y esparcir las cargas de trabajo a través de las diferentes regiones de la nube de AWS. Más protección significaría esparcir las cargas de trabajo a través de múltiples proveedores.

GCE ha avanzado hasta un punto donde el hecho de considerar usar la aplicación como un servicio de copias de seguridad o un servicio primario, se ha convertido en destino, indica Wagner.

Sin embargo, es más fácil decirlo que hacerlo, pues las aplicaciones ideales que se deberían mover son las ligeras, lo que significa que no tienen muchos datos (menos de un par de terabytes). Moverlas de un proveedor a otro puede ser tan fácil como ejecutar su aplicación en GCE en comparación con AWS.

No obstante, si los servicios han sido diseñados para ser ejecutados específicamente en la nube de AWS, o sacarle provecho a algunas características que sólo la nube de AWS ofrece –como su servidor DNS, CDN, Redshift o su base de datos DyanmoDB–, entonces sería mejor que se queden en la nube de AWS, anota Tavor.

En el pasado, la plataforma de Cloudyn sólo apoyaba y le daba seguimiento a AWS, pero ya extendió el apoyo a las instancias de GCE. De esta forma, y como parte del paquete SaaS-delivered de Cloudyn, analizará el uso de IaaS de los clientes y los alertará en caso de que haya mejores configuraciones de almacenamiento virtual o máquinas virtuales que puedan ser usadas.

Estas nuevas características permiten a los consumidores comparar los precios de ejecución de las aplicaciones en AWS versus las de GCE.

Otros jugadores

Sin embargo, Google y AWS no son los únicos jugadores. Microsoft y Rackspace tiene ofertas de IaaS convincentes, señala Tavor.

Rackspace sobresale y se distingue en las cargas de trabajo OpenStack, mientras Microsoft en aplicaciones de Windows. También IBM “se está poniendo interesante”, según Tavor, pues ha anunciado tener planes para dejar una huella significativa en el negocio de la nube este 2014.

__________

Brandon Butler, Network World

Intel adelanta detalles de Ivytown, su chip Xeon de 15 núcleos

Intel XeonIntel difundió más detalles de su próxima generación de procesadores Xeon de 15 núcleos, con nombre en código Ivytown. La futura arquitectura contará con hasta 4,310 millones de transistores y se destinará a los servidores de alto rango.

Ivytown formará parte de la línea de chips Xeon E7, y probablemente se dará a conocer la próxima semana, según ha trascendido en la Conferencia Internacional de Circuitos en Estado Sólido que se realiza del 9 al 13 de febrero en San Francisco, California.

Con el mayor número de núcleos de una arquitectura Intel x86, Ivytown será probablemente el chip para servidores de mayor rendimiento de la compañía, quien ya colocó 12 núcleos en sus modelos Xeon E5 v2, lanzados en el tercer trimestre del año pasado.

Los fabricantes de procesadores normalmente acumulan núcleos en sus desarrollos para aumentar el rendimiento del procesador, a la vez que ahorran energía. El método antiguo de hacerlo era potenciar la velocidad del reloj, pero esta estrategia se ha abandonado a medida que se demanda mayor potencia.

Ivytown estará basado en la microarquitectura Ivy Bridge de Intel, presentada el año pasado, y reemplazarán a los Xeon E7, que están basados en la arquitectura Sandy Bridge, también presentada en el 2013.

El chip de 15 núcleos probablemente se incluya en servidores de entre 4 y 8 tomas, que normalmente se encargan de las tareas de computación más avanzadas, tales como bases de datos y software ERP, de gestión de recursos empresariales.

Ivytown se ejecutará en frecuencias de entre 1.4 GHz a 3.8 GHz, y consumirá entre 40 y 150 watts de potencia. Cada núcleo soportará multithreading, lo que significa que Ivytown será capaz de ejecutar hasta 30 hilos simultáneamente.

El número de 15 núcleos no es convencional, si se tiene en cuenta que los chips, por lo general, suelen tener ocho, 12 o 16 núcleos. En esta arquitectura, los núcleos se disponen en tres columnas, y el chip cuenta con 40 canales PCI Express 3.0.

Con este procesador Intel se acercará a AMD, que ya ha coronado los 16 núcleos en sus últimos chips Opteron 6300. Estos primeros chips Opteron x86 de 16 núcleos –cuyo nombre código es Interlagos– se presentaron en el 2011, pero la compañía no ha añadido núcleos adicionales desde entonces.

Internet de las Cosas crecerá a un ritmo 8.8% anual, pronostica IDC

Internet de las Cosas crecerá 8 IDCLa firma de consultoría IDC acaba de presentar sus previsiones para el mercado global del denominado Internet of Things, haciendo referencia a la necesidad de que esta tendencia se incorpore a todos los sectores económicos, y les abra las puertas a todas sus posibilidades, incluido el acceso a nuevos consumidores.

El documento presentado hace referencia a la oportunidad tecnológica que se abre para todos los sectores verticales que se den cuenta del floreciente nuevo mercado que representa Internet de las Cosas. Estas previsiones están basadas en el modelo interno de información y análisis de IDC, que se utilizan para crear modelos de segmentación en torno a 18 mercados verticales a los que sigue la consultora.

Los expertos de la firma hacen recomendaciones en esta nueva etapa de crecimiento que se abre para los próximos años, con áreas ya muy avanzadas, como el hogar inteligente, los coches conectados o las redes de salud y bienestar personal.

Un mercado billonario

IDC define Internet de las Cosas como una red cableada o inalámbrica que conecta dispositivos o “cosas”, los cuales se caracterizan por disponer de una forma autónoma de gestión o supervisión.

La consultora estima que este mercado global, incluidos tecnología y servicios, pasará de los 4.8 billones (con b) de dólares en 2012, hasta alcanzar los 7.3 billones de 2017, luego de mantener un incremento interanual del 8.8%.

De acuerdo con los analistas, esta oportunidad no es apreciada por muchos sectores, que no han vislumbrado todavía las enormes posibilidades que entraña para todos los ámbitos económicos, a diferencia de la industria automotriz, el transporte o la energía.

Por dónde empezar

Según el informe, el primer paso de cualquier empresa debería ser la profunda comprensión de las implicaciones que esta tecnología tendrá en su sector. Por su parte, los proveedores de TI tienen la responsabilidad de explicar convenientemente las posibilidades de traer esta tecnología a todas las empresas, tales como el potencial de las aplicaciones máquina a máquina (M2M) o la posibilidad de acceder a nuevos mercados y consumidores, a través de soluciones B2B2C, concluye IDC.

“¡Atención! Este smartphone se autodestruirá en cinco segundos…!”

Smartphone se destruirá en 5 segundos¿Creía usted que los teléfonos inteligentes o radios autodestruibles sólo eran posibles en las películas de ciencia ficción? Más vale que lo piense de nuevo.

IBM está trabajando en dispositivos electrónicos para las fuerzas armadas de Estados Unidos que tendrán la posibilidad de destruirse con sólo una orden. El propósito: asegurar que los dispositivos que contienen datos críticos se mantengan fuera de las manos del enemigo.

A finales de enero pasado, la DARPA (Defense Advanced Research Projects Agency), el brazo de investigación de las fuerzas armadas estadounidenses, otorgó a IBM un contrato por 3.4 millones de dólares para su programa “Vanishing Programmable Resources”.

“Se puede fabricar electrónica sofisticada a bajo costo, además ésta ya se encuentra cada vez más presente en el campo de batalla”, indicó DARPA en su sitio web. “Sin embargo, es casi imposible rastrear y recuperar todos los dispositivos, lo cual produce una indeseable acumulación en el medio ambiente y un probable uso no autorizado”.

Ni DARPA ni IBM respondieron a las solicitudes de información.
DARPA afirmó en su sitio web que está buscando dispositivos –como sensores, radios y teléfonos– que funcionen tan bien como las opciones comerciales, pero que puedan ser destruidos vía remota.

A IBM se le ha encomendado la tarea del desarrollo de materiales, componentes y capacidades de manufactura.

Según informaciones de DARPA, la compañía trabaja en un “sustrato de vidrio templado” que se romperá. Un gatillo, que puede ser un fusible, se usará en por lo menos un área –o en varias– del dispositivo. Este gatillo podría activarse por una señal de radiofrecuencia.

Las fuerzas armadas desean utilizar tecnología de autodestrucción en dispositivos tales como los sensores medioambientales o de monitoreo de la salud.

“La capacidad de autodestrucción es muy importante cuando se trata de datos y dispositivos que podrían comprometer la seguridad de Estados Unidos”, sostuvo Dan Olds, analista de The Gabriel Consulting Group. “Si ponen sus manos sobre el dispositivo adecuado, un enemigo podría no sólo recolectar datos, sino también dejar de lado las barreras de seguridad para poder penetrar las (supuestamente seguras) redes e incluso obtener más datos”.

Presentan el ‘seguro por kilómetros para autos’ gracias a M2M

Seguro auto por M2MLos seguros para autos constituyen uno de los campos de aplicación más novedosos de las comunicaciones entre máquinas (machine to machine o M2M).

Primero surgió la modalidad “paga según conduces”, que, apoyándose en la tecnología M2M, permite registrar los hábitos de conducción del cliente y, en función de tal información, cuantifica la prima del seguro del vehículo. De esta manera, por ejemplo, el perfil de conducción “temerario” supondrá una prima mayor que la de los perfiles más “prudentes”. Ahora, la compañía española Next Seguros presentó Next Auto, que, sacando partido también del M2M, ofrece un “prepago” de kilómetros.

Con Next Auto, el cliente elige los kilómetros que quiere consumir y sólo paga por ellos, pudiendo recargar más kilómetros si lo necesitara. Además, si en el momento de la renovación de la póliza no se han consumido los kilómetros contratados, el cliente podrá disponer de ellos para la renovación.

Al descargar la app de la aseguradora, el cliente puede controlar en tiempo real la evolución de su conducción y el saldo de kilómetros disponibles.

La compañía española invirtió 500,000 euros (unos 680,000 dólares) para desarrollar y diseñar la tecnología necesaria de este producto.

Cómo funciona

La nueva modalidad de seguro para autos es posible gracias al dispositivo Next2Go, que se conecta al vehículo de forma rápida y sencilla. Tras contratar la póliza por Internet o teléfono, el cliente recibe en su domicilio el dispositivo Next2Go, que deberá ser activado a través de una PC, smartphone o tablet.

“Desde hace 50 años,  el mercado de seguros español ha ofrecido el mismo tratamiento a todos los clientes sin tener en cuenta el uso que hacen de sus vehículos, y por tanto calculando la prima con base en la información del conductor y del tipo o clase de vehículo, universalizando el riesgo”, explicó Javier Goikoetxea, CEO de Next Seguros.

Agregó que su principal novedad reside en ser el primer seguro  en personalizar el tratamiento del riesgo y además en devolver al cliente lo no consumido, algo impensable para cualquier aseguradora, donde su mejor cliente es el que más paga y menos ‘riesgo’ consume. “Queremos ofrecer un seguro justo, ya que pagas sólo por lo que consumes. Cuanto menos conduces, menos pagas”.

Según Goikoetxea, “creamos el producto Next Auto para los compradores racionales, es decir, para aquellas personas que no quieren pagar de más, y son conscientes del consumo que hacen de las cosas. Es un seguro con coberturas y prestaciones del máximo nivel,  pudiendo contratar desde 4,000 kms hasta un máximo de 10,000 Kms”.