Día: 10 enero, 2017

Gestión de la seguridad, ¿local o centralizada?

Con el nacimiento del concepto de seguridad perimetral, hace poco más de 2 décadas, surgieron las primeras soluciones perimetrales que ofrecían una protección eficiente y un sistema de gestión centralizado. Este sistema permitía al entonces CISO (Chief Information Security Officer), monitorear el tráfico para analizarlo y controlarlo.

Sin embargo, solo se pensaba en una posición estratégica del Firewall: en el perímetro de las oficinas principales de la empresa, la frontera entre lo público y lo privado. Era impensable que alguna sucursal u oficina remota de menor jerarquía contara con este tipo de protección.

El tiempo nos ha enseñado que la información crítica se encuentra ubicada en los cuatro puntos cardinales que conforman la organización, no solo en las oficinas corporativas sino también en la localidad más pequeña y remota existente.

Durante el proceso de globalización de los últimos años, el concepto de territorio se ha expandido aún más cubriendo no solo una zona específica sino incluso más allá de las fronteras, países y continentes. Con ello también surgieron nuevos estándares de intercomunicación digital como MPLS, ADSL y métodos, como el concepto VPN.

Esto provocó que los sistemas de gestión centralizados evolucionaran, aunque al principio se carecía de un esquema de telecomunicaciones robusto que interactuara con todos los puntos posibles a nivel territorial e inclusive mundial. De esta manera el concepto UTM (Unified Threat Management), en el cual se integraban no solo las funcionalidades sino también una gestión local tradicionalmente tipo Web, dominara durante varios años.

En la actualidad existen metodologías, certificaciones y estándares operativos como PCI DSS, Cobit e ISO, entre otros, los cuales están obligando a las organizaciones a regresar nuevamente al concepto de gestión centralizado. Esto ocurre debido a que los sistemas de gestión local no cuentan con la capacidad suficiente de crecimiento del almacenamiento y cuando se requiere gestionar varios dispositivos al mismo tiempo aún presentan limitaciones.

Por eso es importante considerar que un esquema de gestión local ya no es suficiente y se debe evolucionar en el diseño de la solución de seguridad.  Las herramientas de gestión eficientes deben incluir:

  • Un esquema de alta disponibilidad. Incluso debe estar distribuido en dos o más localidades.
  • Un esquema de redundancia. Esto permite ofrecer dos o más puntos de contacto con los dispositivos gestionados.
  • Flexibilidad de crecimiento. Deben ser capaz de permitir que el esquema de almacenamiento crezca de acuerdo a las necesidades de la organización. En algunos países las reglas obligan a conservar un mínimo de 5 años los eventos registrados por la bitácora.
  • Flexibilidad de dispersión. Que los componentes de gestión y bitácora puedan estar distribuidos de acuerdo a las necesidades de la infraestructura.
  • Monitoreo en tiempo real.
  • Generación de reportes pre-establecidos y generados por el usuario.
  • Centralización de Traps. Fungir como un único punto de contacto para el control de alertas tipo SNMP.

 

jorge-cisneros-forcepoint

Por Jorge Cisneros,

Ingeniero Senior Preventa para

Latinoamérica de la división de Network Security de

Forcepoint.

Automóviles sin conductor: Nuevo estilo de vida y desafío para la ciberseguridad

Los automóviles son una parte esencial en nuestra vida diaria, además de ser fundamentales para transportar miles de personas diariamente. No es una sorpresa que el transporte parcial o totalmente autónomo y el potencial de los automóviles sin conductor se hayan vuelto temas de moda. De acuerdo con Gartner, los vehículos sin conductor representarán el 25 %, aproximadamente, de los vehículos de pasajeros en uso dentro de mercados maduros para el 2030.

Para los hackers, los automóviles sin conductor representan otra gran oportunidad para causar estragos. Garantizar la seguridad de los conductores contra ciberamenazas se ha vuelto un enfoque primordial de desarrollo, así como un gran reto para las industrias automotrices y de seguridad.

Los automóviles sin conductor dependen de sensores, radares, mapeo GPS y una gran variedad de inteligencia artificial que les permite auto conducirse. El problema empieza con los hackers que pueden acceder al vehículo de forma remota y comprometer uno de los sistemas de a bordo, lo que daría como resultado un amplio rango de amenazas que van desde el robo de información personal y comercial, hasta el riesgo físico de las personas y su propiedad.

 

Posibles ataques

Escalada de privilegios e interdependencias del sistema. Los criminales buscarán las vulnerabilidades en los servicios con menor seguridad como los sistemas de entretenimiento e intentarán “saltar” a través de las redes internas del carro hacia los sistemas más sensibles. Por ejemplo, generalmente se permite una cantidad limitada de comunicación entre el sistema de administración del motor y el de entretenimiento para mostrar alertas que, potencialmente, pueden ser aprovechadas.

 

Ransomware. Los hackers podrían inmovilizar el automóvil e informar a los conductores, a través de la pantalla interna del carro, que necesitan pagar un rescate para restaurar las operaciones normales del vehículo. El propietario pueden encontrarse lejos de su casa (el rescate puede estar programado para ejecutarse solamente cuando el automóvil se encuentre a una distancia predeterminada de su casa), por lo que el conductos requeriría los servicios de un especialista para reiniciar los componentes afectados. Se estima que la cantidad de este tipo de rescates son significativamente mayores a las que se piden cuando “secuestran” el sistema de una computadora, pero probablemente sean menores a lo que costaría reparar el auto, razón por la que el dueño prefiere pagar el rescate.

 

Cómo asegurar los vehículos autónomos

  1. Comunicaciones internas del vehículo. Los automóviles inteligentes cuenta con diversos y distintivos sistemas a bordo, como los sistemas de control del carro, de entretenimiento e incluso sistemas de terceros cargados a petición del dueño. Hasta cierto punto, estos sistemas necesitarán participar en la interacción para dar vida a nuevos servicios, mismos que podrían ser administrados y monitoreados de cerca por los firewalls y Sistemas de Prevención de Intrusiones (IPS por sus siglas en inglés), los cuales pueden distinguir perfectamente, dentro del área de red del automóvil, entre comunicaciones legítimas y normales de las actividades ilícitas.

 

  1. Comunicaciones externas. Muchos, si no es que todos los sistemas a bordo tendrán razones para comunicarse con los servicios basados en Internet para buscar funciones como actualizaciones de software y acceso a Internet. Probablemente, las comunicaciones se iniciarán ya sea desde dentro o hacia el vehículo provenientes del fabricante o del Internet. Lo anterior significa también que el tráfico de y hacia el automóvil necesitará ser administrado e inspeccionado contra amenazas y comunicaciones ilícitas, defectuosas o no autorizadas, utilizando firewalls y capacidades similares al IPS.

 

  1. La infraestructura de conectividad usada por el vehículo, probablemente estará basada en las, ya bien establecidas, redes de celulares como los servicios de datos 3G o 4G, pero con un pequeño giro. Si bien estos servicios de telefonía celular ya proveen conectividad a billones de smart phones y otros dispositivos en todo el mundo, también sufren de seguridad inconsistente. Los automóviles con manejo asistido o incluso sin conductor aumentarán significativamente las apuestas. Un ataque dirigido sobre o a través de la red celular, podría disparar una falla crítica a la seguridad en, literalmente, miles de vehículos en movimiento al mismo tiempo. Asegurar las redes celulares a través del abastecimiento de conectividad fundamental al vehículo, requerirá de una exhaustiva revisión para prevenir catástrofes potenciales.

 

  1. Identidad de alta seguridad y sistemas de control de acceso adecuados y diseñados para las máquinas, no para la gente, necesitarán ser incorporadas. Éstos permitirán que los automóviles puedan autenticar las conexiones entrantes para los sistemas esenciales y para los servicios basados en el Internet, con el objetivo de identificar positivamente los vehículos y la información que registran en la nube, así como las transacciones que podrían realizar a nombre de los propietarios.

 

Por: Eduardo Zamora, director general Fortinet México

¿Cómo preparar su currículum de un desarrollador?

Si uno de sus propósitos para este 2017 es cambiar de trabajo, debe comenzar con la elaboración de un buen ‘curriculum vitae’. Puede lograr ser reconocido en el mercado de trabajo por verdadero valor o puede sabotear su oportunidad de ser invitado para entrevistas.

Para ayudarle en esta tarea, le tenemos una lista con 10 consejos que debe tener en cuenta para su CV, con base en la experiencia de los reclutadores de TI.

 

Evite aburrir con detalles

Precisar los detalles es un rasgo esencial para los programadores, pero es mejor no excederse en su currículum. Además de provocar que los responsables de recursos humanos se pierdan con sus datos, también se arriesga a salir como alguien que no puede destacar la importancia de su propio trabajo, que no son capaces de priorizar los objetivos de negocio. Su currículum debe reflejar lo mejor, no ser una transcripción completa.

 

Proporcione un contexto empresarial

En un ‘currículum vitae’ los candidatos deben incluir una breve explicación del contexto empresarial y el impacto de su trabajo en la compañía donde han trabajado. Esto ayuda a los responsables de contratación a comprender plenamente sus logros, dándoles no sólo una mejor visión de su valor, sino también la visión de cómo sus esfuerzos pueden ayudarles a alcanzar sus propios objetivos de negocio.

 

No es necesario enlistar cada tecnología que haya tocado

Si enumera una habilidad o tecnología en su currículum, espere que se le hagan preguntas sobre ella. En lugar de enumerar todos los lenguajes de programación o productos que ha utilizado, limitar su currículum a aquellas habilidades en las que tiene destreza y experiencia. De lo contrario, corre el riesgo de avergonzarse en la entrevista.

api-codigo-desarrollador

Adapte su ‘currículum vitae’ al papel

Adaptar el ‘currículum’ a los requisitos técnicos del trabajo es importante, pero también hacerlo en papel. Después de todo, la diferencia entre un desarrollador junior y senior a menudo va más allá de años de experiencia.

En unas empresas “desarrollador senior de iOS” puede significar el tiempo que ha estado trabajando en esa plataforma y en otras el tiempo total que lleva trabajando. Su ‘currículum’ también necesita alinearse con sus metas de la carrera, tales como si desea pasar a un puesto directivo.

 

Cuidado con los términos demasiado técnicos

Escriba un ‘currículum’ pensando en el responsable de recursos humanos, intente no llenarlo de acrónimos que en lugar de hacerle brillar por sus cualidades y experiencias lo llenaran de sombras porque tendrán que realizar un auténtico esfuerzo para entender su valía.

 

Destaque sus conocimientos en Código abierto

Para algunas empresas, las contribuciones de código abierto y las actividades profesionales relacionadas son muy importantes. A veces, incluso puede ayudarle a evitar pruebas de programación. Añadir a su ‘currículum’ los repositorios del código del proyecto es especialmente importante si usted está intentando hacer un cambio de carrera.

Si está buscando cambiar su enfoque profesional, las contribuciones públicas son una estrategia a seguir.

 

No ponga atención en la codificación

Si su currículum atrae el interés, puede ser llamado a una prueba para validar sus habilidades técnicas. Se ha convertido en una práctica común porque empleadores y candidatos luchan por evaluar los conocimientos técnicos. A medida que prepara su currículum, sepa que cualquier cosa que usted incluya está sujeto a revisión. Eso incluye las cosas pequeñas, ya que el software funcional es sólo parte de la imagen con un desafío de codificación.

Su enfoque señalará lo que podría ser trabajar con un colega, si alguien más en el equipo puede entenderlo sin que lo explique.

app-development-desarrollo

Obtenga certificaciones

La educación formal y certificaciones juegan un papel en el ‘currículum’ y a veces eso significa ampliar el alcance.

Aunque es discutible si las certificaciones específicas suponen una ventaja, si está pensando en una empresa en concreto, sería bueno que obtuviera alguna de las certificaciones específicas de algún producto o tecnología de la compañía.

 

No certifique sin criterio

Si bien las certificaciones pueden ayudar, sus motivaciones y objetivos cuentan más. Aprender por el mero hecho del aprendizaje tiene valor, pero el aprendizaje es más convincente si puede mostrar lo que hizo con sus nuevos conocimientos. Si usted obtuvo una certificación hace mucho tiempo, piense cuidadosamente si tiene sentido incluirla. Después de todo, se le pueden hacer preguntas acerca de ello durante una entrevista.

 

Reflexionar

Los ‘currículums vitae’ más eficaces transmiten un plan de carrera. Al prepararlo, es importante reflexionar sobre su progresión profesional y si está cumpliendo sus necesidades para llegar a su siguiente paso.

Tener un objetivo que va más allá de la descripción del trabajo es esencial, ya sea para pasar a un rol de gestión, profundizar en una posición más técnica o para cambiar a una nueva industria o profesión.

Una vez que tenga una idea de su camino, toque su red para encontrar amigos o colegas en roles similares a su destino. Sus historias de cómo llegaron a estar donde están, proporcionan ideas sobre cómo debe pulir su ‘currículum vitae’.

BACtrack Skyn enfocada a medir el nivel de alcohol en la sangre

Uno de los principales motivos causantes de accidentes de tráfico en todo el mundo está relacionado con la ingesta de alcohol. En nuestro país, sin ir más lejos, desde la DGT nos ofrecen los siguientes datos: en el año 2015, el 43.1% de las personas fallecidas en accidentes de tráfico habían consumido alcohol, drogas o psicofármacos. Con esta información sobre la mesa no hay duda de que se trata de un serio problema que hay que atajar.

Precisamente por eso, en Estados Unidos acaban de presentar, durante el CES 2017 de Las Vegas, esta pulsera inteligente de nombre BACtrack con la que será posible cuantificar en tiempo real la cantidad de alcohol que tenemos en sangre. Un wearable que utiliza una tecnología capaz de ofrecer mediciones muy precisas.

La pulsera que mide la cantidad de alcohol en la sangre tiene un sensor transdérmico en su parte posterior, la que está en contacto con nuestra piel. Por medio de un detector electroquímico la pulsera puede cuantificar la cantidad de moléculas de etanol que aparecen a través de nuestra piel tras haber ingerido bebidas alcohólicas, ofreciendo la información en tiempo real.

Asimismo, es posible activar una notificación, por sonido o vibración, para que BACtrack Skyn nos avise cuando hayamos superado un determinado límite de alcohol en sangre, que nosotros habremos establecido con anterioridad.

En cualquier caso, no hay que olvidar que los datos que nos facilite esta pulsera inteligente tendrán una validez de una hora, que es el tiempo máximo que perdura el efecto del alcohol en la piel.

Desde la compañía fabricante han comunicado su intención de poner a la venta este wearable durante el próximo verano, a un precio que rondará los 100 dólares. Además de venir con su correa de serie puede traer otra correa adaptable al Apple Watch.

Patricia Figuero

 

¿Es inseguro el código abierto? Seis razones que demuestran lo contrario

Un tema recurrente que enfrentan los desarrolladores, programadores y proveedores de código abierto es la seguridad de éste. “¿El hecho de ser abierto no lo hace más inseguro? ¿Puedo confiar mis aplicaciones e información a un software en cuya creación participó una multitud de desarrolladores? ¿No es el objetivo preferido de los criminales informáticos de todo el mundo?” Estos son algunos ejemplos de los cuestionamientos que se plantean –una y otra vez– cuando las empresas consideran la posibilidad de incorporar el código abierto en sus operaciones.

El grueso de quienes dudan de la seguridad del open source corresponde a empresas tradicionales que han dependido desde siempre de software propietario, habituadas a pagar enormes cantidades de dinero a un solo proveedor para recibir soporte, actualizaciones y seguridad; servicios que –además– no siempre han sido los mejores ni los más efectivos. Y andan con pies de plomo cuando se trata de aventurarse a probar software empresarial abierto.

No obstante, son cada vez más las organizaciones que están adoptando estas soluciones abiertas, que las operan y administran a la par de sus sistemas tradicionales con éxito. Actualmente, prácticamente todas las compañías de la lista Fortune 500 utilizan open source de alguna manera; y lo mismo ocurre en empresas digitales nativas como Facebook, Uber y Google, entre otras.

De hecho, el código abierto ha demostrado ser lo suficientemente estable y seguro, así como de ser capaz de detectar y solucionar vulnerabilidades en el menor tiempo posible. La tecnología abierta y la seguridad están estrechamente relacionadas – en lugar de depender de una compañía o de un equipo de desarrollo para crear una solución segura, la tecnología abierta ayuda a las organizaciones de los sectores público y privado a trabajar conjuntamente con el fin de crear entornos protegidos.

La colaboración entre las empresas y las comunidades del código abierto ha derivado en la oportunidad de conocer –de primera mano– los problemas que pudieran afectar a los usuarios, proporcionarles las metodologías y soluciones más efectivas, y ayudarles a reducir considerablemente el riesgo de ser perjudicados por situaciones de seguridad y amenazas.

Si bien la seguridad es un tema que se ha resuelto en el mundo del código abierto desde hace algún tiempo, aún persisten algunos mitos y temores. A continuación, me gustaría hacer un recuento de las razones concretas que confirman la fortaleza del código abierto.

 

  • Seguridad en su ADN. Una comunidad diversa de desarrolladores colabora para crear la solución abierta inicial, y esa misma cooperación está presente cuando se resuelven problemas y se producen nuevas versiones. En consecuencia, el número de errores y posibles vulnerabilidades se reduce, y las soluciones se construyen más rápido. Los usuarios también tienen la oportunidad de evaluar el código y contribuir para mejorarlo.

 

  • Colaboración igual a fortaleza. Parecería una paradoja el hecho de que abrir el código abierto lo hace más confiable. Lo cierto es que dicha apertura ayuda a fortalecer la seguridad. Que exista tal nivel de participación en el desarrollo del software hace más fácil incorporar innovaciones clave. Con mayor transparencia, responsabilidad, verificabilidad y colaboración, la seguridad se fortalece.

 

  • Listo para la empresa. Aún está latente el desafío de terminar con la percepción de que el código abierto todavía no está listo para entrar a las empresas. No se debe perder de vista que el software abierto permite a las organizaciones ‘personalizar’ soluciones que satisfagan sus necesidades particulares, y está diseñado para implementarse de forma rápida y sencilla, así como ser altamente escalable y ágil. Al ser estable, ofrecer continuidad en el servicio, ser sometido a pruebas de aseguramiento de la calidad y contar con actualizaciones controladas y frecuentes, el software abierto es una excelente solución para los desarrolladores y las operaciones de TI.

 

  • Calidad, una prioridad. A los desarrolladores de código abierto les interesa conservar su credibilidad, por lo que liberan código de calidad –lo que simplifica las labores de desarrollo. En un entorno abierto comercial, cada desarrollador pasa por un riguroso proceso de aprobación después de avalar sus credenciales. Así se comprometen a que el código que desarrollan sea sometido a un sofisticado proceso de revisión, aceptación o rechazo. ¿El resultado? Software minuciosamente probado y seguro que puede ser implementado por todo tipo de organizaciones.

 

  • Versiones más estables. Las empresas a veces se muestran renuentes a adoptar software abierto pues creen que nadie se hará responsable en caso de que se presente una falla o vulnerabilidad, y que su mantenimiento es costoso. Sin embargo, actualmente son varias las compañías que utilizan código abierto en sus productos, lo que automáticamente las hace responsables de lo que le están licenciando a sus clientes. Y por su naturaleza, el open source puede responder a las necesidades de las empresas y liberar actualizaciones, parches y nuevas versiones más estables y seguras, y hacerlo constantemente.

 

  • Sigue el ritmo de las amenazas. Todos los días, las compañías están expuestas a miles de amenazas que ponen en peligro la integridad de su información y sus operaciones. Es cierto que un gran número de hackers está buscando las fallas y vulnerabilidades del software, propietario y abierto, con el fin de penetrar en los sistemas empresariales y extraer datos valiosos. Sin embargo, también es cierto que cuando las detectan, un ejército de desarrolladores y expertos de la comunidad open source pone manos a la obra para liberar una actualización o un parche en cuestión de horas. Algo que es prácticamente imposible en un entorno propietario.

 

olivia-salas-red-hat

Por: Olivia Salas,

Directora de Marketing de

Red Hat México.

Citrix adquiere la compañía de virtualización de aplicaciones Unidesk

Citrix realizó la adquisición de la compañía de virtualización de aplicaciones Unidesk. Este movimiento fortalece aún más la relación entre Citrix y Microsoft ya que la firma absorbida es la precursora de la tecnología de administración y almacenamiento de aplicaciones, además facilita a socios y consumidores implementar aplicaciones y desktops a través de XenApp y XenDesktop.

En cualquier caso, Citrix continuará vendiendo Unidesk como un producto independiente para los clientes de despliegue de escritorio virtual de VMware Horizon y Microsoft. El vicepresidente senior de ingeniería de la organización, Jeroen van Rotterdam, se ha congratulado por la operación y ha señalado que los clientes podrán aprovecharse de “la solución escalable y rica en funciones que simplifica la transición a la nube”, junto con la necesidad de administrar una única imagen de aplicación tanto en las instalaciones como en las implementaciones basadas en nube.

“Unidesk ha sido reconocido como el líder en la aplicación de capas, ofreciendo múltiples ventajas únicas que agilizan la entrega de aplicaciones seguras y despliegues de VDI. Con la incorporación de esta tecnología en XenApp y XenDesktop, avanzamos nuestro liderazgo en la industria al ofrecer la solución de capas de aplicaciones más potente y fácil de implementar on-premise y en entornos de despliegue híbridos”, ha comentado.

El directivo mencionó también que la aplicación de capas es una de las mejores maneras de separas las aplicaciones del sistema operativo subyacente, para que puedan ser administradas una vez y entregadas desde cualquier solución de computación de usuario final a cualquier dispositivo.

“Citrix y Unidesk son una combinación natural. Vemos un valor enorme para los clientes y socios, y un gran pontencial para el crecimiento de nuestra solución”, ha afirmado el presidente y CEO de Unidesk, Don Bulens. “Citrix creó el mercado para VDI y la entrega de datos y aplicaciones seguras, por lo que tiene más sentido integrar nuestras ofertas en una solución integral que facilita la implementación y la gestión, al tiempo que ofrece una experiencia de usuario imbatible”, dijo Bulens.

Redacción

 

Cinco innovaciones tecnológicas que cambiaran nuestras vidas

IBM anunció su lista anual “IBM 5 en 5” en la que se presentan cinco innovaciones científicas y tecnologías que en los próximos cinco años tendrán un gran impacto tanto en las personas en sí como en su forma de vivir y trabajar. La lista de innovaciones se basa en tendencias sociales y de mercado, así como en tecnologías emergentes de los laboratorios de IBM que pueden hacer que estas transformaciones sean posibles.

1. Gracias a la inteligencia artificial, nuestras palabras serán indicios de nuestra salud mental

Si la mente es una “caja negra” cuyo funcionamiento no comprendemos totalmente, el lenguaje es la “llave” para entenderla. En cinco años, lo que digamos y escribamos será un indicador de nuestra salud mental y nuestro bienestar físico. Contaremos con sistemas cognitivos capaces de analizar nuestra habla y escritura e identificar patrones que podrían ser señales de una posible enfermedad mental y neurológica en una fase muy inicial. Si, además, se suman estos resultados al análisis de imágenes o al análisis de dispositivos wereables, los médicos podrán obtener una pintura más completa.

Actualmente, científicos de IBM están analizando transcripciones de entrevistas psiquiátricas con máquinas de aprendizaje para identificar patrones en el habla que puedan ayudar a los médicos a predecir y monitorizar enfermedades como la psicosis, esquizofrenia, manía o depresión. Y en el futuro, podrían utilizarse técnicas similares para ayudar a pacientes con Parkinson, Alzheimer, Huntington, autismo o déficit de atención.

2. La hiperimagen y la inteligencia artificial nos proporcionarán una vista de superhéroe

En cinco años, tendremos nuevos dispositivos que, combinando múltiples bandas del espectro electromagnético, nos permitirán ver mucho más allá del dominio del espectro visible y nos rebelarán hallazgos o peligros que si no estarían escondidos a nuestra vista. Pero lo más importante es que estos dispositivos serán accesibles, asequibles y portátiles, de tal manera que tener una supervisión formará parte de nuestra experiencia diaria.

Algunos ejemplos serían, entre otros, la posibilidad de ver lo invisible o aquellos fenómenos físicos vagamente visibles podrían ayudarnos a mejorar las condiciones de conducción de los automóviles tradicionales o de los coches autónomos. También, con esta tecnología incorporada a nuestros teléfonos móviles, se podrían tomar imágenes de nuestra comida y mostrarnos su valor nutricional o saber si algo es o no seguro para comer.

Los científicos de IBM están construyendo una plataforma compacta de hiperimagen que vea a través de porciones separadas del espectro electromagnético y que potencialmente habilite una gran variedad de aplicaciones accesibles y asequibles.

computacion-cognitiva-ia-inteligencia-artificial

3. Los macroscopios nos ayudarán a comprender la complejidad de la tierra en un detalle infinito

En cinco años, utilizaremos algoritmos de máquina de aprendizaje y software que nos ayudarán a organizar la compleja información sobre el mundo físico que nos rodea, recogida por miles de millones de dispositivos conectados. A esto lo llamamos macroscopio, ya que, a diferencia del microscopio y su capacidad de ver lo que es muy pequeño, o del telescopio, que puede ver lo que está muy lejos, se trata de un sistema de software y algoritmos que podrán integrar todos los datos complejos de la Tierra para analizarlos y hacer hallazgos a partir de ellos.

En 2012, IBM Research comenzó a investigar este concepto en la empresa Gallo Winery, e integró el sistema de irrigación con las condiciones meteorológicas y de la tierra y otros datos procedentes de sensores con el fin de predecir la irrigación óptima necesaria para producir la mejor uva. En el futuro, utilizaremos las tecnologías macroscópicas para aplicar este concepto a cualquier lugar del mundo.

4. Mini laboratorios médicos dentro de chips serán como detectives descifrando una enfermedad al tamaño de nano escala

Durante los próximos cinco años, contaremos con minúsculos laboratorios médicos dentro de un chip que actuarán como nano detectives sanitarios persiguiendo pistas invisibles en nuestros fluidos corporales que nos harán saber de forma inmediata si hay alguna razón para ir al médico. El objetivo es concentrar y reducir en un único chip de silicio todos aquellos procesos que normalmente se llevarían a cabo en un laboratorio de bioquímica a escala real.

La tecnología de laboratorio en un chip podría incorporarse en un dispositivo portátil que permitiera a las personas medir rápida y regularmente una serie de biomarcadores localizados en sus fluidos corporales y enviar la información a la nube cómodamente desde sus casas. Esto, combinado con datos de otros dispositivos de Internet de las cosas, como monitores del sueño, relojes inteligentes, etc. y unida toda esta información, podría proporcionarnos una pintura muy completa de nuestra salud y alertarnos a la primera señal.

Científicos de IBM están desarrollando esta nanotecnología de laboratorio en un chip capaz de aislar biopartículas de menos de 20 nanómetros de diámetro, una magnitud que nos permite acceder al ADN, virus y exosomas. Estas partículas podrían analizarse para potencialmente revelar la presencia de enfermedades antes de los primeros síntomas.

5. Sensores inteligentes detectarán la polución medioambiental a la velocidad de la luz

En cinco años, nuevas y accesibles tecnologías de sensorización desplegadas cerca de los lugares de extracción de gas natural, tanto en las infraestructuras de almacenamiento como en las tuberías, permitirán que la industria detecte fugas invisibles en tiempo real. Redes de sensores IoT conectadas por wireless a la nube proporcionarán una monitorización continua de la enorme infraestructura gasística, lo que permitirá detectar fugas en cuestión de minutos y no de semanas, reducir la polución y los deshechos, así como la posibilidad de que se produzca una catástrofe.

En el corazón de la investigación se encuentra la fotónica de silicio, una tecnología evolucionada que transfiere datos por la luz, lo que permite realizar computación en tiempo real a la velocidad de la luz. Estos chips podrían incorporarse en una red de sensores en el suelo, dentro de cualquier infraestructura o incluso volar en drones autónomos, obtener información que sumada a los datos en tiempo real del viento, satélites u otras fuentes, podrían utilizarse para construir complejos modelos medioambientales para detectar el origen y cantidad de los agentes contaminantes cuando se desencadenen.

internet-de-las-cosas-industria-agricultura

IDG.es

Una variante del malware KillDisk afecta sistemas Linux

ESET descubrió una variante del malware KillDisk que cifra sistemas Linux y echa a perder toda la información almacenada, ya que imposibilita la puesta en marcha de las máquinas.

A pesar de que el diseño del malware no permite la recuperación de los archivos cifrados, porque las claves no se almacenan ni se envían a ningún lado, los delincuentes responsables de esta amenaza exigen 250,000 dólares en bitcoins a sus víctimas. Afortunadamente, los investigadores de ESET han descubierto una debilidad en el cifrado empleado que facilita la recuperación tras arduos trabajos.

“KillDisk es otro ejemplo más de por qué nunca hay que pagar un rescate cuando sufrimos un ataque de ransomware: estamos tratando con delincuentes, así que no hay garantías de que nos devuelvan nuestros datos. De hecho, en este caso, estaba clara la intención de no liberar la información tras el pago”, afirma Robert Lopovsky, investigador senior de ESET.

“La única opción posible a la hora de tratar con el ransomware es la prevención: formación correcta en seguridad, sistemas actualizados, soluciones de seguridad de confianza, copias de seguridad frecuentes y capacidad para restaurar el sistema son los únicos componentes de una buena estrategia”.

KillDisk es un malware muy destructivo que se dio a conocer como parte del ataque realizado por el grupo BlackEnergy contra una central eléctrica en Ucrania en diciembre de 2015. Además, hace unos meses ESET descubrió una serie de ataques planificados contra el sistema financiero ucraniano. Desde entonces, los ataques de KillDisk han continuado, sobre todo contra objetivos en el sector del transporte marítimo.

El conjunto de herramientas de KillDisk ha evolucionado ahora hacia el ransomware. En un inicio, afectaba a sistemas Windows pero ahora se dirige hacia máquinas Linux, tanto a estaciones de trabajo como a servidores, por lo que su alcance potencial es más dañino.

 

IDG.es

La ganancias de PC serán menores a las de Apple en 2017

Gartner, señala que los sistemas operativos de Apple subirán un 8% este año y los de Microsoft descenderán un 3%. Además, el mercado de las PC va disminuyendo, afectando sobre todo a la empresa de Redmond.

En 2016 Windows dio salida a alrededor de 260 millones de dispositivos de los 2.3 mil millones enviados durante el año, es decir, la empresa representó aproximadamente el 11.2% del total de dispositivos. Mientras tanto, iOS y macOS disminuyeron sus ventas a 248 millones de dispositivos en 2016, un 10% menos que el año anterior. Esto se debió a la disminución de las ventas de iPhone, el dispositivo dominante de Apple y el mayor fabricante de dinero.

Por un lado, Gartner asegura que los sistemas operativos de Apple subirán un 8%, siendo 268 millones los que se venderán este año; un 3% en 2018, incrementando en 276 millones; y otro 3% en 2019, aumentando en 285 millones de dispositivos. Por otro lado, la consultora también afirma que los sistemas operativos de Microsoft descenderán este año un 3%, es decir, se quedarán en 252 millones de dispositivos, siendo la mayor parte ordenadores personales; en 2018 experimentarán una tasa de crecimiento cercana a cero, con 253 millones de aparatos vendidos; y en 2019 tendrán un crecimiento del 1.8%, subiendo a 257 millones de dispositivos. En otras palabras, la brecha entre las dos marcas se ampliará a 27 millones dentro de dos años, siendo Apple la favorecida.

“El mercado global de dispositivos está estancado”, dijo un analista de Gartner, Ranjit Atwal, en un comunicado el miércoles pasado. “Los envíos de teléfonos móviles están creciendo sólo en mercados emergentes, así como Asia-Pacífico y Latinoamérica. El mercado de las PC está llegando justo al fondo de su declive”.

Los problemas de la industria de PC han afectado sobre todo a Microsoft, ya que Windows es casi totalmente dependiente de este mercado. Pero, aunque el negocio haya sido duramente golpeado y algunos analistas estén muy preocupados, las PC no desaparecerán. La mayoría de los analistas no esperan que el consumidor individual compre una PC, pero esperan que las ganancias provengan de los clientes comerciales, que todavía confían en computadoras personales pasando de Windows 7 a Windows 10.

Gartner calculó que las PC vendidas en 2016 llegarían a 268 millones, una disminución del 7% con respecto al año anterior. Según los pronósticos de octubre, estos aparatos seguirán bajando un 0.7% en 2017 llegando a 266 millones. Eso sí, las circunstancias mejorarán muy poco en los dos años siguientes, experimentando una subida de 272 millones de PC en 2018 y 278 millones en 2019.

Redacción

 

Creadores de ransomware han recibido mil millones de dólares en 2016

La consultora Gartner estima que existieron entre 2 y 3 millones de ataques ransomware en 2016 y que la frecuencia se duplicará hasta 2019.

Según un experto en seguridad que ha pedido el anonimato, los cibercriminales del ransmoware han recibido alrededor de mil millones de dólares a lo largo del año pasado basándose en el dinero que entraba en las carteras de Bitcoin relacionadas con este malware. Esto incluye más de 50 millones de dólares cada hacker por tres carteras asociadas con el ransomware Locky y un cuarto que procesa cerca de 70 millones de dólares: Criptowall trajo cerca de 100 millones de dólares, CryptXXX reunió 73 millones de dólares durante la segunda mitad de 2016, y Ceber que ganó 54 millones de dólares.

Las familias más pequeñas de este programa malicioso trajeron otros 150 millones de dólares y el FBI ha reportado 209 millones de dólares en pagos de ransomware durante los primeros tres meses de 2016. Además de estos 800 millones en pagos conocidos, hay muchas otras carteras de Bitcoin que son desconocidas para los investigadores.

De hecho, según el vicepresidente de investigación de Cloud de Trend Micro, Mark Nunnikhoven, los mil millones de dólares que se estima que han ganado estos delincuentes no es una cifra razonable e incluso podría ser baja. “Se está haciendo difícil seguir la cantidad de dinero que fluye en las carpetas de Bitcoin de los criminales porque han comenzado a tratar de ocultar las transacciones a través de un gran número de carteras”, agrega. Asimismo, añade que ha habido un aumento del 400% en las variantes de ransomware el año pasado y espera ver un crecimiento del 25% en 2017.

En cambio, según Allan Liska, analista de inteligencia en Recorded Future, el crecimiento no será del 100% que se vivió entre 2015 y 2016 pero probablemente sea del 50%. “Los mercados de registros médicos, números de tarjetas de crédito y direcciones de correos electrónicos robados se están colapsando”, añade. Y es que, el ransomware es un negocio fácil de entrar, el pago es inmediato y ofrece un flujo de ingresos enorme.

Del mismo modo, Tom Bain, vicepresidente de CounterTack, cree que este malware duplicará sus ataques exitosos este año. “La realidad es que cada cliente con el que hablo, cualquiera en la industria realmente, ésta es su preocupación número uno”, confiesa. “Habrá mejor tecnología defensiva y eso ayudará, pero el problema va a empeorar antes de que empiece a mejorar”. Además, el vicepresidente comparte la predicción que hizo Gartner cuando dijo que estiman que ha habido entre 2 y 3 millones de ataques ransomware en 2016 y que la frecuencia se duplicará hasta 2019.

Pero no todos los expertos se ven sólo el lado oscuro. Raj Samani, vicepresidente y director de Tecnología de Intel Security, predice que los esfuerzos contra el ransomware comenzarán a dar resultados en los próximos meses. Intel, junto con Kaspersky Labs, Europol y Dutch National High Tech Cime Unit, formaron una alianza el verano pasado llamado “No more Ransom”. Desde entonces, se han unido más de una docena de organismos encargados de hacer cumplir la ley. “Ahora que tenemos más agencias policiales a bordo, y más firmas del sector privado, esperamos ver un aumento en las operaciones de desmontaje exitosas”, asegura Samani. Además de trabajar juntos para reducir las operaciones de este malware, el grupo también distribuye herramientas antiransomware gratuitas.

Sin embargo, el vicepresidente de Intel advirtió que los autores de malware tienen una ventaja significativa: “Hay una asimetría en la información. Ellos pueden instalar nuestros productos y saben cómo funcionan porque hablamos abiertamente de ellos. Esto es uno de los grandes desafíos de la seguridad”.

Redacción