Día: 26 octubre, 2016

Áreas donde el IoT es la clave de las Ciudades Inteligentes

No cabe duda que el Internet de las Cosas (IoT) está revolucionando la forma en la que nos relacionamos con nuestro entorno. La interconexión digital a través de la red ha permitido que la comunicación entre los objetos cotidianos y las personas adopte una nueva dimensión, posibilitando nuevos usos y aplicaciones que pueden incluso transformar a las ciudades.

La consultora Gartner, señala que en este 2016, existen 1,641 millones de cosas conectadas en las ciudades inteligentes, lo que supone un ascenso del 39% con respecto a 2015, y terminará el año con 1,179 millones. Además, se espera que esta cifra incremente por encima de los 2,300 millones en 2017 y alcance los 3,300 millones en 2018.

Todo ello se debe al uso de dispositivos móviles con capacidad de conexión a redes 3G/4G, que ha detonado que hoy en día los usuarios puedan estar conectados a internet desde cualquier lugar en el que se encuentren, sin olvidar el crecimiento exponencial con el que cuenta el WIFI en espacios públicos cómo parques, bibliotecas, calles y espacios abiertos en general.

La idea de ciudades inteligentes es casi imposible de entender sin un concepto como el Internet de las Cosas, los Smartphones y el WiFi, los cuales han dado paso a una era de escuelas, casas y hospitales inteligentes, e incluso, quizás, lo más importante, ciudades inteligentes.

Por ello, el IoT puede ayudar a que las grandes ciudades hagan frente a los diversos desafíos que enfrentan, ayudando a los gobiernos fundamentalmente en tres grandes áreas:

  • Infraestructura pública: El IoT permite administrar de manera centralizada algunos de los principales servicios como el alumbrado público, el control del tránsito y los estacionamientos, a través de una infraestructura de red inteligente.
  • Seguridad: Cuando las ciudades se conectan de un sistema de video vigilancia a otras fuentes de información en internet, es posible aprovechar el poder de los datos para mejorar la seguridad en las calles, prevenir incidentes y ofrecer una respuesta más rápida ante las emergencias.
  • Servicios Ciudadanos: Proveer acceso a internet en espacios público es un factor clave para el desarrollo social, cultural y económico de la ciudad, que permite también a los ciudadanos acercarse a los servicios públicos.

No cabe duda de que el IoT mejora la capacidad de respuesta, seguridad y satisfacción general de todos los ciudadanos, gracias al aprovechamiento de los datos y estadísticas precisas. Al fin y al cabo, el objetivo es que las ciudades empleen sus recursos de forma más eficiente para ofrecer servicios a los ciudadanos que se adapten a sus necesidades y que puedan mejorar su calidad de vida.

Para proveer de conexión a estos dispositivos, los proveedores tendrán que desplegar una mejor infraestructura, y se convertirán en un activo muy importante para los gobiernos en cuestión de eficiencia operativa y reducción de gastos, además de incrementar la experiencia de los usuarios en aras de tener una mejor calidad de vida en su día a día.

Redacción

La seguridad de la red, principal preocupación del proveedor de servicios

Estamos sobre la cúspide de una nueva era digital. Las redes no sólo necesitan ser más grandes y rápidas sino también más dinámicas, fluidas e intuitivas. Asimismo, deben volverse parte de un Internet más amplio e interconectado globalmente, donde la información y la inteligencia sea compartida de forma activa entre usuarios, dispositivos y empresas normalmente aislados.

Para cubrir esta demanda, las redes están siendo rediseñadas desde el interior para poder alojar la hipervirtualización, las aplicaciones inteligentes y la interconexión basada en servicios, con el objetivo de sintetizar la capa física y el procesamiento tridimensional de datos, a través del cada vez mayor número de dispositivos. Para que esto funcione, necesitan ocurrir dos cosas: primero, muchas de las actividades y decisiones que actualmente requieren de la intervención humana necesitan ser automatizadas y, segundo, las organizaciones individuales (sin importar su tamaño) deben reconocer que no son capaces de hacer esto por ellas mismas.

Con la afluencia de información y dispositivos, las oportunidades para los cibercriminales se expanden de forma paralela. Para proporcionar la protección que se requiere, los proveedores de servicio necesitarán considerar tres aspectos de su infraestructura de seguridad:

  1. Políticas. Es necesario garantizar que las políticas de seguridad sigan a la información sin importar a donde vaya. No puede asegurar cada dispositivo junto con la información o la ruta de la transacción, y no puede contar con que los usuarios tomen las decisiones correctas respecto a temas de seguridad.

Si la información se mueve entre una red corporativa y el ambiente del proveedor de servicios, es oportuno para ambos contar con las mismas soluciones de seguridad instaladas. Las herramientas de administración y ejecución también pueden trabajar en conjunto, lo que significa que la inteligencia contra amenazas puede recolectarse y correlacionarse sin importar el lugar donde aparezca la amenaza.

  1. Procedimientos. Piense en la seguridad como la función de un Security Fabric individual e interactivo que permea el total del ambiente distribuido, desde el IoT hasta la nube. El gerente promedio de seguridad de TI monitorea hasta 14 paneles de control, además de revisar actividades manuales e incluso la información entre ambos. Esto es simplemente insostenible, especialmente si el tiempo para responder a las amenazas se reduce cada vez más y el panorama de la red continúa en franca expansión.

Esta es una oportunidad diseñada especialmente para los proveedores de servicio, la cual abre la puerta para ofrecer servicios de seguridad con valor agregado a las empresas que carecen de escalabilidad, personal calificado y de la tecnología necesaria para administrar y facilitar, de forma efectiva, servicios de seguridad a lo largo de ambientes de red dinámicos y altamente distribuidos.

  1. Tecnología. Utilice soluciones diseñadas para enfrentar la siguiente generación de amenazas. La mayoría de las soluciones de seguridad realizan un muy buen trabajo al identificar y prevenir amenazas que pueden ocurrir en escenarios predecibles. Pero los ataques, realmente efectivos, son todo excepto eso, ya que requieren una coordinación entre varios dispositivos para reconocer los ataques multivector. Se necesitan herramientas que ayuden a proveer respuestas apropiadas y a segmentar la red con el objetivo de contener, dinámica e inteligentemente, las amenazas. Y éstas no pueden esperar por la intervención del ser humano.

El primer problema es que con el emergente Internet de las Cosas (IoT) nos enfrentamos a nuevos vectores de amenazas. Muchos dispositivos del IoT son “acéfalos”, por lo que no se puede instalar un “endpoint client” (clave de seguridad de cliente) en ellos. La primera línea de defensa es acceder al control, pero con el incremento en el volumen de tráfico y dispositivos, las empresas necesitan una estrategia individual de control del acceso que cubra los APs locales, remotos y basados en la nube con una política de acceso unificada.

Otro problema es que las nuevas amenazas y la inteligencia esencial contra éstas, se han empezado a diluir dentro de la enorme cantidad de información que fluye sin ser inspeccionada a través de la red. IDC estima que las empresas examinan sólo el 10 % de la información que cruza por sus redes, el resto son datos “cualitativos” o “sin estructura”, desde encuestas en línea, formularios de respuesta, foros de los clientes, redes sociales, documentos, videos, llamadas de servicios de soporte y asistencia y evidencia anecdótica reunida por los equipos de ventas.

Mientras los ambientes interconectados se vuelven más complejos, la seguridad necesitará adaptarse. La respuesta a esta complejidad es la simplicidad junto con una coordinación dinámica y automatizada de los elementos de seguridad.

Eduardo Zamora, director general en Fortinet México

 

AWS facilita la migración de apps on-premise a su nube

Amazon está intentando simplificar los procesos de mover aplicaciones legacy a entornos de nube con el lanzamiento de un nuevo servicio que estará disponible a lo largo de esta semana.

Denominada Server Migration Service, la herramienta está diseñada para ayudar a los equipos de TI a configurar la replicación de los equipos virtuales desde su infraestructura local a la nube de Amazon.

La mayoría de las compañías están adoptando la nube pública para tomar ventaja de los beneficios y prestaciones que supone frente a las modalidades tradicionales, añadiendo además el ahorro en costos que esto supone. No obstante, conseguir que las aplicaciones legacy corran sobre entornos cloud pueden crear dolores de cabeza para los desarrolladores, especialmente cuando se trata de aplicaciones que requieren de largos procesos de migración. El nuevo servicio de migración Server Migration Service ayuda a simplificar estos procesos y a adoptar las modalidades cloud disponibles.

En esencia, el administrador de TI solo tiene que instalar un conector que analizará su entorno de servidor virtualizado, recopilando información acerca de las instancias que están utilizando. Desde la consola de administración de AWS es posible visualizar todos los conectores que operas e inspeccionar el inventario de los servidores virtualizados que están corriendo en el entorno. Desde allí, los administradores pueden crear y administrar los trabajos de replicación para llevar los contenidos de un entorno VM y reproducirlo en el Amazon Machine Image.

Entre algunas de las ventajas de migrar a entornos cloud, destaca la posibilidad de poder crear una serie de imágenes asociadas al paso del tiempo. Cada replicación incremental sincroniza únicamente el contenido que ha cambiado, de manera incremental, minimizando el uso de ancho de banda que se realiza de la red.

Amazon señala que, el nuevo servicio de migración Server Migration Service ya está disponible y trabaja apoyado en las regiones donde AWS tiene infraestructuras, ya sea en el norte de Virginia, Irlanda y Sídney. Utilizar el servicio en sí no tiene cargo adicional, ya que la finalidad es Amazon es que los clientes paguen por el servicio asociado al almacenamiento de modalidad S3 que es utilizado para el traslado de los snapshot, derivados del proceso de migración.

Blair Hanley Frank, IDG News Service

 

 

(Video) La Transformación Digital en México – 2da. parte –

En la segunda parte de este Reporte Especial en video se exponen los riesgos y obstáculos más comunes para lograr la Transformación Digital, hacia dónde se enfocará la inversión de las organizaciones en México para alcanzar este cambio organizacional y presentamos algunos casos de experiencias prácticas, en voz de sus protagonistas.

Si desea ver la primera parte de este reporte especial, clic aquí.

ARM incrementará la seguridad de sus chips para IoT

El Internet de las Cosas (IoT) ha llegado en dispositivos muy pequeños, son inteligentes y, en principio, más seguros. Sin embargo, este es uno de los grandes retos que aún tiene esta tecnología; ofrecer estas tres cualidades. Para ello, ya están empezando a surgir varios modelos de chips.

ARM realizó el anuncio de procesadores con tecnología TrustZone, el hardware de la compañía basado en la seguridad. De este modo, intentará evitar que los dispositivos puedan sean hackeados, como ha pasado recientemente con el caso DDoS. “La compañía pretende conectar las cosas antes de que empiecen a funcionar”, ha explicado Bob O’Donnell, analista de Technalysis Research.

Desde la compañía creen que en el juego de esta tecnología están entrando fabricantes y empresas que saben poco o nada acerca de la seguridad, “como, por ejemplo, fabricantes de cepillos de dientes conectados”. “ARM ha abordado la difícil tarea de tratar de integrar toda la seguridad en los dispositivos como sea posible”, ha dicho O’Donnell.

TrustZone lleva funcionando desde hace una década para productos Windows, Mac OS y Android, pero nunca para chips de menor tamaño o potencia. Así, el nuevo diseño de procesadores Cortex-M33 y Cortex-M23 son los primeros basados en la nueva arquitectura ARMv8-M y pensados para funcionar con el sistema operativo mbed de ARM.

Los dispositivos de Iot equipados con estos chips no tendrán por qué ser enchufados a tomas de corriente y podrían, incluso, no tener baterías. Con TrustZone, los chips pueden ser asegurados y utilizar el software estándar de TrustZone con las API para añadir características personalizadas.

Además, ARM ha introducido una plataforma en la nube para la gestión y actualización de los procesadores de IoT durante el tiempo que están desplegados. La plataforma puede obtener información de un dispositivo configurado y conectado y luego controlar las actualizaciones de firmware. El servicio también puede ayudar a prevenir los ataques basados en la denegación de servicios mediante el control de lo que está sucediendo en la red. Si hay dispositivos que están transmitiendo más información de lo normal, se les puede aislar o apagar.

ARM, finalmente señala que el servicio puede ejecutarse en múltiples nubes públicas como la de Amazon o la de IBM.

Stephen Lawson

 

Cómo se integra la seguridad en las DevOps

Varias organizaciones de desarrolladores encuestadas arrojaron que por cada 80 sólo en una, hay un profesional en seguridad de las aplicaciones. Esta falta de personal de seguridad, junto con el incremento cada vez más rápido del círculo de desarrollo, hacen el desarrollo seguro cada día más difícil.

Hewlett Packard Enterprise (HPE) ha publicado un informe donde se estudia la necesidad crítica para la integración entre la seguridad de organizaciones y equipos DevOps. El Informe de Seguridad de Aplicaciones y DevOps 2016 ha analizado que el 99% de los encuestados están de acuerdo en cuanto a que la adopción de la cultura DevOps aporta la oportunidad de mejorar la seguridad de aplicaciones. Sin embargo, solo el 20% realizan pruebas de seguridad de aplicaciones durante el desarrollo, y el 17% no utilizan ninguna tecnología que proteja sus aplicaciones, destacando una desconexión significativa entre la percepción y la realidad de los DevOps seguros.

Los DevOps aseguran el desarrollo del software ahorrando costes y tiempo. Sin embargo, el estudio ha encontrado barreras y huecos que impiden a las empresas integrar con éxito la seguridad y DevOps. Por un lado, las barreras organizacionales entre profesionales de la seguridad y desarrolladores, es decir, ninguno de los dos departamentos conoce el equipo contrario. Esto llevó al 90% de los profesionales de seguridad encuestados a afirmar que integrar la seguridad de las aplicaciones es cada vez más difícil desde que las organizaciones despliegan sus DevOps. Por otro lado, la falta de conciencia de seguridad, énfasis y entrenamiento de desarrolladores ya que las empresas no especifican normalmente que estos profesionales necesiten conocimiento acerca de seguridad como requisito para ser contratados. Y, por último, escasez de talento en seguridad de las aplicaciones, siendo solo uno de cada 80 desarrolladores el que sabe sobre seguridad.

John Meakin, directivo del Grupo de Seguridad de la Información de Burberry, señaló, “adoptar un proceso DevOps puede ayudar a que las aplicaciones sean más seguras, ya que el ambiente del desarrollo y producción se crean en la misma manera y en los mismos estándares de seguridad y ensayo”. Además agregó, “se requiere un compromiso en toda la organización para priorizar la seguridad, e incorporar más soluciones automáticas de prueba que hagan más sencillo reunir feedback en tiempo real y remediar las vulnerabilidades por todo el proceso de desarrollo”.

A su vez, el informe plantea una serie de recomendaciones para el desarrollo de aplicaciones seguras: compartir la seguridad como una responsabilidad en toda la organización para eliminar barreras; tener conciencia del puente, el enfoque y deficiencias de formación que permitan a los desarrolladores una práctica segura del desarrollo continua y más intuitiva; y aprovechar la automatización y el análisis como multiplicadores de la fuerza de seguridad de aplicaciones.

Redacción

 

Los servicios de análisis de SQL Server se incorporan en Azure

Microsoft realizó el anuncio de la versión beta de Azure Analysis Services, la última incorporación a su plataforma de datos en la nube que ofrece a los usuarios el acceso a las herramientas de modelado de dichos datos.

La noticia es parte de una serie de anuncios que Microsoft está realizando en el marco de “PASS Summit 2016”, conferencia que se está celebrando esta semana en Seattle y que va dirigida a profesionales de SQL Server y BI.

Lo anunciado con el nuevo servicio de nube, la compañía ha lanzado nuevas herramientas para la migración hacia la última versión de SQL Server y una prueba gratuita para el almacenamiento de datos SQL de Azure.

Todas estas acciones son parte de la inversión que Microsoft está llevando a cabo en su base de datos relacional, así como de su intención de conseguir que los clientes migren a la nube.

Azure Analysis Services ha sido diseñado para ayudar a las organizaciones a obtener los beneficios del procesamiento semántico de datos en la nube, al tiempo que recoge los datos almacenados en las plataformas on-premise y en la nube pública.

Los clientes que ya utilizan los servicios de análisis de SQL Server en sus centros de datos privados, pueden tomar los modelos de ese despliegue y moverlos a Azure.

El principal beneficio, según Microsoft, es usar servicios de análisis de Azure es que están 100% gestionados. Microsoft realiza el trabajo de determinar los recursos computacionales y los usuarios se centran solo en los datos.

Al igual que su predecesor on-premise, Azure Analysis Services se integra con las herramientas de Business Intelligence para la visualización de datos de Microsoft Power BI, proporcionando capacidades de modelado adicionales que van más allá de los que el servicio puede ofrecer.

La compañía de Redmond también está facilitando la migración de la versión antigua de su software de base de datos a SQL Server 2016. Para ayudar a las organizaciones a evaluar las diferencias entre una y otra, Microsoft ha puesto en marcha la solución Database Experimentation Assistant.

Blair Hanley Frank

 

Intel presenta familia de chips inteligentes para IoT

La firma de microprocesadores, ha realizado el lanzamiento de la serie Atom E3900, estos chips están dotados de gráficos y de procesamiento de imágenes más potentes.

El despliegue del Internet de Cosas (IoT) ha provocado que los dispositivos se conviertan en nuestros ojos, oídos e, incluso, en nuestros consejeros. Es por ello que Intel acaba de presentar los nuevos procesadores de la serie Atom E3900, unos chips que cuentan con una mejor visión por computadora y una nueva herramienta que mide el tiempo de arranque del sistema.

Estos chips están pensados para tener un uso en una amplia gama de aplicaciones, en la que se incluyen fabricación y vigilancia, y pronto serán integrados en una versión específica para coches, llamada A3900, enfocada en el procesamiento de imágenes.

Los E3900 poseen más potencia informática que sus predecesores -casi dos veces más-, así como velocidades de memoria más rápidas y mayor ancho de banda.

De esta forma, el rendimiento de sus gráficos es 2.9 veces más alto que el de la generación anterior, y los nuevos chips pueden reproducir vídeos 4K (Ultra Alta Definición) en hasta tres pantallas independientes, según Intel.

Estas tres pantallas podrían ser el cuadro de mandos virtual de un coche y dos pantallas para los pasajeros en los respaldos de los asientos. El nuevo procesador puede asegurar que la pantalla del salpicadero no se vea afectada por la actividad de las pantallas de entretenimiento, explica Ken Caviasca, vicepresidente del grupo IoT de Intel.

intel-atom-e3900

Los nuevos procesadores están optimizados en cuanto a captura y procesamiento de imágenes. Tienen cuatro unidades de procesamiento vectorial para reducir el ruido de los vídeos, mejorar la calidad de las imágenes con poca luz y conservar más color.

En una grabadora de vídeo en red (NVR), un E3900 podría transmitir vídeos 1080p de 15 cámaras y mostrar sus feeds simultáneamente a 30 frames por segundo en una pared de vídeo, asegura Caviasca.

Para usos industriales, la serie E3900 utiliza la tecnología TCC de Intel (Time Coordinated Computing), la cual otorga al chip un control más estricto de la sincronización de las acciones de un dispositivo.

Stephen Lawson

 

Cómo obtener beneficios de IoT y Big Data

En la actualidad, el 56% de los tomadores de decisiones consideran el loT como estratégico. Los casos de uso incluyen una mejora de la seguridad y experiencia del usuario a través de ciudades inteligentes, mediante la conexión de las luces de la calle o parquímetros, así como la optimización de la calidad de vida a través de las conexiones a servicios médicos para monitorear la salud de las personas de forma remota.

Para ello Orange presenta Datavenue, el cual ayudará a corporaciones multinacionales y nacionales a aprovechar las infinitas oportunidades que ofrece la revolución loT.

Con Datavenue, Orange Business Services reúne una vasta experiencia soportada por 700 expertos en loT y análisis en todo el mundo, así como científicos de datos, desarrolladores, consultores, estadísticos y expertos en seguridad loT. Datavenue, está conformado por 4 módulos:

Selección de objetos importantes y fuentes de datos

Orange ofrece una gama completa, certificada y probada de objetos conectados y probados, como sensores, cámaras o módulos para conectar bienes existentes. Datavenue tiene un catálogo de datos que incluye análisis de movimiento de la población usando información anónima de redes móviles.

Conexión de objetos de manera confiable con las redes más seguras

Un camión viajando a través de las fronteras o un sensor en un campo de agricultura podría requerir de diferentes redes con el fin de adaptarse a la gran variedad de necesidades. Orange ofrece una amplia gama de opciones de conectividad. Esto incluye redes globales celulares probadas para el futuro y capacidades de innovación, tales como eUiCC, redes globales fijas y satelitales, así como también soluciones que consumen menor energía como LoRaTM.

Gestión de la información para mejorar la eficiencia y crear servicios optimizados

Por ejemplo, una compañía de construcción puede monitorear grúas en todo el mundo para prevenir problemas y reducir los costos de mantenimiento. Manejar datos en tiempo real permite a los técnicos resolver situaciones remotamente o llegar a tiempo con el material indicado; de ese modo, se reducen interrupciones de los servicios. Orange ofrece soluciones de software basadas en la nube o bajo demanda, proporcionando gestión remota a dispositivos, procesamiento y visualización.

Controlar los elementos clave de los proyectos de transformación empresariales

Finalmente, los expertos de Orange aseguran la protección de principio a fin de los datos, integración con sistemas de información y servicio escalable. Durante la ejecución del proyecto y posteriormente, los clientes pueden confiar en que las soluciones brindadas por Orange están preparadas para adaptarse a los cambios futuros y a las evoluciones del mercado.

Redacción