Día: 12 enero, 2016

Ciudades inteligentes: Revolución en cada área de la vida

De acuerdo con las Naciones Unidas, la población del mundo alcanzará casi 8.5 mil millones antes de 2030. Así como las poblaciones crecen, también lo hacen las ciudades. Incluso ahora más de la mitad de los habitantes del mundo viven en áreas urbanas, y más de un millón se mudan de los pueblos a las ciudades cada semana. Esta tendencia implica demandas muy grandes en la gente e infraestructuras. Solamente cuando la comunicación, la energía, la seguridad y la movilidad de bienes y de las personas funcionan sin complicaciones, las ciudades pueden ofrecer a los ciudadanos calidad de vida y una economía que prospera. Para los planificadores de ciudades, la respuesta a estos desafíos es la “ciudad inteligente.” Las bases son estándares uniformes para las soluciones de infraestructura inteligentes, seguras y resistentes.

El proceso actual de urbanización se refleja no sólo en escaseces habitacional y alquileres que se elevan súbitamente. Las ciudades europeas, en particular, fueron construidas basadas en los principios del siglo XIX, y los sistemas de suministro individual se ven a menudo aislados. La población excesiva está conduciendo rápidamente a las ciudades a sus límites con respecto al suministro de energía, seguridad, comunicación digital, transporte y tráfico. El concepto de la ciudad inteligente proporciona una respuesta. Su misión primaria es distribuir recursos existentes de manera eficiente. El establecimiento de una red de sistemas de suministro individual a través de soluciones técnicas debería permitir que las ciudades respondan dinámicamente a las demandas temporales, preservando así su funcionalidad.

 

Mega ciudades como embotellamientos de seguridad

El espacio urbano es especialmente vulnerable. Los accidentes, los desastres naturales o los ataques terroristas y los embotellamientos de suministro resultantes son aún más severos frente a

las poblaciones densas, grandes cantidades de gente y una infraestructura del transporte a menudo sobrecargada. Además, hay una correlación clara entre el tamaño de una ciudad y su índice de crimen. El 80 por ciento de crímenes registrados ocurren en las ciudades que conforman un total del 50 por ciento de la población del mundo. Mientras que eso puede ser normal para las áreas urbanas sobrecargadas, las contramedidas todavía se necesitan para proteger la vida y las propiedades como libertades y valores elementales.

El Banco Mundial ha estimado que, dependiendo del país, el coste total del crimen puede ser hasta del 25 por ciento del producto interno bruto (PIB). Según la Comisión de Europea, incluso la Unión Europea comparativamente segura gasta por lo menos el cinco por ciento de su producto interno bruto en costes resultantes del crimen y desastres naturales. Tales acontecimientos tienen consecuencias considerables, no sólo para las personas afectadas directamente sino también para la comunidad en su totalidad. Las cadenas globales de creación de valor y la guerra por talento ponen en competencia no sólo economía contra economía, sino ciudad contra ciudad. Si los planificadores de ciudades no pueden garantizar seguridad, estabilidad y suministros, los inversionistas miran hacia otra parte y los trabajadores altamente cualificados se van a donde pueden contar con la más alta calidad de vida. Para mantener el paso con la competencia global, las ciudades tienen un interés vital en resolver estos desafíos.

 

Ciudad inteligente, la entidad desconocida

El concepto de la ciudad inteligente promete mejorar la calidad de los servicios públicos y privados mediante las tecnologías digitales. Al mismo tiempo, los costes de la ciudad y el consumo de recursos disminuyen, lo que levanta al mismo tiempo el bienestar de todos. Visto de esta manera, cada ciudad, no importa qué tan pequeña o grande sea, desea ser “inteligente.” ¿Pero qué significa realmente esto? ¿Qué criterios necesitan ser resueltos? Entre los temas más apremiantes que enfrentan las grandes ciudades están el constante aumento del tráfico, el uso de energía y las emisiones, la estabilidad y seguridad de la población, una red confiable de alta velocidad y por último, cómo financiar todo.

A pesar de todo, sin embargo, no existe ninguna definición constante de qué es realmente una ciudad inteligente. Diferentes compañías y medios de negocio han mencionado índices iniciales. Pero esos índices son tan diferentes como la noche y el día, y por lo tanto son inadecuados para comparar ubicaciones individuales y sus cualidades de la “ciudad inteligente” con transparencia alguna. Esto requeriría indicadores clave uniformes del rendimiento (KPIs).

Lo que los distintos índices comparten, sin embargo, es la carencia de un KPI para el grado de protección, seguridad y resiliencia de una ciudad. Pero una ciudad que no es segura y estable no puede ser inteligente. Así que el enfoque de la ciudad inteligente se debe considerar más holísticamente. Las referencias comparables y transparentes deben ser creadas al mismo tiempo que se toman en cuenta estándares elementales de seguridad y estabilidad.

 

Se necesitan estándares uniformes

Los inversionistas y los expertos necesitan indicadores clave transparentes del rendimiento para poder evaluar las ciudades inteligentes, aunque las ciudades en sí y otras partes interesadas, p.ej., administración de la ciudad, policía, cuerpo de bomberos y defensa civil, también se apoyen en estándares. Solamente entonces será posible tener un progreso sistemático. Los resultados iniciales ya están en evidencia. El Grupo de Enfoque en las Ciudades Sostenibles Inteligentes de la Unión de Telecomunicación Internacional (ITU), una organización especial de la O.N.U, ofrece informes técnicos y especificaciones, por ejemplo en las áreas de la seguridad cibernética y protección de los datos. Además, un número de diversos KPIs se ha definido para ayudar a clasificar las ciudades inteligentes en áreas tales como las telecomunicaciones. La ITU define ciudades inteligentes como: “Una ciudad sostenible inteligente es una ciudad innovadora que que utiliza la información y las tecnologías de comunicación (ICTs) y otros medios para mejorar la calidad de vida, la eficiencia de operación urbana y los servicios, y la competitividad, a la vez que se asegura de resolver las necesidades de generaciones presentes y futuras con respecto a los aspectos económicos, sociales y ambientales.”

Además a nivel internacional, la Organización Internacional de Normalización (ISO) ha definido en el estándar de ISO 37120 un total de 100 indicadores para clasificar los servicios y la calidad de vida de las ciudades. 11 de ellos giran en torno a la seguridad y la estabilidad. Esto incluye los indicadores que apuntan a la seguridad, protección contra incendios y la gestión de crisis, así como el agua, la energía y el transporte. Esto hace de ISO 37120 el único estándar con KPIs apropiados para medir el grado de seguridad y estabilidad en ciudades en una base comparativa. Aproximadamente 250 ciudades en 80 países están participando en la introducción de este estándar, incluyendo Londres, Shangai, Toronto y Rotterdam. Con este fin, estas ciudades reportan métricas como el número de defunciones debido a incendios por cada 100,000 habitantes y el tiempo de reacción de la policía y los cuerpos de bomberos después de la llamada inicial. Esto permite indicar de manera transparente y comprobable qué tan segura es realmente una ciudad.

El hecho de que la norma ISO 37120 incluye diversos indicadores de seguridad y estabilidad no es ningún accidente. Los especialistas de los sistemas de seguridad de Siemens contribuyen activamente al desarrollo del estándar en los grupos de trabajo relevantes. Esto condujo al desarrollo de los estándares mensurables y significativos de la seguridad.

 

Seguridad y estabilidad como la base de la ciudad inteligente

La ciudad del futuro necesita soluciones de infraestructura inteligentes, seguras y resilientes. Los esfuerzos de la ciudad inteligente que se concentran solamente en el uso inteligente de la energía no van suficientemente lejos. Hasta este momento, la seguridad, la estabilidad y la resiliencia se han visto a menudo como efectos secundarios convenientes que no necesitan ninguna planeación por separado. Pero completamente lo contrario es verdad. Una comunidad urbana puede funcionar correctamente solamente si la vida normal puede resumirse lo más rápidamente posible después de un incidente, tal como un incendio importante o un ataque terrorista. Idealmente, sin embargo, tales incidentes se deben prevenir en primer lugar.

Esto requiere un vínculo inteligente de subsistemas individuales y aprovechamiento de las ventajas resultantes. Los sistemas interoperables ofrecen seguridad, protección y estabilidad para las infraestructuras críticas tales como los aeropuertos y centros de datos. Un componente esencial es la seguridad física de infraestructuras y de redes de IT. Incluso los programas de seguridad más sofisticados son de poco uso si la puerta al cuarto del servidor carece de un sistema de control confiable de acceso.

 

Protegiendo la “columna vertebral virtual” de una ciudad

Las ciudades contienen no sólo recursos económicos e intelectuales importantes tales como universidades, edificios públicos, oficinas e instalaciones de producción, sino también redes del transporte e infraestructuras críticas. En vista del papel cada vez mayor de la IT en el abastecimiento de servicios urbanos, la protección de esta “columna vertebral virtual” está llegando a ser cada vez más crítica.

En la mayoría de los casos, La protección de las infraestructuras críticas no requiere la reinvención de la rueda. De las soluciones de seguridad en centros de datos y vigilancia por video a la evacuación inteligente de las multitudes, la industria de seguridad tiene ya soluciones incontables en funcionamiento. La tarea es embonar lógicamente estas soluciones en un contexto de “ciudad inteligente”. Esto requiere integrar una variedad de sistemas – sistemas de comunicación, alarma automática, información y vigilancia por vídeo – en una plataforma central de comando y control para asegurar una respuesta comprensiva y constante del incidente. En esto yace el corazón de una ciudad inteligente y segura.

La implementación de estas normas de seguridad requiere involucrar a todas las partes interesadas – desde las administraciones de la comunidad hasta los comités de estándares y las organizaciones no gubernamentales – para crear políticas que no sólo motiven su implementación sino también establezcan normas internacionales transparentes. La norma ISO 37120 y los reportes y las especificaciones técnicos de la ITU son una buena opción para comenzar. Los puntos débiles y las contramedidas posibles necesitan ser definidos y los costes ser calculados. Al mismo tiempo, no debemos perder de vista el hecho de que la resiliencia de ciudades tiende a ser sobrestimada grandemente y que al final, la tecnología es la solución para todo. Los ciudadanos comprometidos y las fuerzas eficientes de intervención son y seguirán siendo cruciales para la seguridad y la protección de una ciudad.

 

Materia de seguridad y de protección en la competencia global

Las ciudades tienen un interés propio fundamental en estructuras de ciudades inteligentes transparentes y comparables porque los entornos urbanos seguros y estables son especialmente atractivos en la competencia global para el capital real y humano. A menudo, aún las ciudades que se consideran inteligentes no tratan adecuadamente el problema de la seguridad y la protección. Por lo tanto, una de las responsabilidades principales de la política es identificar las partes interesadas apropiadas y compartir el desarrollo de las soluciones. Este proceso requiere definir los estándares claros de seguridad y de estabilidad para las ciudades inteligentes, así como el proporcionar o crear los medios y los incentivos para su puesta en práctica.

El concepto de la ciudad inteligente revolucionará la vida urbana tanto como la revolución industrial lo hizo. Para darle forma a esta revolución con éxito y para el bien de todos, es absolutamente esencial crear la base adecuada desde el comienzo. La seguridad y la estabilidad no se deben dejar hasta el final del proceso.

 

Por Enzo Peduzzi,

Director de los Asuntos de la Industria,

Tecnologías de la Construcción de Siemens,

y Presidente de Euralarm

La Universidad de Stanford crea batería que no se sobrecalienta

Investigadores de la Universidad de Stanford están desarrollando unas baterías de litio que se apagan automáticamente cuando llegan a los 70 grados, aumentando el rendimiento del dispositivo móvil y con el fin de evitar cortocircuitos y pequeños accidentes.

En los últimos meses hemos sido testigos, a través de videos de usuarios posteados en redes sociales, de aparatosos incendios producidos en dispositivos móviles debido al sobrecalentamiento de la batería de litio, sin embargo, este tipo de incidentes pueden ser cosa del pasado.

Investigadores de la Universidad de Stanford anunciaron estar desarrollando un sistema de iones de litio que se apaga cuando comienza a calentarse. De este modo, se corregiría uno de los grandes defectos de este tipo de baterías, que por otra parte, destacan por almacenar una gran cantidad de energía y por su facilidad de carga. Sin embargo, un cortocircuito puede desencadenar una pequeña catástrofe.

Para la fabricación de la pila, los investigadores emplearon un tipo de polietileno que tiene películas integradas con partículas a nanoescala de picos de níquel. Esos picos se recubren con grafeno, por lo que la electricidad puede fluir por la superficie. Cuando la temperatura se eleva a 70 grados centigrados, se expande la película rompiendo el lazo de los picos de níquel y haciendo, finalmente, que se apague la batería. Una vez que esta se ha enfriado de nuevo, los picos de níquel entran de nuevo en contacto permitiendo que la electricidad se filtre.

“Somos capaces de programar la temperatura varios grados más o menos dependiendo del número de partículas que ponemos y del tipo de materiales poliméricos que elegimos”, aseguró Zhenan Bao, profesor de ingeniería química en la universidad y miembro del equipo de investigación. Según el comunicado que emitió la universidad el pasado lunes, el diseño de este tipo de pila puede generar un alto rendimiento del dispositivo con mejoras substanciales en la seguridad.

 

-Mario Moreno.

La realidad virtual ya no es un mito

Se están acabando los prototipos, rumores, leyendas y sueños incumplidos. Este año, por fin, la feria internacional del CES nos trajo la realidad que todos estábamos esperando, la virtual. Pasando de ser considerada un mito, a toda una realidad.

Vimos desde la nueva tecnología de HTC hasta Oculus Rift, pasando por diferentes tipos de software y de hardware. Pero si hay algo que diferencia este año de los años anteriores, es que finalmente tendremos la posibilidad de llevar este tipo de tecnología a nuestra casa u oficina, y así poder disfrutar lo que las compañías tanto nos han prometido, aunque el precio sea algo más caro de lo que nos esperábamos.

Comenzamos con los lentes de RV que tanto nos han llamado la atención en los últimos años, probablemente el que nos abrió los ojos a esta nueva dimensión: Oculus Rift. Su precio será de 600 en preorden, algo caro para ser un producto en que lo usuarios todavía no estaban acostumbrados. Sin embargo, esto no ha evitado que pocas horas después de ponerlo a la venta en Internet, los encargos se dispararan, a pesar de que Palmer Luckey, fundador de Oculus, dejó caer que el precio sería más bajo en los próximos meses.

oculus-rift-

Otro gran competidor es HTC, quien lanzó Vive Pre, acercándose a Oculus en cuanto a la atención que recibió. Si hay algo en lo que HTC se adelantó, es en la conexión con el sitio de videojuegos más grande del mundo, Steam. De esta manera, los usuarios que tienen una fascinación por los juegos, Vive Pre les ayudará a disfrutar de éstos de una forma completamente nueva e intensa. Además, el visor lleva integrada una cámara frontal que permite integrar elementos de la vida real a la realidad virtual, ideal para que los retails lo utilicen para ampliar sus ventas. De esta forma, interactuar con objetos físicos es posible sin tener que quitarse los lentes de la cabeza.

htc-vive-pre

Gráficos más potentes

Y de los lentes de realidad virtual, pasamos a las PCs. Lo que está claro es que si se quiere disfrutar de una realidad virtual espléndida, debe enfocarse en el CPU, no cualquiera le servirá. Por eso entramos en el mundo del hardware informático que ofrece las mejores prestaciones para la utilización de los visores VR.

Echemos un vistazo primero a la tarjeta gráfica más “VR friendly” según su propio creador: Nvidia. La compañía sacó al mercado tarjetas de video y PCs que soportan los gráficos sin problema. El Getforce GTX 970 será la tarjeta que propicie la potencia mínima (según Oculus Rift) para la utilización de videojuegos de realidad virtual. Marcas como MSI, Asus, HP o Falcon Northwest también quieren formar parte de la integración de tales tarjetas gráficas en sus equipos.

realidad-virtual-vrlock-NVIDIA

Por otro lado, HP también hace su aparición en el CES en lo que se relaciona a la realidad virtual con el Envy Phoenix. El equipo trabajará con más relación a la realidad virtual del Vive Pre para conseguir una combinación perfecta que sea beneficiosa para ambas partes. El interés de ambas compañías se resume a la optimización de drivers para un alto rendimiento con un mínimo consumo de energía. El equipo PC integra un procesador Intel core i7 y se podrá elegir entre Radeon R9 390X o tarjeta GetForce GTX980 para rendimiento gráfico.

 

Nuevos hardware para optimizar la experiencia

Tampoco podemos pasar por alto las nuevas facilidades que salen para disfrutar al máximo de la realidad virtual. Tenemos por ejemplo el EVGA GeForce GTX 980 Ti VR Edition. Este pequeño aparato se conecta a través de un cable HDMI o USB 3.0 a la PC y dentro contiene la tarjeta gráfica. El cable es lo suficientemente largo como para colocarlo encima de la mesa. Ahora bien, se pueden conectar los lentes RV directamente en el EVGA de modo que nos ahorra bastante cable para utilizar con libertad y aparte, impulsa la potencia gráfica del PC para abastecer la experiencia virtual.Virtuix-Omni

Y por último, no podríamos olvidar que la realidad virtual se condensara en unos simples visores de imágenes digitales. Ya que estamos, lo haremos hasta el final. Es el caso de Virtuix Omni, la plataforma que nos permite registrar el movimiento de nuestros pasos. De esta forma, es posible caminar en el mundo virtual de manera orgánica y real, usando nuestros pies como controles.

Y esto no ha hecho más que empezar. A medida que vayan saliendo programas, juegos y aplicaciones a la realidad virtual, el hardware irá cambiando y el software perfeccionándose para abrir la puerta un nuevo estilo de negocio, un nuevo mercado en el que el usuario se adentra en una dimensión sin límites.

 

Jaime Buitrago

 

Un error de Trend Micro le facilita el acceso a hackers

El centro de investigación de Google descubrió que, en ciertos casos, los propios programas antivirus son los que permiten la entrada a los hackers a través de una puerta trasera del equipo.

Travis Ormandy, ingeniero de seguridad de Google, fue quien hizo el anuncio de haber encontrado agujeros en el antivirus Trend Micro. Este error permitía ejecutar códigos en el producto de manera remota (por medio de cualquier sitio web) y robar contraseñas de usuarios.

La compañía de seguridad confirmó este error, además de agregar que ya había lanzado una actualización automática que soluciona este problema. “Como respuesta a nuestro problema de seguridad, hemos trabajado con Ormandy para resolverlo”, escribió Christopher Budd, manager de amenazas globales de comunicación, en Trend Micro. “Los usuarios están siendo protegidos por medio de nuestras actualizaciones automáticas”, añadió Budd.

Ormandy publicó los emails que ha intercambiado con la compañía Trend Micro, en los que se puede ver su frustración por la velocidad a la que se estaba solucionando el problema: “O sea que esto significa que cualquiera en Internet puede robar vuestras contraseñas sin que prácticamente lo notemos, siempre y cuando se utilice un código indetectable”, escribe Ormandy en uno de los correos. “Espero que os quede claro la gravedad del asunto, porque estoy asombrado con este error”

El antivirus de Trend Micro tiene una contraseña maestra; los usuarios, cuando emplean el programa, pueden elegir exportar las suyas a esta contraseña manager, escrita en JavaScript. Cuando se utiliza, la contraseña abre múltiples procesos remotos en HTTP para manejar las diferentes solicitudes, según aclaró Ormandy. En 30 segundos logró que el antivirus aceptara un código remoto y una API que le permitió el acceso a las contraseñas almacenadas.

En total, después de continuar investigando, el ingeniero de Google encontró un total de 70 interfaces de programación de aplicaciones expuestas a Internet. Ormandy aprovechó para aconsejarle a Trend que contraten una consultoría externa para examinar el código, con el propósito de evitar que vuelvan a suceder este tipo de incidentes.

Los programas antivirus funcionan con un nivel muy alto de privilegios a la hora de manejar sistemas operativos, por lo que es fácil aprovechar su vulnerabilidad para conseguir un amplio acceso al equipo de cómputo.

Pero Trend Micro no ha sido la única compañía de seguridad en envolverse en este tipo de conflictos de seguridad. En los últimos meses docenas de puntos débiles fueron detectados en productos antivirus, incluyendo a Kaspersky Lab, ESET, Avast, AVG Technologies, Intel Security (de McAfee) y Malwarebytes.

SAP y Accenture suman esfuerzos en SAP S/4HANA

La colaboración sin precedentes tiene el propósito de acelerar el desarrollo de SAP S/4HANA, así como de las soluciones sectoriales y de líneas de negocio, con el objetivo de simplificar y agilizar la transición de los clientes a los negocios digitales.

SAP y Accenture están sumando esfuerzos en pro del desarrollo y la comercialización de SAP S/4HANA, la suite de negocios de próxima generación de SAP construida sobre una de las plataformas in-memory más avanzadas del mercado, tanto en su versión central como en las sectoriales. “Este acuerdo estratégico tiene el objetivo de avanzar aún más en nuestra colaboración e integración, construidas sobre el éxito alcanzado por el Business Solutions Group de Accenture y SAP”, indica Paul Daugherty, director de Tecnología de Accenture. ”

Los desarrolladores y expertos en diferentes industrias de Accenture están trabajando estrechamente con SAP,  desde diversas perspectivas tecnologías se podrá trabajar con SAP S/4HANA. Por ejemplo equipos de SAP establecidos en Alemania y Shanghái están ayudando a la organización en el diseño y creación de la solución SAP S/4HANA Finance. “Además, tenemos previsto involucrar a los clientes como parte de una estrategia más amplia de co-innovación que nos garantice que estamos optimizando nuestros esfuerzos de desarrollo para la suite con vistas a satisfacer sus necesidades y ayudarles a mantener su nivel de competitividad en todos los sectores y mercados”, puntualizó Daugherty.

Como complemento a las actividades de co-desarrollo se creará una estrategia de comercialización única basada en las capacidades de la propuesta de valor conjunta y en los esfuerzos de colaboración en la entrega de SAP y Accenture. El resultado serán soluciones diferenciadas con opciones de entrega flexibles para el despliegue de paquetes sectoriales basados en cloud. Ambas organizaciones invertirán conjuntamente en recursos y designarán a ejecutivos dedicados a aportar el máximo valor a los clientes mutuos.

”La mejora de nuestro acuerdo con Accenture representa un nuevo paso clave para reforzar aún más nuestro compromiso con la suite”, señaló Bernd Leukert, miembro del Consejo Ejecutivo, Productos e Innovación de SAP. “Estamos deseando trabajar con Accenture para impulsar la transformación de las empresas con soluciones más simples que incluso aceleren el tiempo que tardan en generar valor. Nuestro catálogo global permite a las empresas abordar los diversos desafíos de la economía digital en toda la cadena de valor, tanto de hoy en día como de mañana y les ayuda a estar listos para el futuro”.

-Marga Verdú

 

Siete consejos para mantener seguro su Data Center

Edgar Santoyo, CIO de BConnect Services, comparte su experiencia para mantener en óptimas condiciones su Data Center. Siete consejos básicos le ayudarán a proteger sus procesos críticos de negocio y a resguardar la seguridad en general de este tipo de instalaciones.

¿Por qué IoT necesita banda ancha de fibra óptica?

El Internet de las Cosas (IoT) puede multiplicar hasta tal punto la capacidad de red necesaria que exija el uso exclusivo de banda ancha de fibra óptica para poder soportarla. Un panel de expertos ha comentado en CES 2016 por qué es necesario contar con este tipo de tecnología

Katie Espeseth es vicepresidenta de nuevos productos de Electronic Power Board, empresa de telecomunicaciones responsable de la construcción y mantenimiento de una de las redes de fibra óptica más famosa de Estados Unidos. Señala en NetworkWorld, que de la primera red de banda ancha municipal va a velocidad gigabit, la cual se ha construido para soportar una aplicación IoT.

Con la misión de mantener el suministro de energía de la ciudad, EPB tenía de desplegar una serie de supercomputadoras para monitorear constantemente la red de energía en toda la ciudad de Chattanooga en Tennessee, y esto exigió un servicio de Internet a velocidad gigabit, que estuviese siempre disponible.

En la actualidad, la organización cuenta con 1 400 dispositivos dispersos que se encargan del diagnóstico de problemas que pueda sufrir la red eléctrica, así como del re-enrutamiento de potencia para paliar cualquier corte en el suministro. Según la directiva, el sistema ha reducido los cortes de energía en un 55-60% desde que se desplegó. Esto no sería posible sin una red de fibra óptica, remató.

Durante la sesión, Lev Gonick, CEO y co-fundador de OneCommunity, subrayó la necesidad de esta tecnología para prestar servicios de vídeo 4K, a pesar de ello, muchos de sus usos están orientados al entretenimiento, también hay aplicaciones profesionales que necesitan altas velocidades de transferencia. En este punto, destacó una aplicación médica de neurocirugía en la ciudad de Cleveland, en Ohio, para la que su compañía desplegó una red de fibra óptica capaz de alcanzar velocidades de transferencia de datos de 100 Gbps.

El uso de esta red, ha beneficiado a otros proyectos, que han permitido el uso de cámaras de alta definición para transmitir vídeo entre médicos y estudiantes de escuelas secundarias y responder a sus preguntas en tiempo real.

Algunas aplicaciones de hogar inteligente también pueden requerir banda ancha de fibra y, de hecho, la capacidad de la red puede ser crítica para el éxito del hogar inteligente. Se trata de grandes cantidades de datos y, como predice Cisco, los consumidores usarán cuatro veces la cantidad de datos que los negocios en 2019, mientras que Gartner prevé un hogar típico podría tener hasta 500 dispositivos en red en 2022.

Es muy evidente, que a futuro, las redes de alta capacidad son más importantes para los consumidores de lo que se pensaba.

-Redacción

 

La adopción de IoT debe tomarse con calma

Internet de las Cosas es una tendencia que inevitablemente llegó para quedarse, donde muchas empresas ya están adoptándola a sus estrategias de negocio, sin embargo, si quiere subirse a este tren de innovación, más vale que lo haga con calma.

Las prisas por integrar una plataforma de internet de las cosas podría chocar con los planes de la compañía, debido a que se trata de una decisión de tal trascendencia, por las dificultades que implica el retroceso tecnológico una vez se ha procedido al despliegue del entorno de ‘middleware’.

Las empresas que suministran dispositivos para IoT dotados con aplicaciones de software deben prestar una atención especial en la elección de la plataforma de desarrollo; una decisión equivocada implicaría un proceso de muy difícil solución. El analista y experto en IoT, Dima Tokar, quiere advertir del hecho de que a las organizaciones que buscan plataformas de desarrollo de aplicaciones de tipo AEP (application enablement platform), en muchas ocasiones se les ofrece un mero conjunto de componentes que facilitan las introducciones en IoT en su lugar.

IoT implica la conexión de sensores  y controladores en cosas tan diversas como motores, maquinaria de fabricación o instrumental médico, dependiendo de cada industria a la que la empresa se dedique. Pero, donde realmente radica la complejidad de los procesos de IoT, se encuentra en la conexión de dichos dispositivos a los sistemas que van a recoger y analizar el enorme volumen de datos que estos sensores y cosas van a generar, así como realizar la gestión de todo el proceso. Un AEP debe ayudar a las empresas en la implementación de todas las funciones y escribir aplicaciones que dirijan a todo el conjunto, con el objetivo de ganar en eficiencia.

Una gran parte  del éxito del proyecto de IoT depende de la elección del AEP, debido al hecho de que se encuentra situado en el corazón de un sistema de gran complejidad, que es extensible hacia el exterior de la organización, y podría permanecer en ese estado durante años. “El entorno de un sistema AEP, al igual que sucede con los sistemas de middleware, resulta muy complicado de sustituir una vez que entra en funcionamiento”, afirmó Tokar, además de señalar que por ello que muchas empresas que están planteando su entrada en IoT deberán establecer sus criterios e investigar en aquellas plataformas basadas en las necesidades  de desarrollo tanto presentes como futuras.

 

Marga Verdú