Etiqueta: velocidad

¿Qué es la tecnología inalámbrica 802.11ad?

A continuación, le explicamos la tecnología inalámbrica 802.11ad, la cual ha comenzado a revolucionar el mercado.

Seguramente reconoce estos protocolos, 802.11ac, 802.11ac wave 2, 802.11omg,  ¿podríamos quizás conseguir nombres diferentes para esto?, entre tantos protocolos vamos a ponernos de acuerdo.

Bueno, ahora comenzamos con la explicación de 802.11ad es, efectivamente, un nuevo estándar inalámbrico que usa el espectro de 60GHz en vez de los de 5GHz y 2.4GHz utilizados por la mayoría de conexiones de Wi‐Fi hoy en día. Cuenta con una velocidad máxima teórica de 7Gbps vs 3.2Gbps para el 802.11ac Wave 2.

Entonces, ¿tiene más gigahertz? ¿Por qué eso es algo que me debería importar?

Aquí está el tema con los gigahertz ‐mientras más de ellos tenga … al diablo con esto, que no lo estoy explicando de una manera simplificada. La frecuencia más alta de 802.11ad significa, simplemente, que sus señales pueden cargar más información, lo que significa, a su vez, un mejor rendimiento, pero también que no se propagan tan bien como las frecuencias más bajas, dando un alcance efectivo más corto.

¿Es básicamente un súper Wi‐Fi de corto rango?

En términos generales, sí ‐en teoría puede manejar velocidades de múltiples gigabits sin hacer mucho esfuerzo y, como probablemente ya sabe, el mundo es un lugar hambriento de ancho de banda. Pero, tal vez no ‐su corto alcance funcional hace que sea problemático como un reemplazo directo del Wi‐Fi existente.

802-11

¿Cómo comprometerse?

Mire, es complicado, ¿está bien?Algunos expertos piensan que, realmente, no vamos a necesitar que nuestro Wi‐ Fi sea tan rápido como el 802.11ad cuando el resto de la red tiene un largo camino por recorrer para estar a la altura. Por supuesto, puede haber algunas implementaciones con alta densidad que podrían beneficiarse de la tecnología 802.11ad, pero parece más probable que será, principalmente, una tecnología backhaul, la que actúe como un reemplazo inalámbrico de otras partes de la red troncal. Eso es potencialmente grande y bueno, dejarlo hacer cosas, como aprovisionar de forma inalámbrica los puntos de acceso.

¿En dónde se adquiere?

En este punto, parece que el único punto de acceso de 802.11ad en venta es el de TP‐Link, y tampoco hay tantos puntos finales que puedan hacer uso de esta tecnología, igual. Lo más pronto que va a querer preocuparse sobre esto es, probablemente, en la segunda mitad del próximo año, si es que trabaja para un departamento de TI de un tamaño decente. Los lugares más pequeños con demandas específicas para un ancho de banda grande y puntos de acceso de corto alcance deberían ser las primeras en enfrentarse con el 802.11ad. Probablemente también veremos más fabricantes de equipos originales salir con puntos de acceso ad‐equipped y más puntos finales con la tecnología, en el curso del 2017.

Jon Gold, NetworkWorld

Pure Storage presenta equipo de almacenamiento flash para la nube

Pure Storage, presentó el almacenamiento a escala de petabyte, respaldado por el lanzamiento de la nueva generación de FlashArray//m, el cual ofrece el mejor desempeño con la simplicidad y agilidad que caracterizan a una nube pública o privada.

Este lanzamiento de la firma, es un almacenamiento construido con la intención de ser fácil, eficiente y permanecer siempre vigente, así como ser capaz de ofrecer simplicidad, automatización, resiliencia, con un modelo de negocio amigable e incluyendo todos elementos esenciales para el cómputo en la nube.

“El almacenamiento es la base de todo lo que hacemos en la economía digital, cada vez más apoyada en el centro de cómputo en la nube”, aseguró Matt Kixmoeller, Vicepresidente de producto en Pure Storage. “Sin importar que se trate de nube pública, privada, SaaS o una mezcla de las tres. El almacenamiento 100% flash eficiente, ahora a escala de petabyte, es la base flexible para las nubes de hoy y del futuro”.

La nueva actualización del FlashArray//m, escala hasta los 512 terabytes de almacenamiento en crudo, lo que se traduce en aproximadamente 1.5 petabytes de capacidad efectiva. Esta escala y densidad permiten a los clientes reducir varios racks del almacenamiento usando tecnología de disco mecánicos a siete unidades o menos.

El nuevo FlashArray//m sin ventana de mantenimiento y migración de datos, ofrece cuatro opciones de controladoras para cumplir las necesidades de desempeño y capacidad:

El //m10 (presentada este mismo año). Proporciona hasta 25 TBs de capacidad efectiva (de 5 a 10 TBs de almacenamiento en crudo) y hasta 100,000 IOPS de 32K.

Para el //m20. Provee hasta 250 TBs de capacidad efectiva (de 5 a 80 TBs de almacenamiento en crudo) y hasta 200,000 IOPs de 32K.

Además //m50. Brinda hasta 500 TBs de capacidad efectiva (de 20 a 176 TBs de almacenamiento en crudo) y hasta 270,000 IOPS de 32K.

Y finalmente, //m70. Ofrece hasta 1.5 petabytes de capacidad efectiva (de 42 a 512 TBs de almacenamiento crudo) y hasta 370,000 IOPS de 32K.

A través de estas opciones de nuevas controladoras, FlashArray//m proporciona un aumento de 20% a 30% en desempeño y un incremento de entre 100% y 276% en capacidad comparado con generaciones anteriores. El escalamiento de objetos ha aumentado 10 veces, mejoró la escalabilidad total del sistema y permite realizar copias de seguridad a gran escala con hasta 50,000 snapshots eficientes en espacio.

Redacción

La Multiplexación han permitido mayor velocidad en fibra óptica

Aplicar diferentes técnicas de multiplexación, ha acelerado la evolución en las velocidades de red en el cableado de fibra óptica ha significado una gran innovación en el campo.

El desarrollo de diferentes tecnologías de multiplexación está permitiendo la evolución de las velocidades de red en el cableado de fibra óptica; las cuales incluyen división de tiempo, división de espacio y multiplexación por división de longitud de onda; cada una de las cuales ha logrado alcanzar altas velocidades y, por ende, una gran innovación en este campo.

Multiplexación por División de Tiempo

Es una simple forma de transmitir mayor cantidad de datos a través del uso de incrementos más pequeños de tiempo a través de la multiplexación de señales de menor velocidad de datos dentro de una señal compuesta de velocidad más alta.

El vicepresidente Servicios Creativos y de Educación de CommScope, James Donovan, mencionó que hay casos hoy en día donde se han alcanzado altas tazas de Ethernet utilizando este tipo de señales eléctricas paralelas, combinadas en un multiplexor y en serie a través de fibra. “Por ejemplo, 10 Gbps de Ethernet tiene cuatro vías, donde cada una de ellas lleva un cuarto de la tasa de transferencia de 2.5Gbps. Aunque actualmente la velocidad máxima por vía es de 25 Gbps para Ethernet, mirando al futuro se están desarrollando tasas de hasta 50 Gbps por línea”.

Multiplexación por División de Espacio

Conocida como óptica paralela o fibras paralelas, es una manera de añadir una o más vías simples mediante la adición de una o más fibras ópticas en el elemento de conexión compuesto.

“Actualmente 40G SR4 ofrece 40 Gbps sobre fibra Multimodo con cuatro fibras, esto significa cuatro vías en una dirección y cuatro en la otra, de 10 Gbps cada una. El estándar para la solución de 100 Gbps utiliza 10 vías de 10 Gbps llamados SR10, pero también hay una segunda generación de 100Gbps que ha aumentado la tasa por vía a 25 Gbps usando cuatro de ellas, por lo que la mezcla de las mejoras en la multiplexación por división de tiempo, junto a las técnicas ópticas paralelas, puede beneficiar en gran medida para lograr el objetivo de velocidades más altas”, puntualizó James Donovan.

Multiplexación por División de Longitud de Onda

Se trata de la señalización de forma simultánea a través de múltiples líneas segregadas por distintas longitudes de onda de luz (colores) que se transmiten dentro y fuera de una sola fibra. Como su nombre lo indica, la banda de longitud de onda disponible para la transmisión se divide en segmentos, cada uno de los cuales se pueden utilizar como un canal para la comunicación, lo que permite exprimir muchos canales en un pequeño espectro.

Las versiones comúnmente utilizadas para larga distancia son sistemas Monomodo llamados de “densa multiplexación por división de onda”, mientras que en los sistemas Multimodo, las técnicas de multiplexación por división de longitud de onda están apareciendo recientemente.

Esta técnica utiliza 20 Gbps por longitud de onda en cada una de dos fibras y de esa manera se puede conseguir 40Gbps a través del canal de fibra de 2 núcleos con un conector LC dúplex.”, finalizó el Vicepresidente de Servicios Creativos y de Educación en CommScope.

N. de P. CommScope

3 tips para realizar un home office exitoso

Antes de abrir la puerta de su hogar, seguramente se ha realizado las siguientes preguntas: ¿Cuántas veces ha estado en pleno periférico atorado en el tránsito de la Ciudad de México?, ¿cuántas horas de tiempo muerto pasa a la semana en el traslado de su casa al trabajo y viceversa?.

Según datos proporcionados por De la Riva Investigación Estratégica, señala que una persona tarda alrededor de una hora y 20 minutos en trasladarse de su casa a su lugar de trabajo, lo que equivale a perder 21.6 días al año, atorado en el tráfico de la ciudad, situación que definitivamente impacta en la salud, motivación y productividad.

Ante este problema de movilidad en la Ciudad de México, respecto a las Fases de Contingencia Ambiental, realmente puede sacar provecho, ya que ahora puede ser más creativo y productivo desde su casa. Se ha comprobado que hacer home office incrementa en un 28% tu productividad, dando como resultado una mejor calidad de vida, además de que contar con flexibilidad de horario seguramente te traerá una sonrisa, haciendo más compatible el trabajo con su ritmo biológico y tu rutina.

El Director de Estrategia para Mercado Masivo en Axtel, Javier Rodríguez opina que es necesario que tome en cuenta 3 claves tecnológicas para realizar un home office exitoso y no morir en el intento, “para que el home office sea efectivo, es necesario contar con un internet que además de rápido, ofrezca la capacidad de hacer múltiples tareas y acceder a diferentes aplicaciones, como abrir  correo para descargar un archivo, mientras revisa redes sociales y agenda la próxima cita con su cliente”.

Además debe considerar para poder tener éxito en su trabajo remoto, es que si su casa es muy grande, seguramente requerirá tener diversos puntos de acceso adicional para lograr una mejor cobertura de señal WiFi en todos los lugares.

Finalmente, el experto de Axtel recomienda que al contratar un servicio de internet, busque el que brinde un servicio de internet simétrico, esto es que la información pueda ser descargada y enviada con la misma velocidad sin afectar en ninguna de las tareas.

Otro punto importante es que en la mayoría de los casos, nunca está solo en casa, ya que por lo general hay más gente y dispositivos conectados, como smartphones, consolas de videojuegos o Smart TVs que utilizan capacidad de la conexión, y para ello, Javier recomienda contar con por lo menos una conexión de 20 a 30 megas, para dar flujo a los datos que demandan los dispositivos.

Teniendo en cuenta estas prácticas clave, ya no tendrá ningún contratiempo para que pueda desempeñar sus labores desde la comodidad de su hogar, lo cual facilitará el desempeño volviéndolo mucho más productivo, gozando de una mayor satisfacción y equilibrio entre  vida personal y trabajo, así como un menor nivel de estrés.

-N. de P. Axtel

El Bluetooth cobra protagonismo en el futuro del Internet de las Cosas

El Grupo de Interés Especial (SIG) en Bluetooth quiere elevar el perfil de este estándar para jugar un papel relevante en Internet de las cosas. Por ello se ha dado a la tarea de preparar herramientas que permitirán construir gateways o pasarelas entre la red inalámbrica de corto alcance e Internet.

El conjunto de herramientas debería facilitar la creación de pasarelas que recopilen datos de forma inalámbrica desde dispositivos Bluetooth, para luego transferirlos a la nube a través de Ethernet, banda ancha móvil u otras redes.

Un campo de aplicación claro serían los dispositivos médicos que podrían enviar y recibir información sanitaria entre médicos y pacientes, o la recogida de datos sobre consumo de luz en un edificio, que se enviarían a un servicio cloud para su posterior análisis.

El kit, con una arquitectura de referencia, firmware y un driver, permitirá a los desarrolladores crear rápidamente estas pasarelas, en opinión de Steve Hegenderfer, director de programas de desarrolladores del Grupo de Interés Especial.

El objetivo de éstas es que se podrían construir sobre dispositivos tan baratos como una placa de una PC, y su arquitectura está diseñada para recoger datos de sensores en una gran red de dispositivos conectados, según Hegenderfer.

Ya es posible recoger esta información en dispositivos Bluetooth con smartphones y tabletas conectados a Internet, pero los gateways operarían a una escala mucho mayor. Además, requieren menos intervención humana para recoger y transmitir datos.

Está previsto que los primeros gateways aparezcan en concentradores o hubs para hogares inteligentes, y luego equipos industriales para seguimiento y gestión de activos. Muchos routers y otros dispositivos conectados a Internet ya disponen de una interfaz Bluetooth, e instalar el kit de herramientas les permitirá tenerla activa, señala.

Esta arquitectura de pasarela es parte del objetivo del Grupo de Interés Especial en Bluetooth de crecer en los mercados alrededor de IoT y automatización del hogar. También es una forma de revitalizar Bluetooth y encontrarle más usos.

Se espera que el próximo protocolo Bluetooth, estará en los dispositivos en 2017, transferirá datos a 2Mbps y tendrá un rango más amplio que la actual versión, la 4.2. El diseño de pasarela funcionará con esta versión, pero con el siguiente protocolo se incrementarán sus funcionalidades en áreas como la seguridad.

El pasado año se vendieron cerca de 3 000 millones de dispositivos con Bluetooth y se calcula que en 2020 estarán en uso 25 000 millones.

-Redacción NetworkWorld

 

El Bluetooth multiplicará el alcance inalámbrico y la velocidad

Se espera que esté listo para el segundo trimestre del año en curso, cuando el nuevo protocolo esté disponible. Se cuadruplicará el rango inalámbrico y se doblará la velocidad. Se estima que en 2020 habrá unas 50 000 millones de conexiones.

En 1998, cuando Bluetooth dio sus primeros pasos en la industria, pocos se podrían imaginar que la tecnología inalámbrica permitiría, en la próxima generación de productos, realizar tareas tan simples como apagar las luces de casa con tan solo girar la llave en una cerradura equipada con esta tecnología. Sus primeros usos fueron como manos libres de los smartphones, ya que permitía a los usuarios hablar a través de los auriculares. En la actualidad, Bluetooth ya se está utilizando en contadores inteligentes, dispositivos, drones, robots, aplicaciones médicas y wearables.

Estos escenarios son posibles gracias a los avances de esta tecnología. Pero el próximo protocolo irá aún más allá. Éste será lanzado en la segunda mitad de este año y cuadruplicará el rango inalámbrico y doblará la velocidad del actual, (hasta 2Mbps). Lo hará aprovechando el auge de IoT, conectando dispositivos sobre un rango más amplio, llegando a abarcar toda una vivienda y no solo una habitación.

Los analistas han pronosticado que en 2020 habrá más de 50 000 millones de conexiones, superando con creces a los 3 000 millones de dispositivos con Bluetooth que se conectaron en 2015. “Mayor alcance y mayor velocidad es esencial para una malla de dispositivos conectados”, ha asegurado Powell, miembro del Bluetooth SIG. Desde el grupo ven una gran oportunidad de crecer en dispositivos industriales y de consumo. “Además, una rápida conectividad es fundamental para la entrega de firmware en dispositivos”.

También será posible extender el rango de los datos recogidos a través de Bluetooth. La tecnología podría utilizarse, por ejemplo, para enviar información de salud de un portátil a un médico que se encuentre lejos. Un router normal, con una interfaz Bluetooth, enviaría los datos a través de redes cableadas.

-Mario Moreno

 

Fotomultas y Gobierno Digital

¿Cuáles son los errores más comunes al usar la tecnología en el cobro de multas? El caso de las Foto Multas implementado por el gobierno del Estado de México es un caso de estudio de lo que no se debe hacer al momento de implementar políticas de gobierno digital con gran desconocimiento.

Para implementar una solución tecnológica en un procedimiento gubernamental se deben considerar al menos tres componentes: 1. La tecnología a implementar; 2. El impacto en la organización y 3. El impacto en la Institución, es decir las leyes.

Veamos que implica cada uno de ellos en el caso de las fotomultas que comenzaron a implementarse:

 

1. La tecnología

La tecnología para las fotomultas ya tiene muchos años de haberse implementado. Se basa en dos tecnologías, una de ellas es el medidor de velocidad; la segunda es el lector placas que las fotografía. Ambas tecnologías están ligadas a bases de datos para generar las multas. Se tiene noticia de la patente desde 1905. Comenzó en ciudades europeas con alto tráfico vehicular como Londres, París, Madrid, entre otros, y en los Estados Unidos es una práctica común. En México, la ciudad de Puebla lleva varios años de implementarse en sus principales avenidas.

Las cámaras y radares de última generación, utilizan tecnologías láser y de otro tipo para medir la velocidad y registrar promedios en los que se basan las sanciones, y no solamente en un momento en que se alcance el tope de velocidad o lo rebase por algunos instantes.

Aunque no puedo opinar sobre qué tipo de sistemas se usan en el Estado de México por que no lo han hecho público, es evidente que el vínculo entre dichas cámaras y la expedición de multas tiene un retraso de varias semanas en su fecha de entrega y expedición. Otro error tecnológico es que los resultados que se presentaron en distintos sitios web fueron datos erróneos o resultados diversos, generando confusión y descontento sobre la calidad de los sistemas involucrados. Esta falta de integración en las interfaces le resta credibilidad al proyecto.

 

2. Impacto organizacional

La organización gubernamental debe estar preparada para el cambio tecnológico que pretende implementar. Los cajeros que cobran multas, los servicios telefónicos que resuelven dudas, los sistemas de información en línea – sitios web, celulares – deben estar sincronizados con la nueva aplicación. Esta “adaptación” organizacional ha ocurrido con mucha lentitud y sin ninguna explicación previa o entrenamiento en el caso de las fotomultas mexiquenses.

Por otro lado, la implementación tecnológica sólo está presente en un “tramo” de las vialidades sin señalamiento alguno. Esto significa dos cosas: por un lado que la organización carece de los recursos para implementar la tecnología en toda la vialidad y por el otro, que se abusa de los ciudadanos al multarlos por desconocimiento de los tramos donde se esté midiendo el exceso de velocidad.

 

3. Impacto Institucional

Los departamentos de gobierno – las agencias gubernamentales – encargadas de implementar esta tecnología cometieron un error fundamental al no generar comunicación previa, clara y masiva de la implementación tecnológica. Cuando se avisa a los ciudadanos que a partir de una fecha determinada entrará en funcionamiento una tecnología, justificando sus ventajas y los beneficios que obtendría así como los procedimientos, los tramos viales definidos en que sería puesta en práctica, le otorga a la tecnología una mayor legitimidad y le permite al gobierno un mejor control y éxito en el uso de la tecnología.

Por otro lado, la falta de comunicación con los ciudadanos permite suponer que el proyecto no esté validado legalmente y por lo tanto las multas puedan ser cuestionadas por ese medio. Esto genera descontento e inconformidad,  reacciones en contra que pongan en riesgo la vialidad del proyecto por las presiones políticas. Es de esta forma cómo terminan por fracasar muchos proyectos de innovación de tecnología que pueden beneficiar tanto al gobierno como a los ciudadanos por un mal manejo en su implementación.

Las fotomultas han sido proyectos exitosos en todo el mundo para garantizar la seguridad de los conductores al controlar los límites de velocidad, pero también para inhibir otros delitos y tener un ingreso adicional – automatizado – sobre multas que impida la corrupción ya que ningún agente de tránsito en persona emitirá la sanción, sino será una máquina que identifica el límite de velocidad y obtiene la fotografía. Es una lástima que por falta de información y conocimiento acerca del gobierno digital este tipo de proyectos tengan un rechazo ciudadano y vean a la tecnología como su enemigo en lugar de ser una oportunidad para gobernar mejor.

 

 

Rodrigo Sandoval Almazán

es Profesor Investigador en la Universidad Autónoma del Estado de México, 

http://www.rodrigosandoval.mx

@horus72

Intel lanza discos SSD de la Serie 730

730 Series SSDLa compañía anunció la disponibilidad de los nuevos discos de estado sólido SSD pertenecientes a la Serie Intel 730 con el fin de satisfacer la demanda de los usuarios más entusiastas.

La nueva Serie 730 de Intel se anuncia con capacidades de 240 y 480 GB. Intel destaca que las unidades pueden incrementar en un 50% la velocidad de reloj del controlador, pasando de los 400 MHz a los 600 MHz. Por su parte, la velocidad de reloj de la memoria NAND flash podría pasar de los 83 MHz a los 100 Mhz, según la compañía.

El resultado de tales incrementos indica que es posible llevar a cabo operaciones de entrada/salida estimadas en 89,000 IOPS (operaciones de entrada/salida por segundo). Las unidades ofrecen una durabilidad diaria de hasta 70 GB de escritura en comparación con el promedio de la industria, que es de 20 GB. Para comercializar esta serie, la compañía pretende ofrecer una garantía completa durante los cinco primeros años.La Serie 730 utiliza memorias NAND MLC (Multi-level cell) de 20 nanómetros, y sus 7 milímetros de grosor permite que puedan ser emplazadas en el interior de la mayoría de los dispositivos portátiles.

Los precios oficiales facilitados por Intel serán de 249 dólares para el modelo de 250 GB y de 479 dólares para la de mayor capacidad de hasta 480 GB. La Serie 730 de SSD consta de soluciones avanzadas pensadas para los usuarios más entusiastas, quienes requieren las máximas prestaciones.

Junto con estos discos es posible utilizar la herramienta Intel Extreme Tunning con la cual es posible elevar la velocidad de reloj de las unidades para incrementar el rendimiento del sistema.

Los chips móviles no podrán aumentar su velocidad “al infinito”: Broadcom

BroadcomLa industria productora de microprocesadores afronta grandes retos para los próximos años, según el presidente y cofundador de Broadcom, Henry Samueli, compañía estadounidense nacida en 1991 y que hoy cuenta con ingresos anuales de más de 8,000 millones de dólares.

Este gigante de los componentes fundamentales para redes y dispositivos móviles vivirá  profundos cambios, como la futura tecnología 5G.

“Broadcom tiene gente en los organismos de normalización de la futura 5G y, ahora que han adquirido Renesas Mobile, aprovechará este nuevo equipo para centrarse aún más en los futuros estándares, en diferentes ‘sabores’ de LTE-Advanced y en el denominado espacio 5G, donde están estas pequeñas células ultradensas”, aseveró Samueli.

En cuanto a la duración de la batería en los smartphones, el directivo dijo que al reducir su tamaño, de 28 nanómetros (nm) a 16nm y 10nm, la disipación de potencia de los chips no se reduce y, por desgracia, la carrera por construir núcleos más rápidos continua, pasando de 2 a 2.5 GHz, y más tarde a 3 GHz.

Agregó que las reducciones en el consumo de batería no son cuánticos, sino progresivos, por lo que no será sencillo que el usuario pueda dejar la obligación de recargar su dispositivo todas las noches.

Esta batalla por la velocidad es, en opinión de Samueli, una decisión de la industria, ya que el usuario siempre demandará lograr el máximo posible, pero llegará un momento en que los fabricantes decidan ahorrarse unos cuantos megahercios de velocidad de reloj, a cambio de una duración más larga de la batería.

De hecho, “Apple ya está en esa ecuación, y ha decidido diseñar justo el procesador de apps que necesita para que el iOS funcione”, aseguró el directivo.

Una barrera física

No obstante, reconoció que se mantendrá cierta tendencia a mejorar la velocidad de procesamiento aunque, con  el tiempo, esto se estabilizará y se optará por mayor duración de la batería.

En cuanto a la progresiva miniaturización de los procesadores, el Samueli vislumbra que desde los 28nm actuales, puede llegarse a 16nm o 14nm, e incluso a los 10nm, pero más allá de eso resulta muy aventurado entrar. “Por ejemplo, dijo, en transistores de 5nm, los átomos de silicio estarían separados por medio nanómetro y habría en cada celda 10 átomos de silicio”.

Para el directivo, esa barrera física no podrá cruzarse, ni siquiera en el medio plazo. “Se trata de un límite físico fundamental, por lo que no resulta sencillo imaginar algo más pequeño”, concluyó.