Día: 30 diciembre, 2016

Agenda regulatoria en Telecomunicaciones de México 2017

Desde la Reforma Telecom hace tres años, quedo sentada la base regulatoria asimétrica para la compensación de deficiencias de mercado y componentes inequitativos para la operación y la competencia efectiva. Los años siguientes han sido de instrumentación de esas disposiciones y el 2016, ha seguido siendo uno de cambios en relevantes en los términos operativos y regulatorios del sector convergente de las Telecomunicaciones y la Radiodifusión en México.

Desde una dimensión regulatoria, la licitación de más frecuencias del espectro radioeléctrico, a partir de la adjudicación de las bandas de AWS, detonará la oferta de servicios móviles de nueva generación.

Así también, los nuevos términos, condiciones y tarifas de las Ofertas de Referencia para la Desagregación de Efectiva de la Red Local del Agente Preponderante en Telecomunicaciones (OREDA) garantizarán la eficacia de este mecanismo de regulación asimétrica que aspira a contribuir a la reducción de barreras de entrada y operación de proveedores de servicios, a la optimización y generación de eficiencias en el despliegue y uso de redes y consecuentemente, al desarrollo de la competencia en el sector.

A manera de recuento, en el año aun en curso se concretaron diversas medidas y acciones de política pública y regulatoria derivadas de la Reforma Constitucional y de Ley Federal de Telecomunicaciones y Radiodifusión, a saber: la culminación de la transición a la Televisión Digital Terrestre (TDT), el encendido de una nueva cadena de televisión nacional (Imagen Televisión), la conformación de un nuevo órgano encargado de garantizar la instalación y puesta en marcha de la Red Pública Compartida (PROMTEL), así como la definición del desarrollador de ese proyecto.

Estas entre otros más, constituyen ejemplos de mandatos normativos hechos realidad en 2016.

Por el lado del mercado, se enlistan el anuncio de nuevas estrategias y ejercicio de recursos de inversión, el lanzamiento de nuevas estrategias de precios y servicios, la continuación de ajustes a la baja de precios en telecomunicaciones, así como la entrada de nuevos jugadores y plataformas en el mercado de contenidos audiovisuales, en algunos casos complementarias a la oferta convergente de operadores de telecomunicaciones.

Vale ahora comentar sobre el camino hacia adelante.

El año próximo, la aplicación efectiva de la agenda regulatoria deberá materializar la evolución sectorial de mediano y largo plazos. El año por iniciar 2017 deberá avanzar en la aplicación de medidas asimétricas como la compartición de infraestructura y la desagregación de la red, aún pendientes.

Adicionalmente, deberemos testificar la licitación de frecuencias del espectro para la provisión de servicios de radio de uso comercial y social, así como para la conformación de nuevos canales de televisión; la adjudicación de 130 MHz de la banda de 2.5 GHz y la evaluación al cumplimiento y eficacia de las medidas asimétricas de preponderancia. Estos son tan sólo algunos elementos que deberán llevarse a cabo durante 2017.

Varios de ellos aún no cuentan con fecha para su realización. Sin embargo, corresponde al IFT no demorar su materialización, puesto que de ello depende el desarrollo eficiente de los mercados, pero especialmente su reconfiguración a favor de la competencia.

Sin duda, todos estos elementos impactarán positivamente la dinámica de operación en los mercados que componen al sector convergente.

Cabe esperar que el IFT defina como prioritarios estos elementos en su Programa Anual de Trabajo 2017, a conocerse en enero próximo. De su oportuna implementación dependerá la materialización de los largamente postergados beneficios para los usuarios y la competencia efectiva en telecomunicaciones.

Ernesto Piedras, The Competitive Intelligence Unit

Cinco razones para automatizar las redes

Mediante la implementación de herramientas y prácticas de automatización, las redes pueden soportar mejor las cargas de trabajo, proporcionar un nuevo nivel de dinamismo y velocidad y reducir costos. Scott Sneddon, director senior de SDN y Virtualization de Juniper Networks nos habla de estos 5 beneficios de la automatización de red.

 

Adoptar las novedades ASAP

Las nuevas tecnologías cambian constantemente y para mantenerse competitivas, las empresas deben estar al día. Pero la mayoría de las redes empresariales son entornos muy complejos, repartidos por múltiples geografías y despliegues en la nube. La automatización puede abordar este desafío acelerando el proceso, permitiendo que las empresas se beneficien de las nuevas tecnologías antes.

 

Permitir la comunicación y cohesión entre centros de datos

Los procesos manuales en las redes pueden asfixiar la elasticidad y la fluidez de las cargas de trabajo virtuales, que pueden moverse no sólo dentro de un servidor, sino también entre servidores, bastidores y centros de datos. La automatización puede mejorar el flujo entre estas piezas de infraestructura eliminando la necesidad de mano de obra y reducir los tiempos. Por ejemplo, si al lanzar un nuevo servidor virtual y para ello hay que configurar los interruptores. Con la automatización, estas dos acciones pueden sincronizarse y configurarse simultáneamente.

 

Reduce los gastos operativos

Las infraestructuras automatizadas no sólo ampliarán las capacidades de la red, sino que también ayudarán a estirar cada peso invertido. Al eliminar los procesos tediosos y manuales, mejora el rendimiento de la inversión en infraestructura.

 

Reducir errores y aumentar la resistencia

La automatización de las tareas manuales, reducirá la cantidad de errores de red y ayudará al entorno a funcionar sin problemas. Además, muchas soluciones de automatización responden instintivamente a errores de red sin intervención, mejorando la flexibilidad empresarial y asegurando que los empleados tengan acceso a las aplicaciones y los datos que necesitan cuando lo requieran.

 

Crear trabajos de TI mejores y más eficientes

Mediante la automatización de tareas monótonas como la puesta en escena de nuevas tecnologías, las empresas permiten que el personal de TI se concentre en un trabajo más creativo, incluyendo maneras de hacer la red más eficiente y de vanguardia. Al promover un trabajo más gratificante, las empresas mejorarán la cultura de su organización y la implicación de sus empleados.

 

Ryan Francis

AT&T Threat Intellect, para proteger la conexión de red

Existen muchos dichos acerca de la colaboración: Dos cabezas piensan mejor que una; muchas manos hacen el trabajo ligero; el todo es más que la suma de sus partes y otros más.

Estos dichos también aplican para la seguridad cibernética, donde cada persona u organización que se une a un proveedor de servicios de seguridad gestionada (MSSP por sus siglas en inglés), trae consigo una oportunidad para aportar inteligencia, conocimiento compartido y un vínculo que puede dificultarle a los hackers tener éxito en sus ataques cibernéticos.

Más de mil millones de puntos finales están protegidos en la red de AT&T, ésta transporta más de 100 petabytes de datos cada día, (400 veces más información de la que se encuentra en la Biblioteca del Congreso de Estados Unidos). También se realizan más de 30,000 millones de escaneos para detectar riesgos, se aíslan 400 millones de mensajes spam en nuestra red IP y se administran más de 3,000 millones de eventos de amenazas todos los días.

Como parte del núcleo de las capacidades de seguridad está AT&T Threat Intellect, la culminación de gente, procesos y tecnologías que da una visibilidad sin precedentes a metadatos, inteligencia y análisis. Threat Intellect es un elemento clave mediante el cual AT&T percibe y se adapta rápidamente a los problemas globales de seguridad y amenazas más recientes. Todos estos miles de millones de escaneos, aislamientos y capacidades de gestión de amenaza ofrecen ventajas inigualables.

Sin estar conscientes del peligro, los clientes están protegidos, identificado tendencias de amenazas y formas avanzadas para contrarrestar ataques. La dimensión de una red como la de AT&T permite ofrecer una amplia base de conocimiento compartido que beneficia a todas las personas que lo utilizan.

 

Para que una conexión de red sea considerada segura, se debe adherir al menos a tres principios básicos:

  1. Los terceros no deben tener acceso a datos confidenciales que no les correspondan.

  2. Debe verificarse la identidad de la persona o personas interesada(s) en acceder a los datos.

  3. La información intercambiada se debe resguardar para evitar que sea descubierta, capturada o alterada por personas desconocidas.

Las conexiones que no son seguras son más vulnerables a brechas de datos, robo de identidad, filtración de datos, espionaje, ataques cibernéticos maliciosos y una serie de otros crímenes cibernéticos.

Oficiales de gobierno han indicado que la ciberseguridad es una preocupación importante para su economía, la defensa nacional y para la totalidad del gobierno. El costo promedio de una brecha de datos para las empresas de Estados Unidos aumentó a $7 millones de dólares, y se estima que diariamente cada minuto, 19 personas son víctimas de robo de identidad.

Con el gran crecimiento en dispositivos conectados, AT&T le ofrece a sus clientes activar una conexión que mejore la seguridad de todo el nexo, y así contribuyen al crecimiento de un ecosistema impulsado por una red segura.

 

Charlie Barker, Value Marketing Director de AT&T

¿Qué ocurrió este año en el mundo TIC? Parte 2

Mañana es el último día del año, un 2016 que nos ha dejado una serie de importantes avances, fusiones, e incluso tropezones dentro del sector TIC. En la primera parte de este recuento vimos la generación de Dell Technologies, aniversario de Linux, entre otros. Aquí le tenemos la segunda parte de este repaso a lo más destacado de lo que pudimos ser testigos este 2016.

Puede ver la primera parte haciendo clic aquí.

El peligro de incendio en los Galaxy Note 7

La noticia resultó tan impactante y extraña como perjudicial para Samsung. Varias baterías de los modelos Galaxy Note 7 de la compañía surcoreana se incendiaron y el aluvión de quejas, imágenes y mensajes de los usuarios afectados ha terminado con la decisión del fabricante de retirar el terminal del mercado. La organización no supo reaccionar a tiempo y encontrar el problema que hacía que los dispositivos se sobrecalentaran de tal manera.  Además, las presiones de operadores tan importantes como AT&T, T-Mobile y Verizon, que decidieron sustituir esos modelos por otros de gama similar, terminaron por enterrar al Galaxy Note 7, que ha pasado a la historia y no precisamente por sus prestaciones.

En su corto trayecto de vida, el dispositivo dejó un descenso en bolsa importante para la compañía, y un reguero de críticas y burlas que han impactado notoriamente en la imagen de la compañía. Incluso, en algunos vuelos nacionales e internacionales fueron prohibidos a bordo, tal es el caso de Aeromexico e Internet. Sin embargo, expertos afirman que la compañía surcoreana se reinventará. Veremos si en el 2017 el fabricante se saca algún as de la manga.

 

Microsoft se abre un perfil en Linkedin

El golpe de efecto de la tecnológica en el sector de las redes sociales de servicios le ha costado 23.260 millones de dólares. En el mes de junio, el gigante de Redmond anunciaba la compra de Linkedin  con el objetivo de vincular los datos de la red social en Office y otros servicios. Por ejemplo, habrá una relación más estrecha e

ntre las funciones de currículum en Word y Linkedin, de manera que los usuarios que redacten sus CV en Word puedan actualizar sus perfiles de la red social automáticamente.

Sin embargo, el proceso de fusión no ha sido para nada un camino fácil. Salesforce, que también estuvo en la carrera por adquirir Linkedin, intentó bloquear la transacción alegando motivos anticompetitivos. Finalmente, y tras una serie de concesiones que Microsoft ha hecho a sus competidores, la empresa tiene la luz verde para culminar la operación.

microsoft-linkedin-700x400

Apple y los favores fiscales en Irlanda

La Comisión Europea ha determinado que Irlanda otorgó ventajas fiscales indebidas a la tecnológica por valor de hasta 13,000 millones de euros. Según la UE, esta práctica es ilegal, ya que ha permitido a la compañía de la manzana pagar muchos menos impuestos que otras empresas. Irlanda deberá proceder ahora a la recuperación del montante.

 

Yahoo tiene un problema con la seguridad

Si para entrar en el ranking de las noticias más destacadas del año se trataba de romper hitos, Yahoo puede estar de enhorabuena. O no. La compañía ha sido la protagonista de la mayor fuga de datos de la historia. La información personal y credenciales de más de 1.000 millones de cuentas fueron robadas al buscador, con el agravante de que el incidente se produjo en agosto de 2013, lo que representa más de tres años con una brecha de tal magnitud abierta.

Y, por si fuera poco, este no es el único caso que ha sufrido la compañía este año.  En el mes de septiembre la firma ya reportó otra incidencia que afectaba a 500 millones de cuentas y en la que entraban en juego datos bancarios sobre los usuarios. La (falta de) seguridad se ha cebado este año con Yahoo, justo cuando había sido anunciada su venta a Verizon por 4.830 millones de dólares. Ahora, la operación ha dado un vuelco es Verizon quien tiene la sartén por el mango y quién puede renegociar las condiciones de la fusión.

 

IDG.es

Las computadoras no quieren humanizarse

Las computadoras actuales pueden analizar sentimientos que expresamos en las redes sociales, incluso podemos ver expresiones faciales en robots para hacernos creer que están felices o enojados. A pesar de todos estos avances en computación, nadie cree seriamente, que puedan experimentar sentimientos.

Sin embargo, otras facetas de la Inteligencia Artificial, han visto avances impresionantes tanto en hardware como en software en los últimos 12 meses.

Deep Blue era un oponente de ajedrez de primer nivel que no se regocijaba cuando ganaba o se enfadaba cuando perdía. Hasta este año, sin embargo, las computadoras no igualaban a un humano en otro juego de mesa, Go. Esto cambió en marzo cuando AlphaGo, desarrollado por la subsidiaria de Google DeepMind, venció a Lee Sedol, entonces el jugador más fuerte del mundo, 4-1 en un torneo a cinco partidas.

El arma secreta de AlphaGo era una técnica llamada aprendizaje del refuerzo, en la que un programa calcula cuáles son las acciones que lo aproximan a su objetivo y refuerza esos comportamientos, sin necesidad de que una persona le enseñe qué pasos son correctos. Eso significaba que podía jugar repetidamente contra sí mismo y aprender gradualmente qué estrategias le salían mejor.

Las técnicas de aprendizaje de refuerzo han existido por décadas, también, pero es recientemente cuando la computación ha tenido suficiente capacidad de procesamiento (para probar cada ruta posible) y la memoria (para recordar qué pasos llevaron a la meta) para jugar a alto nivel a una velocidad competitiva.

 

El hardware con mejor rendimiento impulsa la IA

En mayo, Google reveló su TPU (Tensor Processing Unit), un acelerador de hardware para su algoritmo de aprendizaje profundo TensorFlow. Los ASIC (circuitos integrados específicos de la aplicación) pueden ejecutar los tipos de cálculos utilizados en el aprendizaje de máquinas mucho más rápido y con menos potencia que las GPUs, y Google ha instalado varios miles de ellos en sus servidores en las ranuras previamente reservadas para discos duros.

El TPU fue una de las razones por las que AlphaGo funcionó tan rápido, pero Google también ha utilizado el chip para acelerar las funciones de mapas y navegación en Street View y mejorar los resultados de búsqueda con una nueva herramienta AI llamada RankBrain.

Google mantiene TPU para su uso propio, pero otras empresas están lanzando hardware adaptado para aplicaciones de IA. Microsoft, por ejemplo, ha equipado algunos de sus servidores Azure con FPGAs ( Field Programmable Gate Array Field Programmable Gate Array) para acelerar ciertas funciones de aprendizaje de la máquina, mientras que IBM está señalando similares con una gama de servidores PowerAI que utilizan hardware personalizado para vincular sus Power CPU con GPUs Nvidia.

fpga

Para las empresas que quieren implementar tecnologías de vanguardia de IA sin desarrollar todo desde cero, el acceso al hardware de alto rendimiento es el principio, pero suficiente. Los operadores de la nube reconocen esto, y están ofreciendo el software de IA como servicio. Amazon Web Services y Azure de Microsoft han agregado APIs de aprendizaje de máquinas, mientras que IBM está construyendo un negocio alrededor del acceso a la nube a su IA de Watson.

El hecho de que estas herramientas de hardware y software estén basadas en la nube también ayudará a los sistemas de IA.

Ser capaz de almacenar y procesar enormes volúmenes de datos sólo es útil para la IA que tiene que acceder a grandes cantidades de datos para aprender, por ejemplo, si su información sobre el clima. El acceso a todos esos datos en bruto, en lugar del subconjunto minucioso, procesado y etiquetado por los humanos, que estaba disponible para las generaciones anteriores, es uno de los factores fundamentales que transforman la investigación de la IA hoy en día, según un estudio de la Universidad de Stanford.

IDG.es