Año: 2016

Agenda regulatoria en Telecomunicaciones de México 2017

Desde la Reforma Telecom hace tres años, quedo sentada la base regulatoria asimétrica para la compensación de deficiencias de mercado y componentes inequitativos para la operación y la competencia efectiva. Los años siguientes han sido de instrumentación de esas disposiciones y el 2016, ha seguido siendo uno de cambios en relevantes en los términos operativos y regulatorios del sector convergente de las Telecomunicaciones y la Radiodifusión en México.

Desde una dimensión regulatoria, la licitación de más frecuencias del espectro radioeléctrico, a partir de la adjudicación de las bandas de AWS, detonará la oferta de servicios móviles de nueva generación.

Así también, los nuevos términos, condiciones y tarifas de las Ofertas de Referencia para la Desagregación de Efectiva de la Red Local del Agente Preponderante en Telecomunicaciones (OREDA) garantizarán la eficacia de este mecanismo de regulación asimétrica que aspira a contribuir a la reducción de barreras de entrada y operación de proveedores de servicios, a la optimización y generación de eficiencias en el despliegue y uso de redes y consecuentemente, al desarrollo de la competencia en el sector.

A manera de recuento, en el año aun en curso se concretaron diversas medidas y acciones de política pública y regulatoria derivadas de la Reforma Constitucional y de Ley Federal de Telecomunicaciones y Radiodifusión, a saber: la culminación de la transición a la Televisión Digital Terrestre (TDT), el encendido de una nueva cadena de televisión nacional (Imagen Televisión), la conformación de un nuevo órgano encargado de garantizar la instalación y puesta en marcha de la Red Pública Compartida (PROMTEL), así como la definición del desarrollador de ese proyecto.

Estas entre otros más, constituyen ejemplos de mandatos normativos hechos realidad en 2016.

Por el lado del mercado, se enlistan el anuncio de nuevas estrategias y ejercicio de recursos de inversión, el lanzamiento de nuevas estrategias de precios y servicios, la continuación de ajustes a la baja de precios en telecomunicaciones, así como la entrada de nuevos jugadores y plataformas en el mercado de contenidos audiovisuales, en algunos casos complementarias a la oferta convergente de operadores de telecomunicaciones.

Vale ahora comentar sobre el camino hacia adelante.

El año próximo, la aplicación efectiva de la agenda regulatoria deberá materializar la evolución sectorial de mediano y largo plazos. El año por iniciar 2017 deberá avanzar en la aplicación de medidas asimétricas como la compartición de infraestructura y la desagregación de la red, aún pendientes.

Adicionalmente, deberemos testificar la licitación de frecuencias del espectro para la provisión de servicios de radio de uso comercial y social, así como para la conformación de nuevos canales de televisión; la adjudicación de 130 MHz de la banda de 2.5 GHz y la evaluación al cumplimiento y eficacia de las medidas asimétricas de preponderancia. Estos son tan sólo algunos elementos que deberán llevarse a cabo durante 2017.

Varios de ellos aún no cuentan con fecha para su realización. Sin embargo, corresponde al IFT no demorar su materialización, puesto que de ello depende el desarrollo eficiente de los mercados, pero especialmente su reconfiguración a favor de la competencia.

Sin duda, todos estos elementos impactarán positivamente la dinámica de operación en los mercados que componen al sector convergente.

Cabe esperar que el IFT defina como prioritarios estos elementos en su Programa Anual de Trabajo 2017, a conocerse en enero próximo. De su oportuna implementación dependerá la materialización de los largamente postergados beneficios para los usuarios y la competencia efectiva en telecomunicaciones.

Ernesto Piedras, The Competitive Intelligence Unit

Cinco razones para automatizar las redes

Mediante la implementación de herramientas y prácticas de automatización, las redes pueden soportar mejor las cargas de trabajo, proporcionar un nuevo nivel de dinamismo y velocidad y reducir costos. Scott Sneddon, director senior de SDN y Virtualization de Juniper Networks nos habla de estos 5 beneficios de la automatización de red.

 

Adoptar las novedades ASAP

Las nuevas tecnologías cambian constantemente y para mantenerse competitivas, las empresas deben estar al día. Pero la mayoría de las redes empresariales son entornos muy complejos, repartidos por múltiples geografías y despliegues en la nube. La automatización puede abordar este desafío acelerando el proceso, permitiendo que las empresas se beneficien de las nuevas tecnologías antes.

 

Permitir la comunicación y cohesión entre centros de datos

Los procesos manuales en las redes pueden asfixiar la elasticidad y la fluidez de las cargas de trabajo virtuales, que pueden moverse no sólo dentro de un servidor, sino también entre servidores, bastidores y centros de datos. La automatización puede mejorar el flujo entre estas piezas de infraestructura eliminando la necesidad de mano de obra y reducir los tiempos. Por ejemplo, si al lanzar un nuevo servidor virtual y para ello hay que configurar los interruptores. Con la automatización, estas dos acciones pueden sincronizarse y configurarse simultáneamente.

 

Reduce los gastos operativos

Las infraestructuras automatizadas no sólo ampliarán las capacidades de la red, sino que también ayudarán a estirar cada peso invertido. Al eliminar los procesos tediosos y manuales, mejora el rendimiento de la inversión en infraestructura.

 

Reducir errores y aumentar la resistencia

La automatización de las tareas manuales, reducirá la cantidad de errores de red y ayudará al entorno a funcionar sin problemas. Además, muchas soluciones de automatización responden instintivamente a errores de red sin intervención, mejorando la flexibilidad empresarial y asegurando que los empleados tengan acceso a las aplicaciones y los datos que necesitan cuando lo requieran.

 

Crear trabajos de TI mejores y más eficientes

Mediante la automatización de tareas monótonas como la puesta en escena de nuevas tecnologías, las empresas permiten que el personal de TI se concentre en un trabajo más creativo, incluyendo maneras de hacer la red más eficiente y de vanguardia. Al promover un trabajo más gratificante, las empresas mejorarán la cultura de su organización y la implicación de sus empleados.

 

Ryan Francis

AT&T Threat Intellect, para proteger la conexión de red

Existen muchos dichos acerca de la colaboración: Dos cabezas piensan mejor que una; muchas manos hacen el trabajo ligero; el todo es más que la suma de sus partes y otros más.

Estos dichos también aplican para la seguridad cibernética, donde cada persona u organización que se une a un proveedor de servicios de seguridad gestionada (MSSP por sus siglas en inglés), trae consigo una oportunidad para aportar inteligencia, conocimiento compartido y un vínculo que puede dificultarle a los hackers tener éxito en sus ataques cibernéticos.

Más de mil millones de puntos finales están protegidos en la red de AT&T, ésta transporta más de 100 petabytes de datos cada día, (400 veces más información de la que se encuentra en la Biblioteca del Congreso de Estados Unidos). También se realizan más de 30,000 millones de escaneos para detectar riesgos, se aíslan 400 millones de mensajes spam en nuestra red IP y se administran más de 3,000 millones de eventos de amenazas todos los días.

Como parte del núcleo de las capacidades de seguridad está AT&T Threat Intellect, la culminación de gente, procesos y tecnologías que da una visibilidad sin precedentes a metadatos, inteligencia y análisis. Threat Intellect es un elemento clave mediante el cual AT&T percibe y se adapta rápidamente a los problemas globales de seguridad y amenazas más recientes. Todos estos miles de millones de escaneos, aislamientos y capacidades de gestión de amenaza ofrecen ventajas inigualables.

Sin estar conscientes del peligro, los clientes están protegidos, identificado tendencias de amenazas y formas avanzadas para contrarrestar ataques. La dimensión de una red como la de AT&T permite ofrecer una amplia base de conocimiento compartido que beneficia a todas las personas que lo utilizan.

 

Para que una conexión de red sea considerada segura, se debe adherir al menos a tres principios básicos:

  1. Los terceros no deben tener acceso a datos confidenciales que no les correspondan.

  2. Debe verificarse la identidad de la persona o personas interesada(s) en acceder a los datos.

  3. La información intercambiada se debe resguardar para evitar que sea descubierta, capturada o alterada por personas desconocidas.

Las conexiones que no son seguras son más vulnerables a brechas de datos, robo de identidad, filtración de datos, espionaje, ataques cibernéticos maliciosos y una serie de otros crímenes cibernéticos.

Oficiales de gobierno han indicado que la ciberseguridad es una preocupación importante para su economía, la defensa nacional y para la totalidad del gobierno. El costo promedio de una brecha de datos para las empresas de Estados Unidos aumentó a $7 millones de dólares, y se estima que diariamente cada minuto, 19 personas son víctimas de robo de identidad.

Con el gran crecimiento en dispositivos conectados, AT&T le ofrece a sus clientes activar una conexión que mejore la seguridad de todo el nexo, y así contribuyen al crecimiento de un ecosistema impulsado por una red segura.

 

Charlie Barker, Value Marketing Director de AT&T

¿Qué ocurrió este año en el mundo TIC? Parte 2

Mañana es el último día del año, un 2016 que nos ha dejado una serie de importantes avances, fusiones, e incluso tropezones dentro del sector TIC. En la primera parte de este recuento vimos la generación de Dell Technologies, aniversario de Linux, entre otros. Aquí le tenemos la segunda parte de este repaso a lo más destacado de lo que pudimos ser testigos este 2016.

Puede ver la primera parte haciendo clic aquí.

El peligro de incendio en los Galaxy Note 7

La noticia resultó tan impactante y extraña como perjudicial para Samsung. Varias baterías de los modelos Galaxy Note 7 de la compañía surcoreana se incendiaron y el aluvión de quejas, imágenes y mensajes de los usuarios afectados ha terminado con la decisión del fabricante de retirar el terminal del mercado. La organización no supo reaccionar a tiempo y encontrar el problema que hacía que los dispositivos se sobrecalentaran de tal manera.  Además, las presiones de operadores tan importantes como AT&T, T-Mobile y Verizon, que decidieron sustituir esos modelos por otros de gama similar, terminaron por enterrar al Galaxy Note 7, que ha pasado a la historia y no precisamente por sus prestaciones.

En su corto trayecto de vida, el dispositivo dejó un descenso en bolsa importante para la compañía, y un reguero de críticas y burlas que han impactado notoriamente en la imagen de la compañía. Incluso, en algunos vuelos nacionales e internacionales fueron prohibidos a bordo, tal es el caso de Aeromexico e Internet. Sin embargo, expertos afirman que la compañía surcoreana se reinventará. Veremos si en el 2017 el fabricante se saca algún as de la manga.

 

Microsoft se abre un perfil en Linkedin

El golpe de efecto de la tecnológica en el sector de las redes sociales de servicios le ha costado 23.260 millones de dólares. En el mes de junio, el gigante de Redmond anunciaba la compra de Linkedin  con el objetivo de vincular los datos de la red social en Office y otros servicios. Por ejemplo, habrá una relación más estrecha e

ntre las funciones de currículum en Word y Linkedin, de manera que los usuarios que redacten sus CV en Word puedan actualizar sus perfiles de la red social automáticamente.

Sin embargo, el proceso de fusión no ha sido para nada un camino fácil. Salesforce, que también estuvo en la carrera por adquirir Linkedin, intentó bloquear la transacción alegando motivos anticompetitivos. Finalmente, y tras una serie de concesiones que Microsoft ha hecho a sus competidores, la empresa tiene la luz verde para culminar la operación.

microsoft-linkedin-700x400

Apple y los favores fiscales en Irlanda

La Comisión Europea ha determinado que Irlanda otorgó ventajas fiscales indebidas a la tecnológica por valor de hasta 13,000 millones de euros. Según la UE, esta práctica es ilegal, ya que ha permitido a la compañía de la manzana pagar muchos menos impuestos que otras empresas. Irlanda deberá proceder ahora a la recuperación del montante.

 

Yahoo tiene un problema con la seguridad

Si para entrar en el ranking de las noticias más destacadas del año se trataba de romper hitos, Yahoo puede estar de enhorabuena. O no. La compañía ha sido la protagonista de la mayor fuga de datos de la historia. La información personal y credenciales de más de 1.000 millones de cuentas fueron robadas al buscador, con el agravante de que el incidente se produjo en agosto de 2013, lo que representa más de tres años con una brecha de tal magnitud abierta.

Y, por si fuera poco, este no es el único caso que ha sufrido la compañía este año.  En el mes de septiembre la firma ya reportó otra incidencia que afectaba a 500 millones de cuentas y en la que entraban en juego datos bancarios sobre los usuarios. La (falta de) seguridad se ha cebado este año con Yahoo, justo cuando había sido anunciada su venta a Verizon por 4.830 millones de dólares. Ahora, la operación ha dado un vuelco es Verizon quien tiene la sartén por el mango y quién puede renegociar las condiciones de la fusión.

 

IDG.es

Las computadoras no quieren humanizarse

Las computadoras actuales pueden analizar sentimientos que expresamos en las redes sociales, incluso podemos ver expresiones faciales en robots para hacernos creer que están felices o enojados. A pesar de todos estos avances en computación, nadie cree seriamente, que puedan experimentar sentimientos.

Sin embargo, otras facetas de la Inteligencia Artificial, han visto avances impresionantes tanto en hardware como en software en los últimos 12 meses.

Deep Blue era un oponente de ajedrez de primer nivel que no se regocijaba cuando ganaba o se enfadaba cuando perdía. Hasta este año, sin embargo, las computadoras no igualaban a un humano en otro juego de mesa, Go. Esto cambió en marzo cuando AlphaGo, desarrollado por la subsidiaria de Google DeepMind, venció a Lee Sedol, entonces el jugador más fuerte del mundo, 4-1 en un torneo a cinco partidas.

El arma secreta de AlphaGo era una técnica llamada aprendizaje del refuerzo, en la que un programa calcula cuáles son las acciones que lo aproximan a su objetivo y refuerza esos comportamientos, sin necesidad de que una persona le enseñe qué pasos son correctos. Eso significaba que podía jugar repetidamente contra sí mismo y aprender gradualmente qué estrategias le salían mejor.

Las técnicas de aprendizaje de refuerzo han existido por décadas, también, pero es recientemente cuando la computación ha tenido suficiente capacidad de procesamiento (para probar cada ruta posible) y la memoria (para recordar qué pasos llevaron a la meta) para jugar a alto nivel a una velocidad competitiva.

 

El hardware con mejor rendimiento impulsa la IA

En mayo, Google reveló su TPU (Tensor Processing Unit), un acelerador de hardware para su algoritmo de aprendizaje profundo TensorFlow. Los ASIC (circuitos integrados específicos de la aplicación) pueden ejecutar los tipos de cálculos utilizados en el aprendizaje de máquinas mucho más rápido y con menos potencia que las GPUs, y Google ha instalado varios miles de ellos en sus servidores en las ranuras previamente reservadas para discos duros.

El TPU fue una de las razones por las que AlphaGo funcionó tan rápido, pero Google también ha utilizado el chip para acelerar las funciones de mapas y navegación en Street View y mejorar los resultados de búsqueda con una nueva herramienta AI llamada RankBrain.

Google mantiene TPU para su uso propio, pero otras empresas están lanzando hardware adaptado para aplicaciones de IA. Microsoft, por ejemplo, ha equipado algunos de sus servidores Azure con FPGAs ( Field Programmable Gate Array Field Programmable Gate Array) para acelerar ciertas funciones de aprendizaje de la máquina, mientras que IBM está señalando similares con una gama de servidores PowerAI que utilizan hardware personalizado para vincular sus Power CPU con GPUs Nvidia.

fpga

Para las empresas que quieren implementar tecnologías de vanguardia de IA sin desarrollar todo desde cero, el acceso al hardware de alto rendimiento es el principio, pero suficiente. Los operadores de la nube reconocen esto, y están ofreciendo el software de IA como servicio. Amazon Web Services y Azure de Microsoft han agregado APIs de aprendizaje de máquinas, mientras que IBM está construyendo un negocio alrededor del acceso a la nube a su IA de Watson.

El hecho de que estas herramientas de hardware y software estén basadas en la nube también ayudará a los sistemas de IA.

Ser capaz de almacenar y procesar enormes volúmenes de datos sólo es útil para la IA que tiene que acceder a grandes cantidades de datos para aprender, por ejemplo, si su información sobre el clima. El acceso a todos esos datos en bruto, en lugar del subconjunto minucioso, procesado y etiquetado por los humanos, que estaba disponible para las generaciones anteriores, es uno de los factores fundamentales que transforman la investigación de la IA hoy en día, según un estudio de la Universidad de Stanford.

IDG.es

Robo de datos, ransomware y phishing marcarán el 2017

En 2016, el cibercrimen se caracterizó por el incremento en el número de víctimas y el decrecimiento del impacto financiero. De acuerdo con el Informe Norton sobre Ciberseguridad – una investigación anual que analiza el estado de la seguridad cibernética en 21 países.

El estudio señala que la cantidad de usuarios afectados por la ciberdelincuencia ascendió a 689 millones de personas, mientras que las pérdidas económicas pasaron de 150,000 a 125,000 millones de dólares durante este año.

Los riesgos cibernéticos como el robo de datos, ransomware y phishing dejaron una huella importante en 2016. Norton afirma que, por lo menos cada 2 segundos, alguien sufrió una malversación de su información y cerca del 57% de los ataques de cibersecuestro registrados a lo largo del año fueron aplicados en usuarios promedio.

Tu información es cada vez más vulnerable

La firma de ciberseguridad señala que ya no solo se trata de simplemente robar datos. Los hackers cada vez se centran más en utilizar información ajena para dar un golpe más grande, especialmente, contra las corporaciones financieras. Además, los ciberdelincuentes encontrarán mayores beneficios en la filtración de cantidades importantes de datos sensibles.

La nube también se convertirá en uno de los objetivos principales de los ladrones de información, ya que la confianza en este tipo de almacenamiento continúa en crecimiento.

El cibersecuestro se perfecciona

En años anteriores, los expertos en seguridad afirmaban que el ransomware se encontraba en descenso, pero este delito volvió a tomar fuerza en 2016. De hecho, en marzo alcanzó un récord de 56,000 ataques, los cuales superan significativamente la marca promedio de 35,000 mensuales.

En 2016, también la tarifa de rescate exigida por los cibercriminales se incrementó de 294 a 679 dólares. El aumento tiene que ver con la gran variedad de familias de ransomware que han surgido en el último año, gracias a la habilidad de los hackers para integrar nuevas y complejas funcionalidades que van más allá de encriptar archivos o bloquear un dispositivo.

El crypto-ransomware es uno de esos sofisticados ataques que ha ganado popularidad y se espera que prolifere aún más durante el 2017.

La técnica, perfeccionada desde hace más de dos años, utiliza un método de encriptación inquebrantable, que ni siquiera es posible descifrar a través de la eliminación del malware. Si el usuario no tiene un respaldo de sus documentos, seguramente terminará por pagar el rescate.

Por otra parte, los criminales encontrarán en el Internet de las Cosas (IoT, por sus siglas en inglés) una nueva oportunidad para extender los horizontes del ransomware. Actualmente, por lo menos uno de cada cinco dispositivos domésticos conectados no cuenta con las medidas de protección necesarias, mientras que 6 de cada 10 propietarios piensan que estos artículos están diseñados con los mejores estándares de seguridad. En 2015, Symantec reportó el hackeo de televisores, juguetes, refrigeradores y cerrojos inteligentes; además del hallazgo de 50 vulnerabilidades en termostatos y reguladores de energía.

Phishing, la fachada perfecta

¿Recibió un correo electrónico supuestamente de tu banco donde solicitan datos financieros? ¡Cuidado! Podrías caer en las redes del phishing y perder tus ahorros.

El delito se caracteriza por disfrazar audazmente un sitio web o email malicioso y lograr que tenga la apariencia de ser parte de una empresa fidedigna con el fin de obtener información sensible del usuario para cometer alguna actividad ilícita.

El informe sobre ciberseguridad señala que el phishing es uno de los riesgos cibernéticos de mayor crecimiento. Por lo menos 3 de cada 10 usuarios no saben identificar este tipo de ataque y solo cerca del 13% sabe diferenciar un correo legítimo de uno falso en su bandeja de entrada. Mientras que el 80% de los usuarios afectados por esta actividad han enfrentado las consecuencias de su inexperiencia como la instalación no autorizada de programas maliciosos en sus dispositivos.

Los expertos de Norton afirman que este ciberdelito evolucionará en 2017 y los hackers buscarán infectar una mayor cantidad de dispositivos con un solo ataque al propagar el phishing a través de un link y no como archivos adjuntos.

N. de P. Norton

La tercera revolución industrial: 2017 y más allá

El final del siglo XIX marcaron un período monumental de nuestra historia, en el que la Segunda Revolución Industrial llevó la innovación masiva a un ritmo nunca antes visto. El motor de combustión interna y el petróleo hacían funcionar nuevas máquinas, las piezas intercambiables proporcionaban una mayor agilidad y las cadenas de montaje creaban una velocidad de fabricación inimaginable. Avancemos rápido hasta hoy, cuando nos enfrentamos a una nueva revolución basada en temas muy similares. La Internet de las Cosas (IoT) y las “cosas” inteligentes están cambiando cada aspecto de nuestras vidas; la inteligencia artificial, la automatización y la agilidad están alimentando un ritmo de innovación que, una vez más,es revolucionario. Además, la computación en la nube ha democratizado la innovación del software, permitiendo así a cualquier persona, en cualquier lugar, llevar rápidamente nuevas ideas y tecnologías al mercado.

Las revoluciones industriales no son sólo grandes explosiones de avances tecnológicos, sino más bien el resultado de innumerables avances incrementales que finalmente culminan en lo que consideramos importantes innovaciones históricas.

El año 2017 pondrá a disposición del gran público muchas de esas innovaciones incrementales pero históricamente significativas.

 

La hiperconvergenciase populariza

Durante los últimos años, he planteado constantemente la misma pregunta en las  reuniones: “¿Considera usted que una infraestructura ágil y programática puede marcar la diferencia en una empresa, o es simplemente algo que debe tenerse para mantenerse competitivo?”.Tanto si esa infraestructura se administra en un centro de datos privado como si se consume como parte de un servicio en la nube, los líderes de TI lo ven constantemente como “apuestas en la mesa” y no como un diferenciador. Dicho esto, no es de extrañar que las soluciones de infraestructura hiperconvergente (HCI) hayan crecido tan rápidamente, pues permiten a las organizaciones de TI adoptar un enfoque de infraestructura modular simple que permite contar con más tiempo para la diferenciación. El año 2016 fue un año de gran crecimiento para HCI, las inversiones se consideraban decisiones inteligentes y pragmáticas. En 2017, esas inversiones serán consideradas obvias.

 

La revolución SDN da impulso

Para hacer adecuadamente una red definida por software (SDN, por sus siglas en inglés), son necesarios enfoques revolucionarios. Los nuevos paradigmas de entrega de software requieren nuevos enfoques aplicados de una manera evolutiva, no con un cambio completo, sino marcando el camino primero con una sola aplicación. A principios de este año, observé cómo ‘los años 90 llamaban y querían recuperar su DMZ’. Estamos en la cúspide de algo muy especial en la historia de las redes y la seguridad, un cambio importante en la forma en que se interconectan y se aseguran las cargas de trabajo. La seguridad de las cargas de trabajo puede manejarse ahora por el nombre de la aplicación (como un identificador único global), en lugar de por una dirección IP: un número arbitrario que crea un trabajo significativo para los equipos de seguridad cada vez que una aplicación se traslada o se reinstala en otro lugar. Basar la seguridad en el nombre de la aplicación permite que el contexto de seguridad simplemente siga la aplicación, sin importar a dónde vaya.

Respecto a la seguridad de la red, dentro de 10 años estaremos mirando hacia atrás y preguntándonos: “¿Puedes creer que una vez lo hacíamos así?”.El 2017 marca un año en que las organizaciones tendrán que tomar una decisión crítica: ¿Continuará usted desarrollando la red y la seguridad utilizando una arquitectura heredada que se base en hardware y que sea conveniente para TI, o se decidirá por un método basado en software que ofrece mayor agilidad y seguridad?

Las redes definidas por software serán utilizadas por miles de empresas en 2017 para que sus operaciones en la red y la seguridad logren un avance monumental.Por medio de la microsegmentación, las aplicaciones obtendrán una granularidad de seguridad equivalente a que cada aplicación tenga un centro de datos dedicado. Esta solución también sentará las bases para el cifrado de redes de extremo a extremo, que durante mucho tiempo ha sido interesante, pero difícil de alcanzar.

Siempre necesitaremos el hardware de redes construido específicamente, y seguirá habiendo importantes innovaciones de hardware. Dicho esto, 2017 traerá madurez al campo en que las organizaciones discurren que un SDN con requisitos de hardware exclusivo no es SDN, sino marketing inteligente.

SDN en 2014

Infraestructura globalmente invariable como código

La infraestructura programática ha pasado de ser un requisito básico para respaldar la agilidad de los negocios, ya que, cada vez más, todas las aplicaciones requieren servicios programáticos de computación, redes, almacenamiento y seguridad. Esa noción es válida independientemente de la aplicación, ya sea tradicional, contenedorizada, sin servidor, etc.

En 2016, vi una madurez significativa en los mercados de PaaS y de contenedores, en el sentido de que los vendedores en el ecosistema se están aceptando mejor las funciones que desempeñarán. Ningún vendedor puede hacer todo excepcionalmente bien; he visto a los vendedores en el campo de contenedores y de PaaS más ansiosos de asociarse con proveedores de infraestructura, y viceversa. Nuestro papel ha sido hacer que todos los servicios de infraestructura programática sean sencillos, escalables y seguros, a la vez que se exponen por medio de unas APIs nativas de contenedores o PaaS. Ese es un modelo que funciona bien para todas las partes involucradas.

Lo que permitirá a las organizaciones apoyar cualquier aplicación, contenedor, solución PaaS abierta y cualquier cosa que pueda ocurrir a continuación con una infraestructura y una capa operativa globalmente invariables. Así que no importa dónde se ejecute una aplicación, obtendrá una administración y procesos operativos constantes, que incluyen seguridad, auditoría, redes, administración de datos, administración de rendimiento, cumplimiento de SLA, copia de seguridad, recuperación de desastres y más. Mientras los contenedores y PaaS proporcionan entrega de aplicaciones y consistencia de tiempo de ejecución, independientemente del centro de datos o de la nube.

 

La computación de usuario final es cada vez más estratégica

Hoy en día, la computación de usuario final (EUC,por sus siglas en inglés) no es sólo estupenda y emocionante, sino que es cada vez más estratégica. Veamos el caso de la máquina Coca-Cola Freestyle, por ejemplo. Coca-Cola no cambió el refresco, cambió la experiencia social de consumirlo. Mi hijo es un creyente. Él puede hacer su propia soda personalizada con la aplicación móvil de Coca-Cola, compartir el código QR personalizado con amigos, y con él ellos pueden probar su nuevo refresco en cualquier máquina de Coca-Cola Freestyle.

EUC es una de las áreas más rápidas y emocionantes de TI, y ni siquiera he tocado las implicaciones dela Internet de las Cosas (IoT). ¡Hablaré más sobre eso en mi próximo aporte publicado! Para finalizar, las empresas están centralizando cada vez más la toma de decisiones por la EUC, ya que combinancomputadoras portátiles, de escritorios, sitios web, dispositivos móviles, identidad, dispositivos inteligentes, contenido y experiencia de usuario o consumidor. Así como la madurez de la nube trajo nuevas funciones como el arquitecto de la nube, 2017 introducirá la función cada vez más estratégica del Digital Architect (Arquitecto Digital).

 

Cris-Wolf-VMWare

Por: Chris Wolf,

CTO VMware Americas.

Los temas tecnológicos que no trascendieron en 2016

En algunos casos, estábamos distraídos por otras cosas, en otros casos nadie quería decir algo negativo sobre una estrategia que prometió mucho éxito y, finalmente, en algunos casos probablemente no se nos ocurrió.

La ciberseguridad estadounidense

Ante las elecciones norteamericanas, la información se centró en el servidor de correo electrónico de Hillary Clinton, pero ¿qué pasa con la seguridad que permitió que existiera?  ¿cómo es posible que exista un servidor de correo electrónico deshonesto durante 4 años? Por lo menos debería haber sido señalado como un servidor de correo electrónico desconocido y potencialmente hostil y revisado. Sin embargo, no lo fue.

Realidad virtual

Si el mercado rechazó 3D en gran parte porque no le gustó la idea de pagar 100 dólares extras por unos lentes, cómo es posible que la gente piense que la realidad virtual (VR) tendrá éxito con un precio de 800 dólares por unos visores.

Amazon Eco y Google Home

Parece increíble que Apple se haya perdido esta oportunidad. Es básicamente un gran iPod con un asistente digital similar a Siri incorporado. Apple debería haber sido capaz de hacer este producto, sin embargo, está centrada en automóviles autónomos.

Análitica presidencial

El presidente Obama utilizó la analítica eficazmente contra McCain y Romney en las elecciones. Esto le permitió implementar mejor los recursos y obtener un voto más efectivo, obteniendo dos victorias. Clinton trabajó para Obama y este apoyó la candidatura de Clinton. Entonces, ¿por qué Clinton no usó el equipo analítico de Obama para asegurar su resultado electoral? Era como si hubiera empezado desde cero.

Y dado que prácticamente toda la industria de la tecnología la apoyaba, ¿por qué no la ayudaron a hacer lo correcto?

Noticias falsas

Rusia es una gran fuente de noticias falsas y Methbot está generando ganancias por 3 millones al día en estos sitios falsos. Por qué en lugar de pedir a Rusia que tome medidas, no sería una mejor solución llamar a Eric Schmidt, presidente de Google y amigo personal de Obama y pedirle que haga algo para acabar con esto.

Sólo la punta del iceberg

Estas son sólo algunas de las cosas que creo que deberíamos haber estado hablando y no hemos hecho. Estoy un poco preocupado porque parece que el gobierno de Estados Unidos está cada vez más desorientado sobre ciberseguridad. Al final, me alegraré de despedirme de 2016 y espero que tengamos por delante de un mejor 2017.

Rob Enderle

 

¿Qué ocurrió este año en el mundo TIC? Parte 1

Estamos a sólo un par de días de cerrar este año, que nos ha dejado una serie de importantes avances, fusiones, e incluso tropezones dentro del sector TIC. Aquí les hacemos un repaso a lo más destacado de lo que pudimos ser testigos este 2016.

 

Nace Dell Technologies

El proceso comenzaba a finales de 2015 cuando Dell anunciaba la compra de EMC en la que sería la operación TIC más importante de la historia, por lo menos en cuanto a desembolso (unos 67,000 millones de dólares). Pero fue este año cuando se ha completado definitivamente la fusión y Dell Technologies comenzó a trabajar bajo este nombre. En el horizonte, convertirse en la mayor empresa TIC del mundo y acompañar a las empresas, tanto pequeñas como grandes cuentas, en todos los procesos de su viaje hacia la transformación digital. Para ello, el conglomerado empresarial de este nuevo ‘hiper’ actor del mercado lo completan Boomi, Pivotal, RSA, SecureWorks, Virtustream y VMware.

 

Un cuarto de siglo para Linux y mayoría de edad para Google

Linux,  el sistema operativo libre por excelencia cumplió este año su 25 aniversario dando síntomas de muy buena salud. En este período, ha logrado establecer las bases de los actuales centros de datos y ha sido esencial de cara al despliegue de las infraestructuras cloud. Además, Linux forma parte ya de nuestras vidas con su fuerte presencia en el uso de dispositivos móviles que usamos a diario.

Por su parte, Google es conocido como el gigante que salió de un garaje hace 18 años para convertirse en un revolucionario de internet. Su influencia es tal en la sociedad que incluso el New York Times se preguntaba si el ‘Googlismo’ es una nueva religión. En este tiempo ha conseguido llegar a lo más alto del monte Olimpo de las tecnologías. Veremos las sorpresas que nos depara en los próximos tiempos.

Linux-aniversario

El ‘Brexit’ mueve los cimientos del sector TIC en Europa

La decisión de uno de los países más importantes de la Unión Europea ha hecho que la credibilidad de las instituciones se tambalee. Y, uno de los más afectados es el sector TIC, puesto que representa el hogar del 60% de las sedes europeas de las grandes empresas y la mayor ubicación europea de dicho sector. En este segmento se incluyen multinacionales como Samsung, Sony, Toshiba, Intel, LG, Oracle y Xerox. Éstas se podrían ver aisladas ante un mercado de 500 millones de clientes, y podrían optar por abandonas las islas.

Trabajadores, productos y empresas están en jaque. Un estudio, sin embargo, muestra que otros países de la Unión Europea deben hacer del Brexit una oportunidad para impulsar su mercado, la oferta de servicios electrónicos y el desarrollo de las TIC. Quién sabe si puede ser la alternativa a ‘la city’.

 

HPE escinde su negocio de servicios a CSC

Un año después de la separación con HP Inc, la compañía andaba definiendo aún su nicho de mercado. Si en un principio la empresa dirigida por Meg Whitman pretendía influenciar todo el proceso de transformación digital de las empresas, ahora ha puesto el foco en la nube híbrida y en el Internet de las Cosas.

Esta estrategia explica estos movimientos de venta, como la fusión de su segmento de servicios a CSC y la de parte de sus activos no estratégicos de software a Micro Focus. Así, se abre una batalla de modelos muy interesante para el 2017 entre las grandes multinacionales que apuestan por abarcar todo el segmento del mercado, y las empresas que buscan especializarse en áreas concretas.

Hewlett Packard Enterprise installs new signage on the exterior of its Palo Alto, CA headquarters. CREDIT: Hewlett Packard Enterprise

Apréndase estos términos: ransomware y DDoS

Estos dos son los ataques que han revolucionado el panorama de las ciberamenazas este año. Tanto los ‘secuestros’ de los archivos como los ataques de denegación de servicios se han convertido en tendencia y han hecho estragos en empresas y sociedad. El Internet de las Cosas está ahora en el punto de mira del DDoS, y los usuarios han pasado a formar parte del target de actuación de los hackers que utilizan ransomware. Para combatirlos: inversión, tecnología y formación.

 

IDG.es

Inauguran la primera carretera solar del mundo

La carretera está cubierta por 2.800 metros cuadrados de paneles generadores de electricidad (que han sido ubicados sobre un tramo de asfalto ya existente), fue inaugurada recientemente por la ministra de Ecología, Ségolène Royal.

En Francia, concretamente en la zona de Normandía, acaba de inaugurarse la primera carretera del mundo construida con paneles solares, que ha sido bautizada como Wattway. Se trata de una ruta de 1 Km, situada en el pequeño pueblo de Tourouvre-au-Perche.

El costo de la construcción fue de más de 5 millones de dólares, será utilizada por 2,000 conductores al día durante un período de prueba de dos años. En este tiempo se comprobará si la carretera es capaz de generar suficiente energía para alimentar el alumbrado público del pueblo donde residen unas 3,400 personas.

Antes de su instalación, se han estado realizando pruebas con los paneles solares en 4 estacionamientos, en distintos lugares de Francia. La empresa francesa que ha desarrollado esta carretera solar es Colas, filial de Bouygues. La tecnología utilizada es el resultado de más de cinco años de investigación, en colaboración con el Instituto Nacional de Energía Solar (INES).

Colas estima que la producción anual de esta carretera será de unos 280 Megavatios-hora, lo que significa 767 Kilovatios-hora diarios, con picos de hasta 1.500 kWh en verano.

Patricia Figuero