Día: 17 mayo, 2016

Cinco preguntas que Google deberá responder en la conferencia I/O

La conferencia I/O de Google para desarrolladores  empieza mañana miércoles y ya se esperan grandes anuncios sobre realidad virtual, Android e Internet of Things. En un cambio de estilo, el espectáculo se llevará a cabo al aire libre en el Shoreline Amphitheater en Monuntain View, California. Así que Google ya ha informado a la prensa de que no olviden traer protector solar junto con sus PCs portátiles y dispositivos móviles. Aquí van cinco preguntas que los ejecutivos de Google deben responder durante el curso de la conferencia de este año.

 

¿Cuáles son los planes para Internet of Things?

Google ha hecho grandes apuestas en el Internet of Things, como Brillo o las herramientas para desarrolladores Weave desde la adquisición de Nest en 2014. Una de ellas, el router inalámbrico OnHub que Google anunció el año pasado. Está claro que la compañía está interesa en desempeñar un papel mayor como parte del crecimiento del mundo de los dispositivos conectados a Internet, pero ya hace algún tiempo que no se ha escuchado nada importante por su parte en el ámbito del IoT. Aunque ha habido algunos signos al respecto. Un perfil reciente del equipo de Nest mostró a un grupo consumido por las luchas internas y plagado de incumplimientos de plazos. El I/O sería un buen escenario para que Google mostrara algo nuevo e interesante del equipo de Nest, aunque podría estar fuera de lugar entre las ofertas más enfocadas a los desarrolladores.

De una forma u otra, espero que la compañía invierta algo de tiempo para hablar sobre el IoT, considerando que reúne una gran cantidad de los intereses de Google, incluyendo los servicios de backends en la nube y Android.

 

¿Qué nuevas características podemos esperar de Android N?

A diferencia de años anteriores, cuando Google lanzaba su versión previa para desarrolladores de la siguiente versión de Android en la I/O, la compañía ya ha lanzado una versión alpha de su siguiente gran actualización que está disponible para descargarse. Con esto podemos hacernos una idea de qué podemos esperar de la nueva de Android, que incluye un conector para el ratón, un modo en ventana flotante y nuevos emojis. Pero aún espero que Google desvele más de lo que podrá ofrecer N cuando llegue a finales de año, especialmente si la compañía tiene por revelar más características potentes destinadas a desarrolladores.

android-n

¿Por qué las empresas deberían invertir en el workplace digital de Google?

La compañía ha estado presionando e intentando que las empresas compren su versión del workplace impulsada por los servicios y hardware de Google. La conferencia podría ser un buen lugar para dar a conocer las herramientas para los desarrolladores dirigidas a los usuarios de negocios y hacer más que un lanzamiento a personas que se están pensando seguir adelante con Google Apps for Work o Google Cloud Platform.

 

¿Qué hay previsto para la realidad virtual?

Google está haciendo algunos movimientos muy serios en el ámbito de la realidad virtual. Amit Singh, exjefe de Google for Work, anunció la semana pasada que estaba cambiando su enfoque hacia la realidad virtual. El exjefe de relaciones públicas de Android también se ha cambiado al departamento de realidad virtual de la casa. Está claro que Google está planeando grandes cosas en esta área. La compañía también ha agregado soporte de realidad virtual para su aplicación de Youtube para iPhone, por lo que los usuarios de los smartphones de Apple podrán ver video a través del visor Google Cadboard de realidad virtual. Se rumorea que están trabajando en un producto “Android VR”, aunque de momento no se sabe exactamente de qué se trata.

La realidad virtual es un gran negocio actualmente, con compañías como Facebook, Samsung o HTC trabajando en sus dispositivos. Especialmente por su background en Android y YouTube, Google parece la más adecuada para convertirse en un jugador incluso más grande en el mercado de la realidad virtual.

test-samsung-gear-vr-oculus-03

¿Por qué se celebra al aire libre?

La guía de Google para los asistentes a la conferencia sugiere que traigamos protector solar y una chaqueta fina ya que vamos a esta fuera todo el día durante las sesiones. A diferencia de las conferencias de años anteriores que se celebraron en centros de convenciones, la compañía ha organizado su I/O de este año al aire libre en el Shoreline Amphitheater. Sin embargo, aún no está claro el por qué de esta decisión. Algunos observadores han especulado que podría haber algún tipo de exhibición aérea con drones, pero la Administración Federal de Aviación no ha publicado ningún aviso sobre el evento. Shoreline se encuentra cerca de las oficinas de Google en Mountain View, por lo que otros han imaginado que podría estar relacionado con los coches de autoconducción de la compañía. O quizás los cofundadores de Google, Larry Page y Sergey Brin, sólo quieren broncearse.

Pronto lo sabremos. Estaremos atentos.

-Redacción.

Siete errores en la implementación de una solución de negocio

Hoy en día, que las empresas cuenten con una solución de negocios que les proporcione la tranquilidad necesaria para seguir ganando dinero es esencial. Aquí le explicamos los siete errores más comunes que suelen cometer las empresas al implementar una solución de negocio. Conózcalas y evítelas.

 

1. Las expectativas del dueño o de la directiva no están definidas de manera clara, así como tampoco, los resultados que esperan obtener de la implementación de una solución de negocio.

Cuando la empresa no tiene claro lo que quiere y lo que desea obtener de la implementación de una solución de negocio, las expectativas pueden ser muy diversas entre los diferentes actores de la empresa, dando como resultado diferentes visiones en cada uno de los niveles de la misma.

 

2.Se tiene una mala definición sobre el modelo de gestión de las actividades rutinarias, de mejora y de dirección de la empresa. Esto significa que:

─    No hay claridad en las metas de la empresa

─    No se hace un benchmark para medir la evolución o el retroceso

─    No hay claridad de planes de acción cuando se identifican anomalías que afectan la operación

─    No hay estandarización de los procesos y procedimientos operacionales

 

3. Existe una mala definición de los procesos, subprocesos, actividades y tareas. Aquí nos referimos a la falta de estandarización de los procesos operativos de la empresa, lo cual lleva a una situación en el día a día de la empresa que resulta en:

─    Retrabajo

─    Exceso de personal para determinados procedimientos operacionales

─    Despilfarro de recursos

─    Incumplimiento de tiempos

─    Exceso de cargas de trabajo

─    Cuellos de botella en la operación

 

4. El responsable de la implementación de la solución de negocio por parte de la empresa, tiene poco nivel de autoridad para provocar cambios o definiciones. Los usos y costumbres que la empresa tiene arraigados pueden ser un obstáculo importante para cualquier cambio de paradigma, ya que el implementar una solución de negocio implica que la empresa y las personas que forman parte de ella, salgan de su zona de confort. Por ello, cuando el responsable de la implementación no cuenta con el liderazgo dentro de la organización y el apoyo del cuerpo directivo, será incapaz de provocar los cambios que la implementación de una solución de negocio requiere.

 

5. Las personas involucradas en la implementación no cuentan con el perfil adecuado. Las personas son fundamentales para el éxito o fracaso de la empresa, pero será difícil sacar adelante un proyecto de estas características, cuando las personas responsables por parte de la empresa para implementar una solución de negocio no cuentan con:

─    El conocimiento de su área de especialidad

─    No son identificados cómo líderes dentro de la organización

─    No están dispuestos a cambiar los paradigmas o salir de la zona de confort

─    No son proactivos

─    No buscan la mejor solución para la empresa

─    No tienen una visión integral de la empresa

 

6. No hay una adecuada gestión del cambio antes, durante y después de la implementación de la solución de negocio. La organización no cuenta con un proceso de cambio formal, lo cual lleva a una resistencia y puntos de conflicto fuertes dentro de la organización. Esto vuelve conflictivo el proceso de la implementación de negocio en algunas áreas de la empresa, aumentando el estrés laboral y un mal clima organizacional.

 

7. Se asume que la solución de negocio es una automatización de la forma actual de trabajar de la empresa y que todos los problemas se van a resolver. Algunas empresas tienen el paradigma de que una solución de negocio es automatizar su forma de operación manual actual y que la solución se ajustará al 100% a su operación. Nada está más lejos de la realidad, pues si la empresa tiene muy claras sus expectativas, lo que una solución de negocio le permitirá es:

─    Asegurar un mismo lenguaje gerencial en toda la empresa

─    Estimular la cultura de mejora continua dentro de la empresa

─    Comprometer a toda la empresa en el alcance de los resultados esperados

─    Mejorar el entendimiento de las responsabilidades y nivel de autoridad de las personas dentro de la empresa

 

Para evitar caer en estos errores, antes de iniciar la implementación de una solución de negocio es importante que el dueño y el cuerpo directivo se respondan de manera clara preguntas como:

  • ¿Qué queremos obtener con la implementación de negocio?
  • ¿Cuáles son los procesos operativos y estratégicos dónde se observarán los cambios?
  • ¿Por qué es importante mejorar los procesos operativos y estratégicos?
  • ¿Cómo vamos a medir que la solución de negocios cumplió con nuestros requerimientos operativos y estratégicos?

 

El responder este tipo de preguntas les dará la oportunidad de hacer la definición del objetivo del proyecto, buscando que sea: específico, medible, alcanzable, relevante y definido en el tiempo. Así mismo, se tiene que partir de un modelo de gestión donde se establezca la organización del gerenciamiento, la eliminación de las anomalías y la estandarización.

Finalmente, no debe olvidarse que uno de los puntos más importantes para tener éxito, es el capital humano, por lo que es fundamental seleccionar al mejor personal que tenga un conocimiento integral de la empresa, que tenga el conocimiento dentro de su área de experiencia y que cuente con el liderazgo necesario dentro de la empresa, para poder convertirse en el actor de cambio que ayudará a la empresa a transitar por el mismo.

 

 

 Sergio-De-La-Vega_TOTVS-

Por: Sergio De La Vega,

Gerente de Servicios

Norte de América Latina

para TOTVS.

IBM podría tener una alternativa a DRAM más económica

La alternativa al DRAM está un paso más cerca de los centros de datos empresariales con el anuncio de IBM, que ha encontrado una forma de hacerlos más densos. PCM es una de las muchas tecnologías emergentes que aseguran ser más rápidas que las memorias flash y menos caras que el DRAM. Podrían ofrecer a los consumidores y las empresas un acceso más rápido a los datos y a un costo menor, pero hay algunos retos que superar antes de que esto suceda.

La densidad es uno de ellos e IBM asegura que ha alcanzado un nuevo máximo en esta área con una versión de PCM que puede encajar hasta 3 bits en cada celda. Esto es el 50% más que lo que la compañía mostró en 2011 con un PCM de 2 bits. Una mejor densidad supondría permitirá a IBM exprimir más una tecnología que aún es cara. El PCM se incluye en algunos productos pero a una escala relativamente pequeña. Esta iteración podría ser el truco para hacer que el PCM consiga un éxito más grande, según Jim Handy, analista e investigador de Objective Analysis. Hasta ahora se ha mantenido más caro que el DRAM, por lo que no había demasiadas razones para usarlo, explicó Handy.

El PCM funciona cambiando una sustancia parecida al cristal de una forma amorfa a una forma cristalina utilizando cargas eléctricas. Como las flash NAND, continúa almacenado datos cuando los dispositivos está apagados, cosa que no hacen las DRAM. Pero la PCM responde al requerimiento de datos mucho más rápido que una flash: en menos de un microsegundo, comparado con los 70 microsegundos,  según IBM. También dura más que las flash, puede escribir al menos 10 millones de ciclos en comparación a los 3.000 ciclos que permite una memoria flash USB.

 

PCM de 3 bits

Las PCM de tres bits podrían utilizarse como un nivel más rápido de almacenamiento sin arrays, incluyendo las arrays all-flash, por lo que los datos más usados llegarían a las aplicaciones más rápido. También podrían ocupar el lugar en los sistemas de muchos DRAM, acortando los costos de tecnologías como las bases de datos en memoria, según Handy. Los consumidores también podrán beneficiarse de esta tecnología. Por ejemplo, un smartphone que tiene su sistema operativo almacenado en una PCM de tres bits, podría iniciarse en unos pocos segundos, según aseguró IBM.

El punto óptimo entre las memorias y el almacenamiento flash sería lo ideal.  IBM y Micron lo están intentando con 3D Xpoint, que utiliza capas apiladas de los medios. Otras tecnologías emergentes incluyen RRAM (resistive RAM), MRAM (magnetoresistive RAM) y Memristor.

Como en 3D Xpoint, las PCM de tres bits podrían abrirse paso hace el éxito a gran escala con el apoyo de algún fabricante de chips, según Handy. Intel está trabajando para hacer que 3D Xpoint trabaje con x86, mientras que IBM está allanando el camino de las PCM con esta arquitectura Power. Este tipo de entradas es fundamental para la producción a gran escala, que es lo que impulsa la bajada del precio en las nuevas tecnologías.

 

Nuevas características

IBM ha añadido dos características que hacen que esta nueva forma de PCM sea posible. Una de ellas es la manera de ajustar lo que llaman “drift”, que puede degradar gradualmente las habilidades de la memoria para almacenar los valores correctos. La otra cuenta los efectos del calor en las PCM, por lo que pueden funcionar de forma fiable a temperaturas normales de los sistemas.

Otra pieza del puzle es cómo llevar los datos al procesador sin disminuir la velocidad de los datos por el camino. IBM está apostando por CAPI (Coherent Accelerator Processor Interface), un protocolo de alta velocidad utilizado en servidores basados en Power. CAPI se ejecuta en la parte superior de la interface física PCIe.

IBM no ha comunicado cuando llegarán las PCM de tres bits a los sistemas del mercado masivo, en parte porque la empresa no produce memorias y tendrá que buscarse un socio- ya cooperó con SK Hynix para producir PCM en el pasado. Aunque, según la compañía, podrían necesitar entre dos y tres años para que estén disponibles a gran escala.

 

Stephen Lawson

El valor mercadológico del Wi-Fi

Cada vez hay menos diferencias entre lo que vemos en las películas de ciencia ficción y lo que vivimos diariamente. Actualmente algunos sistemas de inteligencia y automatización nos identifican sin que hayamos hecho nada directamente para ello. Tecnologías como las que ya tenemos y usamos como la conectividad inalámbrica Wi–Fi están siendo usadas como herramientas en nuevos servicios y actividades tanto de negocios como de entretenimiento.

Sobre la infraestructura inalámbrica que tienen las empresas se han empezado a instalar nuevos servicios debido a que las necesidades de la conectividad cada vez son más altas. Tal es el caso de los servicios de autenticación que entre otras ventajas, permiten agilizar los procesos de registro en diversas aplicaciones.

Los servicios de autenticación son muy útiles en empresas e instituciones como escuelas y universidades. En el caso de las instituciones educativas los alumnos, maestros o trabajadores que se hayan registrado previamente no tendrán que teclear su usuario y contraseña cada vez que quieran conectarse a la red inalámbrica del plantel. Simplemente al acercarse a un punto de acceso de la red de la escuela el sistema de autenticación identificará y dará acceso al usuario. Todo esto funciona con los certificados de autenticación de la tecnología Cloudpath, la cual se instala en los dispositivos.

De esta manera cada uno de los usuarios deberá registrarse solamente una vez durante el periodo de validez del certificado que sea otorgado por el administrador de la red inalámbrica. Naturalmente esto repercute en el ahorro en tiempo para cada usuario y de recursos para la administración de la red que además puede automatizar y agilizar trámites que antes se hacían en una ventanilla.

Visto desde otro ángulo, los sistemas de autenticación también benefician a la propia institución o compañía ya que permite identificar a quienes utilizan la infraestructura de conectividad que tiene instalada sin que puedan compartirse contraseñas como normalmente se hace en los sistemas tradicionales de autenticación.

Y si podemos saber quiénes se conectan a la red ¿Por qué no aprovechar esa información para ofrecerles a esos visitantes datos que les resulten de interés personal? O mejor aún ¿Por qué no explotar esa información y obtener ganancias que puedan pagar la inversión hecha en la instalación de la red? Es aquí en donde se ubica el enorme valor mercadológico de la autenticación de los usuarios en las redes Wi-Fi.

Ruckus-wifiExisten herramientas adicionales que funcionan con los sistemas de Wi-Fi y que otorgan el libre acceso a la red a los usuarios a cambio de que éstos ingresen ciertos datos personales, como los perfiles de redes sociales. Dado que prácticamente nadie puede resistirse a la tentación de navegar gratis es un hecho que la empresa que administra el sistema de autenticación contará con una enorme cantidad de información para identificar a los usuarios de un sitio público.

Esta información puede incluir detalles de cada usuario de la red como sexo, edad, intereses, gustos, etc. La propia empresa o alguna otra que tenga acceso a dichos datos podrá enviar  información que resulté interesante para cada usuario y llevarlo a conocer un servicio o producto.

He visto que actualmente en las empresas existe una tremenda comunicación entre el departamento de mercadotecnia y el área de sistemas porque se requiere de un análisis de comportamiento para saber qué necesitan los clientes. Es por eso que estas áreas necesitan comunicarse y trabajar en forma coordinada. La publicidad necesita de la tecnología ahora más que nunca.

Los sistemas de mercadotecnia directa son una realidad y los escritores de guiones de cine tendrán que forzar su imaginación si quieren volver a sorprendernos.

 

Por: Juan Carlos Cabrera, Country Manager de Ruckus Wireless en México.

El desafío de la seguridad y las redes en las Arquitecturas Definidas por el Software

He tenido la oportunidad de reunirme con una gran variedad directores de tecnología y gerentes de redes, con quienes –luego de dialogar sobre diversos temas de la industria- llegamos siempre a un tema común: los crecientes desafíos de operar arquitecturas en un entorno multinube altamente distribuido con la movilidad y la agilidad como escenario de fondo.

En ese escenario, es importante que se consideren los tiempos de aprovisionamiento de las redes y la seguridad para cada nueva aplicación o servicio que se pretenda implementar; sin embargo, ellos pueden tardar entre dos semanas y dos meses tratando de aprovisionar las cargas de trabajo para sus centros de datos. En ese camino, muchos lamentan la complejidad asociada a la arquitectura y a la seguridad. Incluso dicen cosas como: “contamos con muchas reglas en el firewall, pero no tenemos idea de lo que hacen. Sentimos temor, ya que no sabemos lo que podría estropearse si los eliminamos”.

Y no se equivocan, ya que -debido a su complejidad- los centros de datos podrían derrumbar los servicios críticos del negocio con sólo eliminar una regla en desuso.

 

Nube y Movilidad

Si eso ya es bastante malo, podría ser peor, ya que la nube y la movilidad representan desafíos aún mayores en donde los datos son accesibles en una variedad de formas desde diferentes aplicaciones y dispositivos los cuales requieren de políticas de seguridad y redes consistentes.

Es aquí donde quiero recalcar que los enfoques tradicionales no pueden utilizarse para resolver los retos actuales; para hacer evolucionar su estrategia de seguridad, vale la pena que se enfoque en tres pilares: Agilidad, Simplicidad y Ubicuidad. Veamos cada uno:

 

Agilidad 

Recordemos que los grandes pioneros de la nube lograron altas tasas de agilidad gracias a las infraestructuras definida por software; 2016 será un año en que las organizaciones seguirán aprovisionándose y manteniendo el hardware con la misma lentitud de años anteriores, pero con la presión de tener un negocio más ágil.

El cambio hacia un modelo de entrega ‘definido por software’ no es sólo aspiracional, sino también histórico para toda la industria. Casi todos los proveedores mundiales de cloud están operando en un contexto definido por software, lo que cambiará de una vez por todas, la cara de la industria. Esto es inevitable.

Es natural que este tipo de cambios cree cierta fricción en los departamentos de TI, ya que los empleados buscan preservar sus habilidades existentes sin pensar que sus roles pueden evolucionar al siguiente nivel. Para hacer que evolucionen, las organizaciones están comenzando a introducir redes definidas por software y ‘pilas’ de seguridad en los centros de datos.

“El cambio hacia un modelo de entrega ‘definido por software’ no es sólo aspiracional.

Sea cual sea  la solución seleccionada, ésta debe estar diseñada para operar a través de cualquier nube y ser capaz de funcionar en cualquier hardware. En otras ocasiones, expertos han logrado demostrar que cuando las nubes privadas iban ‘demasiado lento’ era por causa de la red y la seguridad basada en el aprovisionamiento de hardware. Es por ello que la solución al problema de las nubes privadas consiste en eso: ser más ágiles.

Cloud_Computing

 

Sencillez

A nivel mundial las aplicaciones y contenidos son cada vez más distribuidos y abarcan servicios de IaaS (Infraestructura como Servicio), PaaS (Plataforma como Servicio) y SaaS (Software como Servicio), tanto en los centros datos privados, como en las sucursales, el escritorio, los dispositivos móviles, e incluso los automóviles.Si este escenario no es lo suficientemente complejo, tenga en cuenta el número de dispositivos inteligentes conectados que supondrá la llegada de la Internet de las Cosas (IoT).

A esto hay que agregar el hecho de que las arquitecturas y los enfoques tradicionales de seguridad fueron muy buenos en sus inicios, pero hoy están mal equipados para gestionar la enorme cantidad de objetos conectados. Cuando se enfrentan desafíos de estas proporciones, uno no sabe siquiera por dónde empezar.

Un pequeño paso en la dirección correcta sería alejarse de los modelos de seguridad basados en direcciones IP, algo que utilizan prácticamente todas las empresas actuales. En su lugar, pueden utilizarse soluciones que aseguren objetos (tales como máquinas virtuales, contenedores o aplicaciones móviles) mediante un identificador global único.

De esta manera, si un objeto se vuelve a desplegar en otro lugar, el contexto de seguridad continuará intacto. Este enfoque permite implementar un modelo de seguridad global ‘zero-trust’ con una arquitectura que incluso entrega cifrado de extremo a extremo para datos en movimiento y en reposo.

Es bien sabido por todos los profesionales de TI que las amenazas actuales no permiten tener la solución ‘perfecta’; sin embargo, si Usted toma la decisión de iniciar hoy, puede aplicar el concepto de ‘micro-segmentación’ de aplicaciones, que permite construir nuevas habilidades operativas y modelos de seguridad sin afectar las aplicaciones.

 

Ubicuidad

Ante la pregunta de ¿Cuál herramienta de integración es la ideal?, muchos directivos de TI responden jocosamente: “una de cada una”, y ¡tienen razón!, ya que es difícil imaginar un mundo en donde no exista coherencia entre la aplicación de las políticas de seguridad en múltiples centros de datos y las implementaciones en la nube. Esto no significa que recomiende una solución completa que abarque todo, sino que debemos ser realistas a la hora de afrontar el asunto de la ‘ubicuidad’.

Así las cosas, se hace necesario contar con políticas de seguridad definidas para las redes y para infraestructuras unificadas con múltiples nubes y centros de datos.

Para finalizar, quiero resaltar la importancia de buscar soluciones de identidad multi-nube para centralizar las políticas e identidades en todas las aplicaciones y contenidos. Con sólo proveer un inicio de sesión único para aplicaciones de negocios, Usted obtendrá una victoria muy visible en toda la organización, con un valor muy significativo en los negocios.

El hecho de que la tecnología sea cada vez más compleja no significa que las soluciones también lo sean. De forma paralela, es posible que las arquitecturas heredadas mantengan a su organización funcionando por algunos días, pero ello no es garantía de que su negocio conserve la agilidad y privacidad necesarias para encarar el futuro.

 

Cris-Wolf-VMWare

Por Chris Wolf,

Chief Technology Officer

para Américasde VMware.

Voluntad y tecnología, versus Contaminación

Han pasado casi 6 semanas desde que se decretó la contingencia ambiental en la Ciudad de México, a pesar de las medidas tomadas, la realidad es que los niveles de polución no disminuyen. De acuerdo con la Secretaría del Medio Ambiente, el próximo 1ro. de julio entrará en vigor la nueva Norma Emergente de Verificación Vehicular para regular la circulación diaria de casi 5.4 millones de autos en la capital del país.

No es un asunto menor si pensamos que la Ciudad de México es una de las megalópolis más importantes por su dimensión y actividad económica. Más de 20 millones de personas nos desplazamos diariamente por diferentes medios tanto por motivos laborales, académicos o incluso de esparcimiento contribuyendo de una u otra forma al 16.4%al PIB nacional.

Y para no variar el asunto se está politizando, agregando así más variables y turbulencia al escenario. Este tema de la contingencia ambiental es, en mi opinión, el detonante que pone en evidencia un sinfín de problemas que nos aquejan no solo como ciudad, sino a nivel país y como sociedad. Corrupción, falta de políticas públicas, inexistencia de un plan de sustentabilidad a nivel gobierno en materia ambiental -pero no solamente-, apatía del ciudadano y resistencia de las empresas para favorecer la movilidad y calidad de vida de sus empleados.

La realidad es que en tanto no avancemos al mismo ritmo que avanzan los factores del entorno, en particular la tecnología, estaremos muy lejos de conseguir un equilibrio en el tema ambiental o cualquier otro tema.Y es que, me parece que la respuesta está en la tecnología. Sí, particularmente en las tecnologías de información y comunicación, tanto para prevenir, como para corregir lo necesario.

Podríamos empezar por ejemplo con un eficiente Sistema de Información para el Registro Público Vehicular que contenga la fuente de la verdad respecto al número de vehículos que transitan diariamente. Porque aún con la contingencia que ocasiona que más de 1 millón de vehículos dejen de circular diariamente, según cifras del INEGI, se sigue observando una cantidad importante de autos y tanto el problema de tráfico y contaminación siguen presentes, casi inertes, despertando escepticismo al respecto de si esta cifra es real.

Por otro lado, tenemos los Centros de Verificación Vehicular. Según datos oficiales, se estima que entre julio y diciembre de 2015 se otorgó permiso “0” (Circulación diaria) a unos 1.7 millones de vehículos que no cumplían las especificaciones mínimas, responsabilizando a los propios automovilistas de tal situación. Hoy dejan entrever que parte de las medidas que se darán a conocer, es endurecer las políticas de verificación y la utilización de un “nuevo” sistema en los verificentros para medir la emisión de contaminantes de forma más precisa. Pero me pregunto qué pasaría si realmente se tuviera un sistema a prueba de “corrupción” como el que se viene prometiendo desde 1989 que se instauró el Hoy No Circula. Digamos que se necesitaría algo así como un sistema con los requisitos básicos de seguridad (no vulnerabilidad) que impida la alteración manual para beneficiar a quien no merece.

En otra arista, se ha mencionado que otra parte de la responsabilidad es la gasolina que usamos. Que si es importada de China, que si es de mala o pésima calidad. Y aunque se ha desmentido oficialmente, el caso es que al igual que con los verificentros con las Gasolineras se han hecho promesas en vano durante años. Se mencionó por ejemplo que estas deben contar con un Sistema de Recuperación de Vapores para evitar que existan emisiones de vapores crudos de gasolina a la atmósfera al momento de abastecer el combustible a los vehículos. El punto es que esta revisión al parecer debe ser presencial en lugar de contar con un punto único de monitoreo y control que pudiera verificarlo. Otro tanto recae en Profeco, con respecto a inhabilitar a quienes no cumplan con dicha norma, siempre y cuando cuenten de forma oportuna –por no decir en tiempo real- con la información necesaria para proceder en consecuencia.

Después tenemos a la Comisión Ambiental de la Megalópolis (CAMe) encargada del Sistema de Monitoreo Atmosférico. En principio, se observa insano que el gobierno sea juez y parte, pero más allá de eso, creo que podría emplearse una solución de Big Data, como se ha hecho en otras partes del mundo, para medir, proyectar y analizar bajo qué condiciones se podrían disparar los niveles de contaminación, actuando preventivamente. Y es que cuando se afirma que los vehículos son responsables del 90% de los gases contaminantes, solo nos restaría concluir que las fábricas, transporte público y cocinas ambulantes, entre otros, tienen únicamente un 10% de aportación al problema, lo cual es a todas luces absurdo. Si además se mostrara en tiempo real la información, creo que muchos ciudadanos estaríamos más tranquilos respecto a la transparencia e imparcialidad de las acciones tomadas por las autoridades, lejos de intereses políticos y/o económicos a su favor.

Después tenemos la perspectiva empresarial. ¿Cuántas empresas cuentan con una política de horarios flexibles y/o home office? Muchas organizaciones descartan el adoptar este tipo de esquemas porque asumen que el empleado se distraerá en sus asuntos personales. Sin embargo, desde hace casi dos décadas disponemos de herramientas para monitorear la productividad de quienes tienen esta opción.Después de todo, no solo se trata de darle al empleado la opción de no asistir, sino de cuantificar los beneficios en términos de ahorro en costos y eficiencia laboral.

Por último, los Centros de Datos. ¿Cuántas empresas presentan fallas regulares en sus centros de datos? ¿Cuántas por obsolescencia tecnológica? ¿Continuamente deben encenderse plantas de diésel para garantizar la continuidad? Bueno, pues me parce que aquí hay otro problema, y aunque menor, mientras no exista una exigencia clara al respecto por parte de las autoridades competentes, muchas empresas podrían estar siendo parte del gran problema.

Sin duda, la tecnología no es inmune y en muchos casos primero se requiere voluntad. Pero creo que solo en la medida que tomemos medidas verdaderamente radicales podremos ver resultados de la misma magnitud. En lo que sí, definitivamente la tecnología no nos puede ayudar es proveer inteligencia a quienes están al frente de las políticas públicas y quienes innegablemente dejaron crecer por años un problema que hoy nos estalla de frente.

 

Arturo Tellez Mejia

Arturo Téllez Mejía es Maestro en TI y Administración, 

Consultor y Catedrático de Posgrado sobre

Negocios, Tecnología, Organizaciones y Entorno.

www.arturotellezmejia.com

@artellezm