Año: 2019

Claves para alcanzar la transformación digital basada en Datos

En México, de acuerdo con la Asociación de Internet, 84 millones de mexicanos son internautas. Si asumimos que para el 2020 cada persona del planeta creará 1.7 MB de datos cada segundo, según Data Never Sleeps de Domo, tendremos la exorbitante cantidad de 12,337,920,000,000MB producidos por los mexicanos cada día. Estos números representan un desafío y nuevas oportunidade para las organizaciones, pero ¿realmente están entendiendo cómo, cuándo y por qué utilizarlos en su favor? ¿Tienen las habilidades para sacarles provecho en su camino a la transformación digital?¿Pueden convertirlos en oportunidades de negocio?

El Instituto Superior Del Internet (ISDI) nos comparte 5 pasos para implementar toda una cultura empresarial Data Driven para que tu organización obtenga los mejores beneficios.

1 – Estrategia

Lo primero será analizar la estrategia del negocio en general y definir si contar con acciones data driven pueden ayudar a mejorarla y reforzarla. Entender su importancia y la potencialidad del análisis de datos nos permitirá definir mejor un plan de trabajo que muestre a qué áreas de nuestra organización debemos enfocarlo. Una vez que sepamos que la lectura de datos propiciarán un pensamiento creativo y una proyección hacia el futuro basada en la calidad y solidez de mejores decisiones e ideas podremos comenzar a ejecutar nuestra estrategia.

2 – Colaboradores capacitados

El conocimiento y el talento son elementales en la transformación digital, por lo que te propondremos 4 perfiles profesionales que te facilitarán el aprovechamiento de datos:

  • Data Architect: se encargará del diseño y la gestión para obtener grandes volúmenes de datos. Debe contar con conocimientos técnicos (ciencia computacional, matemáticas, estadística…), de análisis (modelado de datos, machine learning, big data y data visualization), administración de sistemas operativos y arquitectura de datos (Lambda y Kappa), entre otros.
  • Methodologist/Statistical: analiza los datos pertinentes a través de un diseño de investigación. Aporta valor a la organización a partir de ellos, y debe contar con conocimientos de programación, visualización y análisis de datos, metodologías y diseños de investigación, así como desarrollo de modelos predictivos.
  • Chief MarketingOfficer (CMO): diseña, implementa y gestiona la estrategia de marketing digital en la empresa a través de los distintos canales para cumplir con los objetivos de negocio. Al estar en contacto con el cliente, tiene acceso a múltiples fuentes de información que ayudan a la organización a ser data driven. Un CMO deberá tener un pensamiento estratégico, innovador, creativo y flexible, y adaptarse a los constantes cambios. Sus principales conocimientos: marketing digital, SEO/SEM, social media, publicidad, nuevas tecnologías, y técnicas de investigación y data.
  • Data Scientist: una vez realizados el análisis y halladas las conclusiones, este profesional lleva a cabo algoritmos de aprendizaje automático, los cuales serán capaces de automatizar los modelos predictivos y clasificar nueva información de manera autónoma. Suelen tener conocimientos de informática, matemáticas e ingeniería; programación y generación de algoritmos; negocio, big data, estadística, análisis y minería de datos; técnicas de machine learning y data visualization.

 

3 – Extracción de datos (desarrollo de bases)

Una vez que contamos con el dreamteam ahora será necesario ejecutar nuestra estrategia. Lo primero, la obtención de datos. Será necesario que el equipo de marketing y tecnología trabajen en conjunto para saber con qué datos se va a trabajar, y cuáles serán obtenidos de plataformas propias y cuáles de externas.

 

4 – Integración de datos (Analytics)

A partir de la extracción partiremos para confirmar fiabilidad de esos datos, captarlos y descargarlos en un Data Lake. Si ya estamos obteniendo los datos de nuestros activos digitales, es el momento de centralizarlos en una plataforma propia. A partir de ese momento, podremos trabajar con estructuras más complejas y heterogéneas; logs, mails, conversaciones, ubicaciones, etc. que nos ayudarán a gestionar, interpretar y crear modelos predictivos.

 

5 – Visualización de datos (Business Intelligence)

Si hemos tomado en cuentas los 4 pasos anteriores, seremos capaces de centralizar y garantizar la calidad de los datos, lo que nos permitirá el desarrollo de analítica avanzada, localización de patrones, aplicación de modelos predictivos, identificación de correlaciones y tendencias. Por ejemplo, la aplicación de estrategias como la analítica de conducta permitirá contar con predicciones más precisas sobre el probable comportamiento de los consumidores en el ecosistema digital.

 

“La accesibilidad a los datos ha construido una nueva cultura corporativa. Si queremos incorporar más conocimiento en nuestro negocio debemos de ser capaces de utilizar la tecnología a nuestra favor, captar e integrar información de distintas plataformas en tiempo real enriquecen nuestros insights de negocio. Debemos evolucionar nuestra organización hacía una cultura orientada a los datos debido a la digitalización de las relaciones entre marcas y consumidores”, finalizó Salvador Suárez, Socio Director de GoodRebels y profesor del ISDI.

Tecnología que puede salvar vidas durante un sismo

Hoy la tecnología nos puede a ayudar a salvar vidas, si se hubiera contado con soluciones inteligentes durante el sismo de 1985 o del 2017, se pudo haber reaccionado mejor, reduciendo la pérdida de vidas humanas. Pero, ¿Cómo poder estar mejor preparado ante esos eventos? ¿Qué aplicar para sortear de mejor manera este tipo de situaciones en un futuro?

“Con la experiencia adquirida en sismos anteriores, se ha obtenido el conocimiento necesario para poder alcanzar los avances adecuados en el sistema de alertas, todo esto para una mejora y pronta reacción ante cualquier sismo. De la mano con soluciones inteligentes, además se puede controlar la energía y gestionar de manera perspicaz las áreas de trabajo en su empresa”, mencionó José Armas Director Comercial de ERA Telecomunicaciones.

Existen diversas soluciones que pueden ayudar a mantener seguras las empresas, no sólo en cuestión de información, sino también de seguridad física y de las personas.  

 

Iluminación inteligente 

Además de ahorrar en cuestiones energéticas, este tipo de soluciones le permiten regular la iluminación, lo que puede ser utilizado para encontrar una ruta de evacuación más cercana y segura, como si se tratara de una franja de vuelo durante el tiempo necesario, evitando así en mayor medida la pérdida de tiempo de reacción ante un sismo. 

Este tipo de sistemas deben actuar automáticamente, sin la necesidad de que intervenga un individuo, lo que la vuelve clave durante una de estas situaciones de emergencia. Gracias a sensores se puede medir la temperatura, movimiento, energía y nivel de luz del lugar, lo que además permite reducir la corriente eléctrica, previniendo que se desaten incendios”, mencionó David Girón, Business Development Manager para Smartengine Wtec en Latinoamérica y sur sureste de Estados Unidos.

Algunas de las virtudes que presentan este tipo de soluciones es que se pueda integrar con cualquier tipo de alarma, iluminación, voz y alerta, reduciendo la generación de gases CO2 de efecto invernadero al medio ambiente. 

 

Audio IP 

Al igual que la iluminación inteligente, la inclusión de soluciones de audio IP en el sistema de alarmas ha logrado muchos avances en la replicación de alertas en diferentes zonas de los edificios, incluso antes de la llegada de un movimiento sísmico 

“Las bocinas IP pueden ser compatibles con otros sistemas de alertamiento, comunicación de audio, alarmas y mensajes, asimismo presentan diferentes ventajas contra la tecnología analógica, ya que reciben datos y se transmiten por cable de red, unas versiones tienen capacidad de procesamiento y otras tienen facultad de almacenamiento, también presentan un amplificador integrado, lo que significa menos uso de cable, menor infraestructura de alimentación de energía eléctrica, además se administran por zona, por bocina y por área en gran volumen”, señaló Manuel Samudio, Industry Associations Manager para Axis Comunicatios en México, Centroamérica y Caribe.

Hoy en día en México ya se han integrado estos sistemas de audio IP e iluminación inteligente en diferentes empresas de entretenimiento, servicios y alimentosCon ello la manera de proteger a las personas dentro y fuera de los edificios se vuelve mucho más eficiente 

“Es importante que los administradores comiencen a considerar esto en sus planificaciones y diseños, ya que a la par de la seguridad de la red y datos, la seguridad física también es crucial”, finalizó José Armas Director Comercial de ERA Telecomunicaciones.

Agricultura 4.0: La nueva tendencia de la Agroindustria

El término Agricultura 4.0 proviene del de Industria 4.0, la revolución de la digitalización de procesos. En este nuevo concepto, podemos decir que en el futuro las propiedades se integrarán y conectarán, utilizando el concepto de IoT (Internet de las cosas) y BigData, al mando de todos los procesos, equipos y personas.

Por ejemplo, desde casa o desde la sede de los campos, los productores podrán monitorear de forma remota, por computadora, tableta o teléfono inteligente, el rendimiento de sus máquinas en los campos a través de telemetría y la transmisión automática de datos, creando un escenario basado en software, hardware, datos y análisis. Una gestión remota y en tiempo real integrada.

La revolución tecnológica en el campo es una realidad y está evolucionando rápidamente, hoy el mercado ya ofrece maquinaria automatizada, sistemas para el manejo de insumos, control y monitoreo de la plantación y otras herramientas que facilitan la vida diaria de los agricultores. A partir de esto, se pueden monitorear millones de hectáreas de plantaciones a través de teléfonos inteligentes, tabletas y computadoras, creando una nueva generación de agricultores expertos en tecnología que son cada vez más capaces de monetizar sus negocios.

TOTVS nos da a conocer aquellas evoluciones tecnológicas en el campo que facilitan la toma de decisiones simplificando el negocio. A continuación, algunas de ellas:

  1. Movilidad: acceso a datos y notas de procesos agrícolas, mantenimiento automotriz e industrial de manera simple y personalizada. Estudio de plagas, enfermedades y malezas con georreferenciación de los puntos inspeccionados.
  2. Portal de movilidad: sincronización de datos en tiempo real, obteniendo acceso a información fuera de línea y en línea. Los paneles integrados en la solución tienen un entorno de panel.
  3. Mapa de calor: se utiliza para representar el comportamiento de la información para un análisis rápido y simple. Visualización a través de mapas la intensidad de la infestación fitosanitaria de plagas.
  4. Climatología: control de la climatología en la planificación de la ejecución de operaciones, basada en pronósticos meteorológicos
  5. Indicadores:Gestión a la vista a través de indicadores y dashboards configurables y personalizables.

Estas son algunas tecnologías que ayudan a mejorar e proceso de producción, reducir costos, mejorar la calidad de la materia prima y ayudar a una mejor toma de decisiones para los productores.

 

Camino práctico hacia la Inteligencia Artificial

Extraer información procesable de datos no procesados es fundamental para el éxito de prácticamente cualquier empresa u organización sin importar la industria, desde finanzas, salud, gobierno y manufactura. Los conjuntos de datos que se utilizan para obtener este conocimiento se están volviendo exponencialmente más grandes y se están creando más rápido. El ritmo de crecimiento de los datos solo continuará acelerándose, pero la Inteligencia Artificial podría ayudar a tener estos datos bajo control.

Pure Storage evalúa el camino hacia la IA para las empresas del sector público y las organizaciones empresariales, identifica preguntas clave y opciones a considerar, y determina cómo acelerar la implementación y la gestión dentro de sus presupuestos existentes.

Reconociendo obstáculos hacia la IA

La IA es la próxima evolución de las iniciativas de big data y análisis de datos que han estado en juego en las organizaciones durante una década. ¿Qué impide que las empresas avancen en la adopción de IA? Se reduce a tres problemas principales:

  • Una lucha por el “hágalo usted mismo” (bricolaje), construir una práctica de IA
  • Encontrar el talento para construir y apoyar una práctica de IA
  • Financiación de IA

A medida que las nuevas tecnologías ingresan al mercado, las empresas a menudo se ven atrapadas en la construcción de sus propias soluciones. Lo mismo vale para la IA.

Cuando el “hágalo usted mismo” es la única opción, las iniciativas de IA se detienen.

  • Los usuarios de software se ven obligados a tomar código fuente abierto, a menudo con documentación limitada, y luego compilar y ajustar el código.
  • Los usuarios de hardware pasan repetidamente meses investigando diferentes opciones y ejecutando pruebas de concepto (POC, por sus siglas en inglés) para ver cuál ofrece el mejor rendimiento. Incluso después de comprar el sistema, se requiere un mantenimiento constante.
  • Cargas de trabajo lentas, incluso cuando todo esto está hecho, los usuarios encuentran que las cargas de trabajo son lentas. Esto se debe a que el sistema está construido con componentes heredados, que se combinan, creando cuellos de botella.

Al igual que la evolución de cualquier otra tecnología, la preocupación inicial a menudo se basa en tener una fuerza laboral con las habilidades y el talento para respaldar la TI. El nuevo concepto de IA todavía se centra en las redes neuronales, alimentando datos y ajustando continuamente los coeficientes para minimizar el margen de error. Por lo tanto, el proceso que la fuerza laboral ha llegado a comprender con el análisis temprano de datos es el mismo.

 

Colisión tecnológica con sincronización perfecta: infraestructuras de IA construidas específicamente

El dilema del “bricolaje” se vuelve obsoleto, gracias a una perfecta colisión de tecnología. Ahora es más práctico que teórico. ¿Qué pasó?

  • Mejoras de hardware: la evolución del hardware en los últimos años ha cambiado drásticamente el volumen de datos que pueden procesarse y la velocidad a la que puede suceder. Gracias a las industrias de juegos e investigación, las GPU son ubicuas y las compañías como NVIDIA ahora crean GPU especialmente diseñadas para IA, que procesan datos 45 veces más rápido que las CPU tradicionales. La tecnología de almacenamiento moderna de los fabricantes, como Pure Storage, ahora admite IOP y velocidades extremadamente altas con NVMe. PCIe y NVLink ahora pueden transferir muchos GB por segundo para estas cargas de trabajo masivamente paralelas y concurrentes.
  • Software: los primeros usuarios en la frontera con IA han desarrollado soluciones de software fáciles de usar diseñadas para redes neuronales. CUDA de NVIDIA, MXNet de Apache y Google Tensorflow-GPU son opciones de software robustas que hacen que la IA sea más fácil de ejecutar. Dataiku, que aprovecha estas tecnologías antes mencionadas, ha ido tan lejos como para hacer que la IA sea un ejercicio de clic y arrastre, accesible para cualquier nivel de usuario.
  • Contenedorización: esta es una alternativa a la virtualización completa de la máquina que implica encapsular una aplicación en un contenedor con su propio entorno operativo. La adopción de la Containerización permite a los arquitectos de TI aprovechar el software, la ciencia de datos y este enfoque estandarizado del algoritmo que ha catapultado a la industria hacia adelante. La contenedorización permite una rápida innovación y desarrollo de algoritmos, reduciendo drásticamente el tiempo desde el desarrollo inicial hasta el despliegue de producción.

¿Qué es una infraestructura lista para IA?

El aprendizaje profundo requiere más que computación rápida e interconexiones de alto ancho de banda. Al diseñar una plataforma completa para el aprendizaje a gran escala a gran escala, el objetivo del arquitecto del sistema es proporcionar un conjunto bien integrado, adaptable y escalable de capacidades de computación, almacenamiento, redes y software que funcionen perfectamente y brinden la máxima eficiencia y eficacia.

Al definir el almacenamiento para sistemas de aprendizaje profundo, los arquitectos deben considerar tres requisitos:

1. Rendimiento misceláneo
2. Capacidad escalable
3. Fuerte resistencia

La resolución de problemas de costos

Aunque la infraestructura lista para IA se vuelve accesible y desplegable por todas las razones descritas, la pregunta permanece en el aire: ¿cómo pagar y cómo implementar este modelo rápidamente y escalar para el futuro? Aquí es donde la colisión perfecta de necesidades y tecnología continúa ganando impulso adicional con el advenimiento de los modelos modernos de adquisición que brindan una mayor flexibilidad financiera.

Así como la democratización de la informática de alto rendimiento ha catapultado la IA, el modelo como servicio ha simplificado la adquisición de esta tecnología. La adquisición de la infraestructura de inteligencia artificial como servicio permite a los usuarios administrarla y mantenerla con un presupuesto operativo mensual en lugar de invertir dólares CapEx por adelantado. Con el modelo “como servicio”, los costos son más predecibles y las organizaciones pueden escalar a medida que cambian las necesidades.

Implementación de IA: evaluación del impacto operativo

A medida que la evaluación de la tecnología se vuelve más granular, la velocidad de los datos comienza a ocupar un lugar central. Los equipos más rápidos pueden iterar en un modelo, mejor. Y eso significa hacer todo lo posible para eliminar el tiempo de transferencia de datos y otras variables similares, de modo que los modelos puedan iterar dramáticamente más rápido.

Las necesidades de IA continuarán evolucionando y forzarán la infraestructura para mantener el ritmo de los esfuerzos de velocidad y rendimiento. En ese proceso de evaluación, las organizaciones deberían dar un gran valor a lo que satisfará sus necesidades actuales, pero también reconocer que superarlas es inevitable. La infraestructura de datos debe estar preparada para el futuro para ofrecer un alto rendimiento y aumentar la productividad de los científicos de datos, de lo contrario también quedará obsoleto.

 

Por: Julio César Castrejón, Country Manager México de Pure Storage.

Los San Francisco 49ers utilizan tecnología de Citrix para mejorar su juego

Los fans de los San Francisco 49ers podrán vivir una experiencia de entretenimiento mejorada gracias a algunas jugadas que el equipo realizó fuera de temporada para transformar las operaciones. Con la ayuda de Citrix, los 49ers han creado un espacio de trabajo digital gracias al cual el equipo que se encuentra fuera del campo puede colaborar de manera eficaz y segura para entregar un producto mejorado en el campo de juego para todos los fans del equipo en todo el mundo.

Los 49ers tienen un largo historial de innovación. “Está en nuestro ADN, y se remonta a la época de Bill Walsh, cuando creó la Ofensiva de la Costa Oeste”, dijo Al Guido, presidente del equipo. “Fuimos el primer equipo en implementar esa táctica y, desde entonces, todos la han adoptado y la han desarrollado”.

“Queremos asegurarnos de que operamos de la manera más eficaz posible y de que brindamos a nuestro equipo las herramientas necesarias para que alcancen su mejor rendimiento y para que los fans tengan nuevas formas de participar”, dijo Brent Schoeb, director comercial de los 49ers. “Ahora que tenemos a Citrix en el equipo, podemos hacerlo”.

Cambiar las reglas del juego

Al emplear las soluciones de espacios de trabajo digitales de Citrix, los 49ers han creado un espacio de trabajo digital que permite al equipo que juega fuera del campo que colabore y sea tan ágil como los jugadores. “A diario, nuestros equipos de marketing, de operaciones, de seguridad y de jugadores deben trabajar juntos para encontrar la mejor manera de ganar más partidos de fútbol y garantizar que estamos brindando a nuestros fans la mejor experiencia posible”, dijo Schoeb.

Con ShareFile, los empleados de los 49ers pueden acceder y compartir de manera rápida y sencilla las aplicaciones e información que necesitan para realizar su trabajo en cualquier lugar, a toda hora y en el dispositivo que sea.

Un ejemplo de esos empleados es Terrell Lloyd, el principal fotógrafo del equipo, que junto a sus colaboradores toma más de 25.000 imágenes por partido, las cuales debe organizar, clasificar y compartir con los socios internos y externos lo más rápido posible para que los fans puedan vivir la acción desde todos los ángulos. “Muchos de nuestros archivos son sumamente pesados, pero con Citrix podemos enviarlos en menos de 20 segundos”, dijo. “Y es muy fácil de usar. Incluso puedo hacerlo desde la aplicación en mi celular”.

Pero para Schoeb, lo más importante es que se puede compartir la información de manera segura y confiable. “A toda hora, nuestros cazatalentos y ejecutivos de operaciones de fútbol comparten información sensible a través de Internet, por lo que necesitamos mantener la privacidad y la seguridad de esa información”, dijo. “Con Citrix, no solo protegemos esos archivos que compartimos, sino que, cuando se pierde un dispositivo, podemos limpiarlo rápidamente para preservar nuestra información”.

Más del 50% de las solicitudes de respuesta a incidentes ocurre cuando el daño es evidente

Alrededor del 56% de las solicitudes de respuesta a incidentes (IR, por sus siglas en inglés) procesadas en 2018 por los expertos en seguridad de Kaspersky ocurrió cuando la organización afectada había experimentado un ataque que ya tenía consecuencias visibles, como transferencias de dinero no autorizadas, estaciones de trabajo cifradas por ransomware y falta de disponibilidad de servicio.

El 44% de las solicitudes se procesó cuando el ataque fue detectado durante una etapa temprana, lo que ahorró al cliente consecuencias potencialmente graves.

Estas son algunas de las principales conclusiones del más reciente Informe analítico de respuesta a incidentes realizado por Kaspersky.

A menudo se supone que la respuesta a incidentes solo es necesaria en los casos en que el ciberataque ya ha ocurrido y existe la necesidad de una mayor investigación. Sin embargo, el análisis de diversos casos de respuesta a incidentes en los que los especialistas de seguridad de Kaspersky participaron durante 2018, muestra que esta oferta no solo puede servir como investigación, sino también como una herramienta para detectar un ataque durante una etapa más temprana y así evitar daños.

En 2018, el 22% de los casos de IR se inició después de haber detectado una actividad potencialmente maliciosa en la red, y un 22% adicional se inició después de haberse encontrado ese mismo archivo. Sin ningún otro signo de violación, ambos casos pueden sugerir que hay un ataque en curso.

Sin embargo, no todos los equipos de seguridad corporativos pueden saber si las herramientas de seguridad automatizadas ya han detectado y detenido la actividad maliciosa, o si esto sólo fue el comienzo de una operación maliciosa más grande e invisible en la red y será necesario contratar a especialistas externos. Como resultado de una evaluación incorrecta, la actividad se convierte en un ciberataque grave con consecuencias reales. En 2018, el 26% de los casos “tardíos” investigados fue causado por infección con malware de cifrado, mientras que el 11% de los ataques tuvo como resultado el robo de dinero. El 19% de los casos “tardíos” fue resultado de la detección de spam en una cuenta de correo electrónico corporativo, detección de indisponibilidad de servicio o de un ataque exitoso.

“Esta situación indica que en muchas compañías ciertamente hay margen para mejorar los métodos de detección y los procedimientos de respuesta a incidentes. Cuanto antes una organización detecte un ataque, menores serán las consecuencias. Pero de acuerdo con nuestra experiencia, a menudo las empresas no prestan la debida atención a los artefactos de los ataques graves, por lo que con frecuencia nuestro equipo de respuesta a incidentes recibe llamados cuando ya es demasiado tarde para evitar daños. Por otro lado, vemos que muchas empresas han aprendido cómo evaluar los signos de un ciberataque grave en su red y evitar lo que pudo haber sido un incidente mayor. Hacemos un llamado a las otras organizaciones para que consideren esto como un estudio de caso exitoso”, dijo Ayman Shaaban, experto en seguridad de Kaspersky.

 

Otras conclusiones del informe incluyen:

  • Se encontró que el 81% de las organizaciones que proporcionó datos para el análisis tenían indicadores de actividad maliciosa en su red interna.
  • El 34% de las organizaciones mostraba signos de un ataque dirigido avanzado.
  • Se descubrió que el 54.2% de las organizaciones financieras fue atacado por un grupo o grupos de amenazas persistentes avanzadas (APT, por sus siglas en inglés).

Día del Programador, ¿qué hacen y por qué festejarlo?

Los programadores son una parte importante de todas las empresas de hoy en día, sin importar su tamaño, su trabajo lo usamos todos los días. De hecho, la página de internet que estás leyendo en este instante fue creada por un programador informático.

Pero, ¿qué hacen los programadores y por qué son tan importantes en el mundo actual?

 

El número mágico: 256

El Día del Programador es una efeméride internacional que se celebra el día 256 del año. Dependiendo si se trata de un año común o bisiesto, este puede caer el 13 o 12 de septiembre, respectivamente. El 256 fue elegido porque es el número de valores distintos que se pueden representar con un byte de ocho bits, un valor bien conocido por los programadores. Además, el 256 es la mayor potencia de 2 antes de superar el 365, número que define la cantidad de días en un año.

 

¿Qué hace exactamente un programador?

El trabajo de un programador consiste elementalmente en escribir código, probar y corregir errores. Sin embargo, la magia de esta profesión ayuda a convertir cualquier diseño en instrucciones que una computadora pueda seguir. Éstas están codificadas usando uno de los muchos lenguajes de programación como Java, C #, PHP, Oracle, SQL Server, JavaScript, etc. Mientras que los programadores especializados se centran en un lenguaje específico, los generales escriben código para muchos tipos de software.

 

¿Qué plataformas existen para los programadores?

  1. Escritorio. Las aplicaciones de escritorio son una gran opción, ya que brindan una experiencia de usuario más rica y envolvente. Evidentemente, este tipo de programación está enfocado en computadoras de escritorio y laptops. Un ejemplo es Spotify o Google Hangouts, a través de las cuales puedes escuchar música o chatear.
  2. Aplicaciones web. Éstas permiten evitar las fallas de las aplicaciones de escritorio, pues pueden usarse instantáneamente en vez de tener que descargarlas e instalarlas. Además, estas aplicaciones son fáciles de actualizar para los programadores, quienes solo tienen que instalar la nueva versión en el servidor y ¡listo! está disponible para todos.
  3. Móvil. Una aplicación móvil es la mejor opción para quienes quieren usarla desde cualquier lugar. Son fáciles de actualizar para los desarrolladores, ya que solo deben colocar una nueva versión en las tiendas de descarga conocidas como Android e iOS. Un claro ejemplo son apps de redes sociales como Facebook o WhatsApp, las cuales se actualizan periódicamente para que tengan los menores errores posibles en su desempeño.

Lenguajes de programación más importantes

De acuerdo a la comunidad de desarrolladores informáticos Stack Overflow, el lenguaje de programación más popular en el mundo es JavaScript (68%), seguido por HTML/CSS (63.5%), SQL (64.4%) y Python (41.7%). Sin embargo, existen un gran número de opciones de lenguajes, los cuales se adaptan a las necesidades de cada plataforma.

 

Mercado laboral

Por otra parte, el panorama laboral para un programador es alentador. De acuerdo también a Stack Overflow, el 74% de los programadores tienen un empleo de tiempo completo, mientras que el 9.8% son trabajadores independientes y el 5.1% son empleados de medio tiempo. Esto genera una tasa de ocupación de casi el 90%.

 

¿Tiene futuro ser programador?

Tiene futuro y mucho presente dada la gran cantidad de aplicaciones que requieren desarrollarse y lanzarse al mercado de forma cotidiana.  Tan solo en México existen más de 80 millones de usuarios de internet, los cuales pasan más de 8 horas al día navegando en apps, páginas de internet y plataformas de streaming (15 Estudio sobre los Hábitos de los Usuarios de Internet en México 2019 de la Asociación de Internet. MX).  Por este motivo, los programadores cuentan con un amplio campo laboral y con sueldos muy competitivos

DiDi agrega reconocimiento facial a conductores para mayor seguridad

DiDi anunció la implementación de un nuevo proceso de verificación de identidad con reconocimiento facial para conductores, una nueva función de seguridad para proteger a los usuarios de la aplicación en México.

Esta función brindará mayor tranquilidad a los pasajeros, ya que valida que el conductor del vehículo es la misma persona que cumplió con los requisitos de seguridad al momento de su registro.

La tecnología utiliza una serie de algoritmos, similares a los ya disponibles en dispositivos celulares, para validar de forma diaria y en tiempo real la identidad del conductor. El sistema realiza un análisis de los rasgos faciales contra información previamente validada de forma manual, y utiliza procesos de inteligencia artificial y machine learning para mejorar de forma continua.

Cada día, se podrá requerir a los conductores la verificación de su identidad. En caso de que un conductor no pase la prueba, su cuenta será bloqueada temporalmente y deberá realizar un proceso de apelación con validación manual acompañado del equipo especializado de seguridad de DiDi. Este proceso incluye el envío de fotografías y documentación oficial para confirmar la identidad del conductor.

El nuevo sistema de seguridad de DiDi se encuentra habilitado actualmente para los conductores de todas las ciudades donde la plataforma opera en México.

 

Procesos de seguridad de Didi

Desde que DiDi llegó a México en 2018, ha estado añadiendo mejoras en su plataforma, especialmente enfocadas a las funciones de seguridad tanto para los conductores como pasajeros. Aquí un listado de ellas:

Antes de cada viaje

  • Proceso de verificación de vehículos y conductores, incluyendo revisión de antecedentes en bases de datos municipales, estatales, federales e internacionales.
  • Verificación con reconocimiento facial para conductores antes de poder conectarse a la plataforma.
  • Anonimización de teléfonos, como medida de protección en el contacto entre usuarios.
  • Educación de conductores, en temas de conducción segura y evitar distracciones al volante.
  • Monitoreo y alertas de riesgos continuo.
  • Verificación de cuentas de pasajero con identificación oficial, como medida adicional de seguridad para los conductores. Este método se mejora continuamente y se complementa con otros métodos, como verificación a través de tarjeta de crédito y de redes sociales.

Durante cada viaje

  • Registro GPS en tiempo real.
  • La plataforma cuenta con un equipo especializado de seguridad en el Centro de Reacción DiDi para dar seguimiento a los incidentes reportados.
  • Kit de Herramientas de Seguridad que incluye:
    • Compartir el viaje hasta con 5 contactos de confianza.
    • Acceso a un botón de seguridad en caso de situaciones de peligro con línea directa al 911.
    • Soporte y atención 24/7 por un equipo especializado de seguridad.

 

Sistemas de protección continua

  • Protección de DiDi adicional al seguro del vehículo, de cobertura amplia, con responsabilidad civil, cobertura médica y daños a terceros
  • Sistema de exploración de zonas de riesgo donde se identifican zonas con potencial de incidentes y se limitan en ciertas ubicaciones y horarios

 

Diseñan en Puebla el primer automóvil superdeportivo totalmente eléctrico

Luego del exitoso lanzamiento en México de la línea de automóviles eléctricos Thalía, la primera en su tipo en el país, de las empresas LEOR-DA y LM&TH, éstas dan a conocer el diseño de su primer automóvil superdeportivo mexicano y de un camión de pasajeros, ambos totalmente eléctricos.

Leopoldo Ortiz, CEO de LEOR-DA y de la empresa LM&TH, diseñó y fabricó el primer automóvil eléctrico mexicano. A través de la Coordinación Automotriz de la Fundación México-Estados Unidos para la Ciencia (FUMEC), a cargo de Carlos Meneses, este empresario recibió apoyo para realizar las simulaciones aerodinámicas de un automóvil superdeportivo eléctrico de tres plazas que actualmente diseña y el cual alcanzará una velocidad de 300 kilómetros por hora (km/h).

En estas pruebas fue clave el Centro de Productividad e Innovación 4.0 (CEPRODI 4.0) ubicado en Querétaro y del cual FUMEC es socio con el objetivo de impulsar en las pequeñas y medianas empresas (pymes) el uso de tecnologías de Industria 4.0 (I 4.0) en México.

Mediante el uso de software, Ortiz optimizó la estética del automóvil que logra una aceleración de cero a 100 km/h en 2,8 segundos.

Los estudios aerodinámicos son fundamentales para el desarrollo de vehículos que sobrepasen los 100 km/h ya que el diseño de las superficies externas se convierte en factor clave para la dinámica vehicular y la eficiencia energética.

Debido a la disponibilidad y altos costos, Ortiz descartó realizar pruebas físicas, de ahí que eligió utilizar herramientas de simulación de Dinámica de Fluidos Computacionales (CFD), para desarrollar un túnel de viento virtual y llevar a cabo las pruebas aerodinámicas.

Una vez establecidas las especificaciones aerodinámicas del vehículo en sus primeras etapas de desarrollo, el túnel de viento virtual se podrá utilizar para las etapas posteriores de diseño hasta llegar a la validación final de las superficies exteriores del automóvil superdeportivo.

Cabe señalar que Ortiz también recibió apoyo para el análisis estructural del chasis de aluminio y magnesio que integrará a triciclos eléctricos de tres plazas que diseñó para impulsar la movilidad sustentable en las ciudades.

La Red Compartida inicia operación en Tampico, Torreón y Culiacán

ALTÁN Redes anunció que ha iniciado la operación de la red compartida en nuevos mercados en el norte de México: Tampico, Torreón y Culiacán, así como sus áreas conurbadas y rurales, ahora tienen la cobertura 4.5G de la red.

El lanzamiento comercial de estos tres mercados cubre conjuntamente a más de 2 millones 442 mil habitantes, incluidas más de 494 mil personas en poblaciones de menos de 10 mil habitantes.

Los tres mercados se suman a los recientes lanzamientos que ALTÁN ha hecho en su tarea de alcanzar la meta de cobertura del 50% de la población del país, tres meses antes de lo establecido en su calendario de despliegue.

Es importante señalar que la Red Compartida tiene un alto sentido de inclusión social por lo que, además de sus obligaciones de calidad que le exigen ofrecer las mejores prestaciones para los usuarios finales, tiene obligaciones de cobertura poblacional para llegar al 92.2% de los habitantes en 2024 (al menos 15% debe estar en poblaciones de menos de 10 mil habitantes). Bajo este precepto, el 20.2% del total cubierto en los tres estados se ubica en poblaciones de menos de 10 mil habitantes, con lo cual se supera por cinco puntos porcentuales el compromiso requerido a ALTÁN para el despliegue de la red en zonas rurales.

En estos tres estados (Tamaulipas, Coahuila y Sinaloa) también se ha cubierto con internet 4.5G a 95 poblaciones calificadas con “alta” y “muy alta” marginación de acuerdo con el Índice de Marginación por Localidad del Consejo Nacional de Población (Conapo), localidades que sin la llegada de la Red Compartida seguirían con una deficiente o nula conectividad para navegar en internet desde un dispositivo fijo en el hogar o negocio, o vía teléfono celular.

Una red nacional en completa operación comercial y alto desempeño técnico

Con los recientes lanzamientos, actualmente la Red Compartida da servicio comercial a más del 42% de la población del país: 47 millones de personas (de las cuales casi 9 millones se ubican en poblaciones de menos de 10 mil habitantes); 21 mercados, 39 Pueblos Mágicos y más de 3 mil 200 localidades de “alta” y “muy alta” marginación.
Para finales de octubre 2019 se alcanzará la cobertura del 50% de la población del país: cerca de 60 millones de personas (más de 11.5 millones en poblaciones de menos de 10 mil habitantes) con conectividad de la red móvil LTE de ALTÁN.

Con este despliegue se avanza en las metas de cobertura de acceso a internet de banda ancha y se impulsa la competencia en el mercado, objetivos establecidos para la Red Compartida por el Gobierno de México, mismos que ayudarán a llevar el internet para todos.