Día: 26 septiembre, 2017

Cogeco Peer 1 lanza aplicación contra ataques DDoS

Cogeco Peer 1 anunció la disponibilidad de su nueva aplicación de protección para la web. Se trata de AppArmor que ofrece defensa contra ataques de Denegación Distribuida de Servicio (DDoS) y complementa el conjunto general de productos de protección de Cogeco Peer 1 contra DDoS, los cuales ofrecen asegurar la infraestructura del cliente desde la red hasta la capa de aplicaciones de la web.

Los cibercriminales de hoy día son sofisticados y utilizan recursos distribuidos globalmente y altamente escalables para comprometer las redes empresariales. Incidentes recientes como el ataque Mirai del año pasado sobre Dyn, tuvo como objetivos sitios como Netflix y Twitter, haciendo mayor énfasis en los bots basados en el Internet de las Cosas.

Cerca de 8.4 mil millones de dispositivos están basados en el IoT y, de acuerdo con Gartner, están destinados a continuar creciendo, por lo que una defensa sólida contra DDoS que vaya más allá que las soluciones que sólo cubren el perímetro.

“Los ciberataques no están relegados a ciertas partes del mundo, son una amenaza global y como tal, las empresas de América Latina necesitan mantener el ritmo de las cambiantes amenazas para seguir ofreciendo continuidad y tranquilidad a sus clientes”, comentó José Santos, Director de Cogeco Peer 1 para América Latina. “Con nuestra aplicación de protección AppArmor, los clientes cuentan con una amplia capa de protección para la información importante de sus empresas”.

Cogeco Peer 1 ofrece salvaguardar las redes internas de sus clientes contra amenazas cibernéticas a través de sistemas de protección de redes contra DDoS, los cuales son escalables, sólidos y de fácil despliegue. Mientras cada organización puede, virtualmente, beneficiarse de la protección contra DDoS, los clientes de eCommerce tienen una mayor necesidad por alguna forma de Firewall para Aplicaciones Web (WAF).

AppArmor ofrece esa línea adicional de defensa ayudando a bloquear los ataques a la capa de aplicaciones, mismos que también son conocidos como ataques a la Capa 7, en donde los hackers aprovechan las debilidades de sus objetivos en una aplicación o servidor, con la meta de establecer una conexión que monopolice los procesos y las transacciones.

Haciendo equipo con Shield DDoS, los clientes de AppArmor contra DDoS de Cogeco Peer 1 se beneficiarán con:

  • Protección con Firewall para Aplicaciones Web y la mitigación contra ataques DDoS basada en la nube, con la mejor administración de su clase
  • Protección ilimitada con múltiples centros de mitigación contra DDoS, dispersos geográficamente, que ofrecen una capacidad total de 1Tbps
  • Sistemas monitoreados y administrados 24X7 por expertos en ciberseguridad
  • Detección, enrutamiento y mitigación en menos de un minuto de ataques DDoS a la Capa 3 (Red), Capa 4 (Transportación) y Capa 7 (Aplicaciones)
  • Gran disponibilidad de la aplicación a través de enrutamiento automatizado DNS
  • Tablero para el Centro de Control de los Clientes con analíticas detalladas de los ataques y reporte de amenazas

“Los ataques DDoS se están volviendo más fáciles de desplegar, haciéndose más difíciles de prevenir y rastrear”, dijo Bertrand Labelle, Vicepresidente de Mercadotecnia e Innovación de Cogeco Peer 1. “Las empresas necesitan adoptar soluciones que sean más escalables y distribuidas globalmente y que ofrezcan una amplia capacidad de mitigación contra ataques DDoS, a la luz de los avances en las estrategias que utilizan bots basados en el IoT o cuyo objetivo sean las aplicaciones. Aquí es donde entra en acción el DDoS Shield de Cogeco Peer 1, con AppArmor. Juntos ofrecen una solución de seguridad poderosa contra ataques DDoS”.

 

N. de P.

Las redes heredadas desaceleran la Transformación Digital y la nube 

Riverbed Technology anunció hoy los resultados de la Encuesta Mundial Riverbed sobre el Futuro de las Redes 2017, que explora el impacto de la infraestructura heredada y las redes de próxima generación en la adopción de la nube y la transformación digital. La encuesta mundial, que incluye respuestas de 1,000 responsables de TI de nueve países, reveló un increíble nivel de acuerdo de que las infraestructuras heredadas están frenando sus estrategias de nube y digitales.

Casi todos los encuestados (97%) están de acuerdo en que la infraestructura de red heredada tendrá dificultades para mantenerse al día con las cambiantes demandas de la nube y las redes híbridas. Igualmente, el 91% de los encuestados dice que la estrategia para la nube de su organización sólo alcanzará su máximo potencial con una red de próxima generación, y el 98% está de acuerdo en que una red de próxima generación es fundamental para satisfacer las necesidades de sus negocios y usuarios finales.

La encuesta también encontró que actualmente hay una brecha en la adopción de tecnología de próxima generación, como SD-WAN (software definido por redes de área amplia) que acelerará la nube y la transformación digital, sin embargo, un punto de inflexión está cerca. De los tomadores de decisiones de TI encuestados, el 93% planea migrar a SD-WAN en los próximos cuatro años, frente al 4% de hoy.

“Fue casi unánime que, para tener una estrategia de nube exitosa, las organizaciones deben adoptar la próxima generación de redes definidas por software de inmediato para apoyarla. Riverbed se dedica a asegurar que esta transformación sea exitosa y que las organizaciones sean capaces de lograr la agilidad operativa necesaria para prosperar a través del uso de SD-WAN para la creación de redes en la nube”, dijo Jerry M. Kennelly, co-fundador y CEO de Riverbed Technology.

Las Redes Heredadas son una Barrera para el Éxito de la Nube y el Digital

Actualmente, los problemas de rendimiento experimentados por las empresas son deslumbrantes, ya que el 58% informan que experimentan problemas de red relacionados con la nube, causados ​​específicamente por su infraestructura heredada unas pocas veces al mes o más; y el 93% dijo que afecta su negocio por lo menos mensualmente. Desafortunadamente, el 85% de estos mismos tomadores de decisiones dicen que todavía están a varios años de alcanzar el potencial de la transformación digital, en parte, debido a su infraestructura heredada. Esta brecha entre la realización y el despliegue real es consistente de empresas de sectores verticales y podría amenazar sus posiciones competitivas en sus respectivos mercados.

El 69% de los encuestados declaró que tanto la infraestructura de redes heredada como la falta de visibilidad de la nube son una barrera para que su estrategia de nube alcance su máximo potencial.

Factores que Conducen Negocios a redes de Próxima Generación

Los tomadores de decisiones muestran un nivel muy alto de entendimiento, ya que el cumplimiento de sus desafíos digitales y empresariales significa que es importante pasar a una red de próxima generación definida por software.

En la encuesta, el 57% de los encuestados reconoce que el logro de la agilidad operativa es fundamental para el éxito de una empresa moderna y que las redes de la próxima generación, así como la tecnología para apoyarlas, son clave para alcanzar este objetivo. Otros factores principales que impulsan el paso a la tecnología de redes de próxima generación:

  • 56% – Lograr con éxito iniciativas de transformación digital
  • 55% – un paso estratégico hacia la nube y las redes híbridas
  • 51% – creciente demanda de movilidad
  • 51% – expectativas crecientes del cliente y del usuario final
  • 45% – soporte para dispositivos IoT

Red de Próxima Generación y SD-WAN

Si bien existe una brecha actual en la adopción de la tecnología de próxima generación para apoyar la transformación de la nube y el digital en la empresa, esto está cambiando rápidamente. De los encuestados, el 98% está de acuerdo en que dentro de dos años la tecnología SD-WAN será fundamental en las redes de próxima generación para gestionar las nubes y los híbridos. Y mientras que sólo el 4% de los encuestados se benefician actualmente de SD-WAN, dentro de dos años el 52% planea migrar a SD-WAN, y el 93% en menos de cuatro años.

Los responsables de la toma de decisiones globales de TI ven una variedad de beneficios para SD-WAN, cada uno con una clasificación bastante cercana:

  • Aumentar el rendimiento de las aplicaciones (44%)
  • Automatización de la red y capacidad para dar prioridad a las aplicaciones (44%)
  • Conectividad unificada en toda la red (43%)
  • Visibilidad y monitoreo de la red (42%)
  • Simplicidad / facilidad de manejo (42%)
  • Aumento de la seguridad de la red (42%)
  • Integración con optimización WAN (40%)
  • Conectividad instantánea a AWS y Azure (39%)
  • Disminución de costos (38%)

La actualización de redes heredadas y el anclaje de redes de próxima generación con tecnología como SD-WAN tendrán muchos resultados positivos para las empresas de acuerdo con los responsables de la toma de decisiones de TI, incluyendo: mayor eficiencia gracias al mejor uso del ancho de banda (48%); aumento de la productividad (47%); mayores oportunidades de expansión (46%); aumento de los ingresos (45%); mayor agilidad (44%); y mejoras en iniciativas digitales (44%).

Riverbed ofrece soluciones para la Nube y el Mundo Digital

Riverbed está ofreciendo soluciones para ayudar a las empresas a pasar del hardware heredado a un nuevo enfoque definido por software y centrado en la nube para trabajar en red, mejorando la experiencia del usuario final. De igual forma, permite que las iniciativas de transformación digital de las empresas alcancen su máximo potencial. La plataforma integrada de Riverbed ofrece la agilidad, visibilidad y rendimiento que las empresas necesitan para tener éxito en un mundo digital y en la nube.

N de P. Riverbed

Nube, Transformación Digital e IA, las novedades del Ignite 2017

Satya Nadella, CEO de Microsoft, dio la bienvenida al evento conjunto Ignite/Envision 2017 –que se efectúa esta semana en Orlando–, refiriéndose a los desastres naturales que han afectado a México, Puerto Rico, así como a entidades de Texas y Florida, entre otras entidades. El tono inspirador utilizado por el directivo a lo largo de su discurso sirvió de preámbulo a esta reunión, donde se combinan por primera ocasión los dos mayores eventos que organiza la compañía cada año, esta vez de manera simultánea y en una misma sede. Y sirvió también para anticipar la presentación del libro Hit Refresh, escrito por Nadella, en coautoría.

El CEO principió su conferencia definiendo la misión que motiva a Microsoft: “Capacitar a cada persona y a cada organización en el planeta para lograr más”, una frase que repitió –con diferente intención y matiz– hasta en tres ocasiones. El propósito, al final de cuentas, era poner en claro de dónde surgirán y hacia dónde se dirigirán los próximos lanzamientos de la compañía.

En esta reunión, tres conceptos han permeado los principales anuncios: la nube, la transformación digital y la Inteligencia Artificial (AI).

Respecto al primero, se dio a conocer la expansión de Microsoft 365 con dos nuevas soluciones para capacitar a los trabajadores de primera línea y a los usuarios de educación: en efecto, el nuevo Microsoft 365 F1 reúne Office 365, Windows 10 y Enterprise Mobility + Seguridad para empoderar a los más de dos mil millones de trabajadores de primera línea “quienes sirven como primer punto de contacto entre una empresa y sus clientes, o que están directamente involucrados en la fabricación de productos”, señaló en entrevista Andrew Conway, General Manager Product Marketing de Microsoft.

Asimismo, se presentó Microsoft 365 Education, que incluye Office 365 for Education, Windows 10, Enterprise Mobility + Security y Minecraft: Education Edition. “Con esta solución, queremos brindar a los estudiantes, profesores y personal todo lo que necesitan para crear y colaborar, con seguridad”, dijo Conway.

Andrew Conway, General Manager Product Marketing de Microsoft.

Microsoft también amplió el Dynamics 365 con nuevas soluciones de AI “para ayudar a los usuarios empresariales a reinventar los procesos que utilizan todos los días”. La primera incluye un agente virtual inteligente para atender al cliente; un asistente inteligente para el personal de servicio al cliente; y herramientas para gestionar conversaciones. De acuerdo con la compañía, empresas como HP Inc., Macy’s y la propia Microsoft ya están utilizando esta tecnología para mejorar la satisfacción general del cliente y manejar más solicitudes en menos tiempo.

AI-First y Mixed Reality-First

En su conferencia, Nadella señaló que la transformación digital está basada en capacitar a los empleados, conservar clientes, optimizar las operaciones y transformar los productos. Y si al inicio de su mandato la compañía mencionaba con insistencia el binomio Mobile-First y Cloud-First como el foco de su estrategia tecnológica, hoy se le han adicionado los conceptos Artificial Intelligence-First y Mixed Reality-First, “para ayudar a los clientes a imaginar y crear el futuro de los negocios”, de acuerdo con el directivo.

Al respecto, la compañía de Redmond presentó nuevas funciones de búsqueda inteligente que emplean la IA y el aprendizaje automático para ofrecer resultados de búsqueda mediante Microsoft 365, dondequiera que se encuentre el usuario. Las nuevas experiencias incluyen la posibilidad de combinar búsquedas personalizadas y contextuadas con la red social LinkedIn y Bing Business mediante Cortana.

Asimismo, se mostró el caso práctico de Mixed reality-First que se lleva a cabo en el Design-Engineering Center de la empresa automotriz Ford. En este lugar, ingenieros y diseñadores colaboran y aportan ideas desde diversas partes del mundo en forma coordinada, en tiempo real y de manera inmersiva para mejorar el próximo modelo del Ford Fusion mediante el uso de soluciones como Microsoft Teams.

Nadella quiso concluir su conferencia refiriéndose al tercer elemento del trinomio conformado por IA y Mixed reality: la Computación Cuántica. En este concepto intervienen las matemáticas, la física y la ciencia computacional, y el entusiasmo mostrado por el directivo fue evidente. Dijo que la computación cuántica puede sonar a ciencia ficción, pero estamos hablando de una ciencia que en la próxima década será una realidad más que tangible. “Tendemos a sobrestimar siempre lo que podemos lograr en el corto plazo, pero subestimamos lo que se puede lograr a largo plazo”, aseveró el CEO.

José Luis Becerra, CIO México.

Cómo funcionará el Centro de Datos del mañana

Un centro de datos es una instalación física que las empresas usan para alojar sus aplicaciones e información de negocio crítico, a medida que evolucionan, es importante pensar a largo plazo sobre cómo mantener su fiabilidad y seguridad.

Componentes del centro de datos

Los centros de datos se refieren a menudo como algo singular, pero en realidad se componen de una serie de elementos técnicos como enrutadores, conmutadores, dispositivos de seguridad, sistemas de almacenamiento, servidores, controladores de entrega de aplicaciones y más. Estos son los componentes que TI necesita para almacenar y administrar los sistemas más críticos que son vitales para las operaciones continuas de una empresa. Debido a esto, la fiabilidad, la eficiencia, la seguridad y la evolución constante de un centro de datos suelen ser una prioridad.

 

Infraestructura de centro de datos

Además de los equipos técnicos de un centro de datos también requiere una cantidad significativa de la infraestructura de las instalaciones para mantener el hardware y software en marcha. Esto incluye subsistemas de alimentación, fuentes de alimentación ininterrumpida (SAI), sistemas de ventilación y refrigeración, generadores de respaldo y cableado para conectarse a operadores de red externos.

 

Arquitectura del centro de datos

Cualquier empresa de tamaño significativo probablemente tendrá múltiples centros de datos posiblemente en múltiples regiones. Esto da a la organización flexibilidad en la forma en que respalda su información y protege contra desastres naturales y provocados por el hombre, tales como inundaciones, tormentas y amenazas terroristas. La forma en que el centro de datos se diseña puede ser algunas de las decisiones más difíciles porque hay opciones casi ilimitadas. Algunas de las consideraciones clave son:

¿El negocio requiere centros de datos duplicados?

¿Cuánta diversidad geográfica se requiere?

¿Cuál es el tiempo necesario para recuperarse en caso de una interrupción?

¿Cuánto espacio se requiere para la expansión?

¿Debe alquilar un centro de datos privado o utilizar un servicio de co-localización / gestión?

¿Cuáles son los requerimientos de ancho de banda y potencia?

¿Hay un operador preferido?

¿Qué tipo de seguridad física se requiere?

Las respuestas a estas preguntas pueden ayudar a determinar dónde y cuántos centros de datos construir.

Mientras que los centros de datos a menudo se asocian con las empresas y los proveedores de la nube a escala web, en realidad cualquier empresa puede tener un centro de datos. Para algunas Pymes, el centro de datos podría ser una habitación ubicada en su espacio de oficina.

Futuras tecnologías de data center

Como ocurre con todas las tecnologías, los centros de datos están experimentando actualmente una transición significativa y el centro de datos de mañana se verá significativamente diferente del que la mayoría de las organizaciones están familiarizadas con el día de hoy.

Las empresas se están volviendo cada vez más dinámicas y distribuidas, lo que significa que la tecnología que potencia los centros de datos debe ser ágil y escalable.

A medida que la virtualización del servidor se ha incrementado en popularidad, la cantidad de tráfico que se mueve lateralmente a través del centro de datos (Este-Oeste) ha empequeñecido el tráfico de servidor cliente tradicional, que se mueve dentro y fuera (Norte-Sur). Esto está causando estragos en los administradores de centros de datos a medida que intentan satisfacer las demandas de esta era de TI.

Aquí están las tecnologías clave que convertirán a los centros de datos de entornos estáticos y rígidos que están llevando a las empresas a instalaciones fluidas y ágiles capaces de satisfacer las demandas de una tecnología digital las nubes empresariales.

Historicamente, las empresas tenían la opción de construir su propio centro de datos, utilizando un proveedor de hosting o un socio de servicio administrado. Esto cambió la propiedad y la economía del funcionamiento de un centro de datos, pero los largos plazos requeridos para desplegar y administrar la tecnología aún se mantienen.

El surgimiento de Infraestructura como Servicio (IaaS) de proveedores en la nube como Amazon Web Services y Microsoft Azure da a las empresas una opción en la que pueden proporcionar un centro de datos virtual en la nube con sólo unos clics del ratón. Los datos de ZK Research muestran que más del 80% de las empresas están planificando entornos híbridos, lo que significa el uso de centros de datos privados y nubes públicas.

 

Networking definido por software (SDN)

Un negocio digital sólo puede ser tan ágil como su componente menos ágil. Y eso es a menudo la red. SDN puede aportar un nivel de dinamismo nunca antes experimentado. Infraestructura hiperconvertida (HCI, por sus siglas en inglés). Uno de los retos operacionales de los centros de datos es tener que combinar la mezcla adecuada de servidores, almacenamiento y redes para soportar aplicaciones exigentes.

Luego, una vez que se despliegue la infraestructura, las operaciones de TI necesitan averiguar cómo escalar rápidamente sin interrumpir la aplicación. HCI simplifica eso al proporcionar un dispositivo fácil de implementar, basado en hardware de productos básicos que puede escalar agregando más nodos al despliegue. Los primeros casos de uso de HCI giraban en torno a la virtualización de escritorios, pero recientemente se han expandido a otras aplicaciones empresariales como las comunicaciones unificadas y las bases de datos.

El desarrollo de aplicaciones de contenedores a menudo se desacelera por el tiempo que se tarda en proporcionar la infraestructura en la que se ejecuta. Esto puede dificultar considerablemente la capacidad de una organización para pasar a un modelo de DevOps.

 

Contenedores

Los contenedores son un método de virtualización de todo un entorno de tiempo de ejecución que permite a los desarrolladores ejecutar aplicaciones y sus dependencias en un sistema autónomo. Los contenedores son muy ligeros y pueden ser creados y destruidos rápidamente, por lo que son ideales para probar cómo funcionan las aplicaciones en determinadas condiciones.

La segmentación de los centros de datos tradicionales tienen toda la tecnología de seguridad en el núcleo, por lo que el tráfico se mueve en una dirección Norte-Sur, las herramientas de seguridad y protege el negocio. El aumento del tráfico Este-Oeste significa que el tráfico evita cortafuegos, sistemas de prevención de intrusiones y otros sistemas de seguridad y permite que el malware se propague rápidamente.

Microsegmentación es un método de creación de zonas seguras en un centro de datos donde los recursos pueden ser aislados entre sí por lo que si ocurre una violación, el daño se reduce al mínimo.

Microsegmentation es típicamente hecho en software, por lo que es muy ágil.

Non-volatile memory express (NVMe). Todo es más rápido en un mundo cada vez más digitalizado, lo que significa que los datos necesitan moverse más rápido. Los protocolos de almacenamiento tradicionales, tales como la interfaz del sistema informático pequeño (SCSI) y Advanced Technology Attachment (ATA), han existido durante décadas y están llegando a su límite.

NVMe es un protocolo de almacenamiento diseñado para acelerar la transferencia de información entre sistemas y unidades de estado sólido que mejora en gran medida las tasas de transferencia de datos. GPU (unidades de procesamiento de gráficos). Las unidades de procesamiento Central han alimentado la infraestructura del centro de datos durante décadas, pero la ley de Moore está llegando a una limitación física. Además, las nuevas cargas de trabajo, como la analítica, el aprendizaje automático y el IoT están impulsando la necesidad de un nuevo tipo de modelo de cálculo que supere lo que las CPU pueden hacer.

Las GPUs, una vez utilizadas sólo para juegos, funcionan fundamentalmente diferentes ya que son capaces de procesar muchos hilos en paralelo haciéndolos ideales para el centro de datos de un futuro no muy lejano. Los centros de datos siempre han sido críticos para el éxito de negocios de casi todos los tamaños, y eso no cambiará. Sin embargo, el número de formas de implementar un centro de datos y las tecnologías habilitadoras está experimentando un cambio radical.

Para ayudar a construir una hoja de ruta hacia el futuro centro de datos, recuerde que el mundo se está volviendo cada vez más dinámico y distribuido. Las tecnologías que aceleran ese cambio son las que serán necesarias en el futuro. Aquellos que no lo harán probablemente permanecerán por un tiempo, pero serán cada vez menos importantes.

 

Zeus Kerravala

Los microprocesadores empiezan a tener Inteligencia Artificial

Aunque la historia nos demuestra que predecir el futuro es imposible y menos en términos tecnológicos, sí se pueden hacer ejercicios de pronósticos con las tendencias actuales.

Durante 4,000 millones de años, desde que surgió la vida en nuestro planeta, el hardware (el cuerpo) y el software (la conducta) han sido patrimonio exclusivo de la biología. Eso está cambiando gracias a la inteligencia artificial (IA). Por primera vez, que sepamos, en la historia de la Tierra, un ser vivo, es capaz de diseñar un sistema que piensa, establece relaciones y aprende por sí mismo. Mediante la IA estamos modificando el software de la biología a pasos agigantados y no sabemos dónde exactamente nos puede llevar esto.

Y, más importante aún, esta tecnología no es dominio exclusivo de algunos. Señalar un momento en el que todo cambia, el instante en el que se produce un giro de 180º, es casi imposible: ¿cuándo comenzó exactamente la Revolución Industrial? ¿Cuál es la fecha precisa en la que internet se convirtió en un eje vertebrador de nuestra cultura?

En 20 años probablemente muchos se hayan olvidado del día en el que la IA lo cambió todo. Pero, con la mente en las décadas que vienen, ese día bien podría ser el 2 de septiembre de 2017: esa tarde, en Berlín, se presentó el microchip Kirin 970, desarrollado por la empresa china Huawei.

Ese fue el preciso instante en el que la IA dejó de ser un software en nuestras manos y se transformó en hardware, multiplicando la capacidad de procesamiento de información, sin necesidad de depender de internet e incrementando lo que seríamos capaces de hacer, a partir de ahí, con esta tecnología en nuestras manos.

En el futuro, la IA generará un cambio positivo en lo que ahora mismo constituyen las mayores preocupaciones de los seres humanos. Beneficiada por estar en nuestras manos y aprender de nosotros, analizará no solo la enorme cantidad de datos que generamos, sino que nosotros mismos nos convertiremos en información.

¿Desempleo? Sabiendo nuestra red de contactos, los lugares por los que nos movemos habitualmente, nuestras cualidades y capacidades, elaborará un CV que rastreará las mejores ofertas adecuadas (de verdad) a nuestro perfil y sugerirá que nos conectemos con determinadas personas cercanas a nuestro círculo. También nos aconsejará cursos vinculados a los conocimientos que tenemos pero que nos permitan ocupar nuevos nichos más solicitados.

En salud, ya no solo archivará las imágenes por rostros o etiquetas, también llevará a cabo un análisis de los mismos para detectar patrones propios de determinadas dolencias…aún en gente que no conocemos, pero aparece en alguna imagen. En caso que sea muy obvio, crearía una alerta específica. Esto, que parece ciencia ficción ya ha ocurrido, con el pequeño Taylor Treadwell, un niño de 4 años cuyos ojos mostraban un brillo extraño en las fotos con flash y alguien, en las redes sociales, advirtió a los padres que debían ir al médico. El diagnóstico fue un retinoblastoma, un tipo de tumor que afecta principalmente a los niños pequeños. Ese poder ya está en nuestras manos.

Otra gran preocupación: el cambio climático. Hasta ahora, la inteligencia artificial en nuestros móviles se basaba en responder a una pregunta con cientos de páginas web en donde se encontraba la solución. Tener un microchip en el móvil, como el Kirin 970, hace que el sistema comprenda no solo la pregunta, sino también el contexto y de una respuesta en lugar de fuentes donde hallarla. La IA tiene el potencial para comprender toda la información vinculada al cambio climático y evaluar todas las opciones posibles, combinarlas y elegir la más adecuada a corto y largo plazo. Eso se debe a que no solo tiene acceso a la información, sino a que comprende el contexto. Un ejemplo sencillo es el transporte. Más que nada y nadie en el mundo, nuestro móvil es quien pasa más tiempo con nosotros. Eso le permite saber nuestros pasos, nuestras rutinas. Y, lo más importante, darle un contexto, combinándola con los datos de otros millones de personas para crear la red de transporte más eficaz. Lo mismo con la energía: los hogares inteligentes, que controlamos con el smartphone, tendrán acceso a nuestras costumbres y serán capaces de acceder a la red eléctrica en los momentos de menor demanda (y precio más bajo), para no saturar el sistema.

Finalmente, la pobreza. Solo en nuestro país hay más de 700.000 personas analfabetas. La mayoría de ellas, son mujeres. Aun así, casi todas ellas tienen móviles inteligentes. Un sistema de IA capaz de salvar la distancia y hacer comprensible lo que está escrito, permitiría el acceso a la educación a mucha gente alrededor del planeta. Y el conocimiento es el primer paso para erradicar la pobreza.

Fabio Arena, product marketing manager en Huawei Consumer Business Group Spain

Digitalización, abre oportunidades para las PyMEs mexicanas

Un motor muy importante de la economía de este país son las PyMEs, y hoy las que se dedican a la manufactura se enfrentan al reto de la digitalización para poder competir en el mercado. Cabe destacar que las pequeñas y medianas empresas son la columna vertebral de la economía mexicana, representando el 99.8 % de las empresas en el país y el 52 % del Producto Interno Bruto (PIB), apenas una de cada 10 sobrevive el primer año, siendo la falta de digitalización una de las causas principales, según datos del INEGI.

Por lo tanto, la entrada de dicho sector al mundo digital es el siguiente paso evolutivo de los negocios. Entre sus ejes rectores estratégicos debe estar la incorporación y uso de nuevas tecnologías, como por ejemplo el internet de las cosas (IoT, por sus siglas en inglés), Big Data, comercio electrónico, realidad virtual, entre otras, para así poder incrementar su competitividad y eficiencia operacional, entre muchos otros beneficios.

Por otro lado, cuando hablamos de digitalización debemos estar conscientes que no estamos haciendo referencia al futuro, sino al presente. Vivimos en un mundo digitalizado, desde la manera en la que solicitamos el servicio de chofer privado, rentamos un departamento o cuando incorporamos a nuestra vida el uso de smartphones o relojes inteligentes, transformado la manera en la que nos comunicamos, obtenemos y generamos información.

La digitalización debe verse como un habilitador para resolver problemas actuales y reales, desmitificando que sólo está al alcance de grandes corporativos, es decir, adoptarla es un proceso inevitable para cualquier tipo de industria o sector donde es necesaria una mayor capacidad de flexibilidad.

En la actualidad, las compañías trasnacionales cuentan con procesos digitalizados, generando una importante necesidad a las cadenas de suministro, en su mayoría PyMEs, a adquirir procesos digitalizados, sin embargo, cada año nacen más de cuatro millones de empresas en el país, pero sólo 1 de cada 10 sobrevive al primer año de emprendimiento mientras que 1 de cada 5 han adoptado, o están en proceso, de adoptar la digitalización. Esto conlleva una ardua labor en el cambio de percepción de los directivos de pequeñas y medianas empresas, demostrándoles que incursionar en la industria 4.0 es una inversión necesaria que reducirá tiempos y costos y aumentará la eficiencia.

De acuerdo con la Encuesta Nacional sobre Productividad y Competitividad de las Micro, Pequeñas y Medianas Empresas, que realizan el Instituto Nacional de Estadística y Geografía (INEGI), el Instituto Nacional del Emprendedor (Inadem) y el Banco Nacional de Comercio Exterior (Bancomext), más del 40 % de las medianas compañías en el país tiene como prioridad la búsqueda de mejoras en sus procesos dado que pretenden estar más preparadas y ser cada vez más competitivas.

En ese sentido, existen 3 hitos que probablemente aumenten la competencia del mercado a nivel nacional e internacional y que, seguramente, sólo podrán hacer frente aquellas empresas que tienen sus procesos digitalizados, me refiero a:

  1. La incorporación de China a la Organización Mundial del Comercio (OMC), siendo un actor y competidor importante para México.
  2. El Tratado de Libre Comercio, permitiendo la entrada de compañías trasnacionales al país, creando en las empresas una fuerte necesidad de proveer sus productos con ciertos estándares, además de rapidez, calidad y cantidad. (Es importante destacar que, en la agenda de la renegociación del Tratado de Libre Comercio de América del Norte, está prevista la incorporación de un capítulo de PyMEs, el cual considerará aspectos como las Tecnologías de Información e Industria 4.0.)
  3. La incorporación de los millennials a la vida laboral, fomentando la adopción de tecnologías para los procesos de las compañías.

El desafío de las PyMEs, tanto en México como en el resto del mundo, es ser capaces de adaptarse a la transición digital para que de esta manera aumenten su productividad y crecimiento económico. La digitalización cambia todas las áreas de la vida y también los modelos de negocio. Amenaza y oportunidad al mismo tiempo: quienes se preparen y adapten a la cuarta revolución industrial serán quienes puedan competir y despuntar. El ritmo de innovación y la capacidad de ser resilientes se convierten en factores clave de éxito en la competencia global.

 

 

Por: Juan Manuel Kuri,

Vicepresidente y Country Manager,

Siemens PLM Software

Mesoamérica.

 

Las redes pueden ser ágiles con Edge Computing

Edge Computing permite que los datos producidos por los dispositivos de Internet de las cosas (IoT) se procesen más cerca de donde se crea en lugar de enviarlo a través de rutas largas a centros de datos o nubes.

Hacer este cálculo más cerca del borde de la red permite a las organizaciones analizar datos importantes en tiempo casi real, una necesidad de las organizaciones en muchas industrias, incluyendo la fabricación, la salud, las telecomunicaciones y las finanzas.

¿Qué es exactamente Edege Computing?

Edge Computing es una “red de malla de micro centros de datos que procesan o almacenan datos críticos localmente y empujan todos los datos recibidos a un centro de datos central o repositorio de almacenamiento en la nube, en una superficie de menos de 30 metros cuadrados”, según la firma de investigación IDC.

Normalmente se hace referencia a los casos de uso de IoT, en los que los dispositivos de borde recopilarían datos, a veces cantidades masivas, y los enviarían a un centro de datos a una nube para su procesamiento. La computación Edge calcula los datos localmente para que algunos de ellos se procesen localmente, reduciendo el tráfico backhaul al repositorio central.

Normalmente, esto es hecho por los dispositivos IoT que transfieren los datos a un dispositivo local que incluye computación, almacenamiento y conectividad de red en un factor de forma pequeño. Los datos se procesan en el borde y todo o una porción del mismo se envía al repositorio central de procesamiento o almacenamiento en un centro de datos corporativo, instalación de co-location o nube IaaS.

¿Por qué Edge Computing es importante?

Las implementaciones de Edge Computing son ideales en una variedad de circunstancias. Una es cuando los dispositivos IoT tienen una conectividad pobre y no es eficiente que los dispositivos IoT estén constantemente conectados a una nube central.

Otros casos de uso tienen que ver con el procesamiento latente de la información. La computación de borde reduce la latencia porque los datos no tienen que atravesar una red a un centro de datos o una nube para su procesamiento. Esto es ideal para situaciones en las que las latencias de milisegundos pueden ser insostenibles, como en los servicios financieros o de fabricación.

Aquí hay un ejemplo de un despliegue de computación de borde: Una plataforma petrolera en el océano que tiene miles de sensores produciendo grandes cantidades de datos, la mayoría de los cuales podrían ser inconsecuentes; quizás sean datos que confirmen que los sistemas funcionan correctamente.

Esos datos no necesariamente tienen que ser enviados a través de una red tan pronto como se produce, por lo que, en su lugar, el sistema local de computación de borde compila los datos y envía informes diarios a un centro de datos central o nube para el almacenamiento a largo plazo. Al enviar datos importantes a través de la red, el sistema de cálculo de bordes reduce los datos que atraviesan la red.

Otro caso de uso para la computación de borde ha sido la construcción de redes de próxima generación 5G por las empresas de telecomunicaciones. Kelly Quinn, gerente de investigación de IDC que estudia el cálculo de bordes, predice que a medida que los proveedores de telecomunicaciones construyan 5G en sus redes inalámbricas, agregarán cada vez más centros de microdatos integrados o localizados adyacentes a torres 5G. Los clientes de negocios serían capaces de poseer o alquilar espacio en estos centros de micro-datos para hacer computación de borde, luego tener acceso directo a una puerta de entrada a la red más amplia del proveedor de telecomunicaciones, que podría conectarse a un proveedor de la nube IaaS público.

Tecnología Edge vs. Fog

A medida que el mercado de la computación de borde toma forma, hay un término importante relacionado con el borde que está atrapando: la niebla de computación.

La niebla se refiere a las conexiones de red entre los dispositivos de borde y la nube. Edge, por otra parte, se refiere más específicamente a los procesos computacionales que se realizan cerca de los dispositivos de borde. Por lo tanto, la niebla incluye la computación de borde, pero la niebla también incorporar la red necesaria para obtener los datos procesados ​​a su destino final.

Los patrocinadores del Consorcio OpenFog, una organización liderada por Cisco, Intel, Microsoft, Dell EMC e instituciones académicas como las universidades de Princeton y Purdue, están desarrollando arquitecturas de referencia para implementaciones de cloud computing y de niebla.

Seguridad de cómputo Edge

Hay dos lados de la moneda de seguridad de computación de borde. Algunos argumentan que la seguridad es teóricamente mejor se produce porque los datos no están viajando a través de una red, y se está quedando más cerca de donde se creó. Cuantos menos datos se encuentren en un centro de datos corporativo o en un entorno de nube, menos datos habrá de ser vulnerable si uno de esos entornos está comprendido. La otra cara es que algunos creen que la computación de borde es intrínsecamente menos segura porque los dispositivos de borde pueden ser más vulnerable.

Al diseñar cualquier despliegue de computación de borde o niebla, por lo tanto, la seguridad debe ser primordial. El cifrado de datos, el control de acceso y el uso de túneles de redes privadas virtuales son elementos importantes en la protección de los sistemas de computación de bordes. Términos y definiciones de computación remota, como la mayoría de las áreas tecnológicas, la computación de borde tiene su propio léxico. Aquí hay breves definiciones de algunos de los términos más comúnmente utilizados dispositivos de escritura: estos pueden ser cualquier dispositivo que produce datos. Estos podrían ser sensores, máquinas industriales u otros dispositivos que producen o recopilan datos.

Edge: lo que el borde es depende del caso de uso

En un campo de telecomunicaciones, tal vez el borde es un teléfono celular o tal vez en una torre celular. En un escenario de automoción, el borde de la red podría ser un coche. En la fabricación, podría ser una máquina en un taller; en la empresa de TI, el borde podría ser una puerta de enlace de unn portátil. Una puerta de enlace es el búfer entre el procesamiento de borde que se realiza la computación y la red de niebla más amplia. La puerta de enlace es la ventana en el entorno más amplio más allá del borde de la red.

Cliente de software: software que puede hacer algún procesamiento de datos en dispositivos de borde. Esto se opone a un cliente ligero, que se limitaría a transferir datos.

Edge equipo de computación: Edge Computing utiliza una gama de equipos existentes y nuevos. Muchos dispositivos, sensores y máquinas pueden equiparse para trabajar en un entorno informático de borde, simplemente haciendo que sean accesibles a Internet. Cisco y otros proveedores de hardware tienen una línea de equipos de red robusta que ha endurecido exteriores destinados a ser utilizados en entornos de campo. Una gama de servidores de computación, sistemas convergentes e incluso sistemas de hardware basados ​​en almacenamiento como el Snowball de Amazon Web Service puede utilizarse en implementaciones de computación de borde.

Computación de borde móvil: se refiere a la construcción de sistema

Brandon Butler

Tecnologías que ayudan en terremoto en México

El pasado 19 de septiembre la Ciudad de México se volvió a sacudir, esta vez con una magnitud mayor, justo en el Aniversario número 32 del terremoto sufrido en el año de 1985, que dejó a su paso la pérdida de más de 10,000 vidas.

Las diferencias entre ambos eventos han sido monumentales. La participación y respuesta por parte de la Ciudadanía, Gobierno Federal, Equipos de Rescate, Brigadas ha vuelto a poner en alto que la unión y fuerza del pueblo mexicano es más grande que cualquier otra diferencia.

Por otro lado, el uso de plataformas digitales para dar a conocer ubicaciones, estatus y necesidades han sido los nuevos protagonistas ante la tragedia, ya han servido para movilizar a toda la población nacional e internacional haciendo llegar la ayuda y denuncias a cada usuario del planeta.

Tal vez te interese: La diferencia que hizo la tecnología entre sismos de 1985 y 2017

También, el uso de tecnologías como escáneres, robots y drones ha tenido un papel primordial en las labores de rescate en todas las estructuras colapsadas por el terremoto. Existen zonas tan peligrosas con inminente riesgo de derrumbe que sería demasiado peligroso para rescatistas y binomios ingresar, sin embargo, los robots como el Ixnamiki Olinki, un proyecto de la Universidad Panamericana de Aguascalientes, puede ingresar a estas zonas y realizar la tarea de mover escombros para despejar el camino, soportar el peso de objetos de entre 30 a 50 kilos y llevar medicamentos para quien se encuentre atrapado entre los escombros.

Entre las compañías que se solidarizaron para ayudar a las víctimas del sismo se encuentra Amazon, quien abrió un canal de donaciones para la Cruz Roja en donde los usuarios pudieran comprar productos necesarios para las labores de rescate, una vez realizada la compra la misma plataforma se encargaba de realizar la entrega. A lo largo de los días la lista de los productos que se requerían se actualizaba.

Gigantes como Google, Facebook y Uber implementaron medidas tecnológicas para brindar servicios de localización y traslado durante la catástrofe. Google puso en marcha Google Person Finder, en donde se podía subir información de personas que no estaba siendo localizadas tras el sismo, además de donar 1 millón de dólares.

Por otro lado, El CEO de Facebook, Mark Zuckerberg también realizó la donación de un millón de dólares a la Cruz Roja Mexicana, más su algoritmo de actualización de estado seguro tras el terremoto.

Empresas de telecomunicación como Movistar, AT&T, Unefon y Telcel, se unieron ante la catástrofe e informaron a sus clientes que el servicio de llamadas y mensajes SMS eran liberados sin costo alguno, logrando así que familiares pudieran comunicarse de una manera más rápida.

Tal vez te interese: Empresas de tecnología apoyan a afectados por sismo en México

México continúa sorprendiendo, el emprendimiento y valor de la población es inagotable, por ello, si aún tienes la posibilidad de ayudar, ¡hazlo! Toda la ayuda es valiosa y puede marcar la diferencia para muchas personas. #FuerzaMexico.

 

N. de P. Zoho Corp.

¿Qué es NB-IoT y dónde lo podemos implementar?

En primer lugar, es IoT de banda estrecha, y es un estándar de comunicación diseñado para permitir que los dispositivos IoT operen a través de redes portadoras, ya sea dentro de una onda portadora GSM existente, en una banda de guardia no utilizada entre canales LTE o independientemente.

En gran parte porque la conveniencia de tener un servicio de comunicación para dispositivos de bajo nivel IOT construido en redes que ya cubren grandes áreas de los Estados Unidos, es una gran ventaja. Además, NB-IoT necesita solo 200kHz de ancho de banda, de ahí su nombre, para soportar un gran número de dispositivos de punto final, y tiene requerimientos de energía muy bajos, lo que lo abre a pequeños gadgets IoT sin complicaciones.

Está diseñado para ser a pequeña escala

En cierto sentido, sí, vastas partes del paisaje del IoT tienen requisitos de rendimiento extremadamente mínimos, como los contadores inteligentes que transmiten la electricidad o el uso del espacio de estacionamiento un par de veces al día, por lo que estos dispositivos de huella pequeña están directamente en la timonería para NB-IoT.

Sin embargo, la otra cara es que el gran número de esos dispositivos hacen NB-IOT nada menos que a pequeña escala. Según Ericsson, uno de los motores y promotores del desarrollo de la tecnología, el diseño de la norma NB-IoT tiene por objeto proporcionar cobertura a 200,000 suscriptores por cada onda portadora de 200 kHz.

Así que la idea va a ser que su servicio para habilitar los parquímetros inteligentes o seguimiento de vehículos de motor o alarmas de ladrón inteligente tendrá una manera fácil de llamar a casa, gracias a un servicio que vive justo en una estación base existente.

¿Por qué debería importarme?

Si usted tiene un potencial caso de uso de IOT que implica la cobertura de áreas muy grandes, donde podría ser impracticable – o, usted sabe, totalmente imposible – rodar su propia cobertura de radio, NB-IoT es un potencial salvavidas para usted, o por lo menos, una manera alrededor de un dolor de cabeza importante.

¿Cuál es el inconveniente?

Por un lado, todavía no está totalmente listo. 3GPP finalizó el estándar en el verano de 2016, pero aún no ha sido ampliamente disponible en los Estados Unidos, Verizon y T-Mobile están explorando activamente la tecnología para el despliegue, pero ninguno ha ofrecido una fecha de disponibilidad firme. FierceWireless informó recientemente que Verizon probaría NB-IOT en 2018, y que AT&T ha “evaluado” la tecnología, pero no tiene planes inmediatos de implementarla. Huawei planea probarlo en asociación con la empresa de logística DHL, en un sitio en Liuzhou, China.

También competirá con otras tecnologías de IoT de baja potencia como LoRaWAN (un estándar de banda sin licencia que utiliza ese chipset LoRa de Semtech) y Sigfox (una tecnología propietaria que utiliza las bandas ISM). Informes de problemas de interoperabilidad entre los principales patrocinadores Huawei y Ericsson a principios de este año han subrayado la naturaleza competitiva del mercado.

Ayuda a administrar IoT desde la oferta de full-stack hasta los servicios de plataforma.

Jon Gold

 

 

El Intel Core i9 Extreme con 18 núcleos listo para ser ensamblado en equipos de cómputo

Pertenecientes a la familia Extreme Edition, los nuevos procesadores Intel Core i9 acercan a las computadoras de escritorio un nuevo nivel de rendimiento gracias a sus 18 núcleos. Pasan a competir con los recién llegados Ryzen Threadripper de AMD.

Intel anuncia la llegada de sus primeros procesadores de 8ª generación, entre los que se encuentran, los chips para equipos de escritorio que hasta ahora tenían el nombre en código Coffee Lake. En concreto, se trata de los modelos Intel Core i9-7940X, Intel Core i9-7960X e Intel Core i9-7980XE de 14, 16 y 18 núcleos respectivamente, los cuales comenzarán a distribuirse a los clientes a partir de hoy. Fueron anunciados durante la pasada edición de la feria IFA de Berlín, y es ahora cuando se encuentran a la venta los primeros modelos para equipos de cómputo de escritorio.

Pertenecen a la Serie X de Intel, con lo que van destinados a todos esos equipos de alto rendimiento como creadores de contenidos y grandes entusiastas de los procesadores Extreme Edition, una familia que es muy reconocida entre los usuarios que buscan configuraciones de equipos gaming. Tras la reciente presentación de los procesadores Ryzen Threadripper de su competidor AMD, el mercado había quedado muy nivelado con los chips de 16 núcleos, pero ahora Intel vuelve a estar presente, al menos en lo que a características se refiere y sobre el papel. La compañía destaca que los Extreme Edition aportan un nuevo nivel de potencia, así como una plataforma para editar y renderizar vídeo de alta resolución 4K y realidad virtual VR, con mejoras de casi un 80% en la creación de contenidos VR y hasta un 60% en la edición de vídeo 4K.

Estos días atrás, Intel anunciaba también novedades en la Serie U, los cuales saldrán a la venta a partir del próximo 5 de octubre para fabricantes e integradores OEM. Esta nueva gama consta de los Core i3, i5 e i7 con la esencia de pertenecer a la 8ª generación. De esta forma, los Core i3 elevan su potencial a los 4 núcleos y los i5 a los 6 núcleos de CPU. En la parte superior se encuentra el Core i7-8700K con hasta 4.7 GHz de velocidad. Están desarrollados con un proceso de fabricación de 14 nanómetros mejorado, además de contar con mayor memoria caché (hasta 12 MB) y soportar módulos de memoria DDR4-2666 y conexiones de bus PCIe 3.0 para la conexión de gráficas y dispositivos de almacenamiento.

Alfonso Casas