Etiqueta: Comstor

Herramientas colaborativas, ideales para educación y aprendizaje digital

Comstor afirma que la educación y el aprendizaje digital se debe dar a través de herramientas colaborativas. Todos los sectores que utilizan tecnología en sus procesos se benefician de alguna forma, resolviendo cuestiones que antes llevaban tiempo para ser solucionadas de forma manual o en que el conocimiento quedaba restringido a un grupo pequeño de personas.

En la educación no es diferente. Hoy, con tantas posibilidades de herramientas colaborativas, es posible conectar aulas por videoconferencia, encontrar profesores, educadores con otras experiencias, ampliar la visión del mundo de los alumnos y posibilitar innumerables discusiones, antes restringidas solamente a los libros y al pizarrón.

La tecnología en la escuela inicia una serie de transformaciones en el proceso educativo. La primera de ellas es la función del profesor, que se convierte a su vez, en un facilitador entre los contenidos. Si antes el maestro retenía todo el conocimiento, hoy, con las herramientas de búsqueda, aplicaciones, tutoriales y videos disponibles, todo el conocimiento puede ser explotado. Otra de las transformaciones observadas está en el proceso de aprendizaje, que se vuelve colaborativo; los alumnos aprenden de forma participativa, algunas veces también enseñando.

Los profesores obtienen acceso a contenidos, nuevas visiones sobre asuntos que ya trabajan en el aula, nuevas herramientas y materiales para trabajar. Así, el equipo de gestión de la escuela obtiene entonces acceso a las plataformas de servicios administrados para mejorar sus controles en el día a día.

En el ambiente escolar se posibilita la creación de un grupo multidisciplinario de profesores, así como multiculturales, independientemente de la localización geográfica en que se encuentran en ese momento. El impacto en toda la comunidad es grande, una vez que nuevas experiencias en diferentes ambientes pueden ser llevadas a discusión.

Cisco realizó un estudio llamado Programa Escuela de Conectividad para el Siglo XXI, basado en la experiencia de cinco países que consiguieron conectar todas sus escuelas con banda ancha de alta velocidad: Irlanda, Portugal, Nueva Zelanda, Uruguay y Estados Unidos.

En esos países, se verificó que las escuelas alcanzaron varios cambios significativos, teniendo acceso a mejores y más amplios materiales educativos, alternativas de profesores más preparados para discutir determinado tema, entre otros beneficios.

La empresa hizo un reporte con algunas recomendaciones que apuntan que es posible transformar la educación en cinco años.

  • Debe haber un compromiso público con la transformación de la educación por medio de la conectividad en las escuelas.
  • Autoridades y gestores municipales, estatales y federales deben estar convencidos y entender la importancia de proyectos como este, para que puedan apoyar con leyes e incentivar fuentes, tanto públicas o privadas, de financiamiento para la implementación necesaria.
  • Es necesario tener un plan de acción con metas, plazos y procesos, contando con objetivos medibles.
  • Es necesario tener mecanismos de seguimiento y verificación de los proyectos para buscar soluciones y resolver lagunas de implementación.

Los profesores deben recibir capacitación, con contenido apropiado, técnicas para utilizar los equipos, y poder integrar una buena enseñanza en aula y el correcto manejo de las máquinas.

Uno de los puntos más importantes destacados por Cisco, es que sirve de poco que la escuela esté conectada si las personas no saben usar toda la tecnología a favor de la educación.

Las herramientas son fundamentales

Las herramientas de colaboración desempeñan un papel crucial para la comunicación eficaz durante todo el proceso educativo. Además de plataformas de video eficientes, que sean capaces de transmitir audio e imagen de forma clara, ofreciendo mejores experiencias para los usuarios, es necesario tener una plataforma para recibir archivos, materiales y hacer anotaciones.

Traducir, escribir, diseñar ideas y después compartir con amigos de la sala, escuela, o de la ciudad, ya que estamos hablando de aprendizaje en equipo, comunicación en conjunto, trabajo colaborativo.

Para que estas aplicaciones estén en perfecto funcionamiento, una escuela realmente conectada debe incluir la velocidad de Internet, la extensión de su red local (LAN), la conexión de una red WAN con otros centros educativos, la distribución de ruteadores WI-Fi en los espacios públicos, o servidores e instalaciones, además de toda la cuestión de seguridad, BYOD y filtro de seguridad que cualquier red debe tener.

Así, a partir del esfuerzo de diferentes agentes políticos, profesores, coordinadores y alumnos, es posible transformar y optimizar los procesos de enseñanza- aprendizaje en el aula por medio del uso de tecnologías adecuadas.

N de P. Comstor

Ventajas del Data Center Definido por Software (SDDC)

El modelo de Data Center definido por Software (SDDC) surgió como una alternativa en diferentes áreas debido a la velocidad en la que el mercado de la TI corporativa ha avanzado, principalmente respecto a las redes, almacenamiento, incluso el propio centro de datos.

Dentro de los puntos que hicieron que el modelo fuera una necesidad real para las empresas destaca el factor de poder alcanzar altos niveles de eficiencia, agregando desempeño, seguridad y productividad, al ofrecerse como una solución de tecnología sobresaliente.

La prerrogativa de esa nueva tecnología se distingue de las antiguas arquitecturas basadas en hardware por las facilidades que logró traer, principalmente la de una administración más facilitada y automatización que alberga todas las aplicaciones de la organización. No se trata sólo de una tendencia. La inclusión al modelo es creciente. De acuerdo con Gartner, la tecnología será considerada en el año 2020, un requisito para 75% de las empresas en todo el mundo que están involucrados en procesos de implementación de DevOps y del modelo de Nube Híbrida. Muchas veces usado como sinónimo de virtualización, el modelo puede definirse con un conjunto de tecnologías de las cuales la virtualización es una de las caras.

A continuación, Comstor nos destaca estas 4 principales ventajas que otorga esta tecnología a su empresa:

 

1.- Virtualización: administración facilitada.

Con la tecnología de Data Center definido por Software toda su infraestructura es virtual y sus operaciones se entregan como si fueran un servicio, lo que propicia la sustentabilidad y la agilidad de los negocios. Eso debido a que el modelo aplica los principios de abstracción para ofrecer una estructura de Data Center enteramente en software, separando el proveer servicios de la infraestructura.

De esa forma, en el modelo SDDC, el control de todos los recursos, como CPU, memoria, almacenamiento y red de datos, así como requisitos de seguridad y disponibilidad, son administrados por un software basado en políticas, lo que hace el hardware SDDC independiente.

La virtualización trae, por lo tanto, más agilidad en las operaciones diarias, garantía de compatibilidad, integración completa y la posibilidad de invertir menos en infraestructura física, lo que se traduce en economía de espacio y energía.

2.- Automatización y flexibilidad.

Con el SSDC existe la posibilidad de aumentar el nivel de la automatización del ambiente y dar más flexibilidad a las elecciones y a la atención de la demanda de los negocios. La tecnología, cuando está basada en políticas definidas de automatización de rutinas, como provisión, localización, configuración y control, reduce significativamente parte de la mediación humana.

Con esa visión, la configuración y la administración de todos los servicios de Data Center se vuelven menos complejos. Otra consecuencia positiva es la reducción de tiempo necesario para colocar aplicaciones y servicios de TI en el mercado.

 

3.- Plataforma de Nube Híbrida.

En los últimos años, los proveedores trabajaron para crear ofertas de Nube Pública independientes desarrolladas con tecnología SDDC basadas en productos de virtualización.

Al integrar una Nube Privada en una nube pública desarrollada con SDDC, el Data Center se configura como una verdadera plataforma de Nube Híbrida con un alcance de ambientes dentro o fuera, además de un modelo compartido de administración, orquestación, networking y seguridad. Por consiguiente, una de las más grandes ventajas del Data Center definido por Software es que no hay necesidad de un hardware especializado.

4.- Seguridad.

Otro beneficio del SDDC que se descubrió de forma no intencional por parte de las empresas, es el factor seguridad. Lo anterior porque el SDDC puede verse como una herramienta por parte del equipo de TI, pues la micro segmentación del Data Center ayuda a que se limite la vulnerabilidad, ataques e invasiones.

 

Con información de Comstor.

Cómo funciona el cómputo en nube y sus aplicaciones

Comstor ha publicado un reporte de cómo funciona la estructura de la Computación en Nube y sus aplicaciones en el entorno corporativo. La firma, define Cloud Computing como una tecnología que virtualiza recursos y equipos, es decir, aplicaciones archivos, software y otros datos que no tienen más que estar instalados o almacenados en la computadora del usuario.

La Nube puede diferenciarse en diferentes tipos, de los cuales destacan:

Nube Pública: Este servicio es proporcionado a usuarios comunes o empresas a través de Internet; está más dirigida al público común que al público corporativo. La Nube, posee un alto rendimiento, acceso directo, bajo costo y escalabilidad, pero presenta un incremento de riesgo en privacidad ya que el usuario se puede enfrentar a eventuales problemas de seguridad debido a su carácter público.

Cifras de la consultora Gartner, señalan que el mercado mundial de servicios de Nube pública debe crecer 16.5% en 2016, para alcanzar un monto de USD 204 mil millones.

Nube Privada: Ofrece todas las funciones básicas de la tecnología exclusivamente a una empresa o grupo específico. Integra todos los departamentos y áreas por medio del modelo de Cloud Computing, además de posibilitar el almacenamiento y acceso a datos corporativos con seguridad, tiene un costo de despliegue mayor que una Nube interna, lo que pude ser un obstáculo para las PyME.

Nube Híbrida: Consiste en mantener algunos sistemas en la Nube privada y otros en la Nube pública, simultáneamente. Es el modelo más utilizado en el mercado corporativo ya que posee un alto rendimiento, acceso directo, bajo costo, escalabilidad, seguridad y un control total.

La Nube Híbrida cubre la demanda de escalabilidad, por ejemplo, cuando una empresa necesita la capacidad adicional de un servidor por un corto periodo de mucho movimiento.

La clasificación del Tipo de Servicio se divide en 3:

Infraestructura como Servicio (IaaS): Que representa la contratación de servidores virtuales, el volumen del tráfico de datos, los datos almacenados y otros rubros. Su costo se basa en la cantidad de servidores virtuales, el volumen de tráfico de datos, los datos almacenados y otros rubros.

Plataforma como Servicio (PaaS): Este modelo es útil porque elimina la necesidad de adquirir hardware y licencias de software, y utiliza la misma estructura como servicio.

Software como Servicio (SaaS): Se trata de un modelo en el cuál la adquisición y/o utilización de un software no está vinculada a la compra de licencias. Permite controlar lo que la empresa necesita, pues sólo se paga lo que se usa.

Finalmente, si desea obtener respuestas a por qué implementar Cloud Computing, y conocer el primer paso para el planteamiento de una estrategia de Nube podría considerar la reducción de costos, la entrega de resultados rápidos, garantía de seguridad y conformidad de datos, mejor utilización de los recursos, suministro de un servicio on-demand (bajo demanda) y la optimización de la gestión de la política de seguridad.

Redacción

7 tendencias de almacenamiento que ayudan a reducir costos

Existen algunas posibilidades de almacenamiento para Centros de Datos que posibilitan nuevas formas de archivar datos de forma segura y práctica. sin embargo, cada vez más se desarrollan nuevas tecnologías que buscan, además de un mejor procesamiento y seguridad, la reducción de costos.

Algunas de esas tendencias incluyen desde la configuración diferenciada de las redes hasta la utilización de nuevos equipos que puedan soportar y guardar una mayor cantidad de datos. Es por ello que Comstor nos muestra 7 de estas tendencias que le ayudarán a reducir costos:

 

1.- NAND 3D

Hace mucho tiempo que los SSD son opciones de almacenaje en el mercado. Sin embargo, la presión para que sean más accesibles financieramente y también en el aumento de su capacidad, hizo que las empresas de tecnología especialistas en este chip desarrollaran una nueva tecnología: NAND 3D.

En ese tipo de memoria, usa una tecnología capaz de colocar en el chip, capas de células de almacenaje verticalmente, y no de forma horizontal (2D) como tradicionalmente se hace. En este momento, ya es posible encontrar dispositivos con hasta 48 capas, pero ingenieros ya están desarrollando tecnologías para una con 64 capas.

Según el formato estándar de 2,5 pulgadas, los nuevos SSD están en el mercado con una capacidad de hasta 16 Terabytes. El costo de estos dispositivos aún es elevado. En Brasil, por ejemplo, SSD de 1TB son encontrados en el valor de hasta $3 mil reales (US$936.00).

 

2.- Compresión de datos

Reducir el espacio ocupado por datos en determinado dispositivo, eliminar redundancias y aumentar el desempeño en transmisiones son los principales beneficios traídos por la tecnología de compresión de datos. Con el desarrollo de nuevas matrices AFA (All-flas Arrays) es posible disminuir 80% el espacio utilizado por un objeto.

 

3.- NVDIMM: Non-Volatile Dual In-line Memory Module

NVDIMM es una memoria RAM DIMM del computador que guarda datos eléctricos inclusive cuando se remueve la fuente de energía o cuando hay una inesperada pérdida de potencia, falla en el sistema o cuando se apaga el CPU, lo que cambia la forma en la que los computadores funcionan desde hace ya algunos años. La idea es que la memoria principal ahora sea persistente y muy grande, este un cambio radical para las operaciones del banco de datos. Las NVDIMM pueden ser usadas para mejorar el desempeño del aumento de una aplicación, la seguridad de datos y el tiempo de recuperación de fallas en el sistema.

 

4- RoCE

RDMA over Converged Ethernet (RoCE) es un protocolo de red que permite que se acceda directamente a la memoria remota (RDMA) a través de una red de Ethernet. La ganancia está en poder reducir la sobrecarga y la latencia en el sistema.

 

5.- Infraestructura definida por software

SDI (Software-Defined Infrastructure) es un abordaje de Nube que llegó al mercado para transformar los Data Centers en instalaciones consolidadas y con un consumo optimizado de energía, con sistemas ágiles, de bajo consumo y basados en estándares abiertos. Algunos de sus beneficios son reducir las inversiones en hardware y software y automatizar la provisión manual para mejorar la eficiencia de la administración y calidad de los servicios.

 

6- Nube Híbrida

El costo del almacenamiento en la Nube cayó a lo largo de los años. La Nube Híbrida es un lugar que permite el almacenamiento de hardware y software a un bajo costo y que inclusive es accesible para computadoras domésticas.

 

7.- Almacenamiento WhiteBox

La posibilidad de montar el propio sistema de almacenamiento, buscando en el mercado soluciones específicas para las necesidades de cada empresa, sugiere que exista la participación de COTS (Commercial off-the-shelf), ya que los proveedores tradicionales están desarrollando equipos que se conectan entre sí, aunque de marcas diferentes. Este nuevo enfoque permite el acceso a las mismas tecnologías de grandes proveedores de Nube con precios más bajos.

 

N. de P.

No cesan los fraudes electrónicos

Comstor, asegura que los pronósticos para el área de fraudes electrónicos son bastante malos.

La consultora de seguridad Easy Solutions, señala que los fraudes electrónicos para este año son aterradores. Dependiendo de cómo se interpreten estos datos, es posible que muchos usuarios se desconecten definitivamente del mundo virtual.

Sin embargo, los ataques de los hackers son cada vez más fuertes, también existe una gran industria que se mueve en pro de la seguridad digital y que intenta prevenir las próximas maniobras de estas personas con malas intenciones a fin de bloquear sus acciones.

De acuerdo con Easy Solutions, la Dark Web ganará más fuerza este 2016. La parte de Internet que no es indexado por los mecanismos de búsqueda estandarizados deberán hospedar la mayoría de los comandos de ataques por phishing, que actualmente demoran cerca de 34 horas para su identificación cuando se encuentran en Surface Web, sólo la parte que tiene su contenido indexado. Con ese pronóstico, es posible que el tiempo para detectar el ataque sea aún mayor o inclusive que no se encuentre la fuente.

Las pequeñas empresas, sin embargo, no están exentas de la posibilidad de un fraude electrónico. Algo tan sencillo como robar una dirección electrónica puede permitirle a una persona de mala fe que envíe un mensaje desde los servidores de la empresa a clientes y proveedores, pidiéndoles aportes financieros y depósitos en cuentas fraudulentas. Si la persona que recibe este tipo de mensajes no confirma la información a través de una llamada, por ejemplo, podría estar cayendo en una trampa.

Otro punto muy importante es el fraude con identidad falsa. No es nada más el robo de información de varios individuos para la formación de una nueva identidad virtual. Ese nuevo individuo puede solicitar que se le abran cuentas en bancos y tarjetas de crédito, por ejemplo.

También es fuerte el pronóstico del crecimiento de malware. La información que era guardada a siete llaves por un pequeño número de hackers ahora son fácilmente distribuidas y compartidas, aumentando la curiosidad de quienes conocen sistemas y la posibilidad de ataques.

Además, la firma destaca que se debe poner más atención a los dispositivos móviles, canales transaccionales y el almacenamiento de datos en la Nube. Cada uno de ellos debe poseer mecanismos específicos de seguridad, los cuales exigen herramientas capaces de bloquear invasiones en los canales de conexión entre ellos, especialmente para evitar el monitoreo de las actividades virtuales de millones de usuarios y de empresas en todo el mundo por parte de hackers.

Redacción

Se estima crecimiento de 20% en los Data Center en México

Comstor estima un crecimiento de 15 a 20% en ventas en los que resta 2016 en el sector de Data Center en México, una de las estrategias clave es el trabajo en conjunto con Cisco, al implementar soluciones de Data Center para el entorno de la mediana y grande empresa.

Sergio Bringas, Product Manager de Data Center de Comstor, explica que este crecimiento se debe a que ofrecen sistemas completos, unificados que incluyen cómputo, red y almacenamiento, a través de su constante apoyo continuo y cercano con su canal de distribución. A nivel mundial cuenta con 40 ó 50 integradores que proveen soluciones completas para que las empresas logren agilizar procesos y mejores el desempeño de sus negocios.

El ejecutivo señala que la arquitectura de Data Center, permite a los canales contar con una atractiva integración de sus plataformas con distintas marcas líderes en el mercado, en donde ha alcanzado rápidamente una etapa de madurez a nivel global y nacional traducida en óptimos resultados en el costo total de propiedad de los equipos, pero también reflejados en el retorno de inversión de la solución completa.

cre-dat-cent

“Todo va hacia el Cloud Computing, donde la organización debe converger el cómputo, las redes de centros de datos y la administración de plataformas de datos, orientado a construir nubes privadas, públicas y nubes hibridas. Nuestra visión es una oferta de cross aquitecture de centros de datos seguros donde la idea es manejar una capa de seguridad dentro del centro de datos, no sólo de producto perce sino también de soluciones completas”, señaló Bringas.

La estrategia de Comstor se resume en la conjunción de VCE Mini con cómputo Hiperflex de hiperconvergenia,  además Cisco ONE, Nexus en la red, y ACI para automatizar procesos. En la Nueva Era del Data Center confluye la hiperconvergencia de plataformas, soluciones, canal de distribución y cliente para mejorar procesos en las organizaciones.

Redacción

 

Cómo garantizar la seguridad de la red corporativa

Las redes cada vez son más esenciales para la vida diaria, Comstor comparte un manual de las buenas y malas prácticas para garantizar la seguridad de la red corporativa.

Los ataques e intrusiones a través de las redes públicas y privadas son frecuentes, y pueden causar interrupciones costosas de servicios críticos, pérdidas de trabajo, información y dinero.

Cuando se habla sobre seguridad en TI, Comstor recomienda no huir de las reglas básicas. Con tantas evoluciones y tecnologías nuevas en el mercado, los hackers pueden aprovecharse de las brechas más simples y obvias para invadir los sistemas si el paso a paso no es hecho correctamente.

Para garantizar la seguridad de su red corporativa, se debe asegurar de hacer lo siguiente:

  1. Actualización: Los dispositivos deben actualizarse constantemente. Y por eso es necesario asegurarse de que están recibiendo las actualizaciones para mantener los sistemas seguros. Un consejo es tener la garantía de que la conectividad de esos dispositivos es segura y que ofrece siempre la autenticación de dos factores.
  2. Contrato de responsabilidad: Al ser tecnología es importante asegurarse respecto al contrato de prestación de servicios, que define las responsabilidades del proveedor. En caso de que suceda alguna violación del servicio contratado y contratante, deben estar a la par de sus derechos y deberes. El consejo es saber cómo están siendo protegidos los datos recogidos, tanto virtual como físicamente.
  3. Criptografía y contraseñas: Con la criptografía y las contraseñas de acceso, toda la información será leída apenas por el interesado. Las medidas deben ser adoptadas de acuerdo con cada empresa, recordando que, aunque con esa protección de seguridad, algunos imprevistos pueden suceder. Un consejo es dejar el control administrativo de contraseñas y sistemas operacionales compartido con alguien de extrema confianza.
  4. Seguridad por proveedores: Los profesionales de TI debe estar atentos cuando se trata de seguridad y de la infraestructura contratada. El consejo es asegurarse de los procesos de la cadena de suplementos de los fabricantes para evitar la introducción de códigos maliciosos.
  5. Información: Estar informado, buscar en el mercado cuáles son los tipos de ataques más constantes y cómo los especialistas están evitando esas invasiones. Estudiar casos de empresas que tuvieron que actuar con invasiones y ver cuáles fueron las decisiones que tomaron para enfrentar la situación. Se debe actualizar la información sobre nuevas armas para combatir invasores.
  6. Estandarización: Cuando el tema es seguridad en la red corporativa es necesario que exista una estandarización de la infraestructura para evitar que la red se vuelva extremadamente compleja al punto de dificultar su monitoreo y gerencia.
  7. Tener el control sobre las alteraciones: Después de tener este proceso definido, es posible restringir alteraciones, monitorear las que no son autorizadas y saber cuándo las alteraciones no siguen el proceso y cómo actuar en ese momento.

La integridad de la información de una compañía, así como de su red corporativa debe cuidarse evitando:

  1. Usar tecnología obsoleta: Será un desperdicio para la empresa adquirir cualquier tipo de dispositivo que esté con los días contados. Aunque sea un problema puntual de la red, busque soluciones actualizadas u otras posibilidades que puedan dar un upgrade en el sistema.
  2. Ignorar el BYOD: En cualquier empresa hoy, en cualquier parte del mundo, el usuario final siempre tiene un smartphone, tableta o portátil que utiliza en el horario de trabajo. Aunque la empresa no apoye la iniciativa, es necesario que haya protección en la red contra esos dispositivos. En momentos de necesidad, el usuario final va a encontrar una forma de usar su propio dispositivo para acceder remotamente a informaciones.
  3. Olvidarse de hacer un inventario: Es necesario saber exactamente cuáles son los equipamientos que están en su red, su vida útil, con cuánto tiempo es posible contar con sus servicios además de sus actualizaciones. A partir de esa información es posible prever nuevas compras y actualizaciones que deben ser hechas en la red y en qué plazo.

N. de P. Comstor

Internet de las Cosas aumenta las oportunidades de negocio

Internet-of-Things-Graphic1Comstor realizó en la Ciudad de México de la mano de Cisco, el Roadshow Internet of Everything (IoE), el evento más grande sobre Internet of Things (IoT) –Internet de las Cosas– que también se realiza en ciudades como Bogotá y Sao Paulo.

Comstor y Cisco mostraron al mercado mexicano la importancia que guarda el concepto de Internet de las Cosas, así como las oportunidades de negocio para las empresas y clientes, quienes conocieron el impacto positivo que tiene la implementación de esquemas IoT en el desarrollo de los proyectos.

“La intención de este roadshow fue mostrar a las empresas cómo la tecnología de IoT les ayuda a mejorar sus procesos y les brinda información clave para la toma de decisiones que les resulta en beneficios como reducción de costos y mejoramiento en su productividad, sobre todo en los sectores de industria, manufactura y energía”, dijo Gabriel Elías, director de Comstor.

Agregó que Comstor, al ser el partner de Cisco en América Latina, ayuda a impulsar muy fuerte específicamente a la industria de manufactura, como las armadoras, al contar con soluciones avanzadas para ambientes industriales en los que la conectividad entre aparatos y personas es vital para mejorar todos los procesos de una organización.

Comstor ofrece a sus canales de distribución nuevas soluciones de Machine 2 Machine (M2M), Ethernet Industrial y ambientes físicos seguros con video-monitoreo.

“Internet de las Cosas es la primera fase del Internet de Todo, en donde hay cuatro pilares que Comstor busca conectar para tener comunidades más avanzadas en cualquier tipo de ambiente industrial, que son las cosas, datos, personas y procesos; cuando conectas estos cuatro pilares se pueden hacer muchas cosas como incrementar el nivel de vida en una sociedad, mejorar los procesos en una fábrica o subir el nivel de seguridad en una platafoma petrolera, las aplicaciones son muchas”, explicó Daniela Reyes, gerente de Go To Market de Comstor.

Durante el evento se contó con la presencia de Marcos Murata, director de Desarrollo de Negocios para Comstor Latinoamérica; Jhonatan Godínez, gerente de producto de IoT de Comstor México; y Andres Ruiz, director de Ventas y Desarrollo de Negocios de la Worldwide Partner Organization (WWPO) de Cisco.

Asimismo, se realizó una presentación de equipos de Cisco de diferentes productos que conectan a los directivos con sus sucursales y vehículos para contar con un monitoreo en tiempo real de las personas, datos y procesos con el fin de tomar las mejores decisiones para el negocio.

“Nuestra misión es que los clientes finales y las empresas cuenten con la información adecuada para entender los beneficos que tiene IoT y poder tener excelentes resultados en el corto plazo”, finalizó Gabriel Elías.

 

 

-Comunicado de Prensa