Día: 9 mayo, 2016

¿Por qué necesito probar mi DRP?

44Hoy en día, contar con un Disaster Recovery Plan (DRP) es clave para asegurar la disponibilidad y continuidad de operaciones, siendo uno de los elementos claves para la competitividad y efectividad de las empresasd. Sin embargo, no realizar pruebas de este plan no garantiza su efectividad. Rodolfo Montes de Oca, Ingeniero de Sistemas de Veeam Software México en entrevista para Computerworld México nos habla del tema.

Antes que nada, expliquemos de palabras del vocero de la compañía la función de un DRP. Éste tiene como propósito que la empresa pueda reaccionar  ante una contingencia o falla, componiéndose de una serie de actividades que se ejecutan cuando se requiera para reactivar las operaciones del negocio, así como los servicios, procesos y actividades de misión crítica reduciendo al mínimo el impacto económico que pudiera afectar a la organización por la falta de datos, hardware o software.

Toda organización debe contar con un DRP que le permita responder de forma adecuada e inmediata ante una contingencia. Sin importar el tamaño de la organización, ninguna está exenta de sufrir algún desastre o falla, por lo tanto, se debe estar preparado para ejecutar las actividades que le permitirán reaccionar ante cualquier incidente.

De acuerdo al más reciente estudio de Disponibilidad de Veeam, los CIOs reconocen que las recuperaciones dentro de sus empresas toman  por lo menos 3 horas y en promedio sus organizaciones registran 15 eventos de tiempo inactivo no planeado al año. También muestra que 48% de las cargas de trabajo son de misión crítica y que a pesar de que estas aplicaciones son respaldadas en promedio cada cuatro horas, la recuperación de datos de misión crítica tarda en promedio dos horas.

En caso de una contingencia que puede ser desde un accidente, hasta un desastre natural, se garantiza que los datos,las aplicaciones y servicios estén siempre disponibles para todos los usuarios, cada minuto de cada día y se mantenga la competitividad en  la era del Always-On-Enterprise. La falta de un DRP afecta no sólo en el servicio, sino en los ingresos -siendo muchas veces mayores las pérdidas que la inversión en un sistema de este tipo- y en la competitividad.

“No contar con un DRP, tiene un impacto negativo sobre la organización, éste  se traduce en la pérdida de capacidad de operación y flujo de información durante la contingencia, lo cual puede llegar a costar hasta 16 millones de dólares promedio por año a la empresa. Factores muy importantes a considerar dentro de un DRP es el análisis de RTO (Objetivo de Tiempo de Recuperación) y RPO (Objetivo de Punto de Recuperación) que requiere el negocio para garantizar una recuperación rápida y con la menor cantidad de datos perdidos”, aseguró Montes de Oca.

 

¿Qué aspectos base debo considerar al desarrollar un DRP?

Son muchos los aspectos que se deben considerar para desarrollar un DRP basado en las necesidades de cada organización. Para Montes de Oca, estos son los aspectos básicos que usted debe considerar:

  1. Identificar riesgos y amenazas, tanto internas como externas, para posteriormente clasificarlos.
  2. Basándose en lo anterior, realizar un análisis de riesgos que en conjunto con los efectos, costos e interdependencias le permitirá evaluar los mecanismos de recuperación ante el desastre para cumplir con sus RPOs y RTOs.
  3. Evaluar los mecanismos de DR que utilizará la organización.
  4. Diseñar las fases del DRP, que permitirán determinar la secuencia de las actividades que se ejecuten.
  5. Finalmente, generarel documento que contenga el DRP para compartirlo al resto de la organización.


¿Por qué el DRP necesita pruebas? ¿Cómo sé que es el ideal para mi negocio?

Sin embargo, muchas empresas implementan sus DRP sin realizar pruebas, haciendo que en realidad, su estrategia de protección sea igual a la falta de una, llegando a fallar en el momento más necesario. “Uno de los procesos más importantes de un DRP es la revisión y prueba del funcionamiento adecuado del mismo, en donde se debe asegurar que el Plan se ejecutará de manera correcta y que cumplirá con los RTOs y RPOs estipulados”, aseveró.

Estas pruebas consisten en una serie de actividades continuas que involucran a  la organización, las cuales deben ejecutarse de manera parcial o completa, dependiendo de la prueba que se requiere hacer. Regularmente es un proceso complejo por la información que se maneja y las necesidades que se tienen en cuanto a sus  aplicaciones de misión crítica como pudiera ser el correo y bases de datos.

Por ejemplo, con SureReplica de Veeam es posible realizar pruebas de recuperación de las máquinas virtuales (VM) que han sido replicadas de manera automatizada y que se ejecutan dentro de un entorno aislado, para así comprobar el estado de salud de las réplicas y que su funcionamiento es el adecuado. Al final se  entrega un reporte con la información del estado de la VM de réplica y los resultados de estas pruebas.

Para identificar cuál es el DRP y qué pruebas son las que se deben ejecutar, es necesario conocer cuáles son los procesos y servicios de misión crítica de la organización, de tal manera que se pueda determinar cuáles estarán considerados dentro del DRP ya que las necesidades de cada negocio son distintas.

 

La oferta de Veeam para este reto, Veeam Availability Orchestrator

Para hacer frente a esta problemática y poder estar confiado de sus sistema DRP, Veeam lanza Availability Orchestrator la nuevo solución que ofrece resolver los problemas actuales con los planes de DR al proveer a las organizaciones con una herramienta de orquestación de pruebas automatizadas de DR no disruptivas para mantenimiento del mismo y evitar procesos manuales que son costosos, tardados y en ocasiones un tanto ineficientes. Además,señalar que existe el apoyo de Veeam de documentación y verificación de los planes para que cumplan con la normativa que se requiere.

09

 

Rodolfo-Montes-de-Oca-Veeam

Rodolfo Montes de Oca

Ingeniero de Sistemas

Veeam Software México

México en la 24va. posición de los países con más ataques

Un grupo de investigación de ataques cibernéticos fue el blanco No. 1 de ataques de Denegación Distribuida de Servicio (DDoS), de acuerdo con el Reporte de Amenazas de Nexusguard para el Primer Trimestre del 2016, que establece que la región de Medio Oriente fue testigo de un agudo incremento durante ese trimestre. Nexsguard analiza una red de dispositivos vulnerables para ubicar nuevos ciberataques a lo largo del perímetro y escanea información para buscar tendencias en los vectores de ataque, duración, fuentes y otras características con el fin de informar a las empresas y organizaciones de los métodos más recientes. El reporte trimestral de Nexusguard proporciona a los profesionales en seguridad la información que necesitan para proteger adecuadamente sus redes.

El “Reporte de Amenazas del Primer Trimestre del 2016” de Nexusguard encontró que el tipo de ataque preferido contra los investigadores es el protocolo de tiempo de red (NTP), con el que atacaron a algunas víctimas casi todos los días. El incremento en el número de ataques contra los investigadores contribuyó al repunte de popularidad de los ataques del tipo NTP, arrebatándole el primer lugar a las vulnerabilidades del sistema de nombre de dominio (DNS).  Los analistas de seguridad de Nexusguard también encontraron que la mayoría de los ataques duraron menos de 10 minutos, durante los cuales, cinco minutos fueron maliciosos. La reducción en la duración puede estar relacionada con el continuo incremento en popularidad de la contratación de servicios DDos, los cuales acortan el tiempo de los ataques. Como resultado, los analistas de Nexusguard recomiendan a las organizaciones implementar sistemas de monitoreo que puedan detectar estos eventos en intervalos de un segundo o sub-segundo

“Los investigadores y sus grupos afines se han convertido en blancos de gran valor para los criminales digitales. Hemos visto esto en el pasado, pero nunca como blanco primario durante todo un trimestre, haciendo de los hallazgos de este reporte trimestral aún más importantes”, comentó Terrence Gareau, científico en jefe de Nexusguard. “También encontramos que el incremento en la contratación de servicios DDoS está cambiando drásticamente el panorama de amenazas y las empresas necesitan estar seguros que sus redes sean capaces de manejar nuevas clases de ataques”.

Al estudiar la lista de los 10 blancos más importantes por país, los autores del reporte encontraron que los Estados Unidos y China regresaron a las posiciones uno y dos respectivamente, sufriendo más de 49,000 ataques combinados. México conservó la posición número 24 en el ranking de países más atacados sufriendo un incremento del 9% en amenazas DDoS. Turquía cayó en el ranking, reforzando la especulación previa de Nexusguard de que el pico de estos ataques en el último trimestre del 2015 estaba relacionado con las tensiones entre Turquía y Rusia ocurridas durante ese trimestre. Además, los países de Medio Oriente han visto un incremento del 83% en el número de ataques en el primer trimestre, por lo que los investigadores predicen que habrá más ataques contra países de esa área mientras se continúen incrementando las tensiones en la región.

Consulte el reporte completo “Q1 2016 Threat Report” para más detalles.

 

Siete compañías de smartphones en investigación por infracción de patente

La Comisión de Comercio Internacional de Estados Unidos (ITC) anunció que había puesto en marcha una investigación que afecta a siete fabricantes de teléfonos inteligentes, mismas que son acusadas de violación de patentes. Esta investigación podría conducir a la prohibición de la venta de algunos modelos de smartphones de estas compañías en Estados Unidos. Según la Comisión, las compañías que se están investigando son Lenovo y su subsidiaria Motorola, Samsung Electronics, ZTE, Sony, LG Electronics, HTC y Blackberry.

La demanda contra estas empresas fue presentada por Creative Technology, de Singapur, y su subsidiaria en Estados unidos, Creative Laps, el pasado 24 de marzo.

Conocida por sus tarjetas de sonido Sound Blaster para el audio en las PC, Creative acusó a estas siete compañías por incumplir la patente estadounidense número 6.928.433 titulada “Automatic Hierarchichal Categorization of Music by Metadata”, que presenta varios métodos para acceder a diferentes tipos de datos, como música o archivos de video, en un reproductor multimedia portátil.

Se dice que Apple es uno de los poseedores de la licencia de dicha patente, y en 2006 pagó a Creative 100 millones de dólares por una licencia no exclusiva, según se explica en la demanda de Creative. A principios de año, la empresa también pidió a la ITC que bloqueara la venta del iPod alegando incumplimiento de esta misma patente.

Entre los presuntos productos que infringen la patente nombrados en la demanda se encuentran el Samsung Galaxy S6 y otros teléfonos de Samsung que llevan la app Google Play Music (en su versión 5.9.l854R.l904527), o la app de música de Samsung (en su versión 6.0.1508051449), que se instalan en los teléfonos antes de importarse.

Los productos bajo investigación son, en concreto, smartphones “con capacidad de reproducir archivos multimedia almacenados seleccionados por el usuario desde una pantalla jerárquica”, explicó la ITC en un comunicado.

Si se encuentra infracción tras la investigación, la Comisión puede obligar a las compañías a que dejen de vender algunos de sus productos más populares, en virtud de una orden de exclusividad requerida por el demandante. La ITC ya ha advertido que la puesta en marcha de la investigación no implica la toma de una decisión sobre el caso. Se fijará un plazo de investigación de 45 días desde su institución.

 

John Ribero

 

Windows 10 ya presente en 300 millones de dispositivos

Ya casi se llega al año de que el nuevo sistema operativo de Microsoft, Windows 10, empezó a estar disponible para los usuarios, ofreciendo actualización gratuita, llegando hasta el momento estar activo en más de 300 millones de dispositivos. La compañía aprovechó el anunció de esta cifra para recordarle a los usuarios que aún no se han actualizado, que quedan pocos días para hacerlo sin costo.

“Nos complace ver que Windows 10 se ha convertido en uno de los más grandes servicios en línea en menos de un año. Esencial para cumplir con nuestra visión de un cómputo más personal, Windows 10 ofrece experiencias que son familiares, más seguras y confiables, y más personales y productivas –lo que permite nuevas experiencias innovadoras”, así lo remarcaba Yusuf Mehdi, Vicepresidente Corporativo del Grupo de Windows y Dispositivos en Microsoft en comunicado de prensa.

La empresa vio unas de las adopciones más rápidas en su historia con Windows 10, probablemente debido en gran medida por ofrecerla sin costo el primer año, estando presente no sólo en equipos de empresas e instituciones, sino en las casas y escuelas. Cabe recordar que esta oferta termina el 29 de julio de 2016.

Desde la actualización de Windows 10, se han pasado más de 63 mil millones de minutos en el nuevo navegador Microsoft Edge, tomando en cuenta hasta marzo de 2016, con 50% de crecimiento en minutos desde el último trimestre. Microsoft Edge, disponible en exclusiva en Windows 10. Por su parte, Cortana, la asistente personal digital en Windows 10, ha ayudado a responder más de 6 mil millones de preguntas desde su lanzamiento.

En cuanto al ambiente de entretenimiento, la gente juega más tiempo en Windows 10, con más de 9 mil millones de horas de juego en el sistema operativo desde su lanzamiento. Las aplicaciones que vienen con Windows 10, que incluyen Fotos, Groove Music, y Películas & TV reciben millones de usuarios activos cada mes, por ejemplo Fotos, que la utilizan más de 144 millones de personas.

Y la Tienda Windows continua con su crecimiento diario con las nuevas aplicaciones de la Plataforma Universal de Windows (UWP, por sus siglas en inglés) como Facebook, Instagram y Facebook Messenger; aplicaciones UWP actualizadas de Vine, Hulu, Netflix y Twitter; y juegos de PC populares entre los que se encuentran Rise of the Tomb Raider y Quantum Break.

“Estos servicios de Windows 10 se vuelven cada vez mejores conforme pasa el tiempo, con nuevas y significativas innovaciones entregadas en noviembre de 2015, y muchas más por venir en Windows 10 Anniversary Update a mitad de 2016. Por supuesto, como parte de la entrega de Windows 10 como servicio”, finalizó Yusuf Mehdi.

 

 

Factores que asustan de la videoconferencia, y cómo solucionarlos

La videoconferencia sigue ganando popularidad, gracias especialmente a su forma de ahorrar tiempo y dinero, además del aumento en la colaboración que provoca en los equipos de trabajo distribuidos. Sin embargo, hay al menos cinco factores que se vuelven un freno al momento de adoptarse.

Una encuesta reciente indica que el 23% de los empleados, tan sólo en Estados Unidos, no se siente cómodo interactuando por videoconferencia, y las tres cuartas partes dijeron que prefieren teleconferencias de audio que reuniones vía video. La verdad es que los más jóvenes son más partidarios de esta herramienta y el 61% de ellos sí que elige este canal con frecuencia.

Sus reparos tienen que ver muchas veces con hablar en público (una preocupación expresada por el 42% de las mujeres encuestadas y el 34 de los hombres). En todo caso, los expertos recomiendan tomar una serie de medidas para contrarrestar este problema.

 

1. No me veo bien en cámara

“Hay un viejo adagio que dice que la cámara engorda”, explica Dennis Collins, director de marketing de West. “Superar el miedo a verse a sí mismo en la cámara lleva tiempo y solo se reduce utilizándo con frecuencia este sistema”.

La ropa también puede ser un problema, llegado el caso, y sobre todo los que trabajan en casa son menos propensos a participar por esta vía. Aquí, la solución es arreglarse un poco.

 

2. Todo el mundo puede ver lo que hago

No es raro ver a un trabajador haciendo otras tareas, cuando atiende una teleconferencia, y por video queda retratado. Todos pueden ver lo que hacemos, si contestamos correos o participamos en otros chats. Por norma, y según el mismo experto, por videoconferencia ” las personas están más preparadas y centradas en la reunión que en una conferencia”.

Si al usuario le preocupa cómo pueden percibirle los demás, lo mejor es eliminar todas las posibles distracciones: cerrar las sesiones de apps, silenciar el móvil o desconectar las alertas de email, por ejemplo.

trabajo-desde-casa-home-office

3. No me gusta que se vea mi casa

Las tres cuartas partes de los encuestados (76%) reconoce que es una molestia mantener una videoconferencia con alguien que está en su casa, por las continuas interrupciones, mascotas rondando, persianas a medio cerrar o incluso llamadas telefónicas no programadas. En general, no suele gustar tampoco que observen nuestros espacios íntimos de la casa o la oficina.

Aquí, el experto señala que si una llamada es con compañeros de trabajo, el sitio elegido dentro de la casa puede ser menos serio, pero si es con un proveedor el usuario debe controlar lo que se va a ver.

 

4. No me gusta hablar en público

Es muy generalizado y preocupa a un tercio de hombres y el 42% de las mujeres. Hablar en público puede ser un gran inconveniente y si, encima, ha de hacerse en otro idioma, la cosa se agrava.  Collins recomienda a las empresas, en este punto, ofrecer formación sobre cómo hablar en público para ayudar en este tema.

 

5. Y si la tecnología falla…

Muchas personas temen que se produzcan fallos técnicos mientras mantienen una videoconferencia, que no se reciba o envía buen audio y vídeo, o que el software no se conecte correctamente, por ejemplo. Collins dice que la mejor manera de vencer este miedo es familiarizarse con la tecnología de antemano.

“Probar el software, el hardware y todo lo demás, o realizar varios ensayos” ayuda a espantar este temor.

Twitter niega el acceso a la analítica por parte del gobierno de Estados Unidos

La famosa red social, Twitter, asegura que las agencias de inteligencia utilizan este servicio, proporcionado por la startup Dataminr, para vigilar a los usuarios. La decisión aviva aún más el debate en el país sobre la privacidad.

Dataminr es una startup que analiza, entre otras redes sociales, los mensajes de Twitter y los transforma en señales procesables a tiempo real para clientes de diversos sectores como las finanzas, la seguridad corporativa, el sector público o los medios de comunicación. Pues bien, según información del Wall Street Journal, Twitter decidió bloquear este servicio a las agencias de inteligencia de los Estados Unidos por utilizarlo con fines de vigilancia.

Para la red social, este es un tema muy que crea mucha controversia y que hay que saber tratar, más después de que Edward Snowden revelaran que el gobierno norteamericano estaba recabando información sobre los usuarios a través de Internet y las compañías de telecomunicaciones.

Los ejecutivos de Dataminr confirmaron esta decisión que, por otra parte, está en la línea política de la compañía con respecto al uso de sus datos por empresas externas. “Dataminr utiliza tweets públicos para vender alertas de noticias a empresas y agencias gubernamentales sin la finalidad última de vigilar a los usuarios. Sin embargo, nunca hemos autorizado a la compañía o a terceros a vender estos datos con estos objetivos”, explican desde Twitter en un comunicado.

Este debate está afectando ya a todas las compañías de comunicación y redes sociales. Por una parte existe el argumento de las autoridades de que analizando toda esta información se puede combatir grandes amenazas como el terrorismo. Es más, John C. Inglis, ex director adjunto de la NSA (Agencia de Seguridad Nacional, por sus siglas en inglés), aseguró al Wall Street que Twitter está utilizando un doble nivel al negarles información que están vendiendo a empresas privadas.

Por el contrario, también hay voces que se posicionan en favor de la acción de Twitter. Jameel Jaffer, director jurídico adjunto de la Unión Americana de Libertades Civiles escribió en un tweet que la red social “tiene razón al no querer participar en tramas de espionaje”.

 

-Redacción.

Razones por las que Latinoamérica tendría que pensar en Ciudades Inteligentes

Las ciudades del mundo están en constante crecimiento; según datos de Naciones Unidas, se prevé que alrededor de 70% de la población mundial habitará en centros urbanos para 2050. En Latinoamérica, el crecimiento demográfico es sostenido y el aumento de población se convertirá en un problema grave a menos que se logre mantener cierta armonía entre los aspectos espacial, social y ambiental de las localidades y de sus habitantes. Es en este marco que cobra relevancia el concepto de Ciudad Inteligente.

Mucho se ha hablado últimamente sobre la contingencia ambiental que enfrenta en estos momentos la Ciudad de México, y sobre el terremoto que sacudió a Ecuador recientemente, dos eventos regionales que han dejado estragos económicos y sociales con los cuales, los gobiernos de ambos países han tenido que enfrentarse de manera emergente.

El debate sobre las soluciones que se han implementado, se ha inclinado mayormente a cuestionar su efectividad e impacto para la ciudadanía. El programa Hoy No Circula en la Ciudad de México y el aumento de impuestos para reconstruir los daños en Ecuador, sin duda, son soluciones que pueden funcionar a corto plazo, pero ¿qué pasará después?

Se puede decir que una Ciudad Inteligente es aquella que utiliza los avances tecnológicos para mejorar la calidad de vida de sus habitantes. En la que se utilizan las tecnologías de información y de comunicación para instalar infraestructuras en red que mejoren la vida de los ciudadanos, posibiliten el desarrollo sostenible, permitan la optimización del consumo energético, fomenten mayor calidad en la prestación de servicios, mayor eficiencia de todos los recursos y mayor participación ciudadana.

Para el 2020, 50 mil millones de unidades inteligentes estarán conectadas y el 90% del crecimiento en TI se generará a partir de la nube, el mundo móvil, las redes sociales, sus negocios y big data, según datos de Cisco. Con diversos niveles de avance ya se están aplicando instrumentos tecnológicos para resolver problemas concretos de la sociedad citadina. Mediante la instalación de sensores en la Ciudad de México y usuarios en redes sociales de movilidad, por ejemplo, se cuenta con información en tiempo real que puede medir cosas como intensidad de tránsito y la velocidad a la que transitan los autos. Con esos y otros instrumentos tecnológicos, se podrá tener información en tiempo real que servirá para mejorar la calidad de vida de los ciudadanos.

Poniendo lo anterior en perspectiva, habría que aprovechar toda la información que se genera a partir de estas tecnologías para plantear nuevas soluciones que mejoren la vida de quienes habitan las ciudades.

Marco Antonio Damián, Gerente de Ingeniería Técnica de Panduit, enuncia 5 razones por las que Latinoamérica tendría que pensar en implementar soluciones tecnológicas para hacer de sus ciudades, Ciudades Inteligentes:

1. Trasporte/Movilidad: El proceso tendría que comenzar adoptando un método de diseño centrado en los ciudadanos y que tome en cuenta las consideraciones realistas que enfrentan los Gobiernos en cuanto a infraestructura y problemas a resolver, es decir, la gran cantidad de tráfico y cuellos de botella, saturación del transporte público en horas pico, entre otros. El eje de este procedimiento está en los datos: su recolección, integración, administración y utilización, es en esto, en donde radica la diferencia entre un sistema de transporte y movilidad que funciona para los ciudadanos y uno que falla. La congestión es una oportunidad y la tecnología para hacer realidad esta visión ya existe.

2. Ciudades más seguras: Con la recolección de datos que está en todas partes para todo tipo de propósito, la policía tiene nuevas maneras de aumentar su efectividad. Las instituciones de seguridad pública pueden reunir una incontable cantidad de datos sueltos y usar el análisis para derivar nuevos conocimientos y descubrir tendencias antes de que se conviertan en problemas sistémicos o incidentes criminales.

3. Lugares de vivienda y trabajo: Hoy en día, los dispositivos móviles y la conectividad a Internet está cambiando la naturaleza del trabajo. El tradicional edificio de oficinas se está volviendo obsoleto como lugar para el trabajo personal, las fronteras entre hogar y trabajo se están disolviendo con rapidez alentadas por la computación avanzada. El espacio que cambia y se comparte según las necesidades personales, permitirá el trabajo colaborativo presencial y virtual, mientras da a las empresas la oportunidad de reducir sus requisitos de espacio de oficinas y su consumo energético.

4. Redes electrónicas y sociales: A diferencia de varias líneas telefónicas, las redes sociales y aplicaciones de comunicación, como WhatsApp, permitieron a los ciudadanos constatar el estado de salud y ubicación de familiares y amigos tras el terremoto ocurrido en Ecuador. Aparte de la ayuda difundida a través de Twitter, esa red social, como otras, también fueron la ventana para que se propagaran rumores que alertaron a la población. En la Ciudad de México, por ejemplo, #HoyNoCircula fue “trending topic” al ser unos de los principales medios de comunicación ante las medidas que se estaban tomando por la contingencia ambiental. Las redes sociales permiten la proliferación instantánea de ideas y acontecimientos, y producción. Pueden aportar los caminos para que la gente se comunique con sus mundos privados y públicos, es por esto que habría que desarrollarlas en todo su potencial, además de un sistema intercomunicado de redes de confianza que aporten seguridad a través de tecnologías biométricas y de encriptado.

5. Prestación de servicios más eficiente: Las entidades del sector público son, en cualquier país, tal vez las más complejas de las organizaciones, porque sus funciones abarcan un universo muy amplio y diverso. Con la adopción sistemática de herramientas de desempeño y análisis, los organismos públicos pueden experimentar una mejora continua en la prestación de servicios. La tecnología es de gran ayuda en este concepto puesto que con ella, los organismos del sector público pueden desarrollar proyectos para focalizar mejor los recursos de los que disponen, reducir la burocracia y ahorrarles tiempo a los habitantes en los trámites.

Es un hecho que las Ciudades Inteligentes necesitan a la infraestructura física de red para cumplir con las exigencias que se requieren para evaluar e implementar tecnologías innovadoras, que habiliten las soluciones que den paso a las ciudades del mañana. Por esto, Panduit ofrece soluciones para clientes y gobiernos para resolver los desafíos más críticos de infraestructura física, aprovechando su enfoque de Infraestructura que cumpla los desafíos para tener un Mundo Conectado.

Marco-A-Damian-Panduit

Por Marco Antonio Damián,

Gerente de Ingeniería Técnica

para Panduit México y LATAM.