Aplicaciones, Artículos, Centro de Datos, Certificaciones, Cloud Computing, Del dia, Desarrollo, Desarrollo, Gobierno/Industria, Industria TIC, Infraestructura, Más, Movilidad, Network World, Principal, Reporte Especial

[Reporte Especial] El Centro de Datos: convergencia entre on site y cloud

La digitalización del negocio es un paso obligatorio de la empresa, donde cada vez se adoptan más tecnologías disruptivas como Big Data, movilidad e incluso el Internet de las Cosas y la Inteligencia Artificial, haciendo que toda esta carga de procesos y generación de datos recaiga dentro de las operaciones TI y, específicamente, en el centro de datos. Esto obliga a las empresas a invertir en infraestructura y apoyarse en la nube.

Según una encuesta de IDC a líderes TI en las empresas, el 72% de ellos cree que la transformación digital y el crecimiento del negocio es la principal razón para modernizar su infraestructura TI. La consultora afirma que en los últimos tres años la nube híbrida maduró, mientras que las arquitecturas definidas por software y las infraestructuras hiperconvergentes han modificado el estado actual de la infraestructura de TI.

Sin duda la nube se ha convertido en una tendencia que ha crecido con la transformación digital, siendo un aliado para ofrecer agilidad al negocio. ¿Será el centro de datos híbrido el siguiente paso obligatorio? ¿Ya no es suficiente la TI tradicional?

Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica.

El reto es claro: o se modifican, se redefinen o están condenados a caer en el mercado. Al menos así lo consideró Arturo Benavides, Arturo Benavides, Primary Storage Sales Director de Dell EMC Latinoamérica.  “La transformación digital está obligando a todas las empresas a redefinirse y lo está haciendo a través de nuevas aplicaciones de negocio que son más nativas en cloud, apalancando la tercera plataforma. Para esto se tiene que iniciar modernizando las TI”, comentó.

Según un estudio realizado por esta compañía –en el cual se entrevistó a los CIO de 3,000 organizaciones alrededor del mundo– un 45% tiene claro que si no adoptan la transformación digital (conocida también por las siglas DX),  estarán fuera del mercado en un plazo de unos tres años. Sólo un 5% de los entrevistados ya había definido una estrategia de DX, 12% se encuentra trabajando un modelo muy tradicional, y 42% están empezando a tomar iniciativas de transformación.

Convergencia entre On site y cloud

Por su parte, la firma de consultoría Gartner reconoce la necesidad de alinear iniciativas TI para impulsar el valor de negocio a través del desarrollo ágil, la convergencia de tecnología e infraestructura, y la modernización, automatización y migración a plataformas en la nube. “Los encargados de infraestructura y operaciones, así como sus equipos de trabajo, deben garantizar que los sistemas existentes sean confiables mientras implementan los cambios necesarios para sustentar las nuevas cargas de trabajo”, aseveró Federico De Silva León, Director de Investigación de Gartner.

Federico De Silva León, Director de Investigación de Gartner.

Para HPE, la transformación digital de los negocios se trata de un paso obligatorio que, en definitiva, tocará cada una de las empresas en México y el mundo, donde la perfecta convergencia entre on site y cloud jugará un papel protagónico. “Esto claramente impacta en el centro de datos y la nube. En HPE creemos que vamos a vivir en un mundo híbrido”, puntualizó Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dijo que la compañía tiene tres primicias al respecto: 1) el mundo será híbrido con in house y cloud; 2) la periferia que hoy genera tráfico en la red y datos van a apalancar la generación de aplicaciones; y 3) se transformará el modo en que se entregan este tipo de tecnología, que en HPE se cree será a través de servicios. “Debemos ver las cargas que realmente se necesiten llevar a la nube, cuáles podemos comprar como servicios y cuáles aún tienen que vivir en el centro de datos”, aseveró Lomelín.

Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dell EMC ofrece un modelo similar para llevar el negocio hacia la digitalización aplicando mejoras en el centro de datos y la nube, al que han denominado MAT (Modernizar, Automatizar y Transformar). Con este modelo ayudan a las empresas a entender qué se debe modernizar en las TI, cómo se pueden automatizar los procesos en el centro de datos y transformar a la gente.

Para Adrián Simg, Data Center Group Executive de Lenovo, lograr la convergencia perfecta entre el centro de datos y cloud es un proceso completo de transformación que va más allá de proveer una mejora en infraestructura física. “No sólo se trata del fierro, el almacenamiento y el procedimiento, se trata de cómo hago uso de todo ello, para lo cual se requiere software y personas”, comentó Simg.

 

Principales obstáculos

Lograr tal convergencia parece no ser una tarea sencilla. Al respecto, Gartner señala que uno de los principales retos a los que se enfrenta el CIO tiene que ver con la administración de presupuestos TI de modo eficaz. Según una encuesta de la consultora, este 2017 la segunda prioridad para CIOs en América Latina tiene que ver con modernización de Infraestructura y operaciones (mencionado por el 32% de sus encuestados).

Sin embargo, los presupuestos han sido recortados. Las empresas deben entender que no sólo se trata de recortar presupuestos, sino de generar valor y tratar las inversiones TI como activos, no como gastos. “Las organizaciones de TI que quieren ser exitosas en el futuro deberán poner el eje no sólo en la tecnología, sino también en los resultados de negocio”, comentó De Silva León, de Gartner.

 

Hacia dónde se destinará la inversión

Para Dell EMC, si bien la cuestión de presupuestos parece un obstáculo ahora, hacer el esfuerzo por invertir en modernización trae a la empresa beneficios no sólo en costos, sino en productividad del personal, redireccionando esfuerzos a resultados. “Al modernizar se obtienen ahorros significativos en operación y automatización. Estos ahorros los inviertes ahora en investigación, desarrollo e innovación, permitiendo hacer el circulo virtuoso de lo que es la transformación digital”, aseveró Arturo Benavides.

Esto es lo que permite vislumbrar un mercado prometedor en México. “Vemos que la inversión en general de centros de datos en el país crecerá alrededor del 10% en forma anual por lo menos por los siguientes cinco años”, aseveró Marco Damián, Gerente de Mercado Financiero de Panduit. Agregó que muchos centros de datos han crecido bajo demanda, es decir, conforme han surgido las necesidades. “El área de oportunidad que vislumbramos es que este crecimiento por parte de los usuarios se realice en forma estructurada y ágil, destinando importantes recursos para optimizar la parte de energía y enfriamiento en el centro de datos”.

Marco Damián, Gerente de Mercado Financiero de Panduit.

Y por lo que respecta a los proveedores de servicios, las expectativas de crecimiento parecen fundamentarse en soluciones a la medida. “Un elemento importante es ofrecer todo bajo servicio, es decir, no nada más la infraestructura, las aplicaciones o el software sino todos los componentes bajo un modelo integrado con el centro de datos”, resaltó Ricardo Rentería, Director General de Amazon Web Services en México.

De acuerdo con el directivo, esto significa ofrecer soluciones de ERP, web o almacenamiento que pueden ser integradas bajo el concepto de cloud, aportando características de elasticidad y facturación por minuto/hora con los conceptos de los centros de datos actuales. “Esto garantiza la extensión de las inversiones que los clientes ya tienen, incorporando la innovación que ofrece cloud”, señaló Rentería.

Ricardo Rentería, Director General de Amazon Web Services en México.

Otro de los proveedores de infraestructura en este sector, Intel, busca habilitar nuevos modelos de negocio para entregar servicios más personalizados y orientados hacia un sector o empresa en específico, de manera “que al proveedor de nube le dé una ganancia adicional y al usuario una mejora en la experiencia, así como un modelo de negocio más ajustado a lo que necesita”, explicó Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Dijo que la inversión en los centros de datos se debería enfocar hacia dos grandes rubros: un cambio completo en la cultura organizacional (“más ágil, rápida y abierta en cuanto a dónde se genera la información para tomar decisiones”) y hacia una plataforma digital, en la cual intervenga la toma de decisiones informada (con base en Big Data), a partir de muchas fuentes (Internet de las Cosas), con plataformas que mantengan la confianza que ha ganado la empresa con sus clientes, “y que sea un centro de trabajo con pensamiento innovador que genere una experiencia continua hacia el cliente con interacción 7×24”, explicó Cerecer.

Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Por su parte, Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam, afirmó que, de acuerdo con una encuesta aplicada a nivel mundial, en México el 60% de las organizaciones que están invirtiendo en plataformas de Software o en Infraestructura como Servicio, o bien, planean hacerlo en los próximos 12 meses. Este porcentaje es significativo, ya que duplica el promedio de inversión en estos rubros declarado a nivel global. Montes de Oca agregó que su empresa ofrece disponibilidad para el centro de datos moderno, “con tiempos de recuperación menores a 15 minutos para cualquier organización, independientemente de dónde se encuentre su nube”.

Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam.

Ofrecer este tipo de garantías puede asegurar “una larga vida” al centro de datos. De hecho, información proporcionada por Furukawa Electric, empresa dedicada al sector de telecomunicaciones, energía y electrónica, señala que el 76% de los datos que existen a nivel mundial residen dentro de un data center (DC), un 17% se encuentran entre el DC y el usuario, y el 5% restante interactúan entre varios centros de datos. “Además, hay muchas cosas que cambiarán en el ámbito de los data centers: la descentralización de la nube, la distribución de contenido más cercana al usuario, y datacenters distribuidos con ancho de banda hiperescalables con velocidades de 200 y 400 gigas”, advirtió Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Seguridad, control de riesgos y backup

No obstante lo anterior, aún persiste una falta de conciencia respecto a la seguridad de los datos y los sistemas, al menos esa es la perspectiva de Alejandro Lomelín, de HPE, quien aseguró que en las empresas debería haber un mejor manejo de la información y una mejor gobernabilidad. “La información debería vivir en dispositivos muy seguros que no sean vulnerados ni por externos ni por empleados mal intencionados”.

Y es que al producirse mayor cantidad de datos y procesos se generan mayores densidades de calor en diferentes áreas de las salas que alberga el centro de datos. “Es necesario entonces un adecuado sistema de enfriamiento que permita la continuidad del negocio, evitando caídas de sistemas provocadas por el sobrecalentamiento de los equipos”, dijo Alejandro Sánchez, Director Comercial de Stulz México.

Alejandro Sánchez, Director Comercial de Stulz México.

Para lograr lo anterior, recomendó nivelar la carga de energía en todo el centro de datos, estableciendo zonas de baja, media y alta densidad para así enfocar los diferentes niveles de esfuerzos en esas zonas para el suministro del aire acondicionado. “Es un hecho que hoy día estamos viendo una tendencia creciente a que todos los servicios sean a través de la nube y para esto todos los componentes, incluidos los sistemas de enfriamiento, deben estar preparados”, resaltó Sánchez.

Por otra parte, las certificaciones de seguridad juegan un papel importante en esta transformación, especialmente al momento de seleccionar un proveedor de servicios de nube, para que éste garantice que los datos no se van a ver comprometidos, ni mis procesos detenidos. “Existen diferentes niveles de certificación, dando un nivel de confiabilidad que depende de que, en caso de que suceda algo, cuánto tiempo me tardo en recuperar esa continuidad. Entre menos tiempo me tarde, un nivel de certificación más alto se obtiene”, aseguró Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

El papel del CIO en este proceso

Gartner reconoce la importancia de destacar el papel del CIO en este proceso y la necesidad de transformar el rol que ejerce dentro del área TI, pasando de ser simples gerentes a convertirse en asesores confiables de los CEO. Según esta firma consultora, deben estar conscientes de que aquellas habilidades que les permitieron llegar a su puesto no necesariamente los llevarán al siguiente nivel.

“Si bien la tecnología siempre será importante, no es lo único ni lo primordial para el CIO, dado que las personas y los procesos de operación de TI resultan tanto o más importante en este proceso”, afirmó Silva León, de Gartner.

Se trata de una primicia compartida también por HPE: “Queremos empoderar a este personaje de tecnología, al área de Sistemas, para que se vuelva un bróker de estos servicios y tenga cierta gobernabilidad de todo el proceso”, comentó Lomelín.

Los CIO deben entender que su papel está cambiando, que se están convirtiendo en habilitadores de servicios, y deben entender que la TI es el medio para lograr que las aplicaciones de negocio trabajen de un modo más eficiente, rentable y seguras, y deben asegurarse de tener las herramientas para poder orquestar el movimiento de la información, de acuerdo con Benavides, de Dell EMC.

Innovación en Data center, un paso obligatorio

Gartner destaca la necesidad de aumentar la influencia mediante innovación, con la construcción de sistemas de TI ágiles y definidos por software, así como detectar comportamientos anormales para monitorear, gestionar, medir, asegurar y alertar; automatizar la toma de decisiones a partir de datos, y unirse a la economía de las API.

Si bien el cloud computing es una solución que llegó para quedarse al ofrecer muchas ventajas para el negocio, el centro de datos no va a desaparecer, al menos así lo consideró Adrián Simg, de Lenovo. “No creo que una empresa vaya a una nube al 100%. Siempre existirá un equilibrio entre el centro de datos y cloud, si bien puede haber más procesamiento o almacenamiento en la nube, pero el centro de datos jamás dejará de existir”, afirmó.

Es por ello que las empresas no deben dejar este importante proceso de actualización de su infraestructura on site de lado, a través de una serie de herramientas, productos y servicios que les ayuden a efientar el data center.

“La optimización de todo lo que tienes en el centro de datos es algo que no va a parar. Pero los ingredientes adicionales que se le ponen al centro de datos para amalgamar este proceso serán la clave”, aseguró Alejandro Lomelín, de HPE.

Uno de los avances más significativos en este aspecto es el almacenamiento, que ha pasado del tradicional gran gabinete lleno de discos duros giratorios que generaban mucho ruido, ocupaban gran espacio y consumían altos niveles de electricidad, al almacenamiento flash que no genera ruido, disminuye en gran medida la generación de calor y consumen mucho menos electricidad. Hoy en día son drives con mucha más capacidad en menos espacios. Además, ayuda a reducir costos operativos, eficientizar la administración generando un centro de datos verde.

Otras de las innovaciones que se han dado en los últimos años a fin de robustecer la infraestructura para el centro de datos tiene que ver con sus sistemas de supresión de incendios, pasando de sistema tradicional de chorros de agua o químicos que suelen ser dañinos para el ambiente y las personas, a sistemas híbridos.

Estos sistemas híbridos combinan nitrógeno (un gas inerte que no acelera el calentamiento global), con micromoléculas de agua para generar una emulsión que no produce humedad residual, permitiendo proteger el centro de datos y áreas críticas, sin interrumpir las actividades del mismo.

Si se comparan los sistemas tradicionales a chorro de agua –que requieren procedimientos más complejos como almacenamiento de agua, bombas, rociadores y otra clase de infraestructura pesada–, los sistemas híbridos sólo necesitan de un almacenamiento reducido de agua y nitrógeno conectado a tuberías de áreas críticas que se están protegiendo. Además, el costo por toda la infraestructura que debe sobrellevar es mucho menor.

“Si se nos cae el sistema, estás dejando de vender, estás perdiendo confiabilidad y clientes. Una vez que pierdes un cliente estás perdiendo negocio, participación de mercado, y otra serie de grandes pérdidas intangibles, pero que a veces tienen más valor que el monetario, incluso estamos hablando de cosas irreemplazables”, puntualizó Eurídice Ibarlucea, de Victaulic.

Esta nueva alternativa es amigable con el medio ambiente, al mismo tiempo que protege los activos que se están resguardando, evitando que se detenga la transmisión de datos, avalando la continuidad del negocio y operaciones.

Para finalizar, Stulz recomendó contar con una plataforma de DCIM (Data Center Infrastructure Management) que permita tener una completa visibilidad y administración de toda la infraestructura física, y no sólo la parte del enfriamiento.

Por su parte, Ricardo Rentería, de AWS, aseveró que todavía veremos la integración entre ambientes site y cloud por algunos años más, “debido a que hay una fuerte inversión en centros de datos locales en México, ya sean propios o por contratos de outsourcing o hosting.

“En lo que las empresas hacen un ciclo completo de proyecto, capacitación, habilitación, definición de estrategias hasta llegar a un cloud natural, veremos una etapa de transición de por lo menos dos años. Tras ese periodo, veremos compañías que ya harán cloud al 100%”, concluyó Rentería.

 

Por Karina Rodríguez y José Luis Becerra

Leer más...

Aplicaciones, Del dia, Desarrollo, Destacado, Energía, Estrategías, Industria, Infraestructura, Movilidad, Network World, News, Noticias, Redes, Reporte Especial, Seguridad, Tecnología de Apoyo

Claves que no puede dejar pasar para crear una SD-WAN

El gran costo de los circuitos MPLS ($200- $400/Mbps/mes) comparado con el de Internet de banda ancha de fácil acceso y de menor coste (con un precio de $ 1/ Mbps/mes) ha provocado un cambio en las arquitecturas empresariales hacia la WAN definida por el software. SD-WAN proporciona la flexibilidad para elegir el transporte más óptimo y dirigir dinámicamente el tráfico a través de una mezcla de circuitos MPLS, Internet pública o incluso circuitos LTE inalámbricos.

La selección del transporte de acceso depende de muchos factores, incluyendo el tipo de aplicación, perfil de tráfico, requisitos de seguridad, QoS y pérdida de red y latencia. Cuando se implementa correctamente, SD-WAN tiene ventajas significativas: mayor despliegue de servicio, mayor flexibilidad, administración unificada y mejor rendimiento de las aplicaciones, entre otros. Sin embargo, una encuesta realizada por Silver Peak e IDG muestra que sólo el 27% de las pequeñas y medianas empresas han pasado a SD-WAN.

Si está considerando el cambio a SD-WAN, considere lo siguiente para maximizar los beneficios y asegurar una transición sin problemas:

Planee con anticipación. Elija entre “backhauling” el tráfico de las sucursales al centro de datos vía los circuitos de VPN o de MPLS de Internet, por un lado, y rompiendo localmente el tráfico de la sucursal a través de suministradores de servicio de Internet ascendentes (ISPs), por el otro. Si su aplicación exige un SLA estricto y una resolución más rápida ante fallos, entonces el denominado “tromboning traffic” a través de circuitos dedicados a un centro de datos, a pesar de una mayor latencia, podría ser beneficioso.

En tales circunstancias, un modelo de centro de datos distribuido daría más valor que una arquitectura centralizada. Las opciones arquitectónicas son ilimitadas y varían de una organización a otra. Antes de elegir el modelo de implementación adecuado para su organización, bascule la red en el rendimiento de la aplicación y en la experiencia óptima del usuario.

No pierda visibilidad. Parte de esa validación debe incluir tener visibilidad en los algoritmos propietarios empleados por SD-WAN para calcular la ruta óptima que variará con cada proveedor. Estos algoritmos son de naturaleza dinámica, lo que significa que el mejor camino puede cambiar constantemente dependiendo del algoritmo y parámetros como pérdida de red, latencia, ancho de banda de red disponible, perfil de tráfico y Calidad de Servicio (QoS).

Independientemente de cuál sea la ruta, es importante tener visibilidad de extremo a extremo de la red subyacente y la perspectiva de entrega de aplicaciones para poder localizar y analizar con precisión los fallos. Invertir en una plataforma de monitorización que no sólo puede brindar visibilidad a las redes MPLS y VPN internas, sino también a la Internet pública. Considere la posibilidad de complementar la visión de su proveedor de SD-WAN de las mediciones de red para obtener una visión fiable e imparcial que también puede ayudar a mitigar el riesgo.

Evaluar el riesgo. Confiar completamente en Internet para la conectividad WAN tiene ciertos riesgos. Administre el riesgo comprendiendo lo que significa confiar totalmente en Internet para su conectividad WAN.

Enfoque en el usuario final. La experiencia del usuario final es quizás el componente más crítico para garantizar la prestación de servicios de éxito. Vea cómo los cambios en el comportamiento de la red afectan en la entrega de la aplicación según lo experimenta el usuario final.

No hay duda de que la migración SD-WAN está de moda. Pero MPLS no va a desaparecer repentinamentee. Como con todo proceso de adopción de tecnología, la WAN va a evolucionar en fases. Tenga en cuenta estas recomendaciones a medida que evolucione su WAN para garantizar una nube eficiente y eficaz y una arquitectura centrada en Internet.

Archana Kesavan

 

Leer más...

Administración, Aplicaciones, Del dia, Desarrollo, Desarrollo, Destacado, Industria, Infraestructura, Movilidad, Network World, News, Noticias, Redes, Reporte Especial, Seguridad, Tecnologia, Tecnología de Apoyo

Así sera la evolución de las redes empresariales en 2017

La publicación hermana NetworkWorld, realizó una encuesta a un grupo de ejecutivos de Cisco sobre su visión sobre la evolución de las redes empresariales para 2017 y aquí están algunas de sus previsiones.

Rediseño de WAN: Muchas organizaciones están moviendo aplicaciones a la nube, y estarán haciendo cambios significativos en su arquitectura WAN. Las tradicionales “zonas desmilitarizadas” en sus propios centros de datos aumentarán, o en algunos casos serán reemplazadas. Lo que significa, no hay necesidad de red de retorno de tráfico desde la nube al centro de datos y luego a Internet.

NFV llega a la empresa: Vamos a ver Network Functions Virtualization (NFV) en la empresa que permitirá a los equipos de red de vanguardia trabajar con una multitud de sucursales.

IoT: Internet de las cosas (IoT) se está utilizando ampliamente en la parte de tecnología operativa de la organización. Ahora los COO están comenzando a ver el valor que IoT puede tener en la empresa: iluminación inteligente, localización en el puesto de trabajo o sistemas de CA conectados.

SDN va más allá del centro de datos: SDN empezará a aparecer en las oficinas tanto para ambientes con cable como inalámbricos. La visión de la programabilidad y automatización de extremo a extremo en todos los dominios de red comenzará a convertirse en una realidad en 2017. La seguridad de la red crece, se mueve hacia la nube, crece el aprendizaje automático. Veremos capacidades mucho más ricas y capaces de asegurar y solucionar problemas de red. Al ofrecer estas capacidades desde la nube y aprovechar las experiencias agregadas de un conjunto más amplio de redes, veremos mucho mejor (y más rápido) el diagnóstico y la resolución.

Servicios basados en la ubicación: los entornos inalámbricos, especialmente en las industrias como la venta al por menor, el cuidado de la salud, el entretenimiento y la hospitalidad, se están beneficiando de la tecnología. Las mejoras en Wifi combinadas con tecnologías como Cisco Beacon Point cumplirán con la promesa de aplicaciones como wayfinding y optimización de espacio.

Voz sobre WiFi a escala: Con el soporte de VoWi-Fi en dispositivos Apple iOS y con el soporte ampliado de algunos de los principales proveedores de servicios, la experiencia del usuario y los beneficios de costo de roaming estarán más disponibles y la transferencia de llamadas móviles a una red WiFi será más transparente.

De la Red “Admin” a la red “Programmer”: A medida que el mundo de la programación de red y SDN son más frecuentes, también lo será la necesidad de nuevos conjuntos de habilidades. Los administradores de red que pueden combinar conocimientos profundos de redes con capacidad de programación tienen la oportunidad de impulsar mejoras impresionantes en la velocidad y la escala de las operaciones de red.

La programación se mueve desde el dispositivo al controlador: aunque la programación a nivel de dispositivo es una base para la creación de redes automatizadas sostenibles, habrá mucho más enfoque este año en pasar la programación basada en controladores. Aquí es donde la verdadera simplificación, escalabilidad y sofisticación de la red sucede. La mayoría de la innovación de programación ocurrirá a nivel de controlador con impacto directo en los servicios que atraviesan la red en lugar de con dispositivos individuales.

El acceso inalámbrico de baja potencia se dispara: el acceso inalámbrico de baja potencia (LPWA, por sus siglas en inglés) está comenzando a despegar y generar muchas nuevas aplicaciones IoT. Es una solución ideal para sensores geográficamente dispersos a gran escala, de bajo costo y con baja velocidad de transmisión de datos, donde se necesita una larga duración de la batería y un bajo consumo de energía. LoRaWAN se está utilizando para una amplia gama de casos de uso empresarial y los operadores están deseando que la banda estrecha IoT (NB-IoT) aumente sus redes móviles.

Michael Cooney

 

Leer más...

Administración, Centro de Datos, Del dia, Desarrollo, Empleos TI, Gobierno/Industria, Industria, Industria, Industria TIC, Infografías, Infraestructura, Infraestructura, Más, Multimedia, Network World, News, Noticias, Noticias, Principal, Redes, Reporte Especial

Sólo 45.8% de los administradores de sistemas en México tienen título universitario: Informe

Paessler dio a conocer los resultados de su más reciente Informe “Paessler del Administrador de Sistemas 2016”, destacando los desafíos que afrontaron los Administradores de Sistemas de pequeñas y medianas empresas y separando la percepción de la realidad en cuanto a su trabajo diario.

Más de 650 Administradores de Sistemas alrededor del mundo fueron encuestados para este informe, brindando una imagen completa de quiénes componen este grupo diverso de empleados y cómo se sienten acerca de su profesión.

El informe contiene una gran variedad de preguntas para los encuestados, e incluye ordenar diferentes tareas en una escala de 1 a 5 de acuerdo con el tiempo que invierten en ellas y cuánto las disfrutan. Los resultados mostraron que los Administradores de Sistemas emplean la mayor parte de su tiempo en tareas de mantenimiento (3,60), soporte interno (3,52) y garantizar la ciberseguridad (3,38), pero que preferirían emplearlo en implementar un nuevo hardware (4,31) y evaluar nuevas soluciones (3,97). Además, cuando se les preguntó qué administradores de servicios estaban utilizando activamente o planeando implementar, la lista estaba encabezada por virtualización, la nube, ciberseguridad y monitorización de redes, mientras que algunos informaron planes para el manejo de Big Data, Internet de las cosas, sistemas hiperconvergentes o redes definidas por software.

Cerca de la mitad de los encuestados, 48,6%, informó que su trabajo ha experimentado “algún cambio” en los últimos cinco años, mientras que 30% informó que su carrera ha cambiado completamente en los últimos cinco años. Sólo 5,7% de los encuestados pensaba que su trabajo era igual que hace cinco años. Y, mientras que el trabajo y la tecnología están cambiando, 39,7% de los encuestados no creía que los vendedores de TI entendieran los desafíos que ellos afrontaron.

“Desde la fundación de la compañía, Paessler se ha centrado en administradores de sistemas de soporte en Pequeñas y Medianas Empresas – simple, sencilla, sólo una herramienta efectiva que los ayude en su trabajo”, dijo Dirk Paessler, Fundador y CEO de Paessler. “Este informe resume el estado de los Administradores de Sistemas y hay resultados positivos –y negativos– sorprendentes. Esta gente es la red central de TI y merece soporte tanto de sus compañías como de la industria de tecnología.”

 

Panorama en México

En México, sólo un 45,8% de los encuestados tenía título universitario comparado con 33,3% con formación profesional y 20,8% con formación en el lugar de trabajo.

Las certificaciones de Microsoft son las más populares en los administradores de sistemas, según informaron 45,8% de los mexicanos encuestados. Las certificaciones de Cisco están en segundo lugar con 29,2%, seguidas por las de VMware y Red Hat con 20,8% y 25%.

Sólo 33,3% de los mexicanos se describió a sí mismo como especialista en TI; la mayoría se identificó como generalista. Entre los especialistas, las especializaciones más populares fueron la virtualización y la seguridad (25% y 62,5%).

Más datos de este informe en la siguiente infografía. Dar clic en ella para mejor resolución.

infografia-informe-de-administradores-de-sistemas-2016

Leer más...

Aplicaciones, Centro de Datos, Del dia, Desarrollo, Destacado, Estrategías, Industria, Movilidad, News, Noticias, Reporte Especial, Seguridad, Smartphones y Tabletas, Tecnología de Apoyo, Tendencias

Microsoft quiere vender planes de datos en su tienda online

El poder encontrar WiFi cuando uno viaja no es siempre fácil. La forma de trabajar actual requiere pasar tiempo fuera de la oficina y conexión a Internet, y si bien es posible conectarse a través de un smartphone, en lugares donde no hay cobertura, no es la mejor solución.

El objetivo de Microsoft es apoyar la instalación de tarjetas SIM en computadoras, 2 en 1 y tabletas con Windows. El planteamiento de la compañía es que los usuarios puedan comprar datos para las tarjetas a través de Windows Store.

De esta manera, Microsoft podría ofrecer a los usuarios una forma fácil de conectarse directamente desde su ordenador y animar a los fabricantes a crear dispositivos compatibles con smartphones.

Pero hay una barrera en este plan y es la predisposición de los operadores para vender planes de datos a través de la tienda de Windows. Por ejemplo, Apple ofrece una tarjeta SIM programable para algunos modelos de iPad, la cual permite a los usuarios seleccionar planes de datos para sus tabletas en cualquier operador. En Estados Unidos, los usuarios pueden elegir entre T-Mobile, Sprint y AT&T cuando se establece el servicio móvil con una SIM de Apple, pero una vez hecha la elección, la SIM se bloqueará para que sólo funcione con esa compañía.

Si Microsoft adopta un modelo similar al de Apple, pondría a los usuarios en un problema. Con un iPad habilitado para LTE, los usuarios pueden simplemente reemplazar su SIM para cambiar de operador, pero Microsoft está hablando de dispositivos con tarjetas integradas no remplazables. Si la SIM integrada se bloquea con un operador, el uso de datos podría quedar suspendido, si el usuario se traslada a un lugar donde el operador tiene poca cobertura.

Blair Hanley Frank

 

Leer más...

Aplicaciones, Big data, Comercio Electrónico, Del dia, Desarrollo, Destacado, Estrategías, Industria, Movilidad, News, Noticias, Redes, Reporte Especial, Seguridad, Tecnología de Apoyo

Inicia la temporada perfecta para acercarse a sus clientes

Actualmente, las personas, lejos de comprar productos o servicios, buscan agregar experiencias positivas a su vida, y éstas se traducen en el establecimiento de conexiones sobre todo cuando existe una identificación con las marcas. Como dueño de un negocio, sabe que los clientes son el centro del mismo y, constantemente, debes buscar formas innovadoras para llamar su atención.

Ahora bien, la época decembrina representa la oportunidad perfecta para que establezcas contacto directo con los consumidores, especialmente si consideras Navidad y Año Nuevo como fiestas en las que la unión, fraternidad y alegría, cobran mayor importancia y generan empatía con tus clientes actuales o potenciales.

Aprovecha esta clase de sentimientos y contacta a tus compradores a través del e-mail marketing regalándoles experiencias divertidas con contenido creativo, entretenido y personalizado para conquistarlos desde el momento en que leen el asunto del correo, y te hagan parte de sus celebraciones.

Para comenzar con su campaña, es importante que conozcas a su público meta. Desde datos demográficos hasta cuáles son sus intereses y necesidades inmediatas de acuerdo a la época, todo es importante. Esa es la clave para segmentar por grupos, diseñar los contenidos y, posteriormente, programar envíos. Procura iniciar desde un par de meses, semanas o días antes para que los compradores se preparen y sepan qué es lo que más les conviene de su catálogo respecto a la época. Por ejemplo, puedes aprovechar las compras de emergencia días antes de Navidad para su envío si se trata de un cupón de descuento para aquellos que olvidaron algún regalo.

Una vez calendarizados los envíos, piensa en el diseño. Así como los centros comerciales son decorados para contagiar a los clientes el espíritu navideño, puede hacer lo mismo con tus mensajes. Adapta el diseño del correo e integra elementos que les recuerden éstas fechas.

Una excelente forma de hacer dinámico el texto es añadir emojis, incluso en el asunto del correo. La universalidad de los emoticonos te ayudará a crear empatía con sus suscriptores. Recuerda que los consumidores se relajan durante las fiestas decembrinas. Su negocio puede dejar de lado la “seriedad” y divertirse mientras te comunicas con tu audiencia.

Según SH!FT Disruptive Learning, 90 por ciento de la información visual se transmite al cerebro; esto significa que puedes combinar el texto con imágenes y videos atractivos para que se añada un toque extra y dinámico a los correos, sobre todo para que su mensaje sea más fácil de entender y recordar.

La Navidad y Año Nuevo son un buen pretexto para mostrar cariño mediante obsequios y detalles, y el e-mail te ofrece la oportunidad de hacerlo. Para promover su marca y compensar a los clientes por su lealtad, realiza ofertas especiales, sugerencias de regalos y, mejor aún, obsequia artículos exclusivos o invita a los usuarios a que participen en concursos.

Humanice su marca diseñando correos donde simplemente felicites a tus seguidores y les desees felices fiestas. Las campañas de e-mail marketing te ayudan a promover tu negocio; sin embargo, no olvides que estás tratando con personas importantes para ti y mandarles un mensaje caluroso también es importante.

Como conclusión, prepare sus correos para permanecer en la mente de los consumidores durante esta época, así te beneficias del el incremento de ventas y conocerá nuevos seguidores.

Philip Rubin, Strategic Advisor de iContact

 

Leer más...

Amenazas, Aplicaciones, Comercio Electrónico, Del dia, Desarrollo, Estrategías, Industria, Infraestructura, Movilidad, Network World, News, Noticias, Principal, Reporte Especial, Seguridad, Seguridad, Tecnologia

El 50% de las empresas ha sido víctima de ransomware

Un estudio revela que cerca de la mitad de las empresas (48%), han sido víctimas de campañas de ransomware, a la vez que el 54% de las empresas reconoce que las herramientas antivirus tradicionales ya no sirven para hacer frente a las nuevas ciberamenazas.

El estudio publicado por SentinelOne, señala que el 48% de las organizaciones mundiales fueron víctimas de campañas de ransomware a lo largo de los últimos 12 meses, con el 80% reconociendo haber sufrido entre tres o más ataques.

La encuesta, conducida por la firma analista Vanson Bourne, fue realizada sobre una muestra de 500 profesionales de seguridad cibernética de empresas de Reino Unido, Estados Unidos, Francia y Alemania. El estudio también desvela que un 67% de las compañías asegura haber aumentado el gasto en seguridad IT, mientras que un 52% avanza cambios en sus estrategias de protección para centrarse en la mitigación.

Según desvela Jeremiah Grossman, responsable de estrategia de seguridad de SentinelOne, “el ransomware se ha convertido en una de las formas más exitosas de ciberdelincuencia en 2016, situándose a la cabeza de la lista de las amenazas más prolíficas para los profesionales de la seguridad”.

Entre los ataques más habituales se encuentran los que fueron capaces de entrar en la red corporativa a través de correos electrónicos infectados con phishing o a través de medios de comunicación social. La mitad de las compañías encuestadas coincide en afirmar que los criminales obtuvieron acceso a través de una descarga no autorizada, conocida como drive-by-download al realizar consultas en un sitio web comprometido.

Los datos más buscados por los ciberdelincuentes siguen siendo en un porcentaje del 42% en relación a la búsqueda y localización de información del empleado, mientras que un porcentaje del 41% se busca los datos financieros. En este sentido, la compañía de seguridad SentinelOne lleva a cabo un enfoque de la seguridad basado en la inspección profunda de todos los procesos del sistema, combinado con un aprendizaje automático para aislar rápidamente comportamientos maliciosos, protegiendo los dispositivos contra amenazas dirigidas avanzadas en tiempo real.

Redacción

 

Leer más...