Etiqueta: ingeniero en sistemas

Automatización, clave para rebajar la presión de los departamentos de TI

La presión que soportan los equipos de TI aumenta en la medida que tecnologías disruptivas como Cloud, Big Data o IoT se inmiscuyen en las empresas. Se les exige un alto ritmo de trabajo en la administración y gestión de infraestructuras y plataformas.

Un estudio elaborado por Fujitsu concluye que la fórmula de rebajar la presión es la automatización de las tecnologías. Así, los profesionales de IT pueden dedicarse a la planificación anticipada y la coordinación y colaboración con terceros para la implantación de nuevas tecnologías.

La investigación ha descubierto también que muchos departamentos sufren escasez de habilidades (61%) y una gran dependencia de procesos manuales.

Actualmente y a pesar de que la automatización se considera “muy valiosa” por la mayoría de los encuestados, pocos son quienes tienen las capacidades de automatización apropiadas. Sólo el 21% utiliza el aprovisionamiento de recursos totalmente automatizado y orientado a políticas.

Un exiguo 17% ha automatizado la migración en vivo de cargas de trabajo y el 12% confía en el autodiagnóstico y la autocorrección. Aunque muchas organizaciones entienden los beneficios, todavía no dan el paso hacia estos entornos [virtualizados, dinámicos e integrados que ofrece el nivel de automatización.

 

IDG.es

Principales certificaciones de almacenamiento para profesionales de TI

Para aquellos profesionales que se encuentren buscando un nuevo trabajo, o simplemente tienen el objetivo de avanzar en su papel actual, una certificación podría diferenciarlos potencialmente de otros candidatos. Y para los gerentes de contratación, las certificaciones pueden ayudar a recortar algunos de los riesgos del proceso de contratación mediante la validación en cierta medida de experiencia en áreas como el almacenamiento conectado a la red, redes de área de almacenamiento y configuración de almacenamiento y gestión de operaciones.

 

Vendedor neutral vs. vendedor específico

En general, las certificaciones de la industria de almacenamiento se dividen en dos categorías: proveedor neutral y proveedor específico. Una organización neutral de proveedores es la organización sin fines de lucro Storage Networking Industry Association (SNIA), que trabaja para desarrollar estándares y programas educativos relacionados con el almacenamiento. Las certificaciones específicas del proveedor están disponibles en los reproductores de almacenamiento como Brocade, Dell EMC, HPE, IBM y NetApp.

La elección de una certificación para seguir depende de la situación del candidato. Los candidatos con certificaciones específicas de los proveedores pueden ser atractivos para las empresas que buscan experiencia en plataformas específicas, pero pueden no ser tan deseables para las empresas que necesitan personas con las habilidades necesarias para trabajar en un entorno de almacenamiento heterogéneo.

Mientras tanto, las tendencias salariales actuales indican una fuerte demanda de experimentados profesionales de TI que trabajan en el área de almacenamiento en red. Como ejemplo, el mayor incremento salarial, en porcentaje, entre todos los roles de TI fue para profesionales de tecnología que tienen experiencia con la plataforma de almacenamiento corporativo Compellent de Dell. Los profesionales de la tecnología con habilidades Compellent ganaron, en promedio, $ 111.457 el año pasado, un aumento de 11%.

Las empresas están intensificando la adopción de almacenamiento flash, almacenamiento definido por software, almacenamiento cloud e hiperconvergencia, y las certificaciones están siendo revisadas para mantenerse al día con estas tecnologías.

Aquí ofrecemos una mirada a algunas de las opciones más valiosas disponibles hoy en día en el mercado de certificaciones de almacenamiento, comenzando con el vendedor neutral SNIA y luego organizados alfabéticamente por el proveedor.

 

Asociación de la industria de redes de almacenamiento (SNIA)

El SNIA Storage Networking Certification Program (SNCP) se centra en los conocimientos y habilidades de redes de almacenamiento neutrales a los proveedores. El programa se basa en cuatro niveles de certificación primaria: SNIA Certified Storage Professional, SNIA Certified Storage Engineer, SNIA Certified Storage Architect y SNIA Certified Storage Networking Expert. SNIA hace hincapié en que sus recursos de educación y certificación están diseñados para integrarse y complementar las certificaciones de los proveedores individuales, proporcionando contexto de la industria para diferentes matices del producto.

 

Brocade

Brocade renovó recientemente su programa de certificación, con la nueva formación entrando en vigor en noviembre de 2016. Las certificaciones de Brocade están organizadas por cuatro funciones principales (arquitecto / diseñador, implementador, administrador y soporte) y cuatro niveles de competencia (asociado, profesional, experto y maestro) ). La pista de certificación IP cultiva experiencia en la instalación, configuración, mantenimiento y solución de problemas de los productos Brocade Layer 2/3, por ejemplo, mientras que la pista Ethernet Fabric IT se centra en el hardware Brocade VDX y la pista de redes de almacenamiento se centra en VCS Fabric Redes de almacenamiento.

 

Dell EMC

El programa de certificación de Dell EMC aborda la amplia gama de hardware, software y soluciones de la compañía combinada. La compañía ofrece cuatro niveles de competencia (asociado, especialista, profesional y experto), y sus certificaciones específicas de almacenamiento incluyen almacenamiento y administración de información; Administrador de almacenamiento; Ingeniero de implementación; Arquitecto tecnológico; y muchos más.

 

Hewlett Packard Enterprise

HPE ofrece una amplia gama de certificaciones en su programa de certificación, que abarca la gestión de TI, grandes datos, seguridad, servidores, cloud computing y mucho más. Ofrece cuatro opciones específicas de almacenamiento: HPE Master ASE – Storage Solutions Architect V2; HPE ASE – Soluciones de almacenamiento Architect V2; HPE ATP – Soluciones de almacenamiento V2; Y HPE Product Certified – OneView.

 

IBM

El programa de certificación IBM Professional abarca todas sus ofertas de tecnología empresarial, incluyendo analítica, cloud, seguridad y más. Actualmente, IBM ofrece nueve credenciales relacionadas con su software de almacenamiento y 12 certificaciones especializadas relacionadas con sus sistemas de almacenamiento.

 

NetApp

Los programas de certificación de NetApp ofrecen 12 credenciales. Está organizado en tres niveles (asociado, especialista y profesional) en cuatro funciones principales (ingeniero de implementación, administrador de almacenamiento, ingeniero de soporte e ingeniero de instalación).

 

Ann Bednarz

28 de julio, día del Administrador de Sistemas

Si hay alguien a quien debemos reconocerle su apoyo en el trabajo cotidiano – ya que realmente nos ayuda a mantenernos en línea 24.7.365 – es a los Administradores de Sistemas. Ellos son los colaboradores que, dentro de las organizaciones, reciben más demandas y solicitudes de parte de todos los empleados e incluso, siendo sinceros, en ocasiones no tienen un horario de trabajo, ni permiso de estar enfermos.

Y es que a diario se presentan toneladas de tareas comunes como problemas en la red, conexión a la impresora hasta situaciones más complejas como fallas del sistema o caídas imprevistas de servidores de aplicaciones críticas, entre otras.

A estas fallas, los usuarios las traducimos como responsabilidad del área de TI, específicamente del administrador de sistemas y demandamos cero tiempo de indisponibilidad sin reparar en las implicaciones que hay detrás, sencillamente es “su trabajo” levantar el sistema cuanto antes.

Ciertamente estas caídas imprevistas del sistema, impactan seriamente en la competitividad del negocio y en la reputación de la empresa, si no se recupera en cuestión de minutos la actividad. En México según el último Reporte de Disponibilidad de Veeam,  67% de las empresas presenta de 1 a 10 veces al año alguna inactividad no planificada de sus aplicaciones causada por contingencias naturales, fallas en los equipos y otros factores, llegando a tener un costo promedio por hora de caída de hasta $37 mil dólares, lo que nos hace deducir, que  –el rol del Administrador de Sistemas tiene que tener cierta connotación de héroe, ya que participa activamente en garantizar la continuidad del negocio.

Como todo héroe, debe tener una herramienta o arma que lo ayude a ganar la contienda. En el caso de las áreas de TI son muchas las soluciones de hardware y software que debe tener pero en particular, la era digital ha dejado claro que una que no puede faltar es aquella que le garantice recuperación en caso de contingencia en 15 minutos o menos, ya que mantener el negocio siempre disponible es vital para no perder oportunidades que pueden llegar a costar hasta 21.8 millones de dólares en promedio al año.

En efecto, son muchas las cualidades que caracterizan a los Administradores de Sistemas pero en particular, debemos reconocerle su paciencia y compromiso con la continuidad de nuestro trabajo y la operación de la empresa.

Así que este 28 de julio, en su día, le reconocemos su importante labor.

 

 

Por Jan Ryniewicz,

director de Marketing,

Veeam en Latinoamérica.

Siemens PLM y la UTEQ prepararán ingenieros para demandas de la Industria 4.0

La industria de hoy demanda productos cada vez más complejos que, si bien deben cumplir con los requerimientos estipulados por el cliente final, éstos deben ser adaptados a las tendencias de los diferentes sectores de la industria. Es decir, manufacturar productos de mejor calidad con nuevos materiales, desarrollar modelos más rápidos para su pronta incorporación al mercado y comercialización, disminuir costos de fabricación al optimizar geometrías y el uso de materiales sin dejar de lado el funcionamiento sencillo y flexible con la mayor calidad posible.

En ese contexto, el pasado 12 de julio, Siemens PLM, en conjunto con la Universidad Tecnológica de Querétaro (UTEQ), inauguró en el Centro de Formación UTEQ-Siemens PLM, una sala de capacitación que tiene por objetivo crear sinergias para que las futuras generaciones tengan acceso a las herramientas tecnológicas que hoy en día son utilizadas en el mercado laboral y, a su vez, puedan prepararse para el mundo profesional y la Industria 4.0, a través de los softwares de Siemens.

“En Siemens PLM apostamos por las nuevas generaciones y su formación, ya que además de capacitarlos, debemos adentrarlos al mundo laboral de modo que puedan recibir un entrenamiento para la industria 4.0 y sean capaces de desarrollar proyectos reales en la industria, permitiéndoles competir a nivel mundial en la era digital”, comentó Juan Manuel Kuri Vázquez, Vicepresidente y Country Manager para Mesoamérica de Siemens PLM.

El Centro de Formación tiene por objetivo que las futuras generaciones puedan prepararse para la Industria 4.0.

En ese sentido, el Rector de la UTEQ, José Carlos Arredondo Velázquez, agradeció el apoyo del gobierno estatal para impulsar este tipo de proyectos, los cuales benefician al estado, alumnos y empresas. “Nosotros esperamos que, a través de la historia de México, cada vez más la empresa, universidades y gobierno hagan concurrir sus intereses, ya que posibilitan el desarrollo de los países y se fundamenta la innovación, competitividad y otros elementos”, enfatizó.

El Centro de Formación UTEQ-SIEMENS PLM, ubicado en el Centro de Innovación y Creatividad 4.0 de la UTEQ, incluirá robots CNC, además de las últimas soluciones que Siemens PLM ofrece al sector industrial queretano con especial foco a la industria automotriz y aeroespacial.

Contará con las licencias Solid Edge, NX, Simcenter, Tecnomatix, Teamcenter y NX Nastran de Siemens PLM donadas por la compañía, lo cual se traduce en una co-inversión de alrededor de $15M USD.

Durante la revelación de placa, se dieron cita representantes de los sectores industrial, educativo, gobierno, así como miembros de centros de investigación, además de 21 alumnos de la UTEQ, quienes estarán realizando una estancia académica durante 1 año en Francia.

 

N. de P.

HPE fusiona IT con OT en un nuevo software

La tecnológica quiere aprovechar el momento en el que océanos de datos son absorbidos por todo tipo de dispositivos en todo tipo de lugares y pretende combinar IT con OT para recopilar, almacenar y analizar la información de la manera más rentable posible a tiempo real.

“Somos la compañía IT del IoT”, es el mantra que continuamente viene repitiendo Meg Whitman, CEO de Hewlett Packard Enterprise (HPE), cada vez que tiene ocasión. Y, para intentar demostrarlo la compañía de Palo Alto ha aprovechado una nueva edición del Discover para lanzar nuevas soluciones al respecto.

Si el año pasado ya pusieron en el mercado los primeros sistemas convergentes para el Internet de las Cosas de la industria, el EL1000 y EL4000 de Edgeline con procesadores Xeon de Intel que ofrecen computación, almacenamiento y captura de datos integrados, ahora, la nueva Plataforma de Servicios Edgeline (ESP), un software en el que la compañía y sus partners pueden construir y conectar aplicaciones para adquirir y administrar de datos de diferentes fuentes.

La tecnológica quiere aprovechar el momento en el que océanos de datos son absorbidos por todo tipo de dispositivos en todo tipo de lugares y pretende combinar IT con OT para recopilar, almacenar y analizar la información de la manera más rentable posible a tiempo real.

Es lo que se conoce como edge computing, un concepto que las empresas están utilizando para gestionar y crear edificios y ciudades inteligentes.

“Estamos en la primera línea de esta tecnología, impulsamos la inteligencia a medida que las organizaciones se proyectan en cada vez más lugares de trabajo digitales que están conectados a operaciones monitorizadas y a experiencias transformadoras para sus clientes”, aseveró Whitman. El nuevo ESP es una plataforma abierta, puede ejecutarse en Xeon de Intel, Linux o Windows.

Marc Ferranti

El mercado mundial de servidores vuelve a caer en el primer trimestre de 2017

Si el mercado mundial de servidores continuó cayendo en el último trimestre de 2016, los primeros meses del año no han logrado mejorar los números y arroja una nueva caída.

Según publica Gartner, los ingresos han descendido un 4.5% y las ventas un 4.2% con respecto al primer trimestre del pasado ejercicio.

Es más, la tendencia ha sido la misma para casi todas las regiones, excepto para Asia/Pacífico que tal y como define Jeffrey Hewitt, vicepresidente de investigación de Gartner, “ha logrado resistir el envite y ha registrado crecimiento”.

“Aunque han aumentado las compras en el segmento de data center a hiperescala, el sector empresas y SMB siguen estancados debido al crecimiento de las aplicaciones virtualizadas y otras alternativas a la nube”, señala.

A nivel de proveedores, Hewlett Packard Enterprise (HPE) sigue liderando la tabla de ingresos con una recaudación de algo más de 3.000 millones de dólares y con una cuota del 24,1% en dicho trimestre, a pesar de no haber crecido en este período. A la compañía de Palo Alto le siguen Dell EMC que ha sido el único proveedor entre los cinco primeros en crecer y ya tiene una cuota de mercado del 19%.

Esta alza la ha notado sobre todo a nivel de ventas donde se coloca en primera posición con un 17,9%, un 0,5% más respecto al primer trimestre de 2016. HPE es segunda con un 16,8%. “La adquisición de EMC está resultando positiva para su mercado de servidores”.

Una de las causas de que las empresas estén acudiendo menos al mercado de servidores puede ser la incertidumbre política y económica que está instalada a nivel global.

Por otra parte, los cambios hacia arquitecturas hiperescala pueden dejar entrever que los proveedores de servicios están adquiriendo cada vez más servidores de bajo costo.

IDG.es

La virtualización sigue siendo estratégica para las empresas

¿Cuáles son las tendencias con mayor crecimiento en los últimos años? Sin duda, la nube, la movilidad, el Internet de las Cosas, Big Data. Ahora bien, ¿qué podría decir respecto a la virtualización?

Aunque no se hable mucho sobre ésta, sigue estando en la agenda de muchas áreas de tecnologías de información (TI). De acuerdo con una reciente investigación de Red Hat, la adopción de la virtualización sigue al alza en el mundo empresarial. Los administradores de TI, los arquitectos de sistemas y los CIO de más de 900 empresas dijeron estar usando la virtualización para consolidar servidores, aumentar el tiempo de aprovisionamiento y proveer la infraestructura para que los desarrolladores creen aplicaciones empresariales innovadoras.

Entre los resultados clave de esta encuesta, destacan que, en los próximos dos años, los participantes en el sondeo esperan aumentar su infraestructura y las cargas de trabajo virtualizadas en 18% y 20%, respectivamente. Las aplicaciones web sobresalieron como las cargas de trabajo que se virtualizan con mayor frecuencia, incluyendo sitios web (73%), servidores de aplicaciones web (70%) y bases de datos (67%).

En cuanto a los beneficios, los encuestados citaron un aprovisionamiento de servidores más rápido (55%), la reducción de los costos (49%) y la consolidación de servidores (47%). Entre las capacidades más relevantes de la virtualización, mencionaron la confiabilidad (79%), la alta disponibilidad (73%) y el desempeño (70%), seguidos por la seguridad y la escalabilidad.

A los responsables de TI les preocupa una serie de factores que en un momento dado les dificultaría embarcarse en un proyecto de virtualización.

Cerca del 40% de los participantes en la encuesta consideró el presupuesto y los costos como sus principales desafíos. En particular, la gran inversión que tiene que hacerse para migrar las cargas de trabajo a entornos virtualizados y darles el mantenimiento necesario.

Estas preocupaciones podrían llevar a los directores de TI a complementar la virtualización con otros entornos para desarrollar aplicaciones. Al cuestionarles sobre qué tecnología implementarían en lugar de la virtualización en los próximos dos años, la respuesta que prevaleció fue la nube privada (60%) y los contenedores (41%).

La administración también es percibida como un gran desafío. Si bien no obtuvo tantas menciones como el costo y el presupuesto, sí se destacó la necesidad de tener entornos virtuales más fáciles de administrar (63%).

 

¿Qué nos dice todo esto sobre el estatus de la virtualización en el mundo?

Que ha llegado para quedarse y sigue siendo una tecnología determinante para el desarrollo de aplicaciones y funciones que contribuyen a la transformación digital de las empresas. De igual forma, su crecimiento no se limita únicamente a la virtualización de servidores, sino también a las redes y el almacenamiento.

Si bien existen desafíos, especialmente en el área de costos, como se mencionó anteriormente, los beneficios de la virtualización aún son accesibles para las empresas que buscan aprovechar esta tecnología. Y, en muchos casos, no se utiliza de forma aislada sino como parte de una estrategia más amplia para brindar a los desarrolladores y aplicaciones la infraestructura adecuada que incluye a la virtualización misma, los contenedores, y las nubes públicas y privadas.

 

Por: Jorge Alvarado,

Gerente de Arquitectura,

Red Hat México.

Industria 4.0: Manufactura flexible, autónoma y adaptable

Para lograr costos de producción más bajos, Adidas produce masivamente en Asia. Sin embargo, el proceso viene con un lapso de 18 meses entre el diseño y la entrega a la tienda, lo que para los clientes se está volviendo una espera poco agradable. Los clientes están buscando productos únicos, personalizables y quieren acceso inmediato a los últimos estilos.

Este hecho deja de manifiesto que los modelos de manufactura tradicional no sólo no están entregando lo que el cliente demanda, por lo que la marca alemana está creando un concepto de “speed Factory” para fabricar zapatos deportivos en zonas geográficas mucho más cercanas a los puntos de venta.

Existen muchos otros ejemplos que nos proveen un vistazo hacía lo que será la cuarta revolución industrial que está tomando lugar justo ahora y que transformará tanto el paradigma de la economía global, como los mecanismos con los que se determina la creación de valor económico.

Como las 3 revoluciones industriales previas, la 4ta Revolución Industrial estará basada en la rápida adopción de nuevas tecnologías de transformación que retará todo lo que asumimos y cambiará todo lo que pensamos sobre manufactura.

También significa que trabajadores, fabricantes y gobiernos, necesitan tomar nota y empezar a prepararse para lo inevitable o quedarse atrás.

 

Llegando hacia la 4ta Revolución Industrial

La primera revolución industrial fue provocada por la invención de máquinas con base en vapor que mecanizaron la mano de obra manual anteriormente y permitió producir a una escala increíble. Después, la electricidad permitió a la cadena de montaje y, junto con ella, el auge de la producción en masa.

El tercer avance industrial importante fue traído por la invención de las computadoras, que permitió la automatización de los robots y de las máquinas que podrían ser integrados en las líneas de montaje para realzar o, en algunos casos, para substituir a trabajadores humanos.

Hoy en día, la fabricación está evolucionando a partir del modelo y la mentalidad que guiaron las tres revoluciones industriales anteriores, que se centraron en la centralización y la producción en masa para lograr economías de escala, a una basada en la personalización en masa y flexibilidad con la producción real de bienes ubicados cerca de los centros donde se ubica la demanda.

En lugar de crear y gestionar inventarios, los fabricantes buscan construir cadenas de suministro completamente integradas que se adapten dinámicamente a los requisitos en tiempo real ya la demanda de los proveedores y los consumidores en sentido ascendente.

Esto incluye la capacidad de anticiparse y tomar medidas correctivas en términos de ajustes de producción en tiempo real. Lo que hace que esta transformación revolucionaria, es que los fabricantes están buscando para lograr todo esto, una intervención mínima o idealmente ningún humano en todo el proceso de producción de extremo a extremo.

Este modelo de fabricación se basa en la automatización y el intercambio de datos entre las tecnologías de fabricación, e incluye la integración de sistemas cibernéticos, Internet de Cosas (IoT), cloud computing y Big Data.

 

Descentralización y automatización con fábricas inteligentes

El modelo de Industria 4.0 busca esencialmente transformar la fábrica en una computadora o lo que se llama “Smart Factory”, procesos de manufactura modular pueden ser desarrollados por medios de sistemas informáticos-físicos, fusionados con tecnología computacional a las máquinas mismas, no simplemente para controlar y monitorear remotamente.

Estas fábricas modulares inteligentes podrán habilitar autónomamente la descentralización y automatización de las decisiones relativas a la producción, así como ser capaces de comunicarse y cooperar a través de IoT con operadores humanos y otras fábricas inteligentes para completar un cambio de suministro vertical u horizontal completo.

En efecto, esto es como lo que la industria de la tecnología de la información ha estado haciendo con los centros de datos durante años: Virtualización de servidores físicos, permitiendo que las tecnologías de automatización y orquestación permitan a las máquinas autogestionarse en una medida limitada. Y continuamos impulsando estos modelos a nuevos avances con redes definidas por software (SDN), nubes híbridas e inteligencia artificial (AI).

Pero, aunque la virtualización de los centros de datos puede ser algo popular ahora, el movimiento de la industria 4.0 sigue siendo nuevo y en gran parte desconocido para muchos. Está creciendo en importancia dentro de la comunidad manufacturera global. Comenzó hace sólo unos pocos años, en 2013, cuando el gobierno alemán acuñó el término mientras se esbozaba un plan para computarizar completamente la industria manufacturera del país.

La canciller alemana Angela Merkel presentó el concepto en el Foro Económico Mundial de Davos en 2015 y se refirió a él como “Industrie 4.0”. Ella habló con entusiasmo de este nuevo modelo.

Es un modo de “tratar rápidamente la fusión del mundo en línea y el mundo de la producción industrial”. Y gran parte del mundo industrializado parece haber tomado nota.

Lejos de la retórica política, el gobierno alemán invierte actualmente más de 200 millones de euros para fomentar la investigación práctica y accionable en el mundo académico, las empresas y el gobierno. Y Alemania no es el único país donde se están realizando inversiones similares.

 

4 principios rectores de la industria 4.0

Interoperabilidad: La capacidad de las máquinas, dispositivos, sensores y personas para conectarse y comunicarse entre sí a través de IoT o Internet de personas (IoP).

 

Transparencia de la información: Capacidad de los sistemas de información para crear una copia virtual del mundo físico mediante el enriquecimiento de modelos de plantas digitales con datos de sensores. Esto requiere la agregación de datos de sensor sin procesar a información de contexto de valor más alto.

 

Asistencia técnica: En primer lugar, la capacidad de los sistemas de asistencia para apoyar a los seres humanos mediante la agregación y visualización de información de manera comprensible para tomar decisiones informadas y resolver problemas urgentes con poca antelación. En segundo lugar, la capacidad de los sistemas físicos cibernéticos de apoyar físicamente a los seres humanos llevando a cabo una serie de tareas que son desagradables, demasiado agotadoras o inseguras para sus colaboradores humanos.

 

Decisiones descentralizadas: La capacidad de los sistemas físicos cibernéticos de tomar decisiones por sí mismos y realizar sus tareas de la manera más autónoma posible. Sólo en el caso de excepciones, interferencias u objetivos conflictivos son tareas delegadas a un nivel superior.

Retos técnicos de la industria 4.0

Las revoluciones, sin embargo, pueden ser desafiantes y desordenadas, y ésta no será diferente. Más allá de los desafíos culturales y políticos inherentes a cualquier cambio relacionado con la productividad económica, existen varios desafíos tecnológicos que deben superarse para permitir la adopción del modelo Industria 4.0. Éstas incluyen:

 

  1. Problemas de seguridad de los datos se incrementan considerablemente al integrar nuevos sistemas y un mayor acceso a esos sistemas. Además, el conocimiento de producción propietario se convierte en un problema de seguridad de TI.
  2. Se necesita un alto grado de confiabilidad y estabilidad para una comunicación cibernética exitosa, pero puede ser difícil de lograr y mantener.
  3. Mantener la integridad del proceso de producción con menos supervisión humana podría convertirse en una barrera.
  4. Evitar los problemas técnicos que podrían causar costosos cortes de producción es siempre una preocupación.

 

En un mundo donde las organizaciones luchan por asegurar tanto la disponibilidad como la seguridad de la tecnología residente en sus centros de datos, la idea de construir aplicaciones cibernéticas que involucren no sólo software, sino también maquinaria industrial y la responsabilidad adicional de asegurar una fábrica donde cada máquina. El dispositivo y el control es ahora un punto final parece ser el desafío mayor y aún no mencionado de la industria. Todo esto tendrá que ejecutarse en una red, lo que significa que imaginar todo y permitir estos cambios revolucionarios será probablemente el trabajo del departamento de TI.

La gestión del rendimiento de las aplicaciones, en particular, en un mundo de Industria 4.0 será exponencialmente más compleja de lo que es hoy en día. Cuando una aplicación de software tradicional baja ahora o, peor aún, es “lenta”, es bastante difícil averiguar qué está causando el problema. La mayoría de las organizaciones han desplegado una serie de herramientas para ayudar a monitorear y diagnosticar estos problemas y evitar las llamadas de conferencia de última hora donde el equipo de aplicación culpa a la red y el equipo de red transita en un interminable registro para demostrar que es la base de datos que causa el problema. Para muchos de estos equipos de respuesta a incidentes todavía hay demasiadas herramientas y no hay suficiente visibilidad para hacer el trabajo.

Una plataforma de visibilidad para la Industria 4.0

Este problema de falta de visibilidad puede ser abordado hoy en día con una plataforma de visibilidad que proporcione una visión de extremo a extremo de las interacciones de los usuarios con no sólo una aplicación, sino toda la infraestructura que soporta esa aplicación. Esto permite al equipo de TI aprovechar las herramientas de diagnóstico de manera más eficaz para resolver estos molestos problemas de rendimiento de las aplicaciones.

Pero imagine un futuro, no tan lejos de ahora, donde se les pide a los departamentos de TI que diagnostiquen el problema cuando una línea de ensamblaje cibernética, completamente automatizada y autónoma cae o peor aún, está realizando un trabajo “lento”. Toda la línea de montaje y todos sus componentes físicos serán la nueva “aplicación” presentando un nuevo nivel de complejidad a una escala que hará que las aplicaciones de software tradicionales parezcan simples en comparación.

Si bien el problema de supervisar y administrar el rendimiento de las aplicaciones cibernéticas en la Industria 4.0 parece enorme, la solución es muy similar a la visibilidad tradicional de la red. Alcanzando los puntos de interés en toda la línea de montaje y en la red inteligente de la fábrica, sólo una plataforma de visibilidad puede mostrar lo que realmente importa a los operadores e inteligentemente ayudar a mejorar la capacidad de las herramientas de monitoreo y diagnóstico.

Junto con los problemas de rendimiento de la aplicación, la seguridad de la “fábrica inteligente” será un desafío mucho mayor también. No sólo habrá la complejidad adicional que resulta de la adición de maquinaria, sensores y otros innumerables dispositivos de punto final IoT a la red, sino que la naturaleza misma del modelo Industria 4.0 se basa en la interconexión e integración de redes corporativas de confianza, De todo el suministro vertical y horizontal. ¿Cómo, entonces, asegura la “red” cuando el concepto de perímetro es completamente eliminado y la red ahora potencialmente abarca todo el mundo?

Aquí es donde el enfoque tradicional de la visibilidad de la red para la seguridad comenzará a romperse. Se necesitará un nuevo enfoque basado en una plataforma de entrega de seguridad para monitorear y proporcionar continuamente alimentaciones de datos inteligentes a las herramientas de seguridad en tiempo real para mantener el ritmo con el volumen y la velocidad de los datos generados por las fábricas inteligentes de las empresas de Industria 4.0.

 

Por: Kevin Magee, Global Security Strategist Gigamon

Samsung y el TEC de Monterrey impulsarán la innovación tecnológica en México

Samsung y el Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM) firmaron un acuerdo de colaboración con la finalidad de generar innovación tecnológica que beneficie el crecimiento de México en esta materia, así como apoyar a la formación de los estudiantes de nivel profesional y posgrado de todos los campus del Tecnológico de Monterrey.

El acuerdo, el cual inicialmente se ha firmado por cinco años, se trabajarán de manera conjunta en proyectos encaminados a la innovación tecnológica, modernización, utilización de energías renovables y la mejora del entorno.

“Estamos convencidos de que este convenio va a crear oportunidades importantes para los estudiantes en términos de conectarse con la industria, con una de las empresas más innovadoras del mundo, y a la vez será un reto para nosotros. La industria 4.0 revolucionará a Samsung, al Tec de Monterrey y la vida de nuestros estudiantes, creando oportunidades de liderazgo, aprendizaje y un mundo más sustentable”, comentó Juan Pablo Murra, Decano de la Escuela de Negocios de la Institución.

Los estudiantes del Tecnológico de Monterrey podrán realizar sus prácticas o estadía en la planta Samsung ubicada en Querétaro y los esquemas de colaboración serán con base en los programas del Modelo Educativo Tec21 dentro del programa Samsung Tech Institute.

“Escogimos al Tec de Monterrey porque nosotros estamos interesados en la cuarta revolución industrial y en la parte de la innovación tecnológica y networking, y creemos que el perfil con el que cuentan los estudiantes de ésta Institución es muy compatible con la ideología que nosotros tenemos”, señaló por su parte Wansoo Kim, Presidente de Samsung Electronics Digital Appliances México.

“Actualmente estamos pensando trabajar con quienes están en Querétaro y después seguir en Tijuana, donde también tenemos operaciones, en dado caso de que la tecnología y la implementación sean buenas, estamos pensando llevarla a nuestra casa matriz en Corea”, agregó Kim.

Samsung Querétaro cuenta con más de 200 proyectos que buscan seguir creando el futuro en la llamada cuarta revolución industrial o Industria 4.0, en todos ellos el Tecnológico de Monterrey será un aliado haciendo de la planta una empresa inteligente.

-Redacción

El mecanismo de cambio para las aplicaciones móviles

La movilidad es una realidad digital que se ha arraigado gradualmente en la vida diaria en todo el mundo. Los Smartphone están reemplazando rápidamente a las computadoras como el dispositivo preferido para el acceso móvil, realizar compras en línea e incluso hacer transacciones de negocios. Ya que las tiendas de aplicaciones están inundadas con otras que compiten entre ellas, sólo se necesita de una inconsistencia en el desempeño de una sola aplicación para perder a un cliente. Para poder resolver cualquier funcionalidad específica, no es buena opción que soporte técnico le solicite a los clientes cambiar, o intentar utilizar otro navegador o dispositivo.

Las aplicaciones para negocios, además de ofrecer un soporte a la movilidad, también deben ser consistentes de la experiencia del usuario en los navegadores, sistemas operativos, interfaces y plataformas móviles.

Por esto, los equipos de desarrollo de software y pruebas están bajo presión para asegurar la respuesta móvil de sus contenidos web y aplicaciones.

Los sitios y las aplicaciones web responsivos trabajan correctamente en todos los navegadores móviles y no requieren descargar herramientas extras. Esta característica ahorra memoria del dispositivo, y es uno de los motivos importantes de la popularidad del RWD (Responsive Web Design o Diseño responsivo) . Desde una perspectiva de negocios, el RWD mejora la visibilidad de los motores de búsqueda, los sitios responsivos utilizan una URL y un conjunto de páginas y archivos, lo que le facilita a los motores de búsqueda examinar y clasificar el contenido.

Google también ha confirmado, en varios boletines de prensa, que el diseño responsivo es un factor de clasificación de los motores de búsqueda para dirigir el tráfico en los sitios de negocios. Claramente, la necesidad de una “respuesta móvil” creó el camino para las pruebas de entre varios navegadores.

Esta prueba, aplicable a todos los tipos de aplicación web (sitios responsivos, aplicaciones nativas e híbridas) consiste en asegurar un desempeño constante del sitio web y de la aplicación entre varios de ellos. Sin embargo, no es tan sencillo como parece. Dada la afluencia continua de dispositivos móviles, en combinación con los lanzamientos constantes de navegadores y sistemas operativos, la prueba entre varios buscadores puede ser desafiante para los equipos de desarrollo y pruebas, especialmente en los ambientes Agile, en donde la aceleración de lanzamientos es la norma.

Varios equipos se inclinan por la prueba entre navegadores, aprendiendo e improvisando durante el proceso. También con base en el aprendizaje de proyectos RWD, una estrategia efectiva de prueba de buscadores debe enfocarse en dos aspectos: la interfaz y la estructura.

La interfaz comprende la prueba de facilidad de uso, asegurando el comportamiento de los elementos como campos de entrada, listas desplegables, selectores de fecha, mientras asegura una entrega consistente de texto y color entre los diferentes navegadores. Específicamente, estas pruebas revisan el uso correcto y consistente de las etiquetas html y de los códigos de color, los rangos para la selección de fechas, el contenido conciso e informativo en las sugerencias de herramientas, el reconocimiento exacto de gestos, el manejo adecuado del sitio en relación con los certificados de seguridad, y el uso adecuado de los complementos del navegador para la entrega de medios, tales como películas en formato flash y archivos PDF.

Mientras que éstas son revisiones de prueba a nivel operativo, desde una perspectiva del proceso estratégico, la respuesta debe crearse desde el principio, y no como una idea posterior en la cual enfocarse durante la prueba de la interfaz. Finalmente, la orientación de la prueba, un enfoque de diseño que sigue el flujo de trabajo natural y las acciones del usuario, es una buena forma de hacer las interfaces de la aplicación no solo responsivas sino intuitivas, permitiendo que los usuarios completen fácilmente sus tareas y tengan un mejor control sobre la aplicación.

Desde una perspectiva de estructura, para soportar la velocidad de desarrollo de Agile, los equipos de pruebas en aplicaciones deben diseñar escenarios de evaluación y casos durante el proceso, así como realizar pruebas simultáneas en múltiples dispositivos físicos, en tiempo real. Además de sobrellevar los ciclos acelerados de lanzamiento, los equipos de la prueba deben mantener el ritmo, de forma simultánea, con las rápidas expansiones OS, los lanzamientos frecuentes de navegadores específicos de la plataforma y los lanzamientos regulares de dispositivos. Es como correr en dos competencias al mismo tiempo.

Para asegurar una prueba ininterrumpida, los equipos de proyecto implementan simuladores móviles para crear ambientes de la vida real. Sin embargo, este enfoque de fijación rápida comprende aspectos realistas como la memoria, el uso del CPU, los datos de la aplicación, los contextos de negocios e incluso el comportamiento y uso del consumidor. Claramente, la prueba entre navegadores requiere mucho más que la realización de pruebas y enfoques.

La necesidad de dispositivos físicos también presenta un desafío. La obtención y el suministro de infraestructura de pruebas móviles, específicamente los laboratorios con una gran gama de dispositivos móviles físicos, involucra un costo excesivo. Además, estos laboratorios de movilidad no son únicamente una inversión de infraestructura de una sola vez. La necesidad de actualizaciones continuas en la flota de los dispositivos de prueba puede acabar rápidamente con los presupuestos de la empresa.

Pero cada necesidad o desafío también representa una oportunidad de negocios. Si ha pensado sobre la infraestructura de la nube como una oferta de servicio (IaaS), usted se encuentra en el camino correcto. Los proveedores públicos y privados de servicio de la nube anunciaron nuevas ofertas de pruebas de movilización, granjas de dispositivos móviles con base en la nube. Dada la facilidad de la infraestructura de suministro de la nube, los clientes también están tentados a mover las pruebas móviles, están tomando como opciones los laboratorios externos privados que ofrecen una ventaja en el costo y se enfocan en cuestiones de seguridad a través de los túneles VPN seguros.

A pesar de los gastos generales iniciales, ya sea alojados por sí mismos o en la nube, el RWD y la prueba entre navegadores son inversiones que valen la pena a largo plazo, por medio de las pruebas futuras de las interfaces de las aplicaciones para factores de forma móvil actuales o futuros, mejorando la facilidad de uso de la aplicaciones, e incrementando la vida útil global. ¡Es como un cambio de imagen para sus aplicaciones de negocios!

 

Por Rakesh Kumar, consultor de automatización/Centro de Excelencia para el Aseguramiento de Movilidad de TCS.