Etiqueta: ROI

¿Cómo debe ser el nuevo director de Recursos Humanos en tiempos de cambio?

La multiplicidad y velocidad de los cambios trajeron aparejado un replanteo en la función de aquellos que deben gestionar el talento en las empresas. El proceso es aún más vertiginoso en las compañías multinacionales, ya que son las primeras en adoptar las nuevas tendencias, y sus áreas de Recursos Humanos deben estar a la vanguardia.

Pero si nada es constante, si nada permanece, si lo que predomina es la incertidumbre, ¿sobre qué capacidades y competencias trabajar? La pregunta que desvela a los responsables de esta tarea tiene, al menos, una primera respuesta: la clave sobre la cual trabajar es precisamente la capacidad de adaptación al cambio.

 “Vivimos en un mundo en constante evolución. Hemos pasado de lo local a lo global, de lo físico a lo virtual, de la certeza a la incertidumbre”, apuntan los expertos de Meta4, multinacional especializada en soluciones de gestión del capital humano, en su publicación El nuevo Director Corporativo de RRHH.

“Si la única certeza de estos tiempos es que todo cambia, no cabe el cerrar los ojos ante nuevas realidades emergentes. Hay que asir cada nuevo contexto, abrazarlo y no tener miedo”, aconsejan en consecuencia.

Ese nuevo rol de quien encabeza la gestión del talento dentro de una organización, que es también una construcción permanente, contempla como misión fundamental en esta etapa detectar las tendencias emergentes antes de que se establezcan y poder anticiparse a cualquier situación.

¿Cómo se logra esto? No hay una fórmula mágica. Es fundamental profundizar los conocimientos, no solo a través de los canales formales, sino también abriendo el juego a las nuevas plataformas de comunicación. Allí se difunden y comparten de manera creciente contenidos de alto valor para la gestión, con una dinámica mucho más ágil e inmediata que la ofrecida en ámbitos más tradicionales.

También debe saber el responsable de los recursos humanos que en estos tiempos los indicadores que surgen de su departamento se han tornado fundamentales para la toma de decisiones de la alta dirección. Por esa razón, su labor, además de ser más compleja, es también más crítica.

A la vez, el objetivo de conseguir que las acciones de Recursos Humanos sean asumidas como propias por toda la organización se ve facilitado en este nuevo escenario por los indicadores analíticos, muy útiles para demostrar el ROI (retorno de la inversión) a nivel interno.

Por último, otra de las misiones tradicionales que continúa en la cúspide de las prioridades es impedir que existan desfasajes entre las tareas asignadas a los empleados y su nivel de formación para desempeñarlas.

Pero también aquí surgen cambios. Ahora, los métodos tradicionales de capacitación se complementan con nuevas herramientas como moocs, e-learning, webinars o wikis, entre otras, como parte de un entorno formativo global.

Todas estas consideraciones van definiendo, en diversos aspectos, el perfil del nuevo Director Corporativo de Recursos Humanos. Se trata de una posición que, cada vez más, se encuentra permanentemente en el radar de los CEOs. Por lo tanto, el compromiso y la exigencia son mayores. Con la recompensa, claro, de jugar un rol sustancial en los destinos de la compañía.

N. de P. Meta4

Claves para implementar una estrategia de Big Data exitoso

Los datos digitales se están convirtiendo en un elemento de primer orden para cualquier empresa, ya que, gracias a las herramientas analíticas, dichos datos pueden hoy convertirse en información precisa y prospectiva sobre clientes y tendencias, reforzando y orientado sus estrategias de negocios. Sin embargo, asumir ese desafío no es una tarea sencilla, ya que existen múltiples variables complejas al desplegar este tipo de proyectos.

“El Big Data se refiere a un conjunto de datos de alto volumen, el cual, además, proviene de fuentes muy diversas y dispersas, por lo que involucra retos técnicos de alto nivel, así como una visión muy clara y estratégica sobre el negocio. Quienes fracasen en sus planes de Big Data no sólo no podrán aprovechar las oportunidades que brindan los datos, sino que verán, tarde o temprano, amenazada su posición de mercado y competitividad”, define Pablo García, Gerente de Data Center y Seguridad de Level 3.

El ejecutivo afirma que el Big Data recién es un tema emergente a nivel latinoamericano, pese a que se trata, según Gartner e IDC, de una de las tres principales tendencias tecnológicas para el presente y futuro cercano.  En cuanto a los precursores de estas iniciativas, García destaca que son las áreas de marketing y ventas de compañías del sector retail, financiero, de telecomunicaciones y minería las que más están impulsando estos proyectos. “Las soluciones Big Data permiten tomar decisiones inteligentes para el negocio desde fuentes de datos estructuradas y/o no estructuradas como páginas Web, redes sociales, bases de datos internas de la compañía, call center, entre otras”, subraya.

 

Paso a Paso

García sostiene que para iniciar un proyecto Big Data es necesario comprender que no existen los productos “estándar”, por lo que hay que tener cuidado a la hora de elegir un proveedor de TI. “Los datos de cada empresa son únicos, por lo que no es sencillo tener un estándar de implementación desde la concepción del proyecto hasta su puesta en producción o implementación. El equipo de desarrollo del proyecto debe trabajar estrechamente junto al área de negocios de la compañía que tiene la necesidad, para elaborar y refinar constantemente sus necesidades de información”, resalta.

Un segundo aspecto es estar conscientes de que no se obtendrán resultados “mágicos”, por lo que los objetivos del proyecto deben definirse con máxima claridad, ya que muchas variables se irán despejando en la medida que se avance, y asi podrán visualizarse mejor los beneficios. “El desarrollo de aplicaciones de negocios Big Data es un proceso interactivo, que requiere paciencia”, enfatiza el ejecutivo de Level 3.  “Al hablar del ROI del proyecto hay que pensar en el largo plazo porque acá no hay garantías de rentabilidad definida o estimada con precisión. Son proyectos que bien ejecutados y gestionados redundarán en grandes beneficios para el negocio, además de reducir costos y mejorar procesos”.

De acuerdo a lo anterior, el ejecutivo recomienda que las áreas de TI de la empresa trabajen estrechamente con las unidades de negocios más cercanas al proyecto para iniciar las pruebas de conceptos, de manera que los desarrolladores se involucren con los usuarios.

Asimismo, García afirma que el equipo de desarrollo debe garantizar la flexibilidad de sus sistemas, ayudando a que los usuarios puedan ir experimentando con la información y se sientan libres en esa búsqueda.  “Una forma de hacerlo es trabajando en entornos limitados, áreas de práctica donde los datos científicos recolectados puedan ser manejados por los usuarios con herramientas de búsqueda y selección fáciles de utilizar, que enriquezcan la experiencia de usuario, con la flexibilidad necesaria para realizar múltiples selecciones y combinaciones de datos para el cruce o búsqueda de información y a partir de ellas, tomar decisiones”, sostiene el ejecutivo de Level 3.

 

Interfaz Sencilla y Performance

Debido a lo crucial que resulta para el éxito de un proyecto Big Data el facilitar al máximo que los usuarios puedan ir, como está dicho, “experimentando” con la información, debe asignarse una alta importancia al desarrollo de una interfaz sencilla. “Una aplicación de Big Data debe presentar los datos de forma simple, de manera que el usuario final no necesite tener amplios conocimientos científicos o de tecnología”, sentencia.

Finalmente, debido a que se esperan resultados rápidos o instantáneos de estas aplicaciones Big Data, independientemente de que las consultas sean complejas y abarquen millones de registros de datos, jamás se debe descuidar el desempeño.  En tal sentido, más allá de si la solución es on-premise o está basada en la nube hay que asegurarse de que la infraestructura responda adecuadamente, para prevenir latencias o cuellos de botellas.

N. de P. Level 3.

La seguridad y el gobierno de datos, los grandes retos del “big data”

Datos del estudio ‘Transforming the Data Center’, elaborado por Cloudera e Intel, señala que los cambios en la tecnología de los últimos años han tenido consecuencias en la arquitectura del centro de datos, por lo que las empresas comienzan a modernizar su entorno.

con respecto a esta etapa de modernización, uno de los cambios más pronunciados es el aumento de software de código abierto. Desde la perspectiva de ambas compañías, señala que Apache Hadoop es una fuerte divergencia con respecto a las arquitecturas de bases de datos tradicionales, en lo que a su escalabilidad horizontal y el uso de hardware básico se refiere. La implementación de Hadoop requiere revisar los sistemas que se ejecutan hoy y una estrategia sobre cómo Hadoop puede completar, extender o reemplazar las soluciones tradicionales.

Teniendo en cuenta estas premisas, ambas firmas se enfocarán en investigar el estado de la implementación de plataformas cloud en las organizaciones, a tomar nota de los últimos retos asociados a la implementación de estos sistemas, y a la transformación del centro de datos. Cloudera e Intel han trabajado conjuntamente en el Unisphere Research, una división de Information Today. Inc., a raíz de la encuesta a los responsables de IT involucrados en las operaciones de centro de datos.

Respecto a las conclusiones destacadas por del estudio Transforming the Data Center apuntan a aspectos relacionados con la seguridad y gobierno de datos como los principales desafíos ante el crecimiento del volumen de datos. “En sus inicios, muchos usuarios utilizaban Hadoop como fuente de información  relacionada con el acceso a la web o los medios sociales. Los primeros esfuerzos fueron fáciles porque no necesitaban demasiado en torno a la gobernanza y la seguridad. Sin embargo, las capacidades de Hadoop han crecido con los años y las organizaciones han comenzado a construir arquitecturas a gran escala para albergar todos sus datos en Hadoop.

Es entonces cuando la gobernanza y la seguridad de los datos se han convertido en una necesidad que se ha hecho más preocupante cuando se empezaron a mezclar datos seguros con los no seguros”, señala el informe, al tiempo que puntualiza que, con el fin de convertir un centro de datos de la empresa en una realidad, hay que garantizar que se ha mejorado la visibilidad de lo que la gente está haciendo con los datos. Por tanto, no es sorprendente que el 60% de los encuestados afirme que la seguridad y el gobierno son las principales preocupaciones ante el crecimiento del big data.

hadoop-data

Por su parte Cloudera se ha enfocado en hacer frente a los problemas a los que se enfrenta la seguridad empresarial, una cuestión que según afirma “va más allá del cifrado de datos y el control de los accesos”.

Asimismo, el informe destaca que el acceso a los datos agrupados en silos es el elemento más difícil para la creación de un banco de datos para el análisis. Encapsular los datos y limitar el acceso a ellos es bueno para la seguridad; no hay otra forma segura de mantener los datos a salvo sin crear una separación física real. Pero esto tiene sus inconvenientes. Limitar el acceso a los datos significa limitar el conocimiento. ¿Cómo esperamos que nuestros analistas y científicos de datos construyan los mejores modelos de datos limitados? No solo es complejo para los analistas, también tiene complejidad operacional y un bajo ROI debido a la gestión de múltiples sistemas. Respecto a lo establecido, no sorprende que el 38% de los gestores de datos profesionales detecten los atascos en los silos de datos como un problema generalizado.

Otra conclusión que ofrece el estudio Transforming the Data Center tiene que ver con el hecho de que los usuarios quieren pasar de la descripción a la predicción en el análisis de datos. ¿Cómo puede una empresa moderna que necesita cambiar en cuestión de días o minutos en base  los datos ser obligado a consultar los datos de la semana pasada? Simplemente no es lo suficientemente potente como para hacer de los datos un activo estratégico. El big data ha tenido un papel determinante en el avance del estado de los nuevos modelos de análisis y visión de futuro. Este hecho viene dado porque muchas organizaciones ya están usando Hadoop para tener capacidades analíticas más predictivas. Mientras que el 36% de las compañías ya han incorporado análisis avanzados, el 60% todavía está operando con análisis predictivos.

Los objetivos planteados para el negocio es el factor clave para avanzar. Desde la perspectiva de Cloudera e Intel en su estudio, hay que entender la tecnología como un aspecto fundamental para el cambio integral en la arquitectura de la información, pero no es el único. Puedes asociarte con un proveedor, desarrollar un sistema integral o contratar las personas adecuadas para asegurar el éxito con la tecnología. Sin embargo, un reto mucho más complejo está cambiando la cultura de la organización. La consultora Gartner predijo que en 2017 solo el 50% de las organizaciones habrán hecho los ajustes culturales necesarios para obtener grandes volúmenes de datos. Esta es la razón por la que el mismo porcentaje de encuestados en el estudio indica la alineación con la estrategia de negocio específico como un factor determinante para considerar la modernización.

Marga Verdú

 

Video: Cómo calcular el TCO, RFP y ROI para un proyecto de TI

Muchas veces los proveedores dejan ver precios muy atractivos en sus soluciones, pero es común que haya otros costos ocultos. En esta colaboración, Fernando Thompson, CIO de la Universidad de las Américas Puebla, nos comparte algunos tips para calcular con mayor certeza el Costo Total de Propiedad (TCO), la Solicitud Formal de Propuesta (RFP) y el Retorno sobre la Inversión (ROI) de un proyecto de TI.

¿Las empresas mexicanas están preparadas ante una contingencia mayor?

El impacto de una contingencia sea natural o social afectan directamente al desarrollo económico de un país, y este impacto no depende únicamente de la magnitud del fenómeno en particular, si no del nivel de preparación del país y de las empresas que lo experimentan.

Los escenarios de peligro no solo se pueden originar localmente por lo que se debe considerar como una responsabilidad social tener una cultura de prevención arraigada en la que todos podamos contribuir a  aminorar el riesgo de cualquier desastre que pudiera ocurrir.

¿Cómo podemos lograr una cultura preventiva y de comunión? Empezando con diseñar, elaborar y poner en práctica un plan de continuidad de operaciones o de negocio que permitan garantizar la operación y funcionalidad de organizaciones tanto públicas como privadas en todo momento.

Las empresas Japonesas esto lo logran muy bien lo que se demuestra en su rápido tiempo de recuperación ante una catástrofe, sin embargo en Latinoamérica debemos comenzar a prever los riesgos que enfrentamos continuamente como sociedad y esto es un reto constante pero no imposible. Y si bien en lo referente al tema de  continuidad es cierto ha ido evolucionado en el mercado mexicano, debemos orientar esto de un principio meramente tecnológico a una nueva etapa que abarque como pilar la responsabilidad social para el bien común.

El desarrollo diseño e implementación de un Plan de Continuidad permite anticiparse a estas situaciones, identificando los riesgos de magnitud suficiente para poner en peligro el normal funcionamiento de las empresas y señalando y estandarizando las acciones a realizar en caso de que esas situaciones se produzcan beneficiando como efecto secundario a la sociedad usuario de diversos servicios que no se pueden dar el lujo de frenarse.

El concepto de continuidad de negocio continúa  evolucionando, pero requiere del conocimiento y compromiso  de los más altos niveles en la toma de decisiones, para diseñar e implementar los planes de continuidad adecuados a cada empresa.

Leonardo Rodríguez Serratos, Director de Atalait Continuity Services.

Cómo optimizar el rendimiento de un servidor de bases de datos con memoria RAM

Kigston RAMPor Oscar Martínez*

Aunque la mayoría de las personas no se fijan en ello, el mundo funciona sobre diversos tipos de bases de datos que, si bien pueden ser muy diferentes entre ellas, tienen una cosa en común: la necesidad de utilizar memoria de alto rendimiento para entregar los datos de manera rápida y confiable.

En nuestra vida cotidiana interactuamos cada vez más con las bases de datos. Por ejemplo, desde el momento en que nos despertamos con una llamada telefónica, ésta se procesa por la base de datos de registro de clientes que tiene el proveedor de servicios de telefonía; las compras electrónicas semanales también se procesan por la base de datos de transacciones del banco; o bien, cuando se nos presenta una base de datos con recomendaciones de nuevos títulos de películas, según el historial de compras en línea de filmes que se tenga.

En todos los casos, las bases de datos que atienden muchas de nuestras consultas diarias necesitan tener un rendimiento consistente, rápido y eficiente. Sin embargo sólo las que están accesibles en la memoria RAM (memoria dinámica de acceso aleatorio) de un servidor de bases de datos funcionan más rápido, ya que no están limitadas por la alta cantidad de datos permitiendo  satisfacer las demandas diarias de los clientes.1

Aunque atender solicitudes de datos con un rendimiento constante y manteniendo la integridad en las transacciones no es una tarea fácil, se pueden lograr accesos rápidos, directos y dinámicos montando las Bases de Datos En la Memoria (IMDB, por sus siglas en inglés). Éstas  se basan principalmente en el uso de memoria RAM de alta capacidad (a partir de 8GB) y un elevado rendimiento.

Estas memorias atienden un alto volumen de solicitudes n veces más rápido que las bases de datos tradicionales residentes en discos duros y sirven de “columna vertebral” en cualquier escenario que requiera tiempos de respuesta rápidos al consultar grandes conjuntos de datos que incluso necesiten complementarse con aplicaciones específicas.

En este sentido, la velocidad de una RAM tiene una relación directa con el servidor de base de datos y, a medida que se requiere mayor frecuencia de la memoria, ésta incrementa su velocidad que incide positivamente en el rendimiento del servidor.

Instalación de memoria para mejorar el rendimiento de un servidor de base de datos

Kigston gráfica 1Como se ve en esta gráfica, el rendimiento del subsistema de memoria aumenta casi linealmente desde la configuración más lenta. Para habilitar el modo Quad Channel (la configuración más rápida) es necesario llenar el primer banco (junto al procesador) que consta de cuatro slots, para ello se debe instalar un módulo de memoria por cada slot.

Al llenar los cuatro slots del primer banco habilitamos el Quad Channel. Es importante destacar que con el aumento en la carga eléctrica de una configuración de Quad Channel se observa un aumento de  aproximadamente 70GB/s (cerca de 4 veces más que la configuración de Single Channel) en el rendimiento del subsistema de memoria que representa una solución ideal para aplicaciones de alto rendimiento que requieren un uso intensivo de recursos.

Rendimiento en la frecuencia de memoria

Kigston gráfica 2En la gráfica adjunta utilizamos los mismos ocho módulos de memoria DDR3 8GB operando a cuatro velocidades diferentes (MHz), simétricamente en ambos subsistemas de la memoria Xeon E5 de Intel, con el fin de alcanzar una configuración equilibrada que permita el mejor desempeño en las diferentes frecuencias de memoria mostradas.

Al operar los módulos de memoria a 800MHz vemos el rendimiento más lento, con aproximadamente 40GB/s de velocidad  de transferencia sostenida. A medida que aumentamos la frecuencia, el rendimiento de memoria aumenta casi linealmente hasta el máximo de aproximadamente 70GB/s cuando funciona a 1,600MHz. Esto es ideal para escenarios donde los recursos escritos en la memoria requieren el máximo rendimiento posible para ser eficientes como son: las bases de datos de misión crítica y los procesos de virtualización.

Capacidad de memoria en comparación con el rendimiento de frecuencia

Kigston gráfica 3En esta gráfica se muestra el rendimiento de un subsistema de memoria instalada con 192GB corriendo 1066MHz, frente a otros dos: uno con una configuración con 128GB y otro con una configuración de  64GB, ambos funcionando a 1600MHz.

Al aumentar las capacidades de la memoria que funcionan a la misma velocidad de 1,600MHz –ya sean con 128GB (16 x 8GB) o 64GB (8 x 8GB) simétricamente distribuidos–, se muestra el mismo rendimiento sostenido de aproximadamente 70GB/s.

Una capacidad de memoria mayor de 192GB (24 x 8GB) –aunque corre a un ritmo más lento de 1,066MHz– muestra un descenso poco significativo (de aproximadamente 17GB/s) en el rendimiento sostenido.

Conclusión

Como hemos visto, seguir las normas apropiadas para instalar y habilitar los slots de memoria permite un equilibrio adecuado para optimizar un servidor de bases de datos.

Lo más importante es utilizar módulos de memoria (RAM) de mayor capacidad y de frecuencias más altas. Estas memorias por sí mismas permiten lograr un mejor rendimiento, pero al combinarlas con la adecuada configuración, podemos multiplicar su rendimiento hasta cuatro veces, incrementando con ello el ROI (retorno de inversión) y reduciendo el TCO (costo total de propiedad) a lo largo del ciclo de vida del servidor.

 Referencias

1 Predicción de las preferencias del usuario en cuanto a películas utilizando la base de datos de Netflix. Departamento de Ingeniería Eléctrica y de Computación de la Universidad Carnegie Mellon  http://users.ece.cmu.edu/~dbatra/publications/assets/goel_batra_netflix.pdf

_____________

* Oscar Martínez es director regional de Kingston para México, Miami, Centroamérica y Caribe.

Lo que vendrá en 2014 en materia seguridad TI

Road 2014El incremento de las extorsiones por Ramsomware, así como un mayor presupuesto para la detección y reparación de daños a la seguridad TI figuran entre las cinco principales tendencias que, según Blue Coat, se harán presentes en las organizaciones para el próximo año.

A continuación se describen cada una de ellas:

1.- Extorsiones por Ramsomware en aumento. Las extorsiones de información por infecciones de Ramsomware están creciendo cada vez más y con mayor sofisticación. El costo de la recuperación de los datos va en aumento en comparación con el año anterior y los delincuentes exigen una mayor recompensa debido a la inflación. Cryptolocker es un ejemplo reciente de cómo el Ransomware se está convirtiendo en un sofisticado e implacable malware.

2.- Incremento en presupuestos para seguridad (detección y reparación de daños). Gartner declaró recientemente que el presupuesto de la seguridad total gastado en la detección rápida y la capacidad de reparación también se incrementará del 10% al 75 % para el 2020. Ejemplo de esto es la reciente iniciativa Waking Shark 2 para probar la preparación Ciber-ataque en el sector financiero del Reino Unido.

3.- Pensar en ROSI (Retorno de Inversión en Seguridad) dentro del plan de la empresa. El ROI (retorno de inversión) ya no es todo lo que debe medirse en una empresa. El ROSI (Retorno de la Inversión en Seguridad) no es tan fácil de medir cuantitativamente y tiende a medirse cualitativamente, pero ahora ya hay una presión para las áreas de TI y dirección para medir la seguridad más subjetivamente. En realidad, tanto el ROSI como el ROI se pueden aprovechar cuando se trata de justificar el presupuesto. Alinear el presupuesto de seguridad con las prioridades del negocio deberá centrarse en la reducción de riesgos.

4.- Gestión de tiendas de aplicaciones en las empresas (MDM). Los empleados quieren ser más productivos en cualquier momento y en cualquier lugar a través de una variedad de dispositivos. Suena bien, ¿verdad? Y lo es, hasta que usted piensa acerca de los problemas de gestión de ancho de banda, problemas de seguridad y problemas de privacidad que pueden surgir al momento en que los empleados descargan más y más aplicaciones.

Para obtener el control sobre la red, en los próximos 12 meses las empresas crearán sus propias tiendas de aplicaciones para mantener sus redes, datos, IP y seguridad de los empleados.

La clasificación “App” jugará un papel clave en la creación y gestión de tiendas de aplicaciones empresariales. MDM (Mobile Device Management, o gerencia de dispositivo móvil) también cobrará importancia, ya que muchas de estas aplicaciones se puede acceder por medio de dispositivos móviles.

5.- Las empresas necesitan prevenir, detectar y responder. En las empresas existe una brecha entre las operaciones de seguridad del día a día y los equipos de operaciones de seguridad avanzada que se traduce en violaciones a la seguridad de materiales.

De acuerdo con los datos del Informe de Incumplimiento Verizon, el 84 % de los ataques dirigidos avanzados tomó segundos, minutos u horas para lograr su objetivo mientras que el 78 % de las violaciones tomó semanas, meses o años en descubrirse. Esta brecha existe porque las defensas de seguridad tradicionales están diseñadas para detectar y bloquear amenazas conocidas, pero siguen siendo en gran medida “ciegas” ante las amenazas de día cero (zero-day threats) y los nuevos ataques de malware.

Esto se ve agravado por la tendencia de los equipos de operaciones de seguridad avanzada, así como las defensas que emplean para operar en silos sin capacidad de compartir información a través de toda la organización de seguridad. Así, mientras que la prevención es clave, las empresas necesitan aumentar sus defensas previniendo lo que se puede, detectando lo que no puede y respondiendo a lo que ya está ahí.