Etiqueta: estadísticas

¿Dónde invertir? Nube o en un modelo multi-nube

Un estudio publicado por Gartner, señala que el 66% de las empresas latinoamericanas contemplan o planean implementar un servicio de nube, esto nos habla de la creciente necesidad de las corporaciones por mantener segura su información y la demanda de un mercado ‘conectado’ que va en ascenso.

Ante este panorama y las nuevas necesidades de negocio que cambian constantemente gracias al rápido avance tecnológico, las corporaciones no sólo se ven en la posición de elegir el ambiente de nube adecuado, sino también de decidir si un modelo o diferentes ambientes son suficientes para mantenerse competitivos.

Las diferencias entre un solo ambiente de nube y un modelo multi-nube son muchas, sin embargo, los factores determinantes para elegir el más adecuado son las necesidades del negocio, el tamaño y la estructura de cada empresa.

Cabe señalar que, no se trata de que una arquitectura sea mejor que otra, pues cada una brinda resultados positivos para los distintos tipos de negocio. Un modelo único de nube puede ser la solución de menor costo, pero es importante considerar que la elección ideal entre los distintos tipos dependerá de las tareas y las cargas de trabajo que requiera la organización.

La nube pública es para los negocios que buscan una estructura más sencilla, su disponibilidad pertenece a un tercero y es compartida con otros clientes. Mientras que, la nube privada se enfoca en aquellos que buscan tener control absoluto y un espacio exclusivo para el manejo de información importante o clasificada.

Por ello, se debe tomar en cuenta el modelo multi-nube combina diferentes ambientes y es capaz de integrar también diversos proveedores para las plataformas de negocio que, por su naturaleza y amplitud, exigen una infraestructura más elaborada, donde encuentran el balance indicado para las distintas cargas de trabajo. Este tipo de infraestructura es mucho más compleja y el costo es mayor, pero con los socios y expertos adecuados, ofrece diversos beneficios que justifican la inversión.

Los proveedores son clave en un ambiente multi-nube, ya que deben compartir responsabilidades y tareas, según las necesidades del negocio. Actualmente, las empresas pueden elegir y combinar diferentes nubes, sin embargo, es primordial que mantengan en mente la importancia de elegir un socio con el equipo de expertos preparados y certificados que conozcan las características de cada uno de los modelos dentro la infraestructura.

En conclusión, el modelo multi-nube es cada vez más utilizado y habitual en el ámbito de los negocios conectados, tan solo la firma Dimensional Research señala que 7 de cada 10 empresas alrededor del mundo ya tienen un acercamiento hacia este tipo de arquitectura, mientras que IDC afirma que el 86% de las compañías en la nube aseguran que el papel de los proveedores es importante para la implementación de múltiples ambientes.

_____________________

alvaro-echeverria-vicepresidente-y-director-general-de-rackspace-latam

 

 

Álvaro Echeverría, vicepresidente y director de Rackspace Latinoamérica

 

El Club América mejorará su desempeño con SAP Sports One

El Club América se convierte en el segundo equipo de la Liga Mx en mejorar su rendimiento con la solución en la nube de la compañía que utiliza la plataforma SAP HANA, enfocada en las prácticas deportivas: SAP Sports One. Con ella el Club América podrá realizar planeamiento de entrenamientos, control del estado físico de los jugadores y análisis del desempeño deportivo.

En conferencia de prensa, Ricardo Peláez, Presidente Deportivo del Club América, destacó que la implementación de la herramienta es parte de la celebración del centenario del club mexicano, uno de los más populares del país, y el más ganador hasta ahora.

“Es una solución que buscamos para mejorar el rendimiento de nuestros jugadores y también para analizar posibles fichajes”, señaló Peláez. Con Sports One, el club busca mejorar sus estadísticas con la herramienta que hasta el momento sólo utilizaba en México el Club Xolos de Tijuana, y que también ha sido implementada por la selección de Alemania precisamente en el año en que ganó el mundial de fútbol, además de la Fórmula 1, la NBA y la NFL.

Por su parte, Ángel Morfín, vicepresidente de analítica de SAP México señaló, “para SAP es un honor formar parte de esta historia que, estamos seguros, seguirá consiguiendo títulos en el futuro, y nos complace ahora formar parte de esta gran institución. Con la adquisición de la plataforma Sports One, el Club América se suman a la tecnología de analítica en la nube que ya llegó al fútbol en México.”

La analítica para el negocio está enfocada en obtener mejores ingresos, reducir costos y encontrar nuevos mercados, para un equipo deportivo, la analítica de datos se enfoca en obtener mejores resultados conforme se avanza en un torneo, liga o serie. Con Sports One, el Club América podrá realizar planeamiento de entrenamientos, control del estado físico de los jugadores y análisis del desempeño deportivo. La solución también aportará una plataforma sencilla de colaboración que establecerá nexos con jugadores y equipos a través de cualquier dispositivo.

“Ignacio Ambriz, Director Técnico, tendrá una herramienta que da apoyo a las tareas de seguimiento de lesiones, medicamentos suministrados y diagnóstico de desempeño, con el fin de conformar un completo historial médico de cada jugador”, destacó Jorge Contreras, experto de analíticos de negocio para SAP.

Muestra de Sports One de SAP con el Club América.
Muestra de Sports One de SAP con el Club América.

Finalmente, la colaboración de ambas empresas es de forma indefinida, los resultados que empezarán a arrojar los jugadores se mostrarán a partir de la Jornada 5 ante el Club Monarcas, parte de la información se ingresará a la plataforma a través de tabletas en cancha, dado a que la FIFA no permite que los jugadores porten un dispositivo de seguimiento, como ocurre en otros deportes.

 

Gerardo Esquivel, Computerworld México.

Big data: Cambiando el panorama de la base de datos

Cuando se menciona la palabra “base de datos”, la mayoría de la gente piensa en los venerables IRDBMS que han dominado durante más de 30 años. Ese panorama, sin embargo, podría cambiar próximamente.

Dado el nacimiento de nuevos competidores interesados por un pedazo de este mercado empresarial clave, y si bien sus enfoques son diversos, la mayoría comparte una cosa en común: un enfoque agudo en big data.

Gran parte de lo que está impulsando esta nueva proliferación de alternativas es lo que se conoce comúnmente como las “tres de V” subyacente en big data: volumen, velocidad y variedad.

En esencia, los datos de hoy están llegando a nosotros de forma más rápida, y en mayor volumen que nunca además destacar que son más diversos. En otras palabras, es un nuevo mundo de datos y los sistemas de gestión de bases de datos relacionales tradicionales no fueron realmente diseñados para ello.

“Básicamente, no pueden escalar a big data, o a datos rápidos y diversos”, señala Gregory Piatetsky-Shapiro, presidente de KDnuggets, una consultora de análisis y datos científicos.

Big-Data-tres-v

Eso es lo que Harte Hanks encontró recientemente. Hasta el 2013 más o menos, la agencia de servicios de marketing estaba usando una combinación de diferentes bases de datos incluyendo Microsoft SQL Server y Oracle Real Application Clusters (RAC).

“Notamos que, con el crecimiento de los datos en el tiempo, nuestros sistemas no podían procesar la información lo suficientemente rápido”, anota Sean Iannuzzi, director de tecnología y desarrollo de la compañía. “Si continúa comprando servidores, solo puede seguir hacia adelante por el momento. Queríamos asegurarnos de que teníamos una plataforma que podría escalar hacia el exterior”.

Minimizar las interrupciones fue un objetivo clave, anota Iannuzzi, por lo que “no podíamos cambiarnos a Hadoop”.

En su lugar, optó por Splice Machine, que esencialmente coloca una base de datos SQL completa en la parte superior de la popular plataforma de big data de Hadoop, y permite que las aplicaciones existentes se conecten con ella, comenta.

Harte Hanks se encuentra ahora en las primeras etapas de implementación, pero ya está viendo los beneficios, añade Iannuzzi, incluyendo la mejora de la tolerancia a fallas, alta disponibilidad, redundancia, estabilidad y “mejoras de rendimiento en general”.

Hay una especie de tormenta perfecta impulsando la aparición de nuevas tecnologías de bases de datos, indica Carl Olofson, vicepresidente de investigación de IDC.

En primer lugar, “el equipo que estamos utilizando es capaz de manejar grandes colecciones de datos con mayor flexibilidad y más rápido que en el pasado”, señala Olofson.

En los viejos tiempos, tales colecciones “prácticamente tuvieron que ser puestas en discos”, y los datos tuvieron que ser estructurados de una manera particular, explica.

Ahora hay 64 bits de direccionamiento, por lo que es posible crear espacios más grandes de memoria, así como redes mucho más rápidas y la capacidad de afinar varios equipos juntos para que actúen como grandes bases de datos individuales.

“Esas cosas han abierto posibilidades que no estaban disponibles antes”, agrega Olofson.

Las cargas de trabajo, por su parte, también han cambiado. Mientras que hace 10 años los sitios web eran en gran parte estáticos; hoy en día tenemos entornos de servicios web en vivo y experiencias de compras interactivas. Eso, a su vez, exige nuevos niveles de escalabilidad, indica el ejecutivo.

Las empresas también están utilizando los datos de nuevas formas. Mientras que tradicionalmente la mayor parte de nuestra atención se centraba en el procesamiento de transacciones -grabar cuánto vendimos, por ejemplo, y almacenar los datos en el lugar para que puedan ser analizados- hoy estamos haciendo mucho más.

La administración del estado de la aplicación es un ejemplo.

Digamos que está jugando un juego en línea. La tecnología debe registrar cada sesión que tiene con el sistema y conectarlas entre sí para presentar una experiencia continua, incluso si cambia de dispositivo, o los diversos movimientos que realice, son procesados por diferentes servidores, explica Olofson.

Esos datos se deben hacer persistente para que las empresas puedan analizar preguntas como “¿por qué nadie cruza la sala de cristal”, por ejemplo. En un contexto de compras en línea, una contraparte podría ser ¿por qué más personas no están comprando una determinada marca de zapato, después de hacer clic en las opciones de color?

“Antes no estábamos tratando de resolver esos problemas, o -si lo estábamos- tratábamos de sacarlos de una caja en la que no cabían”, indica Olofson.

hadoop-big-data-elephant_in_words

Podemos resaltar que Hadoop es un peso pesado entre los nuevos contendientes de hoy. Aunque no es una base de datos en sí, ha crecido para llenar un papel clave para las empresas que abordan big data. Esencialmente, Hadoop es una plataforma centrada en los datos para ejecutar aplicaciones altamente “paralelizadas”, y es muy escalable.

Al permitir que las empresas escalen “fuera” en forma distribuida en lugar de escalar “arriba” a través de costosos servidores adicionales, “es posible reunir una colección grande de datos y luego ver lo que tiene, de una forma barata”, señala Olofson.

Entre otras nuevas alternativas RDBMS está la familia de ofertas NoSQL, incluyendo MongoDB -actualmente el cuarto sistema de gestión de base de datos más popular, según DB-Motores- y MarkLogic.

“Relacional ha sido una gran tecnología durante 30 años, pero fue construida en una época diferente con diferentes limitaciones tecnológicas y diferentes necesidades del mercado”, señala Joe Pasqua, vicepresidente ejecutivo de productos MarkLogic.

Big data no es homogéneo, añade, sin embargo, en muchas de las tecnologías tradicionales, sigue siendo un requisito fundamental.

“Imagine que el único programa que tenía en su computadora portátil era Excel”, comenta Pasqua. “Imagine que desea hacer un seguimiento de la red de amigos -o está escribiendo un contrato: Eso no encaja en filas y columnas”.

Combinar los conjuntos de datos puede ser particularmente difícil.

“Relacional dice que antes de juntar todos esos conjuntos de datos, tiene que decidir cómo va a alinear todas las columnas”, añade. “Podemos tomar cualquier formato o estructura y comenzar a usarla de inmediato”.

Las bases de datos NoSQL no utilizan un modelo de datos relacional, y por lo general no tienen interfaz SQL. Mientras que muchas tiendas NoSQL comprometen la coherencia en favor de la velocidad y otros factores, MarkLogic lanza su propia oferta como una opción más consistente a medida de las empresas.

Hay un crecimiento considerable para el mercado NoSQL, según Market Research Media, pero no todo el mundo piensa que sea el enfoque correcto -por lo menos, no en todos los casos.

Los sistemas NoSQL “resuelven muchos problemas con su arquitectura escalable, pero sacaron SQL”, comenta Monte Zweben, CEO de Splice Machine. Eso, a su vez, plantea un problema para el código existente.

Splice Machine es un ejemplo de una clase diferente de alternativas conocidas como NewSQL -otra categoría que espera un fuerte crecimiento en los próximos años.

“Nuestra filosofía es mantener SQL, pero agregando la arquitectura escalable”, añade Zweben. “Es hora de algo nuevo, pero estamos tratando de hacerlo de tal modo que la gente no tenga que volver a escribir sus cosas”.

Deep Information Sciences también ha optado por seguir con SQL, pero aún necesita un nuevo enfoque.

La base de datos DeepSQL de la compañía utiliza la misma interfaz de programación de aplicaciones (API) y el modelo relacional de MySQL, lo que significa que no se requieren cambios en las aplicaciones con el fin de usarla. Pero aborda los datos de una manera diferente, utilizando el aprendizaje automático.

DeepSQL puede adaptarse automáticamente a huéspedes físicos, virtuales o en la nube utilizando cualquier combinación de carga de trabajo, según la compañía, eliminando así la necesidad de una optimización de bases de datos manual.

Entre los resultados está un considerable incremento del rendimiento, así como la capacidad de escalar “en los cientos de miles de millones de filas”, señala Chad Jones, director de estrategia de la compañía.

Un enfoque completamente diferente viene de Algebraix Data, que dice que ha desarrollado la primera fundación de verdad matemática para los datos.

Mientras que el hardware se modela matemáticamente antes de que sea construido, ese no es el caso con el software, señala el CEO de Algebraix, Carlos Silver.

“El software, y en especial los datos, nunca se han construido sobre una base matemática”, añade. “EL software ha sido en gran parte una cuestión de lingüística.”

Tras cinco años de investigación y desarrollo, Algebraix ha creado lo que llama una “álgebra de los datos” que se nutre de la teoría matemática de “un lenguaje universal de los datos”, agrega Silver.

“El pequeño y sucio secreto de big data es que los datos todavía se asientan en pequeños silos que no encajan con otros datos”, explica Silver. “Hemos demostrado que todo se puede representar matemáticamente, por lo que todo se integra”.

Equipado con una plataforma construida sobre ese fundamento, Algebraix ahora ofrece analíticas como un servicio para las empresas comerciales. La mejora del rendimiento, la capacidad y la velocidad están entre los beneficios que promete Algebraix.

El tiempo dirá qué nuevos contendientes tienen éxito y cuáles no, pero mientras tanto, los líderes de toda la vida, como Oracle, no están precisamente de pie.

“El software es una industria muy a la moda”, señala Andrew Mendelsohn, vicepresidente ejecutivo de Oracle Database Server Technologies. “Las cosas a menudo van de lo popular a lo impopular, y vuelven a lo popular otra vez”.

Muchos de los emprendimientos actuales están “trayendo de vuelta el mismo equipo viejo con un poco de pintura encima”, señala. “Es una nueva generación de niños que salen de la escuela y reinventan las cosas”.

SQL es “el único lenguaje que permite a los analistas de negocio hacer preguntas y obtener respuestas, sin la necesidad de tener que ser programadores”, anota Mendelsohn. “El gran mercado será siempre relacional”.

código-sql

En cuanto a los nuevos tipos de datos, los productos de base de datos relacionales evolucionaron para apoyar nuevamente los datos no estructurados en la década de 1990, anota. En el 2013, la base de datos del mismo nombre de Oracle, ha añadido soporte para JSON (JavaScript Object Notation) en la versión 12c.

En lugar de necesitar un tipo diferente de base de datos, es más un cambio en el modelo de negocio que impulsa el cambio en la industria, agrega Mendelsohn.

“La nube es el lugar a donde todo el mundo va, y va a alterar estos pequeños muchachos”, indica. “Los grandes ya están todos en la nube, así que ¿dónde habrá espacio para estos pequeños?

“¿Irán a la nube de Amazon y competirán con Amazon?” añade. “Eso va a ser difícil”.

Oracle tiene “el más amplio espectro de servicios en la nube”, anota Mendelsohn. “Nos sentimos bien sobre dónde estamos posicionados en la actualidad”.

Rick Greenwald, director de investigación de Gartner, se inclina a tomar un punto de vista similar.

“Las alternativas más nuevas no son tan completamente funcionales y robustas como las IRDBMSes tradicionales”, indica Greenwald. “Algunos casos de uso se pueden abordar con los nuevos contendientes, pero no todos, y menos con una tecnología”.

De cara al futuro, Greenwald espera que los proveedores tradicionales de IRDBMS sientan cada vez mayor presión sobre los precios, y le añadan nuevas funcionalidades a sus productos. “Algunos traerán nuevos contendientes libremente a su ecosistema global de gestión de datos”, anota.

Sobre a los nuevos talentos, unos pocos sobrevivirán, predijo, pero “muchos serán o bien adquiridos o se quedarán sin financiación”.

“Las nuevas tecnologías de hoy en día no representan el final de las IRDBMS tradicionales, que están evolucionando rápidamente”, agrega Olofson de IDC. “IRDBMS es necesario para los datos bien definidos, siempre habrá un papel para eso”.

Pero también habrá un papel para algunos de los contendientes más nuevos, añade, sobre todo porque la Internet de las cosas y las tecnologías emergentes, como el módulo de memoria no volátil dual en línea (NVDIMM, por sus siglas en inglés) se afianzarán.

Finalmente, habrá numerosos problemas que requieren numerosas soluciones, añade Olofson. “Hay muchas cosas interesantes para todos”.

-Katherine Noyes, IDG News Service

¿Qué proveedores de nube ofrecieron el “mejor uptime” en 2014?

uptime-monitorAmazon Web Services y Google Cloud Platform registraron impresionantes estadísticas sobre la confiabilidad de sus nubes públicas de basadas en Infraestructura como Servicio (IaaS) en el 2014. Ambos proveedores se aproximaron a lo que algunos consideran el Santo Grial de la disponibilidad: los “cinco nueves”.

Retrocedamos al 2012 y veremos que los críticos se quejaron que la nube estaba plagada de caídas, desde aquella caída que afectó a Reddit y a muchos otros sitios, hasta el fiasco de vísperas de Navidad que impactó en Netflix. La historia fue diferente el año pasado.

CloudHarmony, firma de seguimiento de sitios web, monitorea la frecuencia con la que un grupo de más de cuatro docenas de proveedores de nube experimentan caídas en sus servicios. La compañía tiene un servidor web en cada una de las nubes de estos proveedores y registra los momentos en los que no está disponible el servicio, registrando tanto el número como la duración de las caídas. Este método no es perfecto, pero ofrece una buena idea de cómo están trabajando los proveedores. Y en general, los proveedores lo están haciendo bien y están mejorando.

¿Quién fue quién en 2014?

Amazon y Google destacaron en particular. La Elastic Compute Cloud (EC2) de Amazon registró 2.41 horas de downtime en 20 caídas en el 2014, lo cual significa que funcionó en el 99.9974% del tiempo. Dado el tamaño de AWS –Gartner predijo el año pasado que Amazon tenía un sistema distribuido que es cinco veces más grande que sus competidores– estas cifras son impresionantes.

Quizás incluso más impresionante es el uptime del servicio de almacenamiento de la Google Cloud Platform, el cual experimentó 14 minutos de downtime en todo el 2014, de acuerdo con CloudHarmony. Eso significa un porcentaje de uptime de 99.9996%.

“Los actores mejor establecidos están afinando sus sistemas y se están haciendo muy estables”, señaló Jason Read, CEO de CloudHarmony (ver los datos completos aquí). AWS ha estado proporcionando servicios de nube más tiempo que cualquier otro del mercado y Google utiliza su actual infraestructura para su nube, por lo que también tiene un prolongado registro de tiempo administrando un sistema distribuido confiable”.

cloud-uptime-flechasProblemáticas que debieron superar

A pesar de todo esto, los proveedores de nube tuvieron problemas en el 2014. Alrededor del 10% de las instancias EC2 de AWS tuvieron que ser rebootedas luego de que se identificara una vulnerabilidad Xen el pasado otoño. Rackspace también necesitó hacer un gran reboot, y Microsoft tuvo una interrupción en su servicio de almacenamiento en noviembre. Verizon ha comenzado el 2015 diciendo a sus clientes que su nube estará fuera de servicio por hasta 48 horas este mes por mantenimiento programado.

La caída de Microsoft contribuyó para que el año fuera difícil para Azure en términos de disponibilidad. En el campo de la computación, Azure experimentó 92 caídas totalizando 39.77 horas. Su plataforma de almacenamiento tuvo 141 caídas, un total de 10.97 horas. En comparación, la plataforma de almacenamiento de AWS tuvo 23 caídas y 2.69 horas de downtime. Microsoft no ofreció comentarios para este artículo.

¿Se llegará a los “cinco nueves”?

La mayoría de los proveedores parecen estar mejorando sus plataformas, pero ¿podrá algún día la nube llegar al punto de ofrecer los “cinco nueves” de disponibilidad que ofrecen los carriers?

Donnie Berkholz, analista senior de la consultora RedMonk, señala que al mirar con cuidado los datos de CloudHarmony se puede ver que algunos proveedores ya están logrando los “cinco nueves”.

Google, por ejemplo, lo está haciendo con su plataforma de almacenamiento. Algunas de las regiones de AWS –CloudHarmony monitorea múltiples regiones en la nube de AWS– tuvieron sólo unos cuantos minutos o cero downtime el año pasado, y esto logra “cinco nueves”.

Todo parece indicar que, cada año que pasa, con el incremento en el tamaño, los proveedores de nube se vuelven mejores en la oferta de sus servicios. Pero hay otra tendencia interesante, señala Berkholz, y es que los usuarios podrían estar aprendiendo de las caídas.

Algunos proveedores de nube –Microsoft Azure y el relativamente nuevo Digital Ocean, por ejemplo– son populares a pesar de no tener fantásticos uptimes en el 2014 (Azure tuvo 39 horas de downtime mientras que CenturyLink tuvo 26 horas y Digital Ocean tuvo 16). “La frecuencia de las caídas, dentro de un cierto rango, no es un obstáculo para la adopción de un proveedor de nube”, escribió Berkholz en un correo electrónico. “La pregunta entonces no es cuál proveedor es el mejor, sino cuál es el límite de los que los clientes consideran aceptable”.

¿Cómo prepararse ante una caída?

Hay muchas maneras para que los usuarios se preparen para una caída de la nube: no alojar cargas de trabajo en un solo lugar; usar herramientas para transferir el tráfico desde los servidores con problemas; evaluar frecuentemente el sistema en cuanto a su tolerancia a fallas, etcétera.

Quizás los usuarios están prestando atención a estas mejores prácticas. O quizás no están colocando material confidencial en la nube que podría afectarse con una caída. Y es que tanto los proveedores de nube como los usuarios parecen mejorar la provisión y uso de estos servicios.

-Brandon Butler, Network World

Hay 29 millones de especialistas TIC en el mundo

IDC Trabajadores TIC en el mundoAhora que nos dirigimos hacia el 2014, IDC presentó su estudio2014 Worldwide Software Developer and ICT-Skilled Worker Estimates, sobre la población de desarrolladores de software y trabajadores del TIC. La firma estima que hay unos 18.5 millones de desarrolladores de software en el mundo, de los cuales unos 11 millones son profesionales y 7.5 millones son desarrolladores por hobby.

También señala que existen 29 millones de trabajadores especializados en tecnologías de la información, incluyendo los desarrolladores de software profesionales y 18 millones de trabajadores especializados en la operación y administración de tecnologías de la información y comunicaciones en todo el orbe.

“El análisis uno a uno de los 90 países más desarrollados del mundo, que representa el 97% del PIB del mundo es único en la industria, pues proporciona el único modelo de abajo-arriba de los trabajadores especializados en TIC y desarrolladores del mundo”, explicó Al Hilwa, Director de Programa de Application Development Software, de IDC.

Los resultados obtenidos muestran que el 19% de los desarrolladores de software están en Estados Unidos (tanto profesionales como por hobby), seguido por China con el 10% e India con el 9.8%. Estados Unidos también representa el 22% de los trabajadores especializados en TIC en el mundo, seguido por India con el 10.4% y China con el 7.6%.

“Se espera que el número de desarrolladores y trabajadores especializados en TIC crezca en los próximos años, pero los cambios en cómo se suministran las tecnologías de la información mediante servicios en la nube, favorecerán el crecimiento de los desarrolladores sobre los trabajadores especializados en TIC”, afirmó Hilwa.

Además, dijo que la población de desarrolladores por hobby está creciendo rápidamente, potenciado por la revolución móvil.

Este informe es el primero en el que IDC analiza y estima la población de desarrolladores por hobby, que IDC define de forma amplia como “estudiantes o trabajadores que están involucrados en una actividad de desarrollo de forma regular, pero fuera del contexto de su ocupación primaria”.