Del dia, Industria, Industria, Industria TIC, Open Source, Sistemas Operativos, SOA

#UnDíaComoHoy Bill Gates es el primero en atacar la piratería de software

bill gatesLa piratería de software se ha vuelto un tema cotidiano, prácticamente ninguna empresa dedicada a este ramo se salva de sufrir de robo de licencias. Es por ello que un día como hoy 03 de febrero pero de 1976, un joven programador de 21 años cansado de este tema fue el primero en atacar públicamente la piratería de software, se trató de nada menos que Bill Gates.

El joven programador, quien con los años se volvería unas de las grandes figuras dentro del mundo de la tecnología, había fundado Microsoft tan sólo un año antes, y ya se veía en grandes problemas ocasionados por la piratería de software, estimando que más del 90% de su uso era bajo robo de licencia.

Llegó a tal nivel el número de softwares de la compañía pirateados, que los usuarios e incluso algunos expertos afirmaban que le saldría más barato a la compañía apostar por el software libre, pero, Gates plasmó su frustración en una carta abierta titulada ‘An Open Letter to Hobbyists‘, donde respondía a esto de una manera energética, dirigida a los acusados de copiar y robar el software, afirmando que el software libre no era una opción.

“Hace casi un año, Paul Allen y yo, teniendo la expectativa de que el mercado del hobby iba a crecer, contratamos a Monte Davidoff y desarrollamos Altair BASIC. El trabajo en principio sólo tomó dos meses, pero nos pasamos los tres casi todo el año pasado documentando, mejorando y añadiendo características al BASIC. Ahora tenemos 4K, 8K, EXTENDED, ROM y DISK BASIC. El valor del tiempo que pasamos delante de la PC supera los 40,000 dólares,” aseveró.

Sin embrago, el joven Gates afirmó que la gran mayoría de estos usuarios nunca habían comprado BASIC, lo que afectó en las comisiones recibidas, mismas que eran bajas culpando a los piratas. Además, afirmaba en su carta que con estas prácticas lo único que conseguía el usuario que adquiría software en este medio era frenar el desarrollo de buen software.

“Nunca desarrollaré software libre, eso es seguro. Nada me complacerá más que poder contratar a 10 programadores e inundar el mercado inundado de aficionados con un buen software.” Afirmaba Gates.

Gates destacó en esa época por ser el primer empresario en atacar el tema de la piratería con su carta abierta, sin embargo, el robo de software es un tema que escuchamos prácticamente toda la vida, y por más que diferentes compañías han querido hacer lo suyo para frenar esta práctica, en realidad poco se ha logrado.

 

-Karina Rodríguez, Computerworld México.

Leer más...

Aplicaciones, Del dia, Desarrollo, Destacado, Open Source, Sistemas Operativos, SOA, Tecnologia

¿Cómo optimizar el uso de software libre en la empresa?

seguridad-desarrollo-software-programasEl software libre, consolidado ya como alternativa de referencia, está presente en un gran porcentaje de empresas. Una serie de factores clave puede ayudar a maximizar sus beneficios.

Por un lado, el compromiso. Si la empresa decide llevar a cabo su proyecto acompañada de un socio tecnológico, es recomendable buscar siempre empresas involucradas en el desarrollo del software libre, con la experiencia y el conocimiento suficientes para asistirles en el proceso. Identificar proveedores que entiendan el software libre y sus dinámicas de participación permite aprovechar mejor las libertades que proporciona.

También habrá que invertir en formación y experiencia. Invertir en conocer los productos libres usados o rodearse de proveedores de confianza que realicen esta inversión. Al poder acceder al código fuente es más fácil y rápido conocer el potencial del producto y construir sobre el mismo. Sin embargo, es fácil caer en la idea de que cualquiera puede resolver problemas en entornos críticos, tanto por la propia empresa como terceros. No es así: la formación, cercanía con el producto y su fabricante (cuando exista), experiencia en proyectos anteriores y contar con personal certificado se hace indispensable para garantizar el éxito de los proyectos, tanto para la empresa como para sus proveedores.

No hay que olvidar la objetividad. Hay que evaluar los proyectos de software libre en base a datos objetivos, conociendo la evolución del producto y su contribuidores, su nivel de colaboración y apertura, su ecosistema de servicios locales. Ya que esta modalidad de software da acceso a toda la información acerca del producto y es 100% auditable. “Las compañías han de valerse de ello para obtener todos los datos necesarios que les permitan evaluar si responde a sus necesidades”, comenta Jorge Ferrer, vicepresidente de Ingeniería de Liferay.

Es importante desarrollar el proyecto sin modificar el código fuente, de esta forma siempre podrán beneficiarse de las aportaciones de toda la comunidad a largo plazo y su mantenimiento será más sencillo. Y, si lo modifican, reportarlo para que retorne en beneficio de todos los usuarios del producto. Las mejoras comunes serán más útiles y siempre permitirán que las nuevas versiones de producto respondan a nuestros requerimientos.

Por último, Liferay recomienda participar con tareas simples que aporten beneficios rápidos a la empresa (como notificar potenciales bugs, aportar ideas, mejorar la documentación o contribuir con pequeñas mejoras) permite alinear la evolución del producto con nuestras necesidades. Las empresas deben tener en cuenta al abordar cualquier proyecto de software libre que, si requieren soporte, la calidad del mismo es una nota reseñable.

 

-Computerworld

Leer más...

Administración de datos, Del dia, Destacado, Infraestructura, Infraestructura, News, SOA, Tecnologia

Software-Defined Everything: Innovación y cambio en el área TI

Software-Defined EverythingLa tendencia se caracteriza por la primacía del software respecto del hardware, lo que incide en costos flexibles y mayor agilidad general de las TI. Especialistas analizaron sus implicaciones y futuro.

 

“Tenemos que prepararnos para este cambio y esto tiene que ver con mucho más que sólo con la tecnología en sí misma”, advirtió David Iacobucci, gerente comercial de Level 3 al exponer de las tendencias en el área TI, donde Software-Defined Everything” se alza como un cambio de paradigma.

 

Compatibilizar la necesidad de innovar permanentemente para enfrentar la presión competitiva de disponer de plataformas tecnológicas aptas para soportar requerimientos cada vez más demandantes pero que, a la vez, estén completamente alineadas con los ciclos de negocios de cada organización es la promesa que está materializándose con la tendencia conocida como “Software-Defined Everything” (SDE) o “Todo Definido por Software”.

 

Un panel de expertos analizó el  impacto que tendrá en las empresas la consolidación de este nuevo paradigma en el uso y aplicación de las nuevas tecnologías. Los oradores destacaron, tanto desde perspectivas técnicas como de negocios, el significado de la tendencia, cuya premisa esencial es desacoplar el hardware del software, lo que permite a las organizaciones romper los límites presupuestarios y de administración que tiene su infraestructura tecnológica tradicional para abrirse a una verdadera innovación, ya que dota a las organizaciones de tecnologías en formas de servicios bajo demanda, con mayor agilidad para transformar y optimizar sus procesos, servicios y productos.

 

Iacobucci destacó a la virtualización como uno de los ejes que ha posibilitado una mayor eficiencia y ahorro de costos en la infraestructura tecnológica y que hoy, al consolidarse, promete transformar las redes y los centros de datos. “En estos momentos, con SDE estamos hablando de cómo pasar el control de una capa básica a una capa de usuario. Propone mejorar los estándares, capacidad de interacción y la programabilidad de los servicios”, subrayó.

 

El ejecutivo de Level 3 destacó los componentes principales que, desde el punto de vista técnico, emergen hoy dentro de  SDE: Software-Defined Infrastructure (SDI), Software-Defined Data Center (SDDC), Software-Defined Networking (SDN) y Software-Defined Storage (SDS).

 

Pablo García, senior manager data center de Level 3, en tanto, se refirió al impacto concreto de SDE en las áreas de TI de las empresas. “Antes eran inseparables los sistemas operativos, las aplicaciones y el hardware. Hoy esta evolución significa que la capa del software es independiente y, en tanto representa la inteligencia del negocio, podemos decir que con SDE las áreas de TI no sólo están más alineadas con el negocio sino que pasan a ser parte del negocio”, enfatizó García.

 

En ese contexto, destacó la participación en el Foro Level 3 del biólogo y epistemólogo Humberto Maturana, quien en su charla “Innovación: Cambio o Transformación” reflexionó sobre las implicancias conceptuales que supone la decisión de innovar al interior de las organizaciones, lo cual se verá enormemente facilitado a partir de las posibilidades que abre esta disruptiva tendencia de la industria de TI.

 

Maturana se refirió al valor y significado de la innovación, afirmando que en las organizaciones, tal como acontece con los seres vivos en donde lo central es la conservación del vivir, hay algo que perdura y se mantiene. “Al innovar siempre se conserva algo. Siempre que existe innovación hay una variación de algo que había antes. Para innovar tenemos que definir qué queremos conservar y qué es lo que queremos, porque según lo que conservemos se definirá lo que va a cambiar”, sentenció el biólogo y Premio Nacional de Ciencias.

 

-Francisco Carrasco, CIO America Latina

Leer más...

Del dia, Destacado, Infraestructura, Procesos, Redes, Sistemas Operativos, SOA, Tecnologia

¿Es seguro el software de código abierto?

Open Source SoftwareEl fiasco de Heartbleed de OpenSSL demuestra sin lugar a dudas lo que muchos han sospechado durante mucho tiempo: El hecho de que el código de fuente abierta esté disponible para su inspección, no quiere decir que en realidad esté siendo inspeccionado y sea seguro.

 

Es un punto importante, ya que la seguridad del software de código abierto se basa en un gran número de programadores bien informados que investigan el código para erradicar y corregir los errores rápidamente. Esto se resume en la ley de Linus: “Con suficientes ojos, todos los errores son superficiales”.

 

Pero fíjese en lo que pasó con OpenSSL. Robin Seggelemann, un programador alemán de la Universidad de Munster, actualiza el código OpenSLL añadiendo una nueva función de mantenimiento de conexión ‘Heartbeat’. Por desgracia, perdió una validación necesaria en su código para comprobar que una variable en particular tuviera un valor realista. Al miembro del equipo de desarrollo de OpenSSL, que protegió el código antes de que se publicara la actualización, también se le perdió. Eso causó el error Heartbleed.

 

Un crítico, incluso un puñado de críticos, puede olvidar fácilmente una vulnerabilidad como ésta si no saben que hay un error encontrar. Lo que es preocupante es que, durante dos años, existió el error Heartbleed en OpenSLL, en los navegadores y servidores web, sin embargo, nadie en la comunidad de código abierto lo descubrió. No fueron suficientes los ojos que examinaron el código.

 

Los proveedores comerciales no revisan el código abierto

También es alarmante que OpenSSL fuera utilizado como componente en productos de hardware ofrecidos por los proveedores comerciales tales como F5 Networks, Citrix Systems, Riverbed Technology y Barracuda Networks; los cuales no pudieron examinar el código de manera adecuada antes de usarlo, de acuerdo con Mamoon Yunus, CEO de Forum Systems, un proveedor de puerta de enlace segura para la nube.

 

“Se podría pensar que era mi responsabilidad como proveedor, si yo comercializo OpenSSLl”, señala. “Usted tiene que tener un nivel de apropiación del código si construye una empresa basada en un componente de código abierto”.

 

En su lugar, Yunus cree que los proveedores solo consideran a OpenSSL como un ‘bolt-on’ útil para sus productos de hardware -y, puesto que era de código abierto, se supone que otras personas estarían examinando el código. “Todo el mundo asumió que otros globos oculares estaban mirando. Tomaron la actitud de decir que fijarse en el código era responsabilidad de un millón de otras personas, así que no era culpa de ellos”, añade. “Ahí es donde aparece la negligencia desde un ángulo del código abierto”.

 

Yunus sugiere que los proveedores comerciales deben ejecutar programas eficaces de revisión de pares para cualquier código de fuente abierta que utilicen, ejecutar herramientas de análisis estático y dinámico sobre él y “difuminar” el código para asegurarse de que está lo más libre de errores como sea posible. “¿Qué han estado haciendo estas empresas en los últimos 10 o 15 años? Si yo fuera ellos, estaría tomando una larga y dura mirada a los procesos de control de calidad”.

 

Incluso, Yunus se pregunta si OpenSSL debió ser escrito en un lenguaje de un relativo bajo nivel como C, haciendo eco del experto en seguridad Bruce Schneier, que sugiere que esto podría ser visto como “negligencia criminal”: usar un lenguaje que carece de gestión de la memoria en una aplicación sensible como la seguridad.

 

Jeffrey Hammond, analista de seguridad de Forrester Research, contradice esta opinión. Señala que el rendimiento es un atributo clave de OpenSSL, ya que tiene que lidiar con grandes volúmenes de paquetes. “Si tiene acceso a la memoria va a estar abierto a algunos ataques, pero obtiene el rendimiento que desea”, señala Hammond. “Yo no diría que nunca se debió desarrollar OpenSSL en C, pero es cierto que con el rendimiento viene la responsabilidad”.

 

OpenSSL y TrueCrypt muestran los límites de la revisión del código abierto

Uno de los problemas que enfrentan muchos proyectos de código abierto -y la razón por la que es difícil culpar a Seggelemann o el resto del equipo OpenSSL- es que realizar un examen riguroso de código de seguridad consume mucho tiempo y requiere un alto nivel de habilidad. Eso significa que es muy caro.

 

Esto se ilustra por otro proyecto de código abierto: El programa de cifrado TrueCrypt. El código es abierto para cualquier persona interesada desde que comenzó el proyecto hace 10 años – pero es solo muy recientemente, a raíz de las campañas de recaudación de fondos en Indiegogo y Fundfill que inyectaron 60 mil dólares, que el código ha sido objeto de una auditoría adecuada de seguridad.

 

Un reporte inicial, sobre solo el controlador del núcleo de Windows y el gestor de arranque en el programa identificó 11 vulnerabilidades, indicó que la calidad del código fuente era mala y señaló que la compilación de la fuente de TrueCrypt requiere el uso de herramientas de construcción anticuadas (en algunos casos con 21 años de edad) y sin formas que podrían ser modificadas maliciosamente y que son difíciles de acceder desde fuentes confiables.

 

Los auditores del código señalaron: “En general, el código fuente tanto para el gestor de arranque y el controlador del núcleo de Windows no cumplieron las normas previstas para un código seguro”.

 

Lo que es preocupante es que esto sólo salió a la luz después de que se elevaron los costos para contratar los recursos con el fin de llevar a cabo una revisión de código. La comunidad de código abierto tuvo muchas oportunidades de hacer esto durante los últimos 10 años -pero la verdad es que la comunidad no tiene el tiempo, las habilidades o los recursos (incluyendo dinero) para hacer el trabajo correctamente.

 

Un nuevo problema afectará a la seguridad de OpenSSL en el futuro: El código está siendo bifurcado, gracias a una iniciativa llamada LibreSSL dirigida por el equipo OpenBSD. LibreSSL pretende ser una versión simplificada de OpenSSL; en la primera semana del proyecto se eliminaron más de 90 mil líneas de código, incluyendo los sistemas operativos de apoyo como VMS y OS/2.

 

El problema es simple: Ya que es fácil ver lo que está siendo retirado de LibreSSL, y qué bits están siendo reemplazados a medida que se consideran inseguros, los usuarios de OpenSSL quedan expuestos a los hackers maliciosos que pueden explotar las debilidades que LibreSSL descubre y elimina -a menos que el proyecto OpenSSL pueda mantenerse al día con el progreso de LibreSSL.

 

La seguridad por oscuridad nunca es una buena idea, pero una vez que las vulnerabilidades se hacen públicas, tienen que arreglarse de inmediato. No está claro si el equipo de OpenSSL está en condiciones de hacer eso -se dice que el proyecto tenía solo a una persona de mantenimiento a tiempo completo- o que el software y hardware que utilizan OpenSSL necesariamente serán actualizados puntualmente, incluso si el software OpenSSL en sí lo está.

 

Tomando en serio la seguridad del código abierto después de Heardbleed

La buena noticia para quienes se preocupan por la seguridad de los proyectos de código abierto como OpenSSL es que la ayuda podría estar en camino en forma de la Iniciativa de la infraestructura principal (CII por sus siglas en inglés), un nuevo proyecto fundado por la Fundación Linux en respuesta a Heartbleed. Su objetivo es canalizar el dinero necesario para los proyectos de software como OpenSSL, que son críticos para el funcionamiento de Internet.

 

“Nuestra economía global está construida en la cima de muchos proyectos de código abierto”, señala Jim Zemlin, director ejecutivo de la Fundación Linux. “Ahora vamos a ser capaces de apoyar a los desarrolladores y mantenedores adicionales para trabajar a tiempo completo en el soporte a otros proyectos esenciales de código abierto”.

 

El apoyo de la CII también puede incluir el financiamiento de auditorías de seguridad, la informática y la infraestructura de prueba. Hasta el momento, se han comprometido cerca de cuatro millones de dólares durante los próximos tres años por empresas como Google, Microsoft y Facebook.

 

Paul Rubens, CIO USA

Leer más...

Del dia, Desarrollo, Infraestructura, SOA

¿Crear o comprar soluciones? ¿Cuál es la mejor opción para los intereses de la compañía?

 

Muchas compañías reconocen el beneficio y las ventajas de adquirir una solución de industria desarrollada por una empresa de software de producto, en vez de producir “in house” una aplicación para administrar el corazón de su negocio.

 

Al encontrarse con la disyuntiva de crear o comprar, un CIO debe evaluar muchas variables al momento de escoger la mejor opción para los intereses de la compañía, involucrando el análisis de todos los procesos de negocio y productividad.

 

En el caso del desarrollo propio se debe evaluar: el costo que conlleva la herramienta a través de los años, la obsolescencia tecnológica que puede tener un desarrollo propio, la capacidad y conocimiento que tengan sus profesionales IT para adaptar y desarrollar sobre la solución que están creando, además del manejo, administración, soporte y mantenimiento de la tecnología informática.

 

Por otra parte uno de los mayores temores que enfrenta un CIO al momento de valorar una solución de industria lista para usar, es su adaptabilidad a la realidad del negocio o si por el contrario es la empresa la que debe  adaptarse a la herramienta. Debe además valorar sus procesos de negocios, las necesidades presentes y oportunidades futuras.

 

Analizar el Costo Total de Propiedad (TCO, por sus siglas en inglés), de una herramienta tecnológica, ayuda a determinar la oportunidad más favorable para una compañía y facilita a los administradores IT  a tomar las decisiones más convenientes para la empresa.

 

Pedro Ordoñez, Consultor de Industria de Open International Systems afirma “La solución de industria tiene muchas más ventajas que el desarrollo “in house”. El costo total de propiedad  de una aplicación hecha en casa puede llegar a ser mayor que el de una solución de industria y sobretodo este valor se pierde en el tiempo. Una buena evaluación del TCO ayuda a revisar propuestas que parecen una alternativa más económica, pero que en el tiempo son mucho más costosas. Cuando se evalúan los costos operacionales de desarrollo, mantenimiento y productividad, la pregunta clave es: ¿dedico recursos a desarrollar algo que ya está desarrollado, o concentro mis esfuerzos en hacer crecer el negocio, con lo mejor que me ofrece el mercado en soluciones de industria?”

 

Ordoñez nos habla de los costos a tener en cuenta al momento de evaluar, desde el TCO, si es mejor crear o comprar:

 

Costo de Operar: Son los costos de la infraestructura y las operaciones necesarias para llevar al software al nivel requerido de rendimiento, facilidad de uso y disponibilidad. Una solución de industria viene optimizada para maximizar su rendimiento.

Costo para apoyar y mantener: Aparte de desarrollar, con una solución “In house” es necesario crear equipos de trabajo especializados para brindar servicios de soporte y mantenimiento y posibles actualizaciones, a la velocidad y capacidad de los recursos asignados. En el caso de una solución de industria, la garantía, el mantenimiento, el soporte y las actualizaciones son provistos de manera corporativa por el fabricante, en el caso de Open International Systems en formato 7×24.

Costo para mejorar y ampliar: Son los costos para incluir nuevas funcionalidades a la solución (mejoras, integración con otras aplicaciones y servicios,extensiones sustanciales, como la adición de capacidades de inteligencia de negocios, entre otras). Una aplicación “in house” necesita inversión de tiempo en el mejoramiento de la misma, en la adaptación continua a sus nuevas necesidades. Una empresa desarrolladora de software trabaja continuamente en nuevas características y mejoras del producto.

Tiempo de desarrollo: ¿Qué tanto tiempo está dispuesto a emplear desarrollando una aplicación? Un desarrollo “in house” requiere un tiempo mínimo de 18/24 meses de desarrollo, una vez la aplicación esté lista, los usuarios deberán testearla, lo que requerirá un poco más de tiempo, después afinarla y añadirle otras funcionalidades para por último implantarla y salir en producción: más tiempo, más dinero, menos efectividad.

Costo de oportunidad: Una solución de industria construida con la visión de industria y no con la visión de la necesidad de una empresa en particular, definitivamente le permite a su negocio aprovechar en más corto tiempo y de manera más efectiva características técnicas, operativas y funcionales que las que podrá lograr desarrollando “in house”.

 

Con una solución de industria, se optimiza el tiempo del proyecto de implementación, si la aplicación viene pre-configurada, lista para ser instalada y con la opción de adicionarle nuevos módulos y características, el tiempo (que al final se puede traducir en esfuerzo y costo) se invierte en modelar los procesos de negocios, seleccionando las actividades de una biblioteca de prácticas exitosas, y/o en la migración de datos de la empresa, lo que representa una inversión en operación no en desarrollo.

 

“Definitivamente, en la medida en que la solución de industria le permita ser flexible y escalable, recibiendo mejoras y respondiendo a la velocidad en que su negocio lo requiere, el valor de la inversión adquiere una diferencia mucho más relevante que el valor reflejado en un desarrollo in house”. Puntualizó Ordoñez

 

-Comunicado de Prensa

Leer más...

Del dia, Infraestructura, SOA

El impacto de la crisis en el mercado de software

crisisDecir que la crisis no ha tenido impacto en la comercialización del software sería negar una realidad. Así lo consideran los principales jugadores del sector que explican cómo ha afectado la crisis económica a un mercado que solía dar muchas alegrías al canal de distribución.

 

Xavier Ciaurriz, director de la Unidad de Negocio Pymes de Wolters Kluwer | A3 Software, afirma que “como la mayoría de sectores, gran pare del mercado de software se ha resentido de la crisis económica y se ha pasado de crecimientos de varios dígitos a decrecimientos y a cierres o absorciones de pequeños distribuidores locales”. A pesar de esta realidad, el directivo asegura que la llegada de las nuevas tecnologías, como el cloud computing, la movilidad y el software como servicio “ha permitido que la crisis no haya sido tan aguda y muchos distribuidores han encontrado factores que les han permitido sortear esta situación. Eso sí, con reestructuraciones, cambios del modelo de negocio o buscando nuevos socios y  servicios de valor añadido. Pero todo ello, en contrapartida, ha permitido una transformación y adaptación al nuevo entorno y sobrevivir sin perder demasiado en el camino”.

 

Ante esto, ¿se podría decir que el canal ha sabido adaptarse a las nuevas reglas del juego? En opinión de Roberto Alonso, director de marketing de canal de GTI, “la adaptación del canal es continua. Es cierto que las dificultades experimentadas han producido cambios en el canal, por ejemplo en la reducción de distribuidores, pero al final es un buen momento para re-inventarse o especializarse, y en este sentido los distribuidores no han estado solos, ya que los fabricantes y mayoristas nos enfrentamos a los mismos retos”.

 

No hay que olvidar que “el canal es un ecosistema de empresas muy diversas”, asegura Carles Ransanz, indirect sales senior manager del área SMB de Sage, quien continúa explicando que el canal, “al igual que sucede en el mercado, tiene diferentes comportamientos y velocidades”.

 

Y es que “los nuevos modelos de comercialización y de servicios han encontrado en la crisis económica un entorno idóneo. La necesidad de reducción de costes ha precipitado la aceptación de estos nuevos modelos por el mercado. En este nuevo contexto  el que está sufriendo es el canal que se mantiene en modelos tradicionales caracterizados por un alto coste en presupuesto y tiempo para el mantenimiento y evolución de los sistemas de información. Con una visión tradicional del servicio, es complicado competir con distribuidores que ofrecen soluciones más ágiles, con menor coste de propiedad, que en definitiva ofrecen valor a un menor coste” explica José Luís Potín, director comercial de UNIT4.

 

-Bárbara Madariaga

Leer más...

Administración de datos, Del dia, SOA, Tecnologia

Software automatizado ayuda a disminuir la carga de tiempos, costos y esfuerzos en la empresa

Reducción de costos de actualización, alineación de la tecnología a la estrategia y desarrollo de negocios, y fácil adaptabilidad, son algunos de los beneficios del uso del software automatizado.

 

En los últimos años, muchas empresas a nivel internacional han notado el potencial de implementar soluciones de software que sean capaces de ofrecer una gestión directa de los procesos del negocio.  Según la consultora Gartner, durante el 2014 en el mercado de software empresarial se ingresarán unos 321 mil millones de dólares, con un importante aumento del 6.9% con respecto al año anterior.

 

En este contexto, de acuerdo a cifras de la consultora Select USA, la industria del software en México representa 0.7% del PIB. Para Rebeca García, Directora Comercial de GeneXus en México, este porcentaje representa una gran oportunidad para que las empresas mexicanas comiencen a optar por el uso del software automatizado, debido a las ventajas que este ofrece a favor de la optimización de procesos empresariales.

 

“Nuestra premisa es automatizar todo lo que pueda ser automatizable, con el objetivo de que los programadores y personal TI se encarguen de concentrarse en actividades y procesos críticos del negocio que aportan mayor valor a la compañía, como entender las necesidades del cliente y satisfacerlas. Invertir en sistemas automatizados debe ser considerado no como un gasto, sino como una inversión”, afirma la Directora Comercial de GeneXus en México.

 

Asimismo, la ejecutiva sostiene que automatizar los procesos beneficia de manera inigualable a las empresas con un desarrollo de sistemas hasta 20 veces más rápido lo que genera mayor efectividad y ahorro en costos corporativos.

 

“Con el uso de software automatizado cada vez que se realiza un cambio en las reglas de negocio, éste se verá reflejado en todas las áreas correspondientes sin que esto implique un costo por actualización. Cabe resaltar también que es importante incluir el componente de movilidad que le permita migrar rápidamente de una plataforma a otra sin que esto implique pérdidas significativas en tiempo y costos”.

 

Por otro parte, Anibal Gonda, Evangelizador técnico de GeneXus Internacional señala que es importante no perder de vista que la clave para el correcto funcionamiento de esta tecnología se basa en una adecuada gestión del conocimiento.

 

– Comunicado de Prensa

Leer más...