Etiqueta: HANA

SAP ofrece nueva generación de almacenamiento en nube

El SAP BW/4HANA muestra sus objetivos enfocados una mayor escalabilidad, agilidad y analítica a tiempo real. Estará disponible en Amazon Web Services y en SAP HANA Enterprise Cloud.

La firma ha anunciado la nueva generación de servicios de almacenamiento de datos en tiempo real para la empresa digital. El nuevo producto llamado SAP BW/4HANA se centra en las necesidades de una mayor escalabilidad y analítica a tiempo real. El nuevo servicio no solo dará soporte on-premise, sino que estará disponible en Amazon Web Services (AWS) y en SAP HANA Enterprise Cloud (HEC), según ha comunicado Neil McGovern, director senior de marketing de producto de SAP. “Estamos tratando de dar más opciones a nuestros clientes. AWS es una infraestructura como servicio, que puede aprovisionar de una manera económica y barata. Y con HEC, se convierte en una solución más que completa en plataforma como servicio (PaaS).

La nueva solución ofrece la interactividad con los datos históricos y en directo ya residan los dentro o fuera de la empresa. “Cada vez más organizaciones están buscando haciendo de la nube el lugar principal de su sistema de toma de decisiones”, expresó McGovern.

La visión de la compañía para la próxima generación de almacenamiento de datos es reducir sensiblemente el movimiento de la información y analizar los datos en el lugar donde residen, ya sea en ‘data lakes’ que aprovechan el motor de cola en memoria de SAP, HANA Vora o en sistemas heredados dentro o fuera de la empresa. Además, también es capaz de integrar los datos del sensor de transmisión y de series temporales recolectadas en Internet y procedentes del IoT.

Además, destaca técnicas modernas de modelado de datos y un modelo de objeto de almacenamiento mucho más aerodinámico.

Mantenerse ágil

“Hemos reducido nuestro tiempo de producción de extremo a extremo en un 50%, lo que nos permite ofrecer una potente plataforma de nuevos análisis de la inversión inicial mínima en solo tres meses”, ha explicado Diego Lombardini, jefe de sistemas de finanzas de Fairfax, que ya ha utilizado la solución. “Para apoyar el cambio de nuestro negocio tenemos un entorno de nube extremadamente flexible y altamente escalable”.

“Las principales ventajas para nuestros clientes y para nuestro negocio es que incrementa la agilidad. Fairfax entró en un proyecto de seis meses y logró acabarlo en la mitad de tiempo”.

Thor Olavsrud

SAP revela aplicación para voluntarios del Super Bowl 50

La herramienta ofrece la posibilidad a los voluntarios, por medio de sus teléfonos inteligentes, poder mantenerse conectados y asistir a miles de visitantes durante la semana del evento deportivo, potenciado con SAP HANA.

SAP y Comité Organizador del Super Bowl 50, lanzaron la aplicación SB50 Host Committee Volunteers el Área de la Bahía de San Francisco para, la cual puede dotar de movilidad al programa de voluntarios habilitados para el gran evento deportivo.

La herramienta se enfocará en ofrecer una experiencia más efectiva e interconectada para los más de 5 000 voluntarios que tendrán presencia en el área durante la semana del Super Bowl. Como socio fundador del comité organizador, SAP le aportó las mejores soluciones de su clase para apoyar los esfuerzos de operar de manera más simple y eficiente.

Los voluntarios podrán usar la aplicación para supervisar el cronograma de actividades, participar en sesiones virtuales de capacitación, acceder a mapas locales, proporcionar información a los visitantes foráneos y establecer comunicación con su equipo de trabajo. El comité, por su parte, estará comunicado en tiempo real con el equipo de voluntarios. Mediante tecnologías de guías de posicionamiento y aproximación, tendrá la posibilidad de ajustar sus fuerzas de personal, según las actividades y la demanda, con la finalidad de colocarlos en determinados puntos de localización.

El equipo de voluntarios al servicio del comité organizador del Super Bowl 50 estará compuesto por cerca de 5 000 individuos será la herramienta básica del equipo de voluntarios para mantenerse interconectados además de permanecer conectados al evento”, señaló Keith Bruce, Presidente Ejecutivo del Comité Organizador de la NFL.

Finalmente Sam Yen, Director de Diseño de SAP señaló, “la plataforma SAP HANA sera la base durante el desarrollo de todas las actividades propias del Super Bowl, ayudando a simplificar las operaciones y para complementar la experiencia de los aficionados”.

-Redacción

 

 

 

SAP se enfocará en la medicina personalizada

La empresa de software comienza a operar en el mundo de la medicina aprovechando su software de big data para conectar a las personas, las enfermedades y la información de diagnóstico y resultado.

Durante un anuncio el pasado lunes, SAP comunicó que abre su espectro de negocio tradicional, centrado en el software de gestión para grandes empresas. La empresa alemana ha decidido meter un pie en el mundo de la sanidad digital utilizando la herramienta HANA para reunir información de pacientes en tiempo real y extraer ideas para su tratamiento.

El ambicioso objetivo de SAP consiste en crear una red médica que permite ofrecer información personalizada, enfocándose en los desarrollos clínicos y en la actividad de las compañías de ciencia de la vida. La plataforma ofrecería un almacenamiento de datos flexible y extenso y una gestión de la información, estructurada y no estructurada, inmediata.

La motivación de la iniciativa

SAP no es la primera ni la última compañía de software en adentrarse en el mundo de la sanidad, pero su motivación no se debe solo a la innovación sino a un accidente dentro de la compañía. La pérdida de un ojo del CEO de la compañía, Bill Dermott, impulsó el desarrollo en este sector, aunque ya se había dado la idea de una participación en la industria médica. “Desde el accidente”, cuenta Dinesh Vandayar, vicepresidente de la medicina personalizada en SAP, “nos hemos centrado mucho más en esta área. Dermott de verdad piensa que SAP puede tener un papel principal en mejorar los resultados de los pacientes”.

Por lo cual, más de 7 000 proveedores sanitarios en 88 países ya usan el software de SAP para automatizar sus procesos de negocio pero Vandayar apunta que, de todos estos centros, muy pocos comparten información sobre sus casos. Esta falta de intercambio de datos puede tener un efecto directo en la salud de los pacientes. “Nuestra visión es ofrecer una plataforma común para que el intercambio de información ocurra con más facilidad”. La meta es poder desarrollar nuevos medicamentos, servicios, dispositivos al igual que emparejar a pacientes para pruebas y análisis, es decir, conectar a las personas por su salud.

Los obstáculos

La industria de la medicina es una de las últimas en digitalizarse, en parte debido a los problemas de regulación e impuestos que limitan el big data pero el potencial es enorme. Carlos Bustamante, profesor de biomédica en Standford, piensa que hay todavía muchas preguntas que necesitan respuesta referente a la intersección de datos y analíticas aunque principalmente, los conflictos residen en la privacidad, la seguridad de la información y la implicación social. “Puedo conocer cada aspecto del sistema muscular de una persona, pero ¿debería hacerlo? Con el big data se puede predecir si un paciente puede tener un infarto, pero ¿supondría una invasión de la privacidad?”, finalizó.

-Jaime Buitrago

Tendencias de Analítica Avanzada

En el ambiente de negocios de hoy en día, las organizaciones están demandando cada vez más de análisis avanzados que les permitan usar mayores volúmenes y diversos tipos de datos para descubrir patrones y anomalías, y predecir resultados.

“En nuestras investigaciones se ve claramente que la analítica avanzada se está integrando completamente a los procesos de operaciones y de toma de decisiones en compañías de diferentes industrias y rubros”, escribieron Marcia Kaufman, COO y analista principal, y Daniel Kirsch, analista senior de Hurwitz & Associates, en el reciente reporte Advanced Analytics: The Hurwitz Victory. “Ya no es suficiente para los negocios entender que es lo que pasó, sino ahora es esencial preguntar qué es lo que pasará en el futuro para anticipar tendencias y tomar acciones con el fin de optimizar los resultados”.

Por ejemplo, señala Kirsch, las farmacias están ahora usando la analítica avanzada para ayudar a predecir el alcance de alguna temporada de gripe o de alergias seis meses antes, para así poder tener más stock -no quedarse cortos ni tener demasiado stock; de esta manera el lugar en la repisa podrá ser ocupado para algún otro medicamento.

 Las granjas están aprovechando la analítica avanzada para ver cuándo sembrar, cómo optimizar el rendimiento de los cultivos y cuándo cosechar. Los fabricantes están usando también la analítica avanzada para predecir cuándo es que una máquina de la planta de producción va a fallar, y poder así realizarle un mantenimiento preventivo antes de que cause gastos inesperados.

Las firmas o empresas de servicios financieros están aprovechando la tecnología para combatir fraudes internos y externos. Los equipos profesionales de deportes están también utilizando la tecnología para varias cosas, incluyendo el uso de sensores en los atletas para crear rutinas de ejercicios optimizadas y predecir lesiones. Los casos de uso de la tecnología y la analítica avanzada son ilimitados.

“Donde estamos viendo que se está haciendo más popular es en predecir el comportamiento del consumidor”, anota Kirsch. “Las compañía quieren ser capaces de proporcionar ofertas personalizadas: Si antes había comprado tres sudaderas, ahora se le va a incentivar a comprar un paquete de camisetas con el 30% de descuento. Si llegáramos a ese nivel de personalización de un servicio, sería más probable que la gente caiga”.

“Lo que el análisis avanzado ofrece está evolucionando rápidamente para satisfacer los deseos y necesidades cambiantes de estas organizaciones”, agrega Kirsch. A continuación, once tendencias del mercado que están dominando el espacio de la analítica avanzada hoy en día según Hurwitz & Associates.

1. Los consumidores buscan hardware y software integrado para las cargas de trabajo analíticas
Los consumidores de analítica avanzada están buscando cada vez más, un hardware que esté pre-integrado y optimizado para ejecutar cargas de trabajo de analítica avanzada, dándoles a proveedores tradicionales como SAP, IBM y SAS, una ventaja en el mercado. En el reporte, Kaufman y Kirsch notaron que estas ofertas de hardware, permiten que los usuarios apoyen los grandes datos o Big Data y la analítica avanzada, mientras mantienen altos niveles de velocidad y confiabilidad.

“SAP ofrece una plataforma interna de memoria, HANA, la cual permite a los consumidores ejecutar su solución InfiniteSight en un hardware diseñado para analíticas de alta velocidad y volumen”, escriben. “Además, el PureData System de IBM es un sistema integrado diseñado y optimizado para cargas de trabajo de análisis operacional. Los consumidores pueden beneficiarse gracias a la gran confiabilidad, escalabilidad y velocidad de un una plataforma pre-integrada y optimizada ofrecida por la alianza entre SAS y el fabricante de base de datos Teradata”.

2. Los proveedores están haciendo paquetes para casos de uso horizontales y verticales
Kirsch señala que los clientes están buscando cada vez más soluciones horizontales y verticales end-to-end, y los proveedores están siendo obligados a encontrar soluciones especializadas para problemas verticales como la salud, finanzas y el gobierno. El objetivo de la realización de paquetes horizontales es mejorar el servicio al cliente y prevenir fraudes.

“Las soluciones vienen pre-integradas con las mejores prácticas, la automatización de la preparación de los datos y de la construcción de modelos, pero también permiten cierto tipo de personalización”, señalan Kaufman y Kirsch. “Algunos ejemplos de esto incluyen a la plataforma de inteligencia del cliente de SAS que le dan al cliente herramientas para personalizar la experiencia del consumidor, y las extensiones de Pega para SAP y salesforce.com. La oferta de Pega permite a los clientes ejecutar analítica BPM (business process management, gestión de procesos de negocio) y CRM (costumer relationchip management, gestión de relaciones con el cliente)”.

3. El lenguaje de programación de código abierto R se está volviendo penetrante
R, un lenguaje de programación de código abierto para estadísticas, visualizaciones y datos computacionales, se está convirtiendo en una herramienta ubicua de las ofertas de analítica avanzada.

Kirsch señala que casi todos los proveedores más importantes de analítica avanzada han integrado R en sus ofertas, eso significa que ahora pueden importar modelos R. Esto permite que los científicos de datos, los estadistas y otros usuarios sofisticados de las empresas aprovechen R dentro del paquete de analítica.

Uno de los grandes beneficiados de esta tendencia, anota Kirsch, es Revolution Analytics, el mayor proveedor de apoyo empresarial para R. Kaufman y Kirsch, por su parte, señalan a Predixion, una empresa de analítica avanzada que se enfoca en extender R más allá de los científicos de datos y estadísticos a los usuarios de negocio, a través de una interfaz.

4. Python está abriendo sus puertas a programadores generales en analítica avanzada
Aunque R está normalmente bajo el dominio de los científicos de los datos, que son los que pueden desarrollar modelos de análisis complejos usando análisis de datos profundos y sofisticados; Python, el lenguaje de código abierto, está permitiendo que muchos programadores generales entren al juego.

“Por más que Python no tenga las capacidades de análisis sofisticado y profundo de datos que tiene R, la comunidad está trabajando muchísimo para desarrollar capacidades analíticas más avanzadas y enfocadas para Python”, añaden Kaufman y Kirsch. “IBM y SAS permiten que los clientes integren los proyectos de R y Python en unos de mayor envergadura”.

5. Las interfaces visuales están haciendo que la analítica avanzada sea cada vez más accesible y asequible para los usuarios de negocio
Los científicos de datos son pocos y muy dispersos, y las pequeñas y medianas empresas, en particular, están luchando para crear analíticas con equipos experimentados, debido a la falta de presupuesto. Al mismo tiempo, la analítica se está haciendo espacio y está formando parte de la toma de decisiones en todos los niveles de la empresa, haciendo que cada vez sea más importante que los usuarios de negocio tengan acceso a los datos. Esa combinación ha hecho que los proveedores de analítica avanzada se enfoquen en ofrecer características que hagan que sus plataformas sean fáciles de usar.

“Por ejemplo, SAP se está enfocado en automatizar el proceso predictivo, mientras Angoss ofrece una interfaz súper visual para la toma de decisiones y estrategias a usar”, escriben Kaufman y Kirsch. “SAS e IBM han lanzado ofertas específicas para los usuarios de negocio. Por ejemplo, la oferta de Visual Analytics de SAS y la de Analytics Catalyst de IBM están dirigidas a los usuarios de negocio”.

6. Los streams de datos en tiempo real y la Internet de las Cosas están que arden
La demanda por el análisis de streams de datos en tiempo real está aumentando rápidamente cada vez que más dispositivos se conectan a Internet. Aplicando analítica avanzada a estos streams, las organizaciones pueden responder con mucha más agilidad, ya sea para proporcionar recomendaciones personalizadas mientras compra online, o monitorear las métricas clave del motor de un jet para identificar pequeños signos de falla incluso antes de que el equipo de mantenimiento se dé cuenta.

“Normalmente, la aerolínea se basaría en las configuraciones manuales de los umbrales y confiaría en las inspecciones visuales”, señalan Kaufman y Kirsch. “Estos umbrales mandan una alerta si el motor se está recalentando, pero son incapaces de identificar los problemas potenciales; resultado de la aparición de varios factores normalmente inocuos, pero que cuando se combinan se convierten en un problema. Los proveedores están respondiendo y reaccionando a la necesidad de proporcionar el análisis de los datos en tiempo real.Event Stream Processing Engine de SAS e InfoSphere Streams de IBM, permiten a los usuarios ejecutar el análisis mientras los datos están en movimiento”.

7. La visualización de los datos se está convirtiendo en un requisito de la empresa
La visualización de los datos está jugando un papel sumamente importante dentro de las organizaciones, a medida que se inundan de datos provenientes de los medios sociales, de máquinas, de stream de datos y otros grandes volúmenes de datos estructurados, semi estructurados y no estructurados. Las visualizaciones son necesarias, ya que ayudan a los analistas a descubrir situaciones que serían imposibles de ver en tablas de datos de vértice, hojas de cálculo y cuadros.

“La visualización puede ser la interfaz primaria para los usuarios de negocio y puede, también, ser el primer paso para los científicos de datos”, señalan Kaufman y Kirsch. “Para ayudar a llenar la brecha o el vacío entre los usuarios de negocio y los científicos de datos, los proveedores están ofreciendo más capacidad de visualización. Estas pueden ser personalizadas para diferentes grupos de usuarios para ser entendidas fácilmente. Algunos proveedores ofrecen productos complejos de visualización; por ejemplo, SAS tiene una herramienta interactiva de visualización basada en una memoria interna, SAS Visual Analytics; y Rapidly Adaptive Visualization Engine (RAVE) de IBM está construida dentro del SPSS Analytic Catalyst y da a los usuarios concejos de visualizaciones basados en conjuntos de datos. Otros proveedores como Megaputes, RapidMiner y StatSoft se basan en las capacidades de visualizaciones construidas o que se construyen en la oferta básica”.

8. Las organizaciones están infundiendo el análisis Big Data en todas las actividades de toma de decisiones
Ya no es suficiente para el análisis el hecho de ser gestionado o manejado únicamente por el departamento de estadística o análisis de datos. Las organizaciones quieren hacer que la analítica sea parte del proceso de toma de decisiones en todas y cada una de las áreas de la empresa, incluyendo marketing, ventas, operaciones, finanzas y recursos humanos.

“Para mejorar el compromiso de los clientes y optimizar los resultados de todas estas áreas funcionales, las compañías quieren incluir una variedad más amplia de datos en su análisis”, indican Kaufman y Kirsch. “Por ejemplo, los tipos de datos que van desde los generados por una máquina y otros datos de los sensores, hasta las fuentes de datos móviles y financieros y datos de medios sociales, están incluidos en el análisis de Big Data. Estas compañías esperan que sus proveedores apoyen grandes conjuntos de datos”.

Los proveedores están respondiendo con plataformas holísticas que ayudan a integrar los procesos de análisis de Big Data con los esfuerzos de análisis de todas las áreas de la empresa. Kirsch señala como ejemplo al SPSS Analytic Server de IBM, el cual ayuda a las compañías a obtener rápidos resultados del análisis predictivo de Big Data.

9. Muchos servicios de análisis están ubicados o alojados en la nube
Los proveedores de análisis avanzado están apostando cada vez más por la nube para proporcionar un servicio de manera más asequible, haciendo que este sea mucho más práctico y fácil, y que destaque entre tantas grandes empresas capaces y dispuestas a gastar mucho más dinero en soluciones más complejas dentro de las instalaciones.

 

“Algunas de estas ofertas son para casos específicos de uso”, anotan Kaufman y Kirsch. “Por ejemplo, Angoss, Pega y SAP ofrecen aplicaciones salesforce.com a través del AppExchange para llevar realizar un análisis de los datos CRM. Angoss, IBM y SAS también ofrecen un software más flexible como Software as a Service o Software como Servicio (SaaS) que permite a los consumidores hacer un análisis general con un software basado en la nube”.

10. El análisis in-database esquiva los retos del ETL
El rendimiento o desempeño, el gobierno de los datos y la seguridad pueden convertirse en grandes retos y obstáculos para la realización de análisis avanzados sobre conjuntos de datos masivos. Los análisis in-database pueden aliviar o facilitar muchos de estos retos dándole a los usuarios la capacidad de desplegar sus modelos en la base de datos misma, en vez de mover los datos a un ambiente de análisis. Mediante la realización de análisis de los datos en el lugar (in-database), los usuarios pueden reconocer el rendimiento o desempeño y los aumentos en la eficiencia, mientras simplifica la seguridad y el gobierno de los datos, ya que los datos nunca dejarán la segura base de datos.

“Muchos proveedores están ofreciendo capacidades in-database para un gran número de plataformas de datos, incluyendo Hadoop”, señalan Kaufman y Kirsch. “IBM, SAS, RapidMiner, Revolution Analytics, Predixion, StatSoft, SAS y Angoss todos apoyan la explotación de esta característica (in-database). Cuando se evalúa a un proveedor basándose en las capacidades in-database, es importante investigar el apoyo que le dan a la plataforma de datos que su organización está usando. Algunos proveedores solo apoyan Hadoop; y otros, casi todas las plataformas de datos”.

11. Las empresas están empezando a apostar por PMML
Mientras las compañías hacen el cambio del análisis por lotes a usar feedback en tiempo real y a mejorar continuamente la precisión de los modelos, están aprovechando cada vez más el Predictive Model Markup Language (PMML). PMML es un estándar para los modelos estadísticos y de explotación de datos desarrollado por el Data Mining Group (DMG), un consorcio independiente dirigido por proveedores. IBM y SAS son miembros completos del DMG; mientras SAP, StatDoft, RapidMiner y Angoss contribuyeron al desarrollo de PMML. Kirsch señala que el estándar hace que sea más fácil desarrollar un modelo en un sistema con una aplicación particular y luego desplegarlo en un sistema diferente usando una aplicación diferente.

“Estas compañías encontraron que desplegar modelos en aplicaciones con PMML ayuda a superar demoras y aceleran el proceso de mover los modelos a la producción”, anotan Kaufman y Kirsch. “Uno de los mayores beneficios de usar PMML es que elimina la necesidad de procesos patentados y de codificación caros y que consumen demasiado tiempo”.
– Thor Olavsrud, CIO (EE.UU.)

Cisco invertirá mil mdd para construir una “red de nubes”

Cisco red de nubesCisco Systems planea invertir más de mil millones de dólares para ampliar su negocio de nube en los próximos dos años, esto incluye construir una “red de nubes” basada en OpenStack con socios.

Toda la industria TI se está trasladando hacia un mundo en donde más aplicaciones están corriendo en ambientes alojados, y Cisco no quiere quedarse atrás. Los principales componentes de su iniciativa son Cisco Cloud Services y lo que el gigante del networking ha llamado la Intercloud, que se encontrará alojada en una red global de centros de datos de Cisco y de sus socios, informó la compañía.

Intercloud, su apuesta para las aplicaciones M2M

La Intercloud se basará en la cada vez más popular plataforma OpenStack, y soportará cualquier carga de trabajo, en cualquier hipervisor. También interoperará con cualquier nube, tanto pública como privada, de acuerdo con Cisco.

Al no ir solo, sino asociándose con proveedores locales, la red de nubes de Cisco se encontrará en mejor posición para hacer frente a las problemas de soberanía de los datos, afirmó la compañía.

Las continuas revelaciones del ex contratista del gobierno estadounidense, Edward Snowden, acerca de las acciones de vigilancia de la Agencia Nacional de Seguridad (NSA) se han convertido en un grito de batalla para los proveedores de nube locales en Europa que compiten con las compañías de Estados Unidos como Amazon Web Services y Microsoft.

El tamaño prometido de la Intercloud también hará que sea una buena opción para las aplicaciones ‘máquina a máquina’ (M2M) o la llamada Internet de las Cosas, de acuerdo con Cisco.

Cumplir con todas estas promesas será un enorme desafío para esta compañía que, por cierto, ha llegado tarde al juego, y tendrá que competir con proveedores de nube pública como Amazon y Microsoft, así como con Google y Rackspace. También deberá competir con proveedores de infraestructura como VMware que quiere que los operadores construyan una infraestructura basada en sus productos.

Y los Cloud Services

Los Cloud Services constituyen una ampliación del actual programa Cisco Powered. La línea incluye una versión de SAP Hana optimizada para Unified Compute System de Cisco; su propio producto de virtualización de escritorio, así como soluciones de VMware y Citrix; y varios servicios desarrollados in house para seguridad y colaboración alojadas.

Cisco planea vender estos servicios a través de socios de canal y directamente a clientes finales, informó la compañía.

SAP se propone potenciar la nube como servicio PaaS

SAP HANA CloudUn precio simplificado, opciones de despliegue y accesibilidad generarán un cambio significativo hacia modelos de precios y consumo basado en la nube. Por ello estas características marcan la evolución de la estrategia cloud de SAP, según reveló la compañía junto con sus nuevas ofertas para la plataforma SAP HANA Cloud. Los clientes ahora tendrán la posibilidad de elegir entre tres ofertas: SAP HANA AppServices, SAP HANA DBServices, y SAP HANA Infrastructure Services.

“Estamos simplificando el acceso y ampliando el alcance comercial de la avanzada plataforma SAP HANA”, manifestó Vishal Sikka, miembro del consejo ejecutivo de SAP AG para Productos e Innovación. “Con estos pasos, clientes y partners pueden experimentar el poder de la plataforma y construir aplicaciones increíbles, de la forma que prefieran, para establecer nuevas fronteras en el software basado en la nube, sin tener que adquirir un gran compromiso”.

Las nuevas opciones de precios para SAP HANA pretenden ampliar el alcance de la plataforma y hacer más fácil el acceso, al partir de un precio base que se puede ampliar en función de las necesidades o deseos de las empresas. Los clientes compran a través de un modelo por consumo y pueden implantar casos de uso sobre la plataforma o elegir opciones adicionales según sus necesidades.

Para responder a la creciente economía de apps, se mejoró la oferta para SAP HANA Cloud Platform. De esta manera, las empresas startups, los ISVs y clientes ahora pueden construir nuevas aplicaciones en la nube, impulsadas por los datos. Esta plataforma como servicio (PaaS) ofrece infraestructura centrada en in-memory, base de datos y servicios de aplicaciones para crear, ampliar, desplegar y ejecutar aplicaciones.

Aplicaciones en salud

Además, SAP contribuye en el terreno de la medicina personalizada en tiempo real con SAP Genomic Analyzer, una nueva aplicación que funciona con SAP HANA y cuyo objetivo es permitir a investigadores y médicos realizar innovadores avances a partir de datos del estudio del genoma en tiempo real.

Aplicaciones empresariales: ¿qué cambios habrá en 2014?

Aplicaciones empresariales en 2014Si la historia reciente es indicativa de algo, 2014 será un año intenso para la industria de aplicaciones empresariales, ya que los distintos proveedores luchan por mejorar su posición en el mercado, mientras que los clientes estudian las opciones para pasar de sus antiguas implementaciones ERP (Enterprise Resource Planning) y CRM (Customer Relationship Management) a servicios basados en la nube. Descubra los pasos que darán durante este año los principales actores del sector.

Oracle

El software destinado a la “experiencia del consumidor”, que abarca automatización de ventas, marketing, servicio y soporte ha sido una gran área de inversión para Oracle. Recientemente, esta compañía adquirió Responsys, fabricante de software de marketing business-to-consumer, y planea acompañarlo con tecnologías obtenidas a través de las adquisiciones de Eloqua y Compendium. Es de esperar que Oracle modifique su mensaje durante este año para diferenciar sus ofertas de las de Salesforce.com, Adobe y SAP.

Oracle también se está preparando para luchar contra sus rivales en el mercado de las bases de datos con la versión 12c recientemente lanzada. La compañía está preparando una opción in-memory para 12c durante este año, de la que afirma que ofrecerá drásticas mejoras de rendimiento.

SAP

Durante los últimos años, la palabra más escuchada en el área de marketing de SAP ha sido HANA, su base de datos in-memory. Pero los clientes deberían prepararse para oírlo aún más a menudo en 2014, ya que SAP continúa desarrollando servicios de plataforma de soporte y herramientas de desarrollo para ella.

Habrá que ver si SAP logra un número significativo de clientes públicos que hayan empezado a utilizar HANA en sus instalaciones SAP Business Suite en lugar de Oracle. Este es un objetivo clave para SAP, pero podría encontrarse con dificultades para conseguir que muchos clientes den tal giro, debido a la fecha de lanzamiento de la base de datos de Oracle, así como por su pendiente opción in-memory. SAP tendrá que dar confianza y transmitir a sus clientes que pasarse a HANA no será una decisión arriesgada y que les reportará mayores recompensas.

Asimismo, este año SAP volverá a tener un solo CEO, Bill McDermott, debido a la renuncia del hasta ahora co-CEO, Jim Hagemann Snabe. McDermott  será el primer estadounidense que se convertirá en CEO exclusivo del proveedor alemán, y tanto los clientes como los partners estarán atentos para ver si el flamante directivo consigue realizar cambios estratégicos significativos a medida que se desarrolla en el cargo.

Salesforce.com

Según la analista independiente de aplicaciones empresariales, China Martens, existen muchas razones para estar atentos a Salesforce.com en 2014. Una es Salesforce1, la nueva plataforma de desarrollo anunciada por Salesforce.com en la conferencia de Dreamforce en noviembre de 2012. ¿Conseguirá Salesforce1 entrar en resonancia con sus clientes, partners y desarrolladores o tendremos que esperar otra revisión?, opinó Martens en su blog.

Salesforce.com también promocionará su familia de productos Marketing Cloud, construida gracias a adquisiciones como las de Buddy Media and ExactTarget. La pregunta ahora es si Salesforce.com ya terminó con su lista de compras.

Según algunos observadores, un área en la que Salesforce.com se ha retrasado es la Analítica. Este año podría verse un nuevo producto mejorado, gracias a las adquisiciones o partnerships, añadió Martens.

Microsoft

Martens también mantiene la vista puesta en Microsoft, con la próxima llegada de Satya Nadella, en sustitución de Steve Ballmer.

Hasta ahora, Ballmer ha tratado con cuidado a su unidad Dynamics ERP y CRM, preservándola como una entidad independiente y separada de la reorganización que llevó a cabo en 2012.

Dynamics es visto como un medio para que el cuerpo de ventas de Microsoft consiga llegar mejor a los responsables de nivel C de las empresas, en lugar de sólo a las áreas de TI, y por ello ha creado un canal para ofrecer otros productos Microsoft.

Existen cuatro productos ERP en la familia Dynamics, algo que Microsoft ha intentado racionalizar, pero que finalmente abandonó hace algunos años. “El nuevo CEO deberá hacer frente a la vieja pregunta de cómo equilibrar las necesidades de cuatro familias de productos ERP e integrarlas en un producto CRM”, aseveró Martens.

Infor

Bajo el liderazgo del antiguo presidente de Oracle, Charles Phillips, Infor remodeló su interfaz de usuario, añadido cientos de desarrolladores y forjado colaboraciones con proveedores de nubes como Salesforce.com.

Este año Infor acelerará su maquinaria de marketing en un esfuerzo por cambiar esa sensación. Por el lado de los productos, no sería sorprendente ver también a Infor dar nuevos pasos en HCM, ya sea con base en colaboraciones con empresas como Cornerstone on Demand y Ultimate Software, o mediante adquisiciones.

NetSuite

Este proveedor de ERP basado en la nube puede tener un año ajetreado. La evolución de su estrategia HCM (Human Capital Management) podría ser especialmente interesante. NetSuite desarrolló una orientación a los niveles, con su reciente adquisición TribeHR dando servicio a las empresas más pequeñas, y colaboraciones con Oracle y otros para las de mayor tamaño, añadió Martens.

Workday

Este proveedor de software HCM mantiene caliente la llegada de su último IPO 2012 y buscará el momento adecuado durante 2014, mientras construye su línea de productos de software financiero y la vende a las grandes empresas que hasta ahora han confiado en Oracle y SAP.

Durante las previsiones de beneficios para el tercer trimestre ofrecidas en noviembre de 2012, el co-CEO de la compañía, Aneel Bhusri, afirmó que Workday tiene ahora más de 550 clientes en todo el mundo. Bhusri también reveló que Workday había conseguido 10 nuevos clientes financieros durante el trimestre, aunque ninguno de ellos estaba en el Fortune 1000.

Nube híbrida, la tendencia que estará presente en 2014

Nube híbrida en 2014La compañía NetApp hace un recuento de las previsiones para este 2014, fijándose en el impacto que tendrán en el sector, tecnologías como flash, cloud y la definición por software.

1. Las clouds híbridas dominan la tecnología empresarial.

Ya no habrá tensiones dentro del departamento técnico para evolucionar hacia la nube, al entenderse dentro de las organizaciones la necesidad de ir hacia el modelo de cloud híbrida para dar servicio a su cartera de aplicaciones.

Los directores de información ordenarán su cartera de aplicaciones en función de cuáles deben estar controladas en su totalidad (nubes privadas en las instalaciones), parcialmente controladas (nubes públicas de empresa) y cargas de trabajo transitorias (nubes públicas a hiperescala), y aquellas adquiridas como SaaS (Software como Servicio).

El departamento técnico funcionará como agente de servicios en todos estos modelos de cloud. También quedará constancia de la necesidad de mover con facilidad los datos de aplicaciones entre las clouds y para brindar capacidades de servicio de almacenamiento de forma constante entre los diferentes modelos de nube.

2. Si trabajas en TI, eres un proveedor de servicios.

Cada vez se mirará más al departamento interno de Tecnología como otra opción de servicios. Toda la tecnología de una empresa se considerará “nube privada” y las expectativas de respuesta al negocio, la competitividad de costos y los acuerdos de nivel de servicio se compararán con opciones de cloud externas.

3. El almacenamiento definido por software deja claro la realidad frente a la hiperrealidad.

Según se va aceptando la visión del centro de datos definido por software, la evolución de los componentes de infraestructura es cada vez más clara. Empieza a echar raíces el control del software basado en políticas sobre los componentes de infraestructura tradicional. Las versiones virtuales de los componentes de infraestructura (controladores de red y de almacenamiento) son cada vez más habituales.

Los componentes virtuales más valiosos son los que se integran limpiamente con la red y sistemas de almacenamiento físicos existentes, y pueden ofrecer funciones y servicios constantes y coherentes con los ofrecidos por los controladores físicos tradicionales.

4. Crecimiento del mercado All-Flash.

Ahora que las empresas de almacenamiento convencional han comprendido la importancia de esta tendencia en tecnología el mercado de flash experimentará un mayor crecimiento.

La batalla entre el almacenamiento convencional y las ofertas all-flash de vanguardia tendrá a su vencedor entre aquellos que mejor habiliten a sus clientes para poner en marcha el nivel correcto de rendimiento, confiabilidad y escalabilidad en función de sus necesidades y cargas de trabajo específicas.

Los grandes del almacenamiento convencional con capacidad para ofrecer y dar soporte a productos a nivel mundial liderarán el crecimiento en los mercados internacionales.

5. Las SVM permiten la movilidad de los datos y la agilidad de las aplicaciones.

Al igual que las máquinas virtuales permitían el movimiento de aplicaciones en funcionamiento entre servidores físicos, los Solaris Volume Management (SVM) liberarán los datos del almacenamiento físico específico.

Estos contenedores lógicos de volúmenes de datos simplifican la migración de las cargas de trabajo entre clústeres de almacenamiento y ofrecen la posibilidad de clústeres de almacenamiento altamente disponibles en áreas metropolitanas.

6. El almacenamiento privado y público se verá afectado por cuestiones sobre la  gobernabilidad de los datos.

La adopción del cloud computing y los servicios de almacenamiento ha supuesto un reto para las fronteras geopolíticas, que ha llevado a cierta preocupación en las grandes empresas de muchos países en lo referente a las leyes de transparencia con sus gobiernos, a las cuales están sujetos sus datos. Las organizaciones internacionales buscarán opciones de clouds híbridas que les permitan mantener el control soberano de sus datos y aprovechar al mismo tiempo la economía del cloud computing.

7. OpenStack sobrevive al Híper y avanza con los pioneros.

Durante el 2014, OpenStack continuará ganando impulso y se convertirá en la alternativa “abierta” a los productos comerciales para la orquestación del centro de datos. A medida que las distribuciones de OpenStack se perfilan más hacia el “producto” que hacia el “proyecto”, más empresas y proveedores de servicios comienzan a adoptarlo.

8. La adopción de los 40 Gb Ethernet despega en el centro de datos.

La siguiente evolución de Ethernet, los 40 Gb, comienza a extenderse en el núcleo del centro de datos. Anchos de banda mayores permiten que conjuntos de datos mayores se muevan más rápida y fácilmente, lo que anima al crecimiento de los datos.

9. El almacenamiento en clúster, infraestructura convergente, almacenamiento de objetos, bases de datos en memoria siguen creciendo en 2014.

Algunas tendencias tecnológicas que nacieron en 2013 siguen creciendo. La adopción del almacenamiento en clúster se acelera. La infraestructura convergente se convierte en el pilar más importante de la infraestructura del centro de datos. Crece la adopción del almacenamiento de objetos al tiempo que las aplicaciones que rentabilizan las enormes posibilidades de los objetos de datos ganan visibilidad. Y las bases de datos en memoria, con la popular HANA de SAP a la cabeza, se unen a las tendencias del mercado.

10. El Big Data evoluciona hacia el control de la recopilación de datos nuevos.

A la vez que las empresas calculan el valor del análisis de los datos existentes, pasarán a recopilar datos adicionales que necesitarán de su análisis. Surgirán nuevos dispositivos que recopilen más datos sobre el comportamiento de los consumidores, procesos industriales y fenómenos naturales.

Estas fuentes se usarán en los análisis existentes para mejorar la perspectiva y darán lugar a aplicaciones analíticas completamente nuevas.