Día: 30 julio, 2014

Así es como Internet de las Cosas cambiará todo

Cuando echo un vistazo a las oportunidades y tendencias de tecnología críticas, estas son algunas de las cosas que veo:

* Una nueva Internet con mejor seguridad, menores requerimientos de ancho de banda y movilidad constante.

* Un mundo en el que las personas inexpertas pueden diseñar y manejar procesos de negocio complejos sin la ayuda de un especialista en tecnología.

* Un hogar inteligente que no solo monitorea el uso de energía, sino también los signos vitales de tu familia.
* Asistentes personales virtuales (quizás incrustados en un lente de contacto o incluso en nuestros cuerpos) que comprenden el comportamiento humano, ayudan a priorizar nuestro trabajo y nos alienten a llevar una dieta que se relacione con nuestras actuales necesidades de salud.

Esas son algunas de las cosas que estarán habilitadas por la Internet de Todo (Internet of Everything, IoE, por sus siglas en inglés). Discutí acerca de la IoE durante un reciente retiro de líderes de políticas globales que querían echar un vistazo a desafíos y tendencias de tecnología cruciales que son afectados por regulaciones o políticas gubernamentales. Unos pocos días después me encontré con un grupo de pasantes de verano de Xerox, y uno de los primeros temas que surgió fue: ¡la IoE!

La idea de objetos cotidianos comunicándose unos con otros y con el resto del mundo está en las mentes tanto de nuestros científicos más jóvenes como de los más altos responsables de políticas y ejecutivos de hoy.

En el retiro de políticas del Consejo de los CEOs de Tecnología, esbocé tres pilares que harán posible la IoE e impulsarán el futuro de la economía global:

Objetos cotidianos que perciban y respondan a su entorno. Esto significa conectar objetos comunes a la Internet y hacerlos inteligentes. Los objetos proveerán información útil acerca de cómo los usamos e interactuamos con ellos, y permitimos que interactúen unos con otros. La miniaturización de chips y radios que hacen a los objetos inteligentes es esencial para aplicaciones prácticas, como también lo es el bajo costo.

Los objetos inteligentes existirán en todos lados, en nuestros hogares, oficinas, vehículos, ciudades- a todo nuestro alrededor. Dispositivos utilizables e implantables detectarán y mejorarán nuestra calidad de vida. Cisco predice que habrá entre 50 y 75 mil millones de “cosas” conectadas dentro de los próximos seis años, por sobre los alrededor de 9 mil millones de teléfonos y laptops que hay hoy. Todos los productos del futuro serán inteligentes y estarán conectados.

Además de realizar su función central, los productos se convertirán en la base de servicios totalmente nuevos que aprovechen los datos que generan. Un ejemplo de esto es el termostato conectado de Nest Labs, un start-up que habilita nuevos servicios, en beneficio de la industria de los servicios públicos.

Una infraestructura flexible inteligente y segura. Ya estamos luchando para lidiar con el volumen de información que atraviesa Internet hoy. Se necesita un nuevo paradigma que soporte este conjunto de objetos cotidianos inteligentes, y la necesidad de conectividad y entrega de información, todo con la adecuada seguridad. En el PARC (Palo Alto Research Center), estamos desarrollando la arquitectura de Internet de la próxima generación: Content-Centric Networking (CCN) con socios. Una red CCN promete mejorar la seguridad, disminuir los requerimientos de respuesta y ancho de banda, así como habilitar una movilidad sin fisuras.

Información en tiempo real utilizable. El concepto de moda de hoy en día, “Big Data”, es una oportunidad, pero no es una solución. El desafío es tomar las diversas corrientes de datos en tiempo real, fusionarlas perfectamente y extraer el conocimiento que contienen. Estas informaciones utilizables crean valor para la gente, los sistemas automatizados y las empresas. Lo importante es habilitar a que la “Big Data” cuente una historia.

Comprender las anomalías en patrones, por ejemplo, puede permitir a las empresas reparar proactivamente equipamiento crítico o ayudar a los doctores a cuidar mejor a sus pacientes. Las autoridades de las ciudades pueden usar este tipo de información para crear una ciudad menos congestionada y más verde, permitiéndonos a todos vivir vidas más saludables.

Cuando los objetos comunes e inteligentes; las redes flexibles, inteligentes y seguras; y la información en tiempo real utilizable trabajan en conjunto, una “tormenta perfecta” de funcionalidad emerge. Esta tormenta perturbará completamente a industrias enteras.  “Googlear la realidad” se tornará habitual. Gartner predice que el valor agregado económico total para la IoE será de $1,9 trillones de dólares en 2020. El valor más importante de la IoE será medido según el bien que posibilite: salvar vidas, hacer que la economía funcione mejor, hacer eficiente el uso de energía, mejor educación para nuestros niños, y la lista continúa.

La ruptura que conlleva este tipo de cambios es exactamente lo que están reflexionando quienes hacen las políticas. La necesidad de estándares globales, incentivos económicos, seguridad, privacidad y protección de derechos civiles estuvieron muy presentes en el retiro al que asistí.

Mucha discusión se centró en un reciente reporte de la Casa Blanca que examinaba cómo la Big Data transformará la manera en que vivimos y trabajamos y alterará las relaciones entre gobierno, ciudadanos, negocios y consumidores. Yo lo estoy leyendo y les aconsejo que le echen un vistazo también.

Un reciente cuestionario emitido por el Pew Research Center Internet Project hacia fines del año pasado preguntó a más de 1600 innovadores de tecnología, emprendedores, analistas y otros si creían que laIoE tendrá efectos amplios y beneficiosos en las vidas cotidianas del público para 2025. La mayoría dijo que sí, y yo también.

 

– Sophie Vandebroek, Ph.D, Chief Technology Officer y Presidente de Xerox Innovation Group.

 

Information Builders, lidera el último informe de Nucleus Research

Information Builders fue nombrado líder en el último informe sobre BI y analítica de Nucleus Research. La firma analista valoró WebFOCUS, la plataforma de BI de Information Builders,  que proporciona funcionalidades ad-hoc de inteligencia de negocio y analítica a cualquier tipo de usuario.

El informe BI Value Matrix de Nucleus Research tiene en consideración a aquellas plataformas y soluciones que proporcionan valor en diversas áreas clave de la inteligencia de negocio. De acuerdo al estudio, “los líderes del mercado BI son aquellos que gozan de la capacidad de combinar capacidades en BI críticas con altas dosis de usabilidad para el usuario”. La plataforma WebFOCUS proporciona información consumible a un amplio espectro de usuarios, desde todo tipo de empleados, así como directivos y analistas, pasando por partners y clientes.

La plataforma InfoApps de Information Builders, un entorno de auto-servicio similar a un `app store´ para aplicaciones de negocio, también ha sido reconocida en este informe por proporcionar un alto grado de usabilidad a usuarios con perfil no técnico. Su sofisticada tecnología de mapeo, que proporciona acceso a los datos geográficos más actuales y todo tipo de detalles con respecto a su impacto en el negocio, también ha sido considerada como un factor diferenciador.

 

Industria del BI, cada día más fracturada

Además de puntuar a cada fabricante, el informe Value Matrix de Nucleus Research también ha examinado el estatus de la industria del BI y la analítica. Entre otras conclusiones, ha destacado el grado actual de fracturación de este mercado, compuesto por una amplia gama de soluciones en torno a la visualización de datos, el `data discovery´, la nube y las distintas tecnologías en modo servicio. Según Nucleus, los fabricantes se han visto obligados a modificar su foco de actuación para alinearse mejor con las necesidades de las áreas de negocio de las organizaciones y ganar en usabilidad de cara al usuario.

“El mercado del Business Intelligence cada año cuenta con más competencia, y los numerosos proveedores que forman parte de él se han adentrado en una carrera en pro de la innovación, que está trayendo consigo una avalancha de nuevas funcionalidades y propuestas”, destaca Nina Sandy, analista principal sobre BI y analítica en Nucleus Research.

 

-Comunicado de Prensa

Qnective firma un acuerdo de alianza en México

Qnective firmó un contrato con Soluciones en Sistemas y Telecomunicaciones del Bajío SA de CV como uno de sus integradores en México. Para la empresa Suiza especializada en soluciones de comunicaciones celulares seguras, esta asociación es un paso importante para la implementación de su software en América Latina. A su vez, Qnective anuncia que el gobierno de México es uno de los primeros clientes en implementar la solución de comunicación Qtalk Defense en este país.

Con la implementación de Qtalk Defense como solución de comunicaciones seguras para el gobierno mexicano, la empresa Suiza Qnective y el integrador mexicano Soluciones en Sistemas y Telecomunicaciones del Bajío SA de CV han iniciado ya con las primeras órdenes de Compra. Actualmente Qtalk Defense protege las comunicaciones internas de algunas organizaciones gubernamentales de México.

“Estamos muy contentos de contar con un socio conocido como Soluciones en Sistemas y Telecomunicaciones del Bajío SA de CV. Este paso es de gran importancia para nuestra empresa. América Latina es un mercado prometedor y estamos a la espera de nuevos proyectos y más cooperaciones”, afirmó Oswald Ortiz, CEO de Qnective.

Soluciones en Sistemas y Telecomunicaciones del Bajío SA de CV, es un integrador de tecnologías localizado en el centro de la República Mexicana, dedicado fundamentalmente al desarrollo de soluciones relacionadas con sistemas de seguridad, como son; enlaces de radiocomunicación seguros, y equipo de seguridad de transporte de personas. Especializados en el campo de las tecnologías de la información, en áreas dirigidas a la seguridad, inteligencia, comunicaciones, educación y salud. Cuenta entre sus principales clientes a los gobiernos federal, estatal y municipal del país, así como empresas del sector privado.

 

-Comunicado de Prensa

HP apuesta e invierte en Hadoop de Hortonworks

Hewlett-Packard está apostando 50 millones de dólares a que sus clientes encontrarán valor en la plataforma de procesamientos de datos Hadoop, mediante la inversión en el distribuidor de Hadoop, Hortonworks. Las dos compañías también se harán socias en las sales calls y formularán una arquitectura para incorporar la distribución Hadoop de Hortonworks en el stack de procesamiento de datos de HP, llamado HAVEN.

“En realidad nunca hemos vendido Hadoop, ni le hemos dado soporte directamente. A la fecha, nos hemos reunido con un proveedor de Hadoop y hemos llevado el acuerdo al mercado. Lo que es diferente en esta alianza estratégica es que nos estamos comprometiendo a vender Hortonworks Data Platform como parte de HAVEn, y también a darle soporte”, sostuvo Colin Mahony, gerente general de Vertica, el software analítico de administración de bases de datos de HP.

Al implementar una plataforma de procesamiento de datos de gran escala, las empresas podrían preferir tener un solo proveedor con quien tener tratos, en lugar de varios proveedores que contribuyen cada uno con una parte del sistema general, indicó Mahony.

Además de la inversión y trabajo de ingeniería conjunta, Martin Fink, CTO de HP, se unirá al directorio de Hortonworks, para que las dos compañías puedan trabajar juntas al formular estrategias para Hadoop. La alianza dará a Hortonworks una base de clientes potenciales mayor, sostuvo Rob Bearden, CEO de Hortonworks.

La alianza se complementará con el stack HAVEn de HP. HAVEN son las siglas de Hadoop, Autonomy, Vertica and enterprise security. La “n” representa al número de aplicaciones empresariales que se pueden construir sobre la plataforma.

HP también comenzará a trabajar en conectores para enlazar mejor Vertica con la consola de administración YARN (Yet Another Resource Negotiator) de Hadoop. HP ya tiene software que permite a los usuarios correr los comandos de Vertica en los datos almacenados en sistemas Hadoop y este trabajo asegurará que la visión de los datos Hadoop de Vertica se mantenga plenamente sincronizada con lo que ve la consola de Hadoop.
Francisco Carrasco, CIO America Latina

Nuevas reglas de servidores SSL entran en vigor el 1 de noviembre

Las autoridades públicas de certificación (CA, por sus siglas en inglés) están advirtiendo que para el 1 de noviembre rechazarán las solicitudes de certificados de servidor SSL internos que no se encuentren acordes con las nuevas convenciones sobre nombres de dominios internos y direcciones IP diseñadas para salvaguardar las redes.

La preocupación es que los certificados digitales para los servidores SSL emitidos por las CA en la actualidad para los servidores de correo electrónicos corporativos internos, servidores web y bases de datos no son únicos, y pueden potencialmente ser usados en ataques ‘man in the middle’ que involucran el establecimiento de servidores falsos dentro de una red objetivo, afirman los representantes de la Certification Authority/Browser Forum (CA/B Forum), el grupo de la industria que establece las pautas de seguridad y operativas para los certificados digitales. Entre los miembros se encuentra un abrumador número de CA públicos de todo el mundo, además de los fabricantes de navegadores como Microsoft y Apple.

“Incluso en una red interna, es posible que un empleado establezca un servidor falso”, señala Rick Andrews, director técnico senior de servicios trust de Symantec, al explicar las nuevas reglas.

El problema en la actualidad es que los administradores de red usualmente dan a sus servidores nombres como “Server1” y le asignan direcciones IP internas de tal forma que los certificados SSL emitidos para ellos a través de las CA públicas no son necesariamente únicos a nivel global, señala Chris Bailey, gerente general de Deep Security for Web Apps de Trend Micro.

“Las personas confían en estos nombres internos en la actualidad”, señala Bailey. Pero “si alguien los ‘hackea’ pueden establecer un dominio de ‘man in the middle’.

Hace tres años el CA/B Forum llegó a la conclusión de que éste era un tema de seguridad significativo, y estableció nuevas pautas para la emisión de certificados que comenzaron a compartir con sus clientes. Ahora que se acerca el plazo del 1 de noviembre, están hablando de ello.

Para el 1 de noviembre, los administradores de red que soliciten certificados SSL internos a un CA público, tendrán que seguir estas nuevas pautas. Los administradores de red tendrán que asegurar que las solicitudes de certificados de servidor SSL estén expresadas de tal forma que se asocien con un nombre de dominio externo, sostiene Andrews. Algunas empresas ya usan nombres que se encadenan con el nombre de la compañía, pero “éstas son probablemente la minoría”, añade.

 

¿Más trabajo para usted?

Estos cambios relacionados a la emisión pública de certificados para servidores SSL significa que en algunos casos, los administradores de red podrían necesitar ampliar su infraestructura DNS interna de tal forma que el nombre se mapee apropiadamente, indica Andrews. Para algunas organizaciones, especialmente las grandes que tienen grandes redes, este podría ser un conjunto de cambios difíciles, que incluso podrían impactar en las aplicaciones que corren en estos servidores, reconoce el ejecutivo.

Para las organizaciones o administradores de red que no deseen adherirse a las nuevas pautas, hay pocas alternativas, además, afirma Andrews, muchos no serán atractivas. Las organizaciones pueden decidir no obtener certificados SSL públicamente emitidos para servidores internos, y en cambio comenzar a emitir de forma privada certificados digitales por sí mismas confiando en su propia jerarquía administrativa. Pero los navegadores web no necesariamente podrían reconocer estos certificados privados y se tendrían que realizar más cambios para asegurarse que lo hagan.

Otro de los plazos del CA/B Forum que se debe tomar en cuenta: el 1 de octubre del 2016. Ese día, todos los certificados SSL emitidos para dominios internos que no cumplan con los estándares serán revocados. Las organizaciones que determinen que deben hacer cambios para cumplir con las pautas tienen dos años para hacer la migración.

 

Ellen Messmer, Network World

 

Cualquier cosa conectada a Internet es susceptible de ser atacada, según Panda Security

“Cualquier cosa conectada a Internet es susceptible de ser atacada”. Con esta frase Panda Security advierte que los Smart home, o los hogares inteligentes, también son objetivo de los cibercriminales.

Y es que estas tecnologías cada vez cuentan con más adeptos, algo que hace que algunos “no se hayan parado a pensar es la puerta que están abriendo a los cibercriminales, que tratan de manipular cada aparato electrónico que se conecta a la Red. Desde los típicos aparatos de monitoreo de bebés hasta los termostatos, pasando por una simple bombilla. Muchos de estos productos van aparejados de una aplicación para teléfonos inteligentes o una web que permite a los usuarios controlar sus dispositivos, cámaras y hasta las cerraduras de sus puertas a distancia. Y todo eso es potencialmente vulnerable”, afirma Panda Security.

La compañía explica que ya se han encontrado las primeras amenazas para Nest, el termostato de Google que regula la temperatura de una casa (el atacante utiliza el modo “restaurar” del dispositivo para arrancar con el ‘kernel’ de Linux y, desde ahí, modificar el sistema de archivos del termostato); para las bombillas LIFX (a través de un dispositivo móvil se puede encender y apagar las luces de una casa y éstas pueden ser hackeadas) o para Inax Satis, un inodoro inteligente que puede ser controlado por cualquiera que tengan instalada la aplicación de Satis. Estos casos, que no son potencialmente muy peligrosos, demuestran que “cualquier cosa puede ser hackeada”.

Panda Security, además, asegura que hasta los equipos de monitoreo para bebés pueden ser atacados y por ello recomienda “cambiar la contraseña del wifi y de la cámara y aceptar todas las actualizaciones del fabricante en el teléfono”.

 

Bárbara Madariaga

El IPv6 no es el fin del mundo

“Se va a acabar el mundo”, fue una frase muy usada haciendo referencia a las amenazas durante el cambio de milenio. Muchos creían que nuestros sistemas financieros no estarían en la capacidad de ajustarse durante la transición, al mismo nivel que lo harían otros sistemas importantes. Sin embargo, una vez que el Siglo XXI llegó, ningún gusano vació la cuenta bancaria de nadie.

Algo similar está sucediendo con el “fin” del IPv4 (refiriéndose a que Internet se está quedando sin direcciones para los nuevos dispositivos). Aunque la importancia de adoptar el IPv6 es real, sin tener en cuenta las preocupaciones que rodean el cambio, es importante contemplar que los sistemas IPv4 que se encuentran activos en la actualidad, seguirán funcionando hasta que se complete la transición (que probablemente se hará en dos años). Esos sistemas sólo se apagarán una vez que se haya verificado que ninguna información crítica se perdió durante la transferencia.

Sin embargo, después de que se haya dedicado tanto esfuerzo para cambiar hacia el IPv6, ¿será necesario hacer la transición hacia otro nuevo protocolo? Los números indican que no será necesario. Dado que todos los dispositivos (incluyendo teléfonos celulares, tabletas, automóviles, relojes y muchos más) con acceso a Internet requieren de una dirección IP, es fácil de entender cómo nos las arreglamos para utilizar 4.3 mil millones de direcciones IPv4. Pero una vez que hayamos cambiado hacia el IPv6, habrá 3,4×1038 de direcciones disponibles.

Para poner esta cifra en perspectiva, imagine que para cada átomo sobre la faz de la tierra tiene que designarle una dirección IPv6 por 100 veces. Con el IPv6 podremos hacerlo. Por lo tanto, es completamente seguro decir que en muchos años no necesitaremos cambiar la numeración de nuestro sistema IP, o quizás nunca más.

Existen muchas tecnologías disponibles para realizar la transición de IPv4 a IPv6, algunas de las cuales incluso permiten la coexistencia de ambos protocolos en la misma red (por ejemplo, Dual Stack  o NAT64/DNS64), sin embargo, debemos recordar que las aplicaciones que requieren conectividad “end-to-end” (tales como VoIP, juegos en línea y el contenido generado por los usuarios de IPv6) pueden presentar problemas dependiendo de la tecnología utilizada – otra razón para acelerar la adopción del IPv6.

Otra preocupación fundamental en el intento de realizar una migración estable es la de la seguridad. Aunque el nuevo protocolo ha evolucionado en algunos aspectos (IPSec integrada y mayor efectividad al tratar de mapear una red mediante un escaneo tradicional), es importante tener en cuenta que su adopción trae nuevos riesgos y problemas, como los ataques a las aplicaciones web (Inyección SQL, XSS), difusión de malware y robo de datos. Con el fin de mantener la seguridad de la red, es muy importante evaluar si los dispositivos empleados para mitigar los ataques y manejar la seguridad están preparados o no para el nuevo protocolo y si van a proporcionar el mismo nivel de seguridad como lo han hecho con el IPv4. De igual importancia se presenta la recolección de inteligencia adicional para ataques dirigidos específicamente a dispositivos IPv6 (como el ICMP NeighborAdvertisementSpoofing, una nueva técnica creada para establecer los ataques conocidos como “Man-in-the-Middle”).

El IPv6 aún no ha sido adoptado con amplitud en el mundo. De acuerdo a las últimas estadísticas de Google, Perú es el país que lleva el liderazgo en América Latina, con más del 5% de usuarios usando IPv6 para navegar por la Web. En Brasil, menos del 1% de la población en línea utiliza esta tecnología para acceder a Internet.

Es clave planificar con cuidado la transición al IPv6; teniendo en cuenta que el IPv4 no desaparecerá súbitamente y que se debe promover una transición segura y exitosa, mientras se mantiene el mismo nivel de seguridad que se tiene con el IPv4 (tales como la verificación de integridad y la profunda inspección de paquetes).

 

Por Hector Salgado, Sr. Sales Engineer Fortinet, México

 

Cómo proteger las infraestructuras como servicio de ataques y brechas de datos

Ante casos como el de la compañía Code Spaces, que perdió en un sólo día todos sus datos y propiedad intelectual tras un ataque DDoS, Check Point alerta de los riesgos a los que se exponen muchas organizaciones que utilizan una infraestructura como servicio (IaaS) en la nube y da las claves para evitarlos.

Hoy en día, son muchas organizaciones que utilizan libremente una infraestructura como servicio (IaaS) basada en la nube, pero lo que quizás desconocen son las consecuencias que pueden sufrir si no toman las medidas necesarias, entre ellas los ataques distribuidos de denegación de servicio (DDoS) o brechas de datos que faciliten el robo de propiedad intelectual.

Proporcionar a varias personas un acceso sin restricciones al panel de control de una infraestructura como servicio hace que ésta se vuelva más vulnerable frente al intento de un cibercriminal de tomar el control del entorno. Un ejemplo de ello es lo sucedido a Code Spaces, una compañía que ofrecía repositorios de código fuente y servicios de gestión de proyectos para desarrolladores alojados en los Servicios Web de Amazon, y que se vio obligada a cesar sus operaciones el pasado mes de junio, tras sufrir un ataque DDoS seguido de una brecha de datos que destruyó su propiedad intelectual.

Check Point Software alerta de estos riesgos y ofrece una serie de mejores prácticas a tener en cuenta cuando se implementa IaaS.

1. Evitar accesos no autorizados. Es necesario permitir el acceso sólo a los usuarios que lo requieren estrictamente para su trabajo, por ejemplo, creando grupos de usuarios y asignando la cantidad mínima de derechos de los miembros del grupo para hacer un trabajo específico. Para evitar el acceso no autorizado es importante implementar autenticación multi-factor robusta, la cual puede requerir que el usuario tenga un nombre de usuario y contraseña, además de un código adicional dado por un producto de autenticación de terceros. Check Point recomienda considerar el uso de Security Assertion Markup Language (SAML), un estándar abierto que se puede utilizar junto con otros mecanismos de identidad, tales como Windows Active Directory, lo que añade otra capa de seguridad al exigir a los usuarios conectarse a la consola de administración sólo cuando están en la red local de la compañía o en una conexión VPN segura.

2. Reforzar la protección tanto del endpoint como de la red local. A fin de disminuir el riesgo de tener malware en los dispositivos que pueden robar las credenciales de usuario. Es importante asegurarse de que el software antivirus se actualiza y que hay programados escaneados en busca de virus, así como instalar un firewall de red y un Sistema de Prevención de Intrusiones (IPS), junto con antivirus de red, software anti-bot y tecnología de emulación de amenazas.

3. Cree un plan de respuesta y realizar tareas de backup y recuperación. Según la compañía, una organización requiere, como mínimo de tres planes de respuesta para minimizar la pérdida de datos o la interrupción de los servicios. De forma adicional a estas recomendaciones, es importante que la organización adopte una cultura de protección del servidor IaaS como si estuviera dentro de la propia organización.

“La facilidad y la asequibilidad de una oferta de IaaS es un gran beneficio para muchas empresas, pero es importante que cada organización encuentre el justo equilibrio entre la satisfacción de las necesidades de sus usuarios y, al mismo tiempo, la protección de sus activos”, destaca Mario García, director general de Check Point, añadiendo que “el fatal desenlace de Code Spaces puede servir de ejemplo para que otras organizaciones no se vean obligadas a detener o incluso cerrar sus negocios por una gestión inadecuada de sus políticas de seguridad”.

 

Hilda Gómez

Automatizando la liberación de aplicaciones, controlando el riesgo operativo y acelerando la entrega de SW

Las organizaciones de hoy demandan confiabilidad y velocidad en sus procesos de negocio. Los responsables de TI pueden contribuir a alcanzar este objetivo mediante la estandarización y automatización de las tareas a su cargo, tales como la entrega de aplicaciones con mejores tiempos de respuesta al negocio, reducir costos y cumplir las normativas de auditoría, riesgo operativo y tecnológico.

¿De qué manera los CIO pueden entregar aplicaciones con mejores tiempos de respuesta al negocio? ¿Cómo pueden contribuir para que se reduzcan los costos y se cumplan las normativas de auditoría, riesgo operativo y tecnológico relacionadas al proceso de cambios de SW?

Estos y otros temas serán abordados en el webcast Automatizando la liberación de aplicaciones, controlando el riesgo operativo y acelerando la entrega de SW, que se realizará el miércoles 20 de agosto, en punto de las 10:00 a.m., con la participación de Arlen Itzel Espinosa, Estratega Senior de Soluciones de CA Technologies México.

No lo piense más y regístrese hoy mismo

Guía para la optimización de la eficiencia energética del centro de datos moderno

El centro de datos moderno ha cambiado. Hay nuevas demandas con respecto al cómputo en la nube, el big data y la eficiencia energética en la infraestructura. Por ello, los administradores de sistemas deben saber dónde están asignadas las demandas de energía y cómo optimizar esos recursos. Este whitepaper aborda las consideraciones clave para la optimización y administración del centro de datos, así como el manejo óptimo de la energíaPanduit ayudó a una empresa de tecnología a desplegar una solución completa para optimizar sus operaciones en el centro de datos. El objetivo fue manejar los costos operativos (OpEx) y maximizar el espacio disponible, energía, enfriamiento y recursos de comunicación de datos, tanto ahora como en el futuro. El último punto es particularmente importante para el cliente, quien ha experimentado un gran crecimiento que se espera continúe.

http://ediworld.com.mx/surveyserver/index.php?sid=25258&lang=es-MX