Etiqueta: gestión

Retos de administración en Infraestructura de Centro de Datos

Con el auge de la era digital y el crecimiento de la Internet de las Cosas (IoT),la administración de la infraestructura de red en el centro de datos y los edificios se ha vuelto cada vez más compleja.

La cantidad de dispositivos conectados dentro de los edificios, así como la responsabilidad de gestionar eficientemente una nueva generación de complejos cables de fibra con conectores MPO para soportar mayores velocidades en los Centro de Datos, ha traído consigo grandes retos para los cuales los administradores deben estar preparados, y que han ocasionado que se deban desarrollar más y mejores herramientas para hacerles frente.

Con el desarrollo de la IoT los usuarios están vinculando nuevos dispositivos IP de diferentes géneros que tradicionalmente no se conectaban a la red, por lo que las infraestructuras deben ser capaces de soportarlo, pero no sólo eso, sino también poder ser administradas de una forma eficiente.

“Hoy resulta indispensable automatizar la administración de las infraestructuras para realizar una gestión adecuada de los dispositivos y las nuevas tecnologías, tanto en edificios como en centro de datos. Debido a la gran cantidad de dispositivos IP que se conectan a la red, tal vez el reto más importante sería poder hacer un seguimiento continuo de la ubicación geográfica de los diferentes dispositivos IP conectados, qué tipo de dispositivos son, y cuál es su comportamiento dentro de la red, para que se les pueda dar un tratamiento adecuado”, aseveró Sergio Uribe, Manager Regional Consultant – CALA en CommScope.

Aunque la automatización de la administración de infraestructura surgió hace tiempo, no ha sido sino hasta recientes años que ha cobrado mayor relevancia gracias al desarrollo tecnológico y a los nuevos requerimientos de los usuarios. La migración a altas velocidades de 40 y 100 Gbps en los centro de datos, la amplia cantidad de dispositivos IP conectados a la red en edificios, así como la necesidad de minimizar el tiempo de inactividad, han ocasionado que los proveedores deban innovar para ofrecer soluciones que cubran estas necesidades.

Administración del centro de datos

Quizá una de las características recientes más complejas es el aumento de velocidad de transmisión, que ha hecho que en los centros de datos ya no se utilicen dos hilos de fibra a través típicamente de conectores LC para crear enlaces -por uno se envía y por otro se recibe-, sino que ahora se utilicen conectores MPO de 12, 24 o inclusive 32 hilos de fibra, a través de los cuales se reciben y transmiten datos. Esto permite alcanzar velocidades de 40 y 100 Gbps, lo que ha ocasionado que la administración,relativamente sencilla con los cables tradicionales de solo dos hilos de fibra, se vuelva mucho más compleja al utilizar esto cables que en un extremo tienen un conector MPO y en otro extremo puede tener varias puntas LC o MPO.

“En el mercado esto se conoce como High Speed Migration, o Migración a Altas Velocidades, es decir, que los centro de datos para poder soportar mayores velocidades de transmisión utilizan enlaces de fibra óptica con una configuración mucho más compleja, por lo que la asistencia de un sistema de administración de infraestructura que ayude a detectar qué está conectado con qué, y cómo puedo conectar esos cables entre sí para que sean compatibles se ha vuelto necesaria”, agregó el Manager Regional Consultanten CommScope.

Administración en Edificios

En este segundo escenario la mayor cantidad de dispositivos que se conectan hace que la administración de la infraestructura sea muy compleja. Se ha vuelto muy difícil saber qué está conectado en cada uno de los puntos de red, además de cómo se mueven los dispositivos en red dentro del edificio.

“Para eso precisamente una solución de administración de infraestructura automatizada permite tener un control de la ubicación geográfica de los dispositivos que se conectan, saber qué tipo de dispositivos son, qué dirección IP tienen y qué nombre del dispositivo se recibe dentro de la red para poder hacer una administración adecuada de sus servicios. Conocer ambos panoramas es fundamental para los administradores y operadores”, añadió.

Hacer más sencilla y eficiente la gestión de la infraestructura de red es una labor compleja para los operadores de centro de datos y administradores de red de edificios, sin embargo, contar con las herramientas adecuadas, a la par del conocimiento y asesoría adecuada, pueden hacer de la administración automatizada una fortaleza para las empresas, tanto en las velocidades de transmisión, como al tener la certeza de que sus datos estarán completamente seguros.

“Estamos conscientes de que la continua demanda de crecimiento de ancho de banda en la redes, así como el soporte a diferentes tipos de dispositivos hacen que la administración de una red sea cada vez más compleja”,finalizó Sergio Uribe, Manager Regional Consultant – CALA en CommScope.

 

N. de P.

D-Link presenta Switches gestionables enterprise accesibles para Pymes

La familia de Switches Gestionables DGS-3000 Series Layer 2+ Managed Gigabit. Las funciones de Capa 2 avanzada (L2+) y un conjunto de herramientas de seguridad y administración con línea completa de Comandos CLI hacen que los DGS-3000 se adapten a cualquier entorno, tanto en el núcleo de red como en los enlaces, desde grandes empresas a campus, proveedores de servicios o aplicaciones Metro Ethernet para Smart City. Los DGS-3000 ofrecen múltiples opciones y alta densidad de puertos (hasta 48) de cobre o fibra, con puertos Gigabit, PoE/PoE+, SFP Gigabit y SFP+ 10GbE.

Características

La familia D-Link DGS-3000 de Switches Gigabit Gestionables L2+ inc luye funcionalidades de Capa 2 avanzada (L2+) con routing estático, QoS robusto, con control de ancho de banda por puerto y por flujo de tráfico, IGMP y Multicast VLAN y opciones de seguridad, como IMPB (vinculación IP-MAC-Puerto), Control de servidor DHCP y prevención de ARP Spoofing. Además, cuenta con switches Gestionables por interfaz Web y línea completa de Comandos CLI (Puerto de Consola, Telnet, SSH), SNMP y RMON, capacidades Metro Access Switch (Metro Ethernet), Puertos Gigabit cobre o fibra, enlaces 10 Gigabit y puertos PoE/PoE+ (Power Over Ethernet) para alimentación de dispositivos por el cable de red.

La protección 6 kV contra sobretensión en cada puerto, la función ERPS (Ethernet Ring Protection Switching) y las opciones 802.3ah OAM maximizan la disponibilidad del servicio.

Características Multicast, las funciones de multidifusión de capa 2 permiten que las transmisiones de IPTV se distribuyan de forma eficiente. Por otra parte, la solución completa de seguridad con listas de control de acceso (ACL) y múltiples formas de autenticación de dispositivos/usuarios. Además, ITU-T G.8032 permite un cambio de topología en 50 milisegundos en caso de fallo, minimizando la interrupción del servicio. La agregación de enlaces IEEE 802.1AX y 802.3ad permite agrupar varios puertos para proporcionar redundancia y equilibrar la carga en entornos de críticos. El Apilado virtual (SIM), de forma que hasta 32 switches separados físicamente se administren mediante una dirección IP única y las funciones como la compatibilidad RADIUS permiten integrar los switches con sistemas back-end para facturación o control de acceso avanzado. Garantía ilimitada de por vida La familia de Switches Gigabit Gestionables L2+ DGS-3000 dispone de cuatro modelos para cubrir todas las necesidades en conectividad Gigabit y 10 Gigabit con enlaces de cobre o fibra.

Dependiendo del modelo, los precios PVP con IVA van desde los 787 dólares a los 1235 dólares. DGS-3000-28LP: 24 puertos Gigabit (todos PoE) + 4 puertos SFP; DGS-3000-28X: 24 puertos Gigabit (todos PoE) + 4 puertos 10G SFP+ DGS-3000-28XMP: 24 puertos Gigabit (todos PoE+ 802.3at, Budget 370W) + 4 puertos 10G SFP+ DGS-3000-52X: 48 puertos Gigabit + 4 puertos 10G SFP+.

Redacción

Cómo las plataformas IoT reinventarán los modelos de negocio 

El Internet de las Cosas (IoT) va a transformar tanto el mundo de la empresa como el de las ciudades y la sociedad en su conjunto, no es nada nuevo. Pero la adopción de este (ya no tan joven) fenómeno exige la puesta a punto de otras muchas tecnologías que, a su vez, nos pueden llevar hasta un terreno por ahora inexplorado y que demandará nuevas habilidades. 

Un nuevo estudio de Gartner emplaza a los CIO a elaborar una lista de prioridades tecnológicas que les permita desarrollar una buena estrategia IoT. Ésta sería la puerta de entrada a un ecosistema TI en el que identificar brechas de habilidades y planificar contrataciones. Para empezar, explica Nick Jones, analista de la consultora, una buena piedra de toque son las plataformas IoT. Se trata de un software que proporciona, al menos, las funciones básicas más demandadas por los sistemas de conectividad típicos. Éste puede incluir aprovisionamiento y gestión de puntos finales, desarrollo de aplicaciones, gestión y toma de datos, procesamiento de secuencias de eventos, análisis, visualización, seguridad, redes, comunicaciones y gestión de procesos empresariales. 

Estas plataformas ya pueden soportar las sofisticadas arquitecturas IoT, y pueden ser implementadas on-premise o como servicios en la nube. Grandes jugadores mundiales como AWS o Microsoft ya cuentan con soluciones de estas características. 

El informe señala que las plataformas IoT jugarán un papel relevante en la llamada reinvención del modelo de negocio que estamos viviendo actualmente. “Aunque ninguna plataforma es la adecuada para todas las aplicaciones IoT”, indica Jones. 

Uno de los grandes frenos para la implementación de este nuevo ecosistema podría ser el coste, que variaría de las decenas a los cientos de miles de dólares dependiendo de los derechos de licencia. Sin embargo, el estudio anima a acoger este tipo de infraestructuras ya que el retorno de la inversión estaría prácticamente garantizado. “Muchas de las decisiones estarán influenciadas por las necesidades futuras del negocio y por una buena comprensión de los directivos, lo que desembocará en arquitecturas digitales más fuertes”, asegura. 

Redacción 

 

AWS anuncia Amazon Connect para la gestión de contactos en la nube

Amazon Web Services, está presentado un nuevo servicio llamado Amazon Connect, para la autogestión de centros de contacto basado en la nube que hace más fácil para cualquier negocio proveer un mejor servicio al cliente a menores costos.

Amazon Connect está basada en la misma tecnología de centros de contacto usada por los servicios al cliente de Amazon alrededor del mundo para potenciar millones de conversaciones de los clientes. Configurar un servicio de contactos basado en la nube con Amazon Connect es tan fácil que con hacer unos clics en la Consola de Administración de AWS, y los agentes podrán comenzar a tomar llamadas en cuestión de minutos. No hay pagos anticipados, o compromisos a largo plazo ni infraestructura adicional para administrar con Amazon Connect; los clientes solo pagan por el tiempo que sus usuarios están conectados al servicio y por la telefonía usada.

El centro de contacto representa la principal cara que una empresa considera como su activo más importante: la relación con los clientes. Pero, los centros de contacto tradicionales son complicados y costosos. Las compañías invierten principalmente en sistemas propietarios de hardware y software complejos, que pueden tomar meses o incluso años en desarrollarse, que requieren conocimientos especializados para configurarlos y son inflexibles e imposibles de escalar cuando el volumen de contactos cambia.

Debido a que Amazon Connect es un servicio basado en la nube, los clientes pueden dar de alta y configurar un “Servicio de Contacto Virtual” en minutos. No hay infraestructura que desarrollar o configurar, por lo que los clientes pueden escalar su Connect Virtual Contact Center de Amazon hacía arriba o abajo, teniendo desde diez a cientos de agentes para atender los ciclos de negocio (por ejemplo, promociones de corto plazo, picos de temporada, o lanzamientos de nuevos productos) y pagando solo por el tiempo que los clientes hayan interactuado con Amazon Connect, más cualquier servicio asociado de telefonía usada. La interfaz gráfica de autoservicio de Amazon Connect se facilita para los usuarios sin conocimientos técnicos a que diseñen flujos de contacto, administren agentes, y rastreen métricas de desempeño, sin necesidad de conocimientos previos.

“Hace diez años, tomamos la decisión de crear nuestra propia tecnología en centros de contacto desde cero, porque los servicios existentes no nos proveían de escalas, costo de estructura ni características que necesitábamos para entregar un servicio de excelencia a nuestros consumidores alrededor del mundo.” Comentó Tom Weiland, Vicepresidente de Servicio al Cliente Mundial de Amazon.

 

Cómo iniciar la gestión de riesgo en la empresa

¿Qué es la gestión de riesgos?

Iniciemos con el tema básico, cuando se tiene algo de valor, ya sea como una red corporativa, un sitio web o una aplicación móvil, existe el riesgo de administrar para poder protegerlo. A medida que las organizaciones innovan y cambian la forma en que utilizan la tecnología, los riesgos también cambian. Los enfoques tradicionales y los controles ya no son lo suficientemente buenos. Caroline Wong, vicepresidente de Estrategia de Seguridad de Cobalt, ofrece algunas sugerencias para gestionar el riesgo en el moderno entorno empresarial actual.

El primer paso para gestionar el riesgo es saber exactamente qué es lo que se desea proteger. Es posible que una organización necesite proteger los datos de sus clientes, la información de pago o la propiedad intelectual. Una vez que sepa lo que es importante y por qué, entonces puede comenzar a adaptar su enfoque de gestión de riesgos.

Es importante conocer todas las formas que tienen los cibercriminales de acceder o comprometer los activos más valiosos de una empresa. Para ello es necesario utilizar herramientas, consultores o una plataforma de seguridad. De esta manera, el mayor riesgo que corre no es el riesgo que no conoce.

Uno de los métodos que se deben seguir para comprobar la propia seguridad de una organización son las pruebas de penetración, las cuales simulan la perspectiva del atacante. Gracias a esto la empresa puede ser consciente de los riesgos para poder tratarlos cuando sea necesario antes de que los malos exploten las vulnerabilidades y potencialmente comprometan las joyas de la corona. Aun así, se debe tener en cuenta que encontrar estas amenazas mediante este tipo de pruebas no mejora la postura de riesgo de la organización; en cambio, solucionarlas o eliminarlas sí.

Hay una gran cantidad de tecnología disponible para ayudar a las organizaciones a proteger sus redes y aplicaciones. Eso sí, las herramientas no funcionan por sí mismas, es decir, los problemas identificados por las herramientas -por lo general- no se pueden arreglar sin la intervención humana. La creatividad humana es necesaria para identificar los defectos de seguridad más interesantes, clasificarlos por la probabilidad de explotación y el impacto potencial, y tratarlos en consecuencia.

La priorización es un componente clave para gestionar el riesgo porque los presupuestos son limitados y las vulnerabilidades pueden parecer interminables. La realidad es que no puedes hacer todo. Es tan importante decidir explícitamente lo que no harás como lo que harás.

Claro que, si la forma en que una organización genera productos está cambiando, entonces los conjuntos de habilidades requeridos para gestionar el riesgo asociado también deben cambiar. Pero es importante tener en cuenta que a medida que las empresas cambian la forma en que construyen productos, los atacantes van evolucionando también la manera en que intentan atacar a las aplicaciones. A medida que los departamentos de TI trasladan sus operaciones a la nube, la gestión de riesgos debe centrarse más en las aplicaciones que en las redes.

Redacción

 

16 puntos del Big Data que todo profesional de TI debe saber

Comstor ofrece 16 claves a tener en cuenta sobre Big Data que todo profesional de TI debe saber, donde aprender a usarlo es inmensamente más relevante.

Saber qué es lo que significa cada término relacionado al Big Data es fundamental para aplicar en el día a día de los negocios. Sin embargo, muchos de los términos que existen hoy no poseen una definición exacta, pues se transforman en la medida que son usados.

A continuación, dejamos algunas palabras esenciales para los que trabajan con esta tecnología:

1-    Algoritmo: Secuencia lógica, finita y con instrucciones que forman una fórmula matemática o estadística para realizar el análisis de datos.

2-    Analytics: Es la forma de capturar informaciones, procesarlas y analizarlas para que se conviertan en insights.

3-   BI (Business Inteligence): Es el método que transforma informaciones almacenadas y analizadas en datos que son estratégicos para una empresa y que se convierten en ganancia para el negocio.

4-    Data Scientist: Es el analista de datos. La persona que capturará los insights, las principales informaciones dentro de un gran volumen de información.

5-    Small Data: Mucho más pequeño que el Big Data, se refiere al análisis que se hace con pocas fuentes de datos.

6-    Datos estructurados y no estructurados: Los estructurados tienen una organización lógica, pero con posibilidades pequeñas de extracción de informaciones para el Big Data. Por otro lado, los no estructurados son desorganizados, como los mensajes en emails y redes sociales, pero permiten una gran posibilidad de extracción de insights comerciales.

7-    Dark Data: Se refiere a datos desconocidos que pueden perderse o almacenarse, sin la posibilidad de accederse o analizarse en caso de que el sistema no esté configurado para eso.

8-    Data Cleansing: Es el método que mantiene los bancos de datos libres de informaciones inconsistentes o irrelevantes.

9-    Data Lake: Es un lago de datos en el cual se almacenan informaciones en su estado natural y en gran volumen, es allí donde el Data Scientist debe sumergirse para encontrar sus principales insights.

10- Data Mining: Es el proceso previo al Analytics, es la minería de los datos, la forma de descubrir informaciones relevantes.

11- Dirty Data: Son los registros que no se han limpiado. Datos que se capturaron, almacenaron y que se usarán, pero que precisan ser primeramente trabajados.

12- Fast Data: Los datos rápidos son los que pierden valor a lo largo del tiempo y que, por eso, necesitan ser analizados prácticamente en tiempo real para que generen respuestas estratégicas para las empresas que necesitan dar respuestas y tomar decisiones de forma instantánea.

13-Slow Data: Es lo opuesto de Fast Data y hace referencia a las informaciones que se pueden capturar en el Data Lake para un análisis posterior. Esos datos no necesitan un análisis en tiempo real, con tiempo de respuesta menor.

14- Medium Data: Término que define una cantidad intermediaria de datos que son necesarios para que se generen análisis e insights. Es un tamaño menor de información que el generado por el Big Data.

15- Predictive Analytics: El análisis predictivo es la utilización de datos para predecir tendencias o eventos futuros.

16- Sentiment Analysis: El análisis de sentimiento son técnicas usadas para identificar el sentimiento de un individuo sobre determinada cuestión. Hay muchos términos que surgen a cada momento, muchas veces creados por proveedores de herramientas y analistas de consultorías para intentar ofrecer un nuevo servicio. Generalmente son funciones que ya existen y que quien trabaja con Big Data ya está acostumbrado, pero con un nuevo nombre o definición.

Finalmente, hay que destacar que el dominar estos términos es importante para el área de TI, pero es aún más importante que se enfoque en la forma en la que se puede usar el Big Data para que se generen resultados que puedan transformar una empresa.

N. de P. Comstor

Pure Storage presenta equipo de almacenamiento flash para la nube

Pure Storage, presentó el almacenamiento a escala de petabyte, respaldado por el lanzamiento de la nueva generación de FlashArray//m, el cual ofrece el mejor desempeño con la simplicidad y agilidad que caracterizan a una nube pública o privada.

Este lanzamiento de la firma, es un almacenamiento construido con la intención de ser fácil, eficiente y permanecer siempre vigente, así como ser capaz de ofrecer simplicidad, automatización, resiliencia, con un modelo de negocio amigable e incluyendo todos elementos esenciales para el cómputo en la nube.

“El almacenamiento es la base de todo lo que hacemos en la economía digital, cada vez más apoyada en el centro de cómputo en la nube”, aseguró Matt Kixmoeller, Vicepresidente de producto en Pure Storage. “Sin importar que se trate de nube pública, privada, SaaS o una mezcla de las tres. El almacenamiento 100% flash eficiente, ahora a escala de petabyte, es la base flexible para las nubes de hoy y del futuro”.

La nueva actualización del FlashArray//m, escala hasta los 512 terabytes de almacenamiento en crudo, lo que se traduce en aproximadamente 1.5 petabytes de capacidad efectiva. Esta escala y densidad permiten a los clientes reducir varios racks del almacenamiento usando tecnología de disco mecánicos a siete unidades o menos.

El nuevo FlashArray//m sin ventana de mantenimiento y migración de datos, ofrece cuatro opciones de controladoras para cumplir las necesidades de desempeño y capacidad:

El //m10 (presentada este mismo año). Proporciona hasta 25 TBs de capacidad efectiva (de 5 a 10 TBs de almacenamiento en crudo) y hasta 100,000 IOPS de 32K.

Para el //m20. Provee hasta 250 TBs de capacidad efectiva (de 5 a 80 TBs de almacenamiento en crudo) y hasta 200,000 IOPs de 32K.

Además //m50. Brinda hasta 500 TBs de capacidad efectiva (de 20 a 176 TBs de almacenamiento en crudo) y hasta 270,000 IOPS de 32K.

Y finalmente, //m70. Ofrece hasta 1.5 petabytes de capacidad efectiva (de 42 a 512 TBs de almacenamiento crudo) y hasta 370,000 IOPS de 32K.

A través de estas opciones de nuevas controladoras, FlashArray//m proporciona un aumento de 20% a 30% en desempeño y un incremento de entre 100% y 276% en capacidad comparado con generaciones anteriores. El escalamiento de objetos ha aumentado 10 veces, mejoró la escalabilidad total del sistema y permite realizar copias de seguridad a gran escala con hasta 50,000 snapshots eficientes en espacio.

Redacción

Lo que debe saber del ERP en la Transformación Digital

La integración entre las áreas de negocio, la eficiencia operativa, el aumento de la rentabilidad y productividad, así como la reducción de costos en una organización, son algunos de los tantos beneficios de implementar un software empresarial a nivel microeconómico.

México es el octavo productor de autos y el cuarto exportador de unidades en el mundo, se ha tenido casi 12% desde el 2011, la industria automotriz puede convertirse en un mayor generador de ingresos por exportación que el petróleo o el turismo.

Para esta industria la adopción de tecnología de información basada en un software de tipo ERP es indispensable para asegurar los niveles de productividad exigidos por cada marca en sus respectivos mercados de exportación. Los niveles de servicio y competitividad entre las concesionarias automotrices son cada vez mayor; por lo que se necesita de una herramienta que tome el control de los procesos de: compra y venta de autos nuevos y semi nuevos, refacciones, autorización de garantías, campañas de servicio posventa basado en kilometraje, administración de flotillas, control de venta por agente, órdenes de taller; así como, el control de status en órdenes por cliente, que permiten mayor organización en los procesos

El mercado de comercio minorista representa entre el 48% y 70% de las ventas de fabricantes y mayoristas en el país. El sector manufactura aportó un aumento de 1.4% a tasa anual en este último ciclo.

La mano de obra y la capacidad de producción, han permitido que este sector se destaque en el ámbito internacional, abriendo nuevas oportunidades para fabricantes, lo que requiere de mejores herramientas en la gestión de sus procesos.

Ante estas cifras, México se coloca en el lugar número once entre las naciones más pobladas del mundo, creciendo la población a un ritmo de 1.5 millones de personas por año.

Con 118 millones de habitantes y una esperanza de vida promedio de 73 años, las clínicas y hospitales requieren mejorar su nivel de atención y la optimización de sus recursos para cubrir la creciente demanda en los servicios de salud a todos los niveles de la población.

Las gestiones operativas y administrativas que no se llevan correctamente, desvían a estas instituciones de su foco principal: atender la salud de sus pacientes, motivo por el cual el uso de una solución tecnológica, es necesaria para apoyar la administración de servicios; espacios; insumos; personal médico y colaborativo; control de historiales y reportes clínicos; agenda de citas; entre muchos otros requerimientos, que todavía son deficientes en este sector.

Antes, se creía que, al perder cierto número de procesos, se perdía la estabilidad del negocio o empresa, no obstante; la Transformación Digital ha hecho que se vuelvan más eficientes los procesos aumentando su nivel de competitividad, un reto para la economía nacional.

Redacción

 

Cómo tener una gestión inteligente en Centros de Datos

A medida que han cambiado las necesidades de infraestructura dentro de los Centros de Datos, los sistemas de gestión tradicionales cada vez han quedado más rezagados al momento de satisfacer dichos requerimientos.

Actualmente, se tiene crecimiento y desarrollo de nuevas tecnologías ahora los desafíos dentro de los centros de datos se encuentran también en cómo gestionar eficientemente los numerosos gabinetes de electricidad, los sistemas de refrigeración, todos los equipos de TI y todas las instalaciones de infraestructura; por ello, se requiere de nuevas soluciones que brinden una administración inteligente, eficiente y que disminuya los riesgos a futuro.

Los Centros de Datos son en la actualidad el núcleo de todas las actividades de una empresa, por lo que su correcto funcionamiento resulta primordial para satisfacer las necesidades crecientes de disponibilidad, conexión y transmisión de datos continua. Con las aplicaciones modernas se exigen cada vez centros de datos más grandes y funcionales, sin embargo, los desafíos también han crecido exponencialmente.

Sebastián Eduardo Mediavilla, Manager Technical Sales CCAS Region en CommScope, señala que, “los Centros de Datos tienen hoy en día cuatro grandes retos principales”:

  • Reducir los costos de operación y mantenimiento.
  • Disminuir el gasto energético, resultado del crecimiento de transmisión de datos y uso de nuevas aplicaciones.
  • Administración del espacio y capacidad de grandes volúmenes de datos.
  • Mantener la infraestructura lista para los cambios a futuro en un entorno de innovaciones y avances tecnológicos constantes.

Contar con una herramienta que permita la gestión adecuada, eficiente e inteligente de toda la infraestructura del centro de datos es hoy más una necesidad que un lujo. Por ello contar con una herramienta inteligente de gestión de infraestructura, que pueda garantizar el menor impacto posible dentro de los centros de datos y de la empresa misma, resulta fundamental.

En la actualidad los retos tanto en funcionamiento como en administración de los Centros de Datos siguen creciendo, ya que ahora el desafío de cada negocio será lograr adaptar las nuevas tecnologías dentro de su infraestructura de red, siempre cuidando minimizar los riesgos de desconexión, intermitencia y seguridad de datos.

N. de P. CommScope

 

MIlk: un nuevo lenguaje de programación desarrollado por el MIT

En el MIT han logrado este desarrollo, investigadores del instituto han creado un código llamado Milk que permite a los desarrolladores de aplicaciones gestionar la memoria de manera más eficiente en los programas que se relacionan con datos dispersos entre grandes conjuntos.

La gestión de la memoria, puede ejecutar conjuntos de datos para los datos tradicionales. Pero, cuando hablamos de grandes volúmenes de datos la administración puede ser demasiado lenta. Sin embargo, un nuevo lenguaje de programación anunciado por el MIT tiene como objetivo remediar el problema e incluso cuadruplicar la velocidad en algoritmos comunes.

El principio de localidad es el que rige la gestión de memoria en la mayoría de los chips de los equipos de cómputo. Si un programa necesita información almacenada en algún lugar de la memoria, necesitará, generalmente datos cercanos. Sin embargo, cuando hablamos de grandes volúmenes de datos no siempre se cumple esta regla. En cambio, los programas a menudo deben actuar en tan solo unos pocos elementos de datos dispersos a través de enormes conglomerados. La búsqueda de datos de la memoria principal es el trámite más lento para los chips actuales, así que ir a buscar datos con más frecuencia puede retardar considerablemente la ejecución.

“Por ejemplo, es como si cada vez que queremos una cucharada de cereales, abrimos la nevera, vertimos leche en la cucharada y guardamos el brick de leche otra vez en la nevera”, explicó Vladimir Kiriansky, estudiante de doctorado en ingeniería eléctrica y ciencias de la computación en el MIT.

Con este desafío en mente, Kiriansky y otros investigadores han creado Milk, un nuevo lenguaje que permite a los desarrolladores de aplicaciones gestionar la memoria de manera más eficiente en los programas que se relacionan con datos dispersos entre grandes conjuntos.

El MIT señala que, Milk tiene varios comandos a OpenMP, una API para lenguajes como C y Fortran que hace que sea más fácil escribir código para procesadores de múltiples núcleos. Al usarlo, el programador inserta unas pocas líneas de códigos adicionales alrededor de cualquier instrucción que recorre en iteración una gran colección de datos en busca de un número relativamente pequeño de artículos y compila toda la información para más tarde administrar la memoria.

Con un programa escrito Milk, cuando un núcleo descubre que necesita un grupo de datos no lo solicita desde la memoria principal. En lugar de ello, se añade la dirección del grupo de datos en una lista de direcciones almacenada localmente. De esta manera, cada petición puede ser recuperada eficientemente.

En pruebas con varios algoritmos comunes, los programas escritos en el lenguaje nuevo han funcionado cuatro veces más rápido que los que están escritos en los lenguajes ya existentes, según el MIT. Los investigadores presentarán el proyecto en la Conferencia Internacional sobre arquitecturas paralelas y técnicas de compilación.

Katherine Noyes