Etiqueta: modelos

Empresas combinarán infraestructuras y modelos de negocios basados en datos

Panduit y Uptake anunciaron su alianza para ofrecer datos procesables a los clientes en los sectores de manufactura y de procesos industriales basados en los productos “Software as a Service” de Uptake. Las capacidades de recopilación de datos de IntraVUE y SynapSense de Panduit, la suite de productos para analítica predictiva de Uptake junto con las capacidades avanzadas de ciencia de datos, brindarán una poderosa solución de análisis de monitoreo de las condiciones de las plantas.

Uptake, nombrado Technology Pioneer en World Economic Forum 2017, ofrece productos basados en machine learning que mejoran la productividad, confiabilidad, seguridad y ciberseguridad para las empresas industriales.

“La visión con foco en la industria de Manufactura y en el análisis predictivo de Uptake permitirán a Panduit ofrecer un gran valor a nuestros clientes”, dijo Tom Donovan, Presidente y CEO de Panduit.

“La capacidad de aumentar el tiempo de actividad de las plantas de fabricación significa una mayor eficiencia y productividad para nuestros clientes, lo que naturalmente resulta en una mayor producción. Esta relación con Uptake abre una nueva oportunidad para agregar valor, que es altamente complementaria a nuestra oferta de infraestructura de red”.

Brad Keywell, cofundador y CEO de Uptake, “habilitar a los clientes industriales y de manufactura con la capacidad de aprovechar una visión sobre la información operacional y la analítica predictiva, en última instancia, generará importantes ahorros en costos y mejorará la productividad, confiabilidad, seguridad y protección”.

La entrega de información y tecnología de infraestructura operacional de Panduit con los nuevos modelos empresariales basados en datos de Uptake, proporcionará un gran valor a los clientes para ayudar a mejorar el desempeño del negocio.

Tom Donovan, Presidente y CEO de Panduit

Trece modelos de aprendizaje automático (Parte 1/4)

En los últimos años, el Aprendizaje Automático, o “machine learning”, se ha colocado en la primera línea de la actualidad de las tecnologías emergentes. Esta tendencia ha crecido enormemente con la explosión de infraestructuras y metodologías que facilitan llevar a cabo desarrollos orientados al aprendizaje de máquinas.

Todos los modelos orientados al aprendizaje automático están desarrollados en código abierto, pero lo más destacado de todos ellos es el modo en el que han sido diseñados para abstraer al usuario de los mecanismos más complejos que intervienen en el aprendizaje automático, facilitando y haciendo accesibles sus técnicas a un colectivo de desarrolladores mucho más extenso.

Trece modelos de desarrollo de machine learning destacan en el panorama -se trata de sistemas de nueva incorporación o bien que han sido actualizados en los últimos meses-, generalmente todos llaman la atención por ser productos que tienen una gran aceptación en el sector TI, por tratar de aportar simplicidad a los procesos, o bien por abordar algún tipo de reto específico asociado con el aprendizaje de las máquinas.

Apache Spark MLlib

Se trata de uno de los sistemas más conocidos en el mercado por pertenecer a la familia Hadoop. No obstante, dispone de un modelo de procesamiento de datos para la memoria interna que ha sido desarrollado fuera del ecosistema Hadoop, lo que le facilita su entrada en otros entornos diferentes. Spark se ha convertido en una herramienta de aprendizaje en desarrollo de sistemas de learning machine gracias a una extensa y creciente librería de algoritmos que pueden ser aplicados con información en la memoria interna del sistema a la velocidad de la luz.

Apache Singa

Muy similar a lo que sucede en los procesos naturales, las estructuras que gestionan el aprendizaje automático profundo de Singa también gestionan el lenguaje y el reconocimiento visual. Este sistema ha sido aceptado para formar parte de Apache Icubator, una red de código abierto cuya finalidad es facilitar el proceso en la realización de modelos de aprendizaje profundo de máquinas que han de operar con grandes volúmenes de datos. Singa dispone de un modelo de programación simple que permite la implementación de técnicas de aprendizaje a redes formadas por clusters de máquinas y soportando una gran variedad de trabajos de aprendizaje.

Caffe

Originalmente desarrollada en 2013 para proyectos de visión artificial, Caffe se corresponde con un modelo de aprendizaje automático profundo, pero “creado con los atributos de expresión, inmediatez o modularidad en mente”, señaló la firma. Caffe ha experimentado una gran expansión tras culminar con éxito sus proyectos de visión artificial, pasando a destacar en otras aplicaciones multimedia. La velocidad es la prioridad máxima para Caffe, un motivo que le ha llevado a desarrollar el sistema con lenguaje C++ con la ayuda de la aceleración de CUDA.

-Computerworld

 

¿Qué modelos están emergiendo en los centros de datos?

Tradicionalmente, el centro de datos ha evolucionado en respuesta a innovaciones tecnológicas ¬–la mayoría basadas en servidores– y tanto el ritmo como la dirección de tal evolución han sido hasta cierto punto predecibles. Tendencias disruptivas como la informática en la nube, la sostenibilidad, la ciberseguridad y el Internet de las Cosas están impulsando profundos cambios informáticos en todos los sectores, creando oportunidades y retos para las áreas de TI. Como resultado, están emergiendo nuevos arquetipos que cambiarán el panorama de los centros de datos y que prometen mejorar la productividad, reducir los costos y aumentar la agilidad, entre otras bondades. CIO México acudió a distintas fuentes para recopilar algunas de las tendencias tecnológicas y administrativas que se vislumbran para este 2016.

 

Asegurar la continuidad, todavía una carencia

La más tendencia citada sigue siendo el interés que tienen los CIO, CDO y CTO por fortalecer los datos que tienen bajo su cuidado.

Y es que el mundo en que vivimos, cada vez más conectado, crea un mayor número de oportunidades a los piratas informáticos. En lo referente al diseño de los centros de datos, las organizaciones han empezado a asumir una propuesta en la que la seguridad esté por encima de todo. Esto les lleva a desplegar contenedores de datos fuera de la red para información altamente confidencial, en algunos casos con equipamiento de refrigeración y suministro eléctrico separado y exclusivo.

Sin embargo, en nuestro país las organizaciones todavía enfrentan un sinnúmero de problemas para asegurar la continuidad de sus data centers, como señala la encuesta que realizó Computerworld México (ver recuadro). La mitad de los entrevistados afirmó haber tenido al menos una caída su centro de datos en los últimos 12 meses, y un 15% dijo haber sufrido más de dos caídas en este mismo lapso.

 

La llegada de un lenguaje común

Otra de las tendencias que veremos en este 2016 será que los centros de datos encontrarán un lenguaje común. “El arribo del Internet de las Cosas no sólo repercutirá sobre las arquitecturas de los futuros data centers al aumentar el volumen de datos que deban procesarse; también cambiará la gestión de los centros de datos, y esto último pasará antes que lo primero”, afirmó Franco Costa, Vicepresidente y Director General de Sistemas de Alimentación en Emerson Network Power.

Dijo que los centros de datos de hoy en día incluyen miles de dispositivos que hablan multitud de lenguajes como el IPMI, SNMP y Mod Bus. Esto crea “lagunas” entre sistemas que limitan los esfuerzos de gestión holística. Sin embargo, Costa señaló que tal limitación dejará de existir a medida que el estándar abierto de la industria Redfish consiga aceptación.

Redfish creará interconectividad a través de sistemas de centros de datos, permitiendo nuevos niveles de visibilidad, control y automatización, aseveró Costa.

 

Nube, ante servidores “comatosos”
Respecto al mundo de la nube, sin duda éste se ha vuelto más complejo. La evolución desde modelos de Software como Servicio (SaaS) a ambientes verdaderamente híbridos –en los que los servicios en la nube se utilizan para aportar mayor agilidad a instalaciones antiguas– sigue avanzando a medida que más organizaciones se pasan a una arquitectura bimodal (nube privada/pública).

Sin embargo, en lugar de permanecer estable, la nube podría volverse cada vez más compleja. El último estudio de investigación sobre utilización de servidores, llevado a cabo por Jonathan Koomey de la Universidad de Stanford y Jon Taylor de Anthesis Group, reveló que los servidores de centros de datos empresariales proporcionan apenas entre el 5 y el 15% de su potencial de computación máximo en el transcurso de un año, en promedio.

El estudio también reporta que el 30% de los servidores físicos está en estado “comatoso”, lo cual significa que no han proporcionado servicios informáticos en seis meses o más. La presión para identificar y eliminar “servidores comatosos” continuará aumentando y es un paso necesario para la correcta gestión del consumo energético. Sin embargo, también se explorará el potencial de que la capacidad no utilizada de los centros de datos pase a formar parte de un servicio compartido, un modelo de nube distribuido, lo que permitirá a los centros de datos empresariales vender su capacidad excedente en el mercado libre.

 

Servicios de última generación

De acuerdo con los pronósticos de IDC, para el 2016 el tráfico de datos a nivel mundial alcanzará los 10.4 Zettabytes. El desafío que enfrentarán las organizaciones será modernizar su infraestructura para analizar la información, procesarla, entenderla y de esta manera crear negocios de nueva generación, declaró Juan Carlos Durán, Gerente de Desarrollo de Negocios para Data Center y Virtualización para Cisco México.

Dijo que en nuestro país se ha incrementado la demanda de servicios de cómputo de última generación. “Esto significa que más empresas están interesadas en renovar y poder optimizar el uso de infraestructura, ya las organizaciones quieren garantizar el retorno de inversión de manera adecuada”.

Para ejemplificar esto, Durán aludió a estimaciones de IDC, las cuales señalan que en América Latina aumentó un 72% la presencia de servidores tipo blade en el último trimestre de 2014, comparado con el mismo periodo del año anterior.
Esta demanda se incrementó particularmente en segmentos clave como el de Proveedores de Servicios, explicó el directivo de Cisco.

 

Informática en la niebla

A medida que el ‘edgecomputing’ se hace más crítico, las arquitecturas distribuidas se están haciendo también más habituales. Por ello, en este 2016 deberá tenerse en cuenta la llamada “Informática en la niebla”.

Introducida por Cisco, la Informática en la niebla conecta varias redes pequeñas en una sola red grande, con servicios de aplicaciones distribuidos en dispositivos inteligentes y sistemas informáticos que mejoran el rendimiento y se concentran en el proceso de datos más cerca de dispositivos y redes. Esto es una respuesta lógica a la masiva cantidad de datos que genera el Internet de las Cosas (IoT).
“El IoT se comienza a ver como una ‘fórmula’ para mejorar tanto los procesos como la toma de decisiones dentro de las organizaciones. Va a ser algo excepcional en materia de infraestructura y con ello las empresas cambiarán la forma de hacer negocios”, aseguró Durán, de Cisco.

 

Instalaciones más sustentables

Durante 2016 se dará mayor importancia a la responsabilidad social. Si bien desde 2007 el sector TIC ha incorporado la eficiencia energética en los centros de datos, hasta ahora se centraba sobre todo en aspectos financieros. Pero gracias a iniciativas como la que impulsa la Unión Europea, algunas empresas están cambiando su enfoque de ahorro financiero por el de sustentabilidad, y están mirando sus centros de datos a través la lente de responsabilidad social.

“Las operaciones de los centros de datos, incluidas la huella de carbono, el uso de energías alternativas y la eliminación de equipos, se están incluyendo ahora en las declaraciones de responsabilidad corporativa, creando una mayor presión para avanzar en estas áreas”, señaló Costa, de Emerson Network Power.

Agregó que el impacto de esta tendencia no se limitará a decisiones tecnológicas en las instalaciones. De hecho, “para que sea significativa, deberá abarcar todo el ecosistema del centro de datos, incluidas la colocación y los proveedores de la nube”. Y a medida que esta práctica crezca, la sustentabilidad alcanzará el nivel de disponibilidad y seguridad, como atributos imprescindibles de un centro de datos de alto rendimiento.

 

Bienvenidos los microcentros de información

Finalmente, el centro de datos se consolida. El crecimiento en el consumo de contenido digital y la recopilación de datos está desafiando el modelo de centro de datos centralizado. Y aunque los grandes centros de datos seguirán proporcionando la mayoría de la computación, estos se verán respaldados cada vez más por instalaciones limítrofes, o centros de datos propios, que proporcionarán contenido y aplicaciones de baja latencia a usuarios o el procesamiento de datos para redes de IoT.

Y a medida que estos microcentros de datos –funcionando como satélites de una instalación central– proliferen en los campus corporativos y en áreas residenciales de alta densidad, su éxito dependerá del uso de sistemas inteligentes y estandarizados que puedan gestionarse remotamente.

 

Por: Karina Rodríguez, Computerworld México

Gerardo Esquivel, Computerworld México

y José Luis Becerra, CIO México.