Categoría: Centro de Datos

52 segundos, lo que les toma a cibercriminales atacar un servidor

Sophos presentó los resultados de su informe Expuesto: Ciberataques en Cloud Honeypots, que revela cómo los ciberdelincuentes atacaron a uno de los servidores cloud honeypots analizados en tan solo 52 segundos. El mismo operaba en San Pablo, Brasil.

En promedio, los servidores en la nube se vieron afectados por 13 intentos de ataques por minuto, por honeypot.

Éstos se instalaron durante un periodo de 30 días en 10 de los centros de datos de servicios web de Amazon (AWS) más populares del mundo: California, Frankfurt, Irlanda, Londres, Mumbai, Ohio, París, San Pablo, Singapur y Sydney. Un honeypot es un sistema destinado a imitar los posibles objetivos de los ciberataques, para que los investigadores de seguridad puedan monitorear los comportamientos de los ciberdelincuentes.

En el estudio, se analizaron más de cinco millones de ataques en la red global de honeypots durante 30 días, lo que demuestra cómo los ciberdelincuentes están escaneando automáticamente en busca de brechas en nubes abiertas débiles. Si los atacantes logran ingresar, las organizaciones podrían ser vulnerables a las violaciones de datos. Los ciberdelincuentes también utilizan servidores en la nube vulnerables como puntos para obtener acceso a otros servidores o redes.

“El reporte de Sophos, Expuesto: Ciberataques en Cloud Honeypots, identifica las amenazas que enfrentan las organizaciones que migran a plataformas híbridas y a todas las nubes. La agresiva velocidad y escala de los ataques a los honeypots muestra lo persistentes que son los ciberdelincuentes e indica que están utilizando botnets para atacar las plataformas de una organización en la nube. En algunos casos, puede ser un atacante humano, pero a pesar de eso, las empresas necesitan una estrategia de seguridad para proteger lo que están poniendo en la nube”, afirmó Matthew Boddy, especialista en seguridad de Sophos.

“El problema de la visibilidad y la seguridad en las plataformas en la nube es un gran desafío empresarial que va en aumento con la creciente migración a la nube”.

Las empresas necesitan contar con una continua visibilidad de la infraestructura de la nube pública, ya que ésta es vital para que las empresas sepan qué proteger y garantizar el cumplimiento de las normas.

¿Qué acciones pueden conectar a México?

La importante inversión que el sector de telecomunicaciones gestionará en México durante los próximos años, beneficiará en gran parte al mercado, pero también incidirá en el desarrollo de la sociedad mexicana, acercándola a las TIC (Tecnologías de la Información y la Comunicación) y contribuyendo en la transición digital.

En ese sentido, el cuestionamiento toma relevancia cuando se intenta comprender cómo la cuarta ola de cambios disruptivos está impactando en los modelos de negocio, desatando en las compañías la necesidad de adoptar tecnologías híbridas e innovadoras para mantenerse competitivas en el mercado.

De primera instancia, podría parecer que la austeridad en el país se presenta como un obstáculo de crecimiento para la industria TIC, la cual agrupa a los proveedores de hardware, software, servicios de TI y de telecomunicaciones. Contrario a esto, la firma de inteligencia de mercado, IDC estima que, para este año, las tendencias de inversiones para dicho sector estarán por encima del PIB (Producto Interno Bruto); esto se debe a que, en México, existen más de 4 mil empresas vinculadas al sector, y en conjunto facturan alrededor de $444,379 millones de pesos.

Una inversión significativa, enmarcada en un ambiente propicio para la innovación, nos hará migrar hacia una robusta infraestructura digital, es decir, una estrecha relación entre la economía digital con la productividad y competitividad.

La AMITI (Asociación Mexicana de la Industria de Tecnologías de la Información), calcula un crecimiento promedio de 7 %, que si bien se encuentra 3 puntos porcentuales por debajo de lo registrado en años recientes,  representa un reto para la industria TIC, ya que no sólo debe adaptarse a las exigencias y condiciones sino también debe buscar nuevas oportunidades, métodos y plataformas de desarrollo.

En este momento coyuntural, se presenta, ante la industria TIC, la oportunidad de colaborar con la nueva administración; el objetivo es ajustarse a sus requerimientos y prioridades. En primer lugar, la reubicación de secretarías y organismos descentralizados, lo cual representa un desafío en la comunicación e interconexión entre las dependencias; en segundo, la implementación de una nueva plataforma  tecnológica por parte de la Secretaría de Hacienda y Crédito Público (SHCP) para combatir y disminuir la corrupción; por último, al tomar la decisión de no invertir en equipo de cómputo, al menos durante el primer año, se fomenta el uso de servicios de TI asociados con la idea de ahorro.

La industria TIC está comprometida a colaborar con empresas e instituciones para impulsar el desarrollo del país, proponiendo soluciones incluyentes y sostenibles. Por su parte, éste debe aprovecharlas para conseguir el ahorro que busca, esto sin olvidar que tiene el compromiso y la responsabilidad de interconectar a todos los sectores de la sociedad.

Las TI potencializan el crecimiento económico, proponen alternativas a los conflictos y generan soluciones y/o servicios en beneficio de las personas. El reto actual, es hacer sinergia entre los servicios tradicionales y los nuevos servicios para facilitar la transformación, reducir la brecha digital y, por último, para conectar a México y así contribuir al futuro del país y sus habitantes.

 

 

Por: Miguel de la Torre,

Sales Director, Clúster Norte,

CenturyLink.

¿Cómo los Centro de Datos potencian el futuro digital?

En el pasado, las personas asociaban el término “digital” con el código binario, el lenguaje utilizado por las computadoras para procesar y almacenar información compuesto por los números 1 y 0. Sin embargo, dependiendo de la edad de las personas y su experiencia con la tecnología, es posible tener diferentes percepciones. Mientras más avanza la tecnología, los datos se han convertido en la moneda de mayor valor en esta era totalmente digital, por lo que un Centro de Datos administrado de manera efectiva no es un requerimiento más, sino una ventaja competitiva dentro del mercado para continuar impulsando el futuro.

“Los Baby Boomers pueden haberse considerado como expertos digitales al comprar una computadora Atari para uso doméstico, la Generación X al abrir por primera vez una cuenta de correo en hotmail y los millennials con la transición de los CD a los reproductores MP3 o los Ipods”, mencionó Gavin Milton-White, VP Enterprise, leading sales Asia Pacific en CommScope. “Mis hijos, por ejemplo, ven los juegos en línea, las aplicaciones basadas en la nube y los teléfonos inteligentes como de la vida real”.

 

Vivir en un mundo virtual

En esta era digital la tecnología está inmersa en prácticamente todos los aspectos de la vida, incluido el trabajo y el hogar. Ahora existen supermercados donde los consumidores descargan una aplicación móvil mediante la cual escanean los productos, obtienen información de ellos y pagan; estos mismos modelos están siendo replicados por restaurantes y otro tipo de negocios.

Para Gavin Milton-White, a medida que la tecnología se convierte en la piedra angular de la experiencia del cliente, también se presentan enormes oportunidades y grandes nuevos riesgos. “En la carrera por aprovechar las oportunidades que brinda la transformación digital, las empresas deben navegar por la administración de un enorme volumen de datos. Esto incluye identificar inteligencia significativa y mitigar las amenazas de seguridad cibernética. Por ello, a medida que los negocios se vuelven digitales, la principal pregunta es cómo mantener seguros los datos de los clientes y empleados”.

 

Conectividad de fibra en centro de datos

A medida que los datos se convierten en la nueva moneda en una era digital, un centro de datos bien administrado además de ser una ventaja competitiva se convierte también un medio para impulsar el futuro digital. Las conversaciones de máquina a máquina se llevarán a cabo cerca del borde de la red, lo que facilitará los desafíos para disminuir la latencia e incrementar el ancho de banda. Si bien la computación al borde tiene beneficios, existen consideraciones en la seguridad de la red que podrían conducir a la vulnerabilidad de los datos.

La introducción de leyes de privacidad de datos como el Reglamento general de Protección de datos (GDPR) puede alentar a las compañías a reconsiderar cómo planean el almacenamiento de toda la información que manejan, así como la ubicación física de sus centros de datos. A medida que los datos se vuelven más accesibles, es primordial que todas las empresas planifiquen cuidadosamente su enfoque hacia la seguridad y protección digital.

“Con todas las tendencias que impulsan la seguridad, soberanía y protección de los datos, la conectividad en los centros de datos se ha convertido en una clave para las empresas alrededor del mundo”, finalizó Gavin Milton-White, VP Enterprise, leading sales Asia Pacific en CommScope.

Millones de registros de Facebook expuestos por servidores mal configurados

La última semana no ha sido la mejor para Facebook. La primera mala noticia que se conoció esta semana fue que la red social ha estado solicitando a nuevos usuarios la dirección y la contraseña de sus cuentas de correo como parte del proceso de verificación para registrar nuevas cuentas; lo cual representa un riesgo la seguridad de los usuarios. La segunda mala noticia, que se hizo pública en el día de ayer y que también tiene como protagonista a Facebook, es el hallazgo de más de 540 millones de registros de usuarios que estaban alojados en servidores de Amazon sin protección.

Registros de más de 540 millones de usuarios de Facebook expuestos de manera pública

Ayer, investigadores de UpGuard revelaron que servidores utilizados por dos desarrolladores de terceras partes de aplicaciones para Facebook expusieron datos de millones de usuarios que estaban almacenados en servidores de Amazon mal configurados, quedando la información al alcance público.

Uno de estos servidores pertenece al medio digital mexicano Cultura Colectiva, el cual almacenaba 146GB  con más de 540 millones de registros que contenían datos como nombres y ID de usuarios, información variada relacionada a gustos e intereses de los usuarios, como “me gusta”, comentarios, entre otras cosas más.

El segundo, también almacenado en un servidor Amazon (Amazon S3 bucket), pertenece a la aplicación “At the Pool” y contiene información como contraseñas en texto plano, además de información de los usuarios, como intereses, amigos, música, entre otros.

Según los investigadores, se cree que las contraseñas descubiertas en la base de datos eran de la propia aplicación, pero dado que muchos usuarios utilizan la misma contraseña para otros servicios, la exposición supone un riesgo mayor.

Facebook solicita dirección y contraseña del correo de los usuarios

La otra noticia la dio a conocer el 31 de marzo un especialista en ciberseguridad, conocido como e-sushi, cuando a través de su cuenta de twitter publicó el hallazgo de que Facebook ha estado solicitando a nuevos usuarios que deciden registrase en la red social que ingresen la dirección y la contraseña de su cuenta de correo como parte del proceso de verificación. Si bien esto no es para todos los servicios de correo, el almacenamiento de esta información supone un riesgo para la seguridad de los usuarios.

De acuerdo a una declaración pública que hizo la red social al medio Daily Beast, la compañía confirmó la existencia de ese proceso de verificación, pero aseguró que no almacena en sus servidores las contraseñas aportadas por los usuarios en dicha instancia.

Asimismo, la compañía aseguró que dejará de realizar esta práctica de solicitar la contraseña del correo como parte del proceso de verificación.

Lo particular de esta última noticia es que el hecho se conoció dos semanas después de que la compañía liderada por Mark Zuckerberg admitiera que durante años almacenó cientos de millones de contraseñas de usuarios en texto plano de manera insegura en servidores de la compañía que estaban accesibles a más de 20,000 empleados.

 

Por: Juan Manuel Harán, Security Editor de ESET Latinoamérica.

Microsoft no está listo para la refrigeración por agua en los centros de datos de Azure

Microsoft ha experimentado con varias técnicas de refrigeración líquida, pero no considera que la tecnología sea lo suficientemente madura como para ser ampliamente utilizada para la refrigeración de servidores en sus centros de datos en la nube de Azure, al menos así lo afirmó Brandon Rubenstein, Director de Desarrollo de Soluciones e Ingeniería Mecánica / Térmica de Microsoft Azure.

El enfriamiento por líquido (o enfriamiento por agua) es más eficiente que el enfriamiento por aire, lo que puede significar grandes ahorros en los costos a gran escala, como la operación global de los centros de datos de Microsoft para la nube de Azure. Además, los componentes se mantienen a una temperatura más constante y la refrigeración por agua es capaz de soportar cualquier mal funcionamiento en el sistema de refrigeración. La humedad, el polvo y las vibraciones ya no son un problema. Finalmente, el calor se puede reutilizar o revender más fácilmente y se reduce el consumo de agua.

Sin embargo, esas no son las razones principales por las que Microsoft está considerando la refrigeración por agua. Más importante aún, la densidad de potencia de los chips del servidor dentro de unos pocos años simplemente será demasiado alta para mantenerse lo suficientemente fresca con un sistema basado en aire.

Los procesadores de hoy típicamente requieren 200 vatios y eso solo aumentará. Para los aceleradores como las GPU, que se utilizan para el aprendizaje automático y otras aplicaciones específicas, los requisitos son incluso entre 250 y 400 vatios. “Eventualmente llegamos al punto en que algunos de estos chips o soluciones gpu nos obligarán a usar enfriamiento por agua”,informó Rubenstein. Sin embargo, ese momento aún no ha llegado para Microsoft.

Estos sistemas de refrigeración basados en líquidos requieren inversiones adicionales en cualquier caso, pero también tienen consecuencias para la facilidad de mantenimiento de los servidores. Además, hoy en día, falta hardware estandarizado, según Microsoft.

“Necesitamos especificaciones abiertas sobre módulos DIMM y FPGA y conectores sin goteo, etc”, dijo Husam Alissa, ingeniero senior del equipo del centro de datos de Microsoft. “Necesitaremos la certificación de componentes como las placas base y los equipos de fibra óptica y de red, en lugar de un nuevo experimento cada vez que queremos probar algo. Necesitamos redundancia de recursos para todas estas tecnologías y deben ser menos propietarias y más privatizadas “.

Microsoft aún no está listo para elegir una tecnología en particular, pero se da cuenta de que la refrigeración puede convertirse en un problema dentro de dos o tres años. Rubenstein espera que la refrigeración líquida a nivel de bastidor esté suficientemente modulada en uno o dos años. Sin embargo, sospecha que las soluciones completas de los centros de datos tardarán al menos de cinco a diez años en alcanzar la plena madurez. Eso le da a Microsoft “tiempo suficiente para descubrir cuál es la solución más efectiva”.

 

IDG.es

Inauguran centro avanzado de tecnología en Manufactura en CDMX

Panduit, Rockwell Automation, y Cisco, con la colaboración del Tecnológico de Monterrey, EY y Unified anunciaron la apertura de su Centro Avanzado de Tecnología en Manufactura (MATC por sus siglas en inglés) en la Ciudad de México. El MATC muestra cómo compañías en el sector automotriz, minería, alimentos y bebidas y cementera pueden adoptar el futuro ahora, al establecer su viaje de transformación digital y navegar en la era de la Industria 4.0.

Las compañías que visiten el MATC podrán ser testigos de soluciones en su ambiente real al simular y tener proyectos en prototipos, así como aprender acerca de diferentes soluciones y co-innovar con un grupo multidisciplinario de expertos.

El impacto en los negocios puede ser extraordinario. Las empresas pueden alcanzar niveles sin precedentes de productividad y eficiencia en costos al aprovechar tecnologías como big data, cloud computing, automatización, Internet de las Cosas e integración de procesos. Y todas estas tecnologías embonan bajo un paraguas de ciberseguridad para proteger al negocio.

La experiencia al cliente en el MATC está enfocado en la personalización. Al enfocarse en necesidades específicas y prioridades de cada cliente, los negocios pueden transformar los datos en acciones.

El equipo de expertos del MATC ha sido diseñado para ayudar a los clientes a obtener el mayor valor posible. Ello incluye la comprensión y mapeo de la situación actual del negocio y los retos para identificar las mejores soluciones para crear un impacto positivo en el menor tiempo posible con el mayor retorno de inversión.

En el MATC, EY brinda su experiencia global a negocios locales, con Rockwell Automation para el proceso de automatización, la infraestructura industrial de Panduit, la conectividad industrial y empresarial de Cisco, Unified como integrador de TI y el tecnológico de Monterrey con talento académico y de investigación, todos reunidos en un solo lugar para adoptar cada desafío y definir las mejores soluciones para todos sus clientes.

El Centro Avanzado de Tecnología en Manufactura ofrecerá:

Experiencia del cliente: 

  • Acercamiento de Capacidades Digitales: Aprender, desarrollar e implementar en las líneas de producción
  • Capacidad de Gestión de riesgos
  • Capacidades de Datos
  • Capacidades de Operación de Negocios
  • Capacidades para la Habilitación de la Fuerza de Trabajo
  • Capacidades para la experiencia del cliente
  • El MATC puede resolver retos y solicitudes de líneas de negocios basados en proyectos multidisciplinarios.
  • Educación y entrenamiento

Finanzas:

  • Asegurar que las inversiones en las áreas de producción van por buen camino
  • Asesoramiento en tendencias globales de industria, incluyendo tratados de libre comercio y regulaciones en México
  • Mejoramiento de las bases de indicadores de desempeño clave en valor de análisis

Estrategia de Tecnología:

  • Modelos ejecutivos de ventas basados en soluciones en el MATC (Prueba de concepto/Valor)
  • Acercamiento a los principios de la tecnología para Industria 4.0
  • Soluciones basadas en resultados de negocios

 

Crecimiento:

  • Llevar valor a las nuevas empresas que lleguen a México
  • Brindar guía a las pequeñas y medianas empresas mexicanas y el conocimiento de la tecnología para enfrentar sus nuevos retos
  • Un lugar para las cámaras de comercio de la industria a las que nos enfocamos para conversar sobre la solución a sus necesidades

El centro está abierto a todos los profesionales de la industria automotriz, minera, cementera, alimentos y bebidas listos para acoger el futuro.

Elegir correctamente los conectores de cableado para mejorar la conexión de red

¿Alguna vez has escuchado hablar de la ‘Reflexión de Fresnel’? Si has mirado por la ventana por la noche desde una habitación bien iluminada, lo has observado. Esto sucede cuando, por ejemplo, al estar oscuro afuera se puede ver claramente el reflejo en una ventana debido a que la luz viaja de un medio a otro, además de reflejar parte de la luz que incide en el límite del medio. La cantidad de luz reflejada depende de la diferencia en el índice de refracción de los dos materiales, por esto, la reflexión de Fresnel no será tan perceptible durante el día, ya que la luz reflejada es mucho menor que la luz solar del exterior. Esto mismo suele ocurrir con la fibra óptica y los conectores.

“En la actualidad existen dos tipos comunes de conectores de fibra: conectores de contacto ultra físico (UPC) y conectores de contacto físico en ángulo (APC). Ambos tendrán dos fibras ópticas en contacto físico entre sí para permitir una conexión de baja pérdida”, indicó Earl Parsons, Principal Optical Engineer – Fiber Systems and Standards group en CommScope. ”En este caso las reflexiones de Fresnel tienen implicaciones en cuanto a cuál conector elegir para satisfacer los requisitos de su sistema, dependiendo de sus requerimientos”.

Los conectores UPC suelen ser de un costo menor, tener menos pérdidas de conexión y se utilizan comúnmente para conectar transceptores. Sin embargo, algunos transmisores y receptores están diseñados para usar conectores APC. Esto sucede porque en ciertos sistemas la luz reflejada hacia el transmisor puede degradar la señal óptica y, en consecuencia, disminuir el rendimiento general del sistema.

Un ejemplo de esto es cuando la luz reflejada en la cavidad del láser transmisor puede hacer que el láser se vuelva inestable y distorsione la señal de datos. Además, la luz reflejada puede introducir una interferencia multi-ruta que no se puede distinguir de la señal original, lo que aumenta el ruido y reduce el rendimiento del sistema.

La interfaz de conector en un ángulo de 8 grados en los conectores APC redirige la luz reflejada fuera de la fibra, en lugar de volver hacia el transmisor. Algunos sistemas pueden beneficiarse de reflexiones reducidas, como las que utilizan señales analógicas o amplificadores de alta potencia, pero muchos otros sistemas de LAN son menos sensibles a la potencia reflejada y pueden usar conectores UPC.

“La elección entre los conectores de contacto ultra físico UPC y los conectores de contacto físico en ángulo APC es una decisión una decisión de ingeniería importante, ya que de esto dependerá poder garantizar un mejor rendimiento de su red óptica, al mismo tiempo que cumple con los requisitos de la aplicación y del sistema”, finalizó Earl Parsons, Principal Optical Engineer – Fiber Systems and Standards group en CommScope.

Cinco beneficios que traerá la red 5G

Recientemente todo el mundo parece estar hablando de la red 5G, y es que, según cifras de Ericsson, para el 2024 se esperan alrededor de 1.500 millones de suscripciones y que el 40% de cobertura a nivel mundial sea a través de estas redes.

¿A qué nos referimos cuando hablamos de 5G? El 5G es la quinta generación de conectividad móvil, ejecutada a través de antenas. Las redes 5G serán las que, históricamente, se hayan implementado con mayor velocidad a nivel mundial.

 

En el mundo hay cada vez más objetos conectados y consumimos más datos cada año. Se prevé que para el 2021 habrá alrededor de 28.000 millones de dispositivos conectados a internet. Solamente en nuestras casas tenemos de 2 a 4 dispositivos o electrodomésticos conectados y esta tendencia va en aumento.

La tecnología 5G permitirá manejar miles de dispositivos de manera simultánea con mayor rapidez y sin problemas en la caída en el servicio.

 

Estos son 5 de los principales beneficios que traerá el despliegue de esta tecnología:

  • Transferencia de datos en tiempo real

Con las redes 5G la latencia disminuiría radicalmente, lo que significa que la transferencia de la información se daría en tiempo real sin importar el tamaño de la misma. Por ejemplo, la precisión de los vehículos autónomos y de las operaciones quirúrgicas, en el sector salud, será mayor.

 

  • Videos a máxima resolución

Gracias a que la velocidad de la red 5G será entre 100 y 1000 veces más rápida, será posible disfrutar de contenidos sin interrupción en 4K o incluso definiciones más altas.

 

  • Mundo Conectado

Cada vez más dispositivos se vuelven inteligentes, por lo que una constante conexión será vital. La capacidad de la red 5G permitirá que múltiples dispositivos estén conectados sin falla para una nueva era digital.

 

  • Realidad Virtual y Aumentada a nuestro alcance

Las velocidades de la red 5G permitirán un mejor despliegue de experiencias digitales como la RV y la RA, tanto que podrás ver un partido de futbol como si estuvieras en el estadio, pero en la comodidad de tu sillón.

 

  • Videos a máxima resolución

Gracias a que la velocidad de la red 5G será entre 100 y 1000 veces más rápida, será posible disfrutar de contenidos sin interrupción en 4K o incluso definiciones más altas.

 

  • Gaming sin interrupciones

Para los gamers que juegan en línea, la experiencia será perfecta, pues con la red 5G el lag desaparecerá, por lo que jamás volverás a perder una partida a causa de este molesto retraso.

 

 

Microsoft amplía su oferta Híbrida, Edge y Cognitiva para Azure

Microsoft da a conocer sus actualizaciones con las que pretende ayudar a las compañías a mejorar el control de los datos y aplicaciones bajo entornos híbridos: on primise, cloud y Edge. Además, agrega servicios cognitivos en Azure.

Las compañías ya no tienen que elegir entre una instancia propia o cloud. Las instancias híbridas han demostrado agregar valor a los negocios, ayudándolos a desbloquear nuevos escenarios, habilitar nuevas formas de negocio, ser más flexibles, ofrecer una mejor seguridad, estando a cuadro con los cumplimientos, además de ofrecer costos reducidos.

La nube de Microsoft, Azure, ofrece estas capacidades híbridas no sólo bajo instancias on premise y cloud, sino con data center en el edge.

 

Se expande la familia de Azure Stack

Desde su debut en 2017, Azure Stack ha ofrecido crear y correr aplicaciones nativas en nube bajo servicios de Azure, en sus propios ambientes o en locaciones desconectadas. Hoy en día estos beneficios se ofrecen en 92 países.

Ahora, el gigante azul presenta Azure Stack HCI Solutions, para aquellos clientes que aún quieran o tengan que correr sus datos y aplicaciones en sus propios data centers, corriendo aplicaciones virtualizadas en una infraestructura convergente (HCI) por un costo menor y un rendimiento mejorado.

Ahora Microsoft ofrece la ya tecnología HCI a Azure Stack para que sus usuarios puedan disfrutar de los servicios de Azure, tales como backup y disaster recovery. Azure Stack HCI solutions utiliza el mismo computo Software Defined, almacenamiento y tecnología de red que Azure Stack en premise o edge, e incluye acceso cloud simplificado a través de Azure Hybrid Services en un Centro de Administración de Windows.

 

Habilitando la innovación en el Borde

El Edge Computing está abriendo nuevas oportunidades para crear negocios más ágiles e innovadores, permitiendo no sólo llevar los datos a donde los usuarios los requieren, sino habilitando otras tecnologías como Inteligencia Artificial. Por ello, Microsoft presenta nuevas capacidades en el borde con Azure Data Box Edge, ofreciendo una plataforma de computación gestionada en la nube para contenedores en el borde, acelerando a su vez los flujos de trabajo de Machine Learning a través de una FPGA potencializada por Azure Machine Learning e Intel Arria 10.

De igual manera, Data Box Edge permite transferir datos over the internet a Azure en tiempo real, proporcionando un aprovechamiento de datos más eficaz. Azure Data Box Edge ya está disponible a nivel mundial.

Actualizaciones de Azure AI y nuevas capacidades para desarrolladores

Las compañías están mirando cada vez más hacia la inteligencia artificial como un habilitador del negocio, es por ello que Azure también mejora constantemente estas capacidades en su oferta, facilitando el trabajo de los desarrolladores y científicos de datos, al desarrollar, gestionar y asegurar las funciones de IA directamente dentro de sus aplicaciones.

Entre las actualizaciones que presenta Azure Cognitive Services, se encuentra el Anomaly Detector Service, el cual usa IA para identificar problemas antes de que estas se conviertan en caos, facilitándole a las compañías la detección de daños, minimizar las pérdidas y manipulación de datos y el impacto que éstas podrían tener en sus consumidores.

Hoy en día Microsoft ya corre este Anomaly Detector en sus productos con el fin de detectar irregularidades en tiempo real y frenar cualquier intento de ataque o problema. Ahora, a través de una simple API, los desarrolladores pueden agregar esta herramienta para tener la capacidad de detección con IA en sus aplicaciones para mejorar la protección de los datos y prevenir o frenar accidentes en el momento en que éstos suceden.

De igual manera se anunció la disponibilidad general de Custom Vision, la solución de identificación de objetos en imágenes. Ahora, Azure Cognitive Services no sólo ofrece reconocimiento de discurso, traducción de discurso a texto, sino inteligencia en el reconocimiento de objetos en imágenes, facilitando a los desarrolladores a agregar capacidades de inteligencia artificial a las aplicaciones bajo cualquier escenario.

 

Custom Vision, potencializado con machine learning, facilita que los desarrolladores puedan construir, desarrollar y mejorar las clasificación de imágenes para reconocer contenido.

Los desarrolladores pueden entrenar su propio clasificador para que reconozca aquello que programen en diferentes escenarios, o exportar estos clasificadores y correrlos sin conexión, y en tiempo real, en iOS (con CoreML), Android (en TensorFlow) y muchos otros dispositivos en el edge.

Ingresos mundiales de servidores crecieron más de un 13%, según Gartner

El mercado mundial de servidores se mantiene en auge. En el año 2018 las ventas de unidades de servidores en todo el mundo crecieron un 13,1% y los ingresos por servidores aumentaron un 30,1% en comparación con el año completo 2017.

Solo en el cuarto trimestre de 2018 los ingresos mundiales por servidores aumentaron un 17,8%, mientras que los envíos crecieron un 8,5 por ciento año tras año, según Gartner.

“Los proveedores de servicios e hiperescala continuaron aumentando sus inversiones en sus centros de datos para satisfacer la creciente demanda de servicios de los clientes, así como las compras de servicios de las empresas a los proveedores de cloud computing”, dijo Kiyomi Yamada, analista principal senior de Gartner. “Para aprovechar la interrupción del mercado de la infraestructura de los centros de datos, los administradores de productos tecnológicos para proveedores de servidores deben prepararse para el aumento continuo de la demanda de servidores hasta 2019, aunque el crecimiento será más lento que en 2018”.

Dell EMC se posicionó en el primer lugar en el mercado mundial de servidores basándose en los ingresos del cuarto trimestre de 2018, finalizando el año con una participación de mercado del 20,2%, seguido por Hewlett Packard Enterprise (HPE) con un 17,7%del mercado. Huawei experimentó el mayor crecimiento en el trimestre, con un crecimiento del 45,9 por ciento.

En los envíos de servidores, Dell EMC mantuvo la primera posición en el cuarto trimestre de 2018 con una participación de mercado del 16,7%. HPE aseguró el segundo puesto con el 12,2% del mercado.

“Los proveedores de servicios e hiperescala continuaron aumentando sus inversiones en sus centros de datos (aunque a niveles más bajos que a principios de 2017) para satisfacer la creciente demanda de servicios de los clientes, así como las compras de servicios de las empresas a los proveedores de cloud computing”, dijo Yamada. “Para aprovechar la interrupción del mercado de la infraestructura de los centros de datos, los administradores de productos tecnológicos para proveedores de servidores deben prepararse para el aumento continuo de la demanda de servidores hasta 2019, aunque el crecimiento será más lento que en 2018”.

 

Resultados del mercado de servidores de todo el año 2018

En términos de resultados regionales, en 2018, Asia/Pacífico y América del Norte registraron un fuerte crecimiento de los ingresos con un 38,3% y un 34%, respectivamente.

EMEA creció un 3,1% en envíos y un 20,4% en ingresos. América Latina creció un 20,9% en ingresos, pero disminuyó un 4,4% en ventas por unidad. Japón creció un 3,3% en ingresos y un 2,1% en ventas por unidad.

 

IDG.es