Etiqueta: Intel

Intel incrementa sus ventas un 15% en el segundo trimestre de 2018

Intel acaba publicar sus resultados correspondientes al segundo trimestre de 2018, destacando un crecimiento en el volumen de ventas de un 15% con respecto al mismo periodo de 2017 hasta alcanzar los 17,000 millones de dólares de cifra de negocio.

Los negocios de la organización que han registrado mayores incrementos han sido la división de datos -acaparando casi el 50% del total del negocio generado-, y el segmento de PC –propiciado por el entusiasmo en la demanda comercial del potencial de última generación de Intel, con incrementos del 25%, y el 6%, respectivamente.

Las ganancias GAAP por acción de 1.05 dólares se han incrementado un 83% de un año a otro, en tanto que las ganancias no-GAAP de 1.04 dólares aumentaron su cotización un 44% interanualmente.

En el periodo 2017 al 2018, Intel ha generado 13,700 millones de dólares en liquidez fruto de las operaciones de ventas, de los cuales 6,300 millones son en efectivo, mientras que 8,600 millones han sido repartidos en dividendos para los accionistas.

“Tras cinco décadas de presencia en el sector de las tecnologías de la información, Intel está preparado para anunciar su tercer año consecutivo de crecimientos récord. El posicionamiento de nuestra compañía es único para capitalizar las necesidades que rodean al procesamiento, almacenamiento y desplazamiento de los datos. Unos datos que son más penetrantes y valiosos que nunca”, destacó Bob Swan, CFO y CEO interino de Intel.

Swan señaló que Intel está ahora mismo compitiendo por una oportunidad de mercado valorada en 260,000 millones de dólares. “Nuestros resultados del segundo trimestre de 2018 muestran que estamos en la buena trayectoria para conseguir alcanzar nuestro objetivo de negocio”.

Redacción / Computerworld.es

Intel y AMD se unen para lanzar un procesador más poderoso

Quienes alguna vez han sido rivales ahora se unen para diseñar un nuevo procesador más poderoso. Se trata de AMD e Intel quienes presentaron el nuevo chip Intel Core con núcleo gráfico AMD Radeon.

Se trata de un movimiento que tiene como fin competir con Nvidia en el plano de los videojuegos en computadoras portátiles.

Este nuevo chip, según datos que maneja nuestro medio hermano ComputerWorld USA, será una evolución de la 8 ª generación de Core de la serie H de Intel que saldrá al mercado en el primer trimestre de 2018.

Al proyecto inicial de Intel se ha unido AMD con un diseño semipersonalizado del núcleo que va en la misma línea que los chips utilizados en consolas como Microsoft Xbox One X y Sony Playstation 4.

A pesar de que todavía no se han revelado todos los detalles del nuevo producto, el eje del acuerdo entre las dos compañías pasa por una pequeña pieza de silicio de la que Intel comenzó a hablar el año pasado; el llamado Emib (Embedded Multi-die Interconnect Bridge), que da como resultado un módulo de tres matrices que unirá el chip de Intel, el núcleo Radeon y la memoria de ancho de banda de próxima generación o HBM2.

Esta unión es toda una sorpresa, más cuando la rivalidad entre los dos fabricantes no siempre ha sido sana. Pero, teniendo tan cerca a Nvidia como un fuerte competidor, podría aplicar el famoso dicho de “el enemigo de mi enemigo es mi amigo”.

Chris Walker, vicepresidente de Client Computing Group de Intel, asegura que la firma tenía el reto de hacer para las PC portátiles ultraligeros de juegos un chip de primer nivel de rendimiento.

Mark Hachman

Intel avanza en informática cuántica con su chip de 17 qubit

Intel ha anunciado el desarrollo de un chip superconductor de 17 qubit destinado a soluciones de informática cuántica. El nuevo chip de 17 qubit, fabricado junto a la empresa holandesa QuTec especializada en este campo, cuenta con un diseño que permitiría lograr rendimientos sin precedentes. Destaca el hecho de haber podido encapsularlo en un tamaño que permitiría su utilización en entornos de informática más tradicional.

En esencia, la informática cuántica es lo último en informática paralela, con el aliciente de poder abordar problemas que las computadoras convencionales no han podido abordar tradicionalmente. Por ejemplo, las computadoras cuánticas pueden ofrecer avances en investigación, ciencia, modelado molecular, simulaciones, así como ayudar con el descubrimiento de nuevos fármacos.

El Dr. Michael Mayberry, vicepresidente corporativo y director gerente de Intel Labs ha destacado que “nuestra investigación cuántica ha avanzado hasta el punto que la colaboración nos ha permitido que nuestro socio QuTech simule cargas de trabajo de algoritmos cuánticos, mientras nosotros conseguimos fabricar nuevos chips qubit de forma regular y en nuestras instalaciones”.

Pero estos avances en informática cuántica se enfrentan a retos importantes, puesto que los qubit son tremendamente frágiles y cualquier ruido en la señal puede conducir a la pérdida de datos. Dicha fragilidad hace que requieran un entorno de funcionamiento de unos 20 milikelvin (entorno 250 veces más frío que el espacio profundo). Así, el embalaje de los qubit se vuelve crítico para garantizar su funcionamiento. De hecho, el Grupo de Investigación de componentes de Intel ubicado en Oregón y los equipos de Ensayo de Desarrollo Tecnológico ATTD de Arizona trabajan frente a los desafíos del encapsulado y embalaje de la computación cuántica.

El diseño del nuevo chip de 17 qubit, presentado en el tamaño de una moneda, cuenta con las siguientes nuevas características:

  • Nueva arquitectura que permite una mayor fiabilidad, rendimiento térmico y menor interferencia de radiofrecuencia entre los qubit.
  • Esquema de interconexión escalable que permite garantizar el intercambio de señales dentro y fuera del chip.
  • Diseños avanzados que permiten que los embalajes de Intel escalen para circuitos integrados, los cuales resultan ser más grandes que los chip de silicio convencionales.

La colaboración entre Intel y QuTec data del año 2015, momento en el que unieron sinergias para avanzar en este campo. Desde entonces, ambas compañías han conseguido acortar los tiempos desde el diseño y la fabricación del chip, hasta la prueba de campo. “Con este chip nos centramos en conectar, controlar y medir múltiples quimbs hacia un esquema de corrección de errores para lograr el qubit lógico”, destaca el profesor Leo DiCarlo de QuTech.

Intel está investigando en diversos tipos de qubit, entre los que cabe mencionar los qubit superconductores incorporados en este nuevo chip de prueba, y un modelo alternativo llamado spin qubit de silicio.

Estos qubit de spin se asemejan a los tradicionales de silicio basados en transistores convencionales, con lo que pueden ser fabricados con procesos muy similares.

 

IDG.es

Intel trabaja en un chip que pueda imitar el cerebro humano

Intel acaba de anunciar el lanzamiento del primer chip de autoaprendizaje neuromórfico de su categoría, asegurando que es capaz de imitar las funciones del cerebro humano.

El chip ha sido bautizado con el nombre de Loihi y, gracias a su desarrollo informático, es capaz de aprender solo.

Lo hará a partir de la interpretación de las respuestas ante los estímulos de un entorno concreto, y posteriormente sacará sus propias conclusiones. Del mismo modo que sucede en las redes neuronales del cerebro humano, el chip será capaz de discernir a partir de errores y cambios introducidos en el sistema.

En palabras de Michael Mayberry, vicepresidente corporativo y director general de Intel Labs: “Las redes neuronales del cerebro obtienen información mediante impulsos eléctricos o potenciales de acción de actividad eléctrica, y modulan las fuerzas sinápticas o el peso de las interconexiones basándose en la duración de estos potenciales de acción, guardando estos cambios de forma local en las interconexiones. Las conductas inteligentes surgen de las interacciones cooperativas y competitivas entre múltiples zonas dentro de las redes neuronales del cerebro y de su entorno”.

Intel ha anunciado que las posibilidades de Lohini son inagotables, gracias a sus 130.000 neuronas y 130 millones de inferencias. Asimismo, la tecnológica ha asegurado que mostrará los avances de este nuevo chip en distintas Universidades y Centros de Investigación a lo largo de la primera mitad del próximo año.

Mayberry también ha expresado que desde la compañía creen que “la Inteligencia Artificial se encuentra en su fase inicial y que más arquitecturas y métodos (como el chip Loihi) van a seguir surgiendo para elevar el nivel de la AI”.

IDG.es

 

El Intel Core i9 Extreme con 18 núcleos listo para ser ensamblado en equipos de cómputo

Pertenecientes a la familia Extreme Edition, los nuevos procesadores Intel Core i9 acercan a las computadoras de escritorio un nuevo nivel de rendimiento gracias a sus 18 núcleos. Pasan a competir con los recién llegados Ryzen Threadripper de AMD.

Intel anuncia la llegada de sus primeros procesadores de 8ª generación, entre los que se encuentran, los chips para equipos de escritorio que hasta ahora tenían el nombre en código Coffee Lake. En concreto, se trata de los modelos Intel Core i9-7940X, Intel Core i9-7960X e Intel Core i9-7980XE de 14, 16 y 18 núcleos respectivamente, los cuales comenzarán a distribuirse a los clientes a partir de hoy. Fueron anunciados durante la pasada edición de la feria IFA de Berlín, y es ahora cuando se encuentran a la venta los primeros modelos para equipos de cómputo de escritorio.

Pertenecen a la Serie X de Intel, con lo que van destinados a todos esos equipos de alto rendimiento como creadores de contenidos y grandes entusiastas de los procesadores Extreme Edition, una familia que es muy reconocida entre los usuarios que buscan configuraciones de equipos gaming. Tras la reciente presentación de los procesadores Ryzen Threadripper de su competidor AMD, el mercado había quedado muy nivelado con los chips de 16 núcleos, pero ahora Intel vuelve a estar presente, al menos en lo que a características se refiere y sobre el papel. La compañía destaca que los Extreme Edition aportan un nuevo nivel de potencia, así como una plataforma para editar y renderizar vídeo de alta resolución 4K y realidad virtual VR, con mejoras de casi un 80% en la creación de contenidos VR y hasta un 60% en la edición de vídeo 4K.

Estos días atrás, Intel anunciaba también novedades en la Serie U, los cuales saldrán a la venta a partir del próximo 5 de octubre para fabricantes e integradores OEM. Esta nueva gama consta de los Core i3, i5 e i7 con la esencia de pertenecer a la 8ª generación. De esta forma, los Core i3 elevan su potencial a los 4 núcleos y los i5 a los 6 núcleos de CPU. En la parte superior se encuentra el Core i7-8700K con hasta 4.7 GHz de velocidad. Están desarrollados con un proceso de fabricación de 14 nanómetros mejorado, además de contar con mayor memoria caché (hasta 12 MB) y soportar módulos de memoria DDR4-2666 y conexiones de bus PCIe 3.0 para la conexión de gráficas y dispositivos de almacenamiento.

Alfonso Casas

 

[Reporte Especial] El Centro de Datos: convergencia entre on site y cloud

La digitalización del negocio es un paso obligatorio de la empresa, donde cada vez se adoptan más tecnologías disruptivas como Big Data, movilidad e incluso el Internet de las Cosas y la Inteligencia Artificial, haciendo que toda esta carga de procesos y generación de datos recaiga dentro de las operaciones TI y, específicamente, en el centro de datos. Esto obliga a las empresas a invertir en infraestructura y apoyarse en la nube.

Según una encuesta de IDC a líderes TI en las empresas, el 72% de ellos cree que la transformación digital y el crecimiento del negocio es la principal razón para modernizar su infraestructura TI. La consultora afirma que en los últimos tres años la nube híbrida maduró, mientras que las arquitecturas definidas por software y las infraestructuras hiperconvergentes han modificado el estado actual de la infraestructura de TI.

Sin duda la nube se ha convertido en una tendencia que ha crecido con la transformación digital, siendo un aliado para ofrecer agilidad al negocio. ¿Será el centro de datos híbrido el siguiente paso obligatorio? ¿Ya no es suficiente la TI tradicional?

Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica.

El reto es claro: o se modifican, se redefinen o están condenados a caer en el mercado. Al menos así lo consideró Arturo Benavides, Arturo Benavides, Primary Storage Sales Director de Dell EMC Latinoamérica.  “La transformación digital está obligando a todas las empresas a redefinirse y lo está haciendo a través de nuevas aplicaciones de negocio que son más nativas en cloud, apalancando la tercera plataforma. Para esto se tiene que iniciar modernizando las TI”, comentó.

Según un estudio realizado por esta compañía –en el cual se entrevistó a los CIO de 3,000 organizaciones alrededor del mundo– un 45% tiene claro que si no adoptan la transformación digital (conocida también por las siglas DX),  estarán fuera del mercado en un plazo de unos tres años. Sólo un 5% de los entrevistados ya había definido una estrategia de DX, 12% se encuentra trabajando un modelo muy tradicional, y 42% están empezando a tomar iniciativas de transformación.

Convergencia entre On site y cloud

Por su parte, la firma de consultoría Gartner reconoce la necesidad de alinear iniciativas TI para impulsar el valor de negocio a través del desarrollo ágil, la convergencia de tecnología e infraestructura, y la modernización, automatización y migración a plataformas en la nube. “Los encargados de infraestructura y operaciones, así como sus equipos de trabajo, deben garantizar que los sistemas existentes sean confiables mientras implementan los cambios necesarios para sustentar las nuevas cargas de trabajo”, aseveró Federico De Silva León, Director de Investigación de Gartner.

Federico De Silva León, Director de Investigación de Gartner.

Para HPE, la transformación digital de los negocios se trata de un paso obligatorio que, en definitiva, tocará cada una de las empresas en México y el mundo, donde la perfecta convergencia entre on site y cloud jugará un papel protagónico. “Esto claramente impacta en el centro de datos y la nube. En HPE creemos que vamos a vivir en un mundo híbrido”, puntualizó Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dijo que la compañía tiene tres primicias al respecto: 1) el mundo será híbrido con in house y cloud; 2) la periferia que hoy genera tráfico en la red y datos van a apalancar la generación de aplicaciones; y 3) se transformará el modo en que se entregan este tipo de tecnología, que en HPE se cree será a través de servicios. “Debemos ver las cargas que realmente se necesiten llevar a la nube, cuáles podemos comprar como servicios y cuáles aún tienen que vivir en el centro de datos”, aseveró Lomelín.

Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dell EMC ofrece un modelo similar para llevar el negocio hacia la digitalización aplicando mejoras en el centro de datos y la nube, al que han denominado MAT (Modernizar, Automatizar y Transformar). Con este modelo ayudan a las empresas a entender qué se debe modernizar en las TI, cómo se pueden automatizar los procesos en el centro de datos y transformar a la gente.

Para Adrián Simg, Data Center Group Executive de Lenovo, lograr la convergencia perfecta entre el centro de datos y cloud es un proceso completo de transformación que va más allá de proveer una mejora en infraestructura física. “No sólo se trata del fierro, el almacenamiento y el procedimiento, se trata de cómo hago uso de todo ello, para lo cual se requiere software y personas”, comentó Simg.

 

Principales obstáculos

Lograr tal convergencia parece no ser una tarea sencilla. Al respecto, Gartner señala que uno de los principales retos a los que se enfrenta el CIO tiene que ver con la administración de presupuestos TI de modo eficaz. Según una encuesta de la consultora, este 2017 la segunda prioridad para CIOs en América Latina tiene que ver con modernización de Infraestructura y operaciones (mencionado por el 32% de sus encuestados).

Sin embargo, los presupuestos han sido recortados. Las empresas deben entender que no sólo se trata de recortar presupuestos, sino de generar valor y tratar las inversiones TI como activos, no como gastos. “Las organizaciones de TI que quieren ser exitosas en el futuro deberán poner el eje no sólo en la tecnología, sino también en los resultados de negocio”, comentó De Silva León, de Gartner.

 

Hacia dónde se destinará la inversión

Para Dell EMC, si bien la cuestión de presupuestos parece un obstáculo ahora, hacer el esfuerzo por invertir en modernización trae a la empresa beneficios no sólo en costos, sino en productividad del personal, redireccionando esfuerzos a resultados. “Al modernizar se obtienen ahorros significativos en operación y automatización. Estos ahorros los inviertes ahora en investigación, desarrollo e innovación, permitiendo hacer el circulo virtuoso de lo que es la transformación digital”, aseveró Arturo Benavides.

Esto es lo que permite vislumbrar un mercado prometedor en México. “Vemos que la inversión en general de centros de datos en el país crecerá alrededor del 10% en forma anual por lo menos por los siguientes cinco años”, aseveró Marco Damián, Gerente de Mercado Financiero de Panduit. Agregó que muchos centros de datos han crecido bajo demanda, es decir, conforme han surgido las necesidades. “El área de oportunidad que vislumbramos es que este crecimiento por parte de los usuarios se realice en forma estructurada y ágil, destinando importantes recursos para optimizar la parte de energía y enfriamiento en el centro de datos”.

Marco Damián, Gerente de Mercado Financiero de Panduit.

Y por lo que respecta a los proveedores de servicios, las expectativas de crecimiento parecen fundamentarse en soluciones a la medida. “Un elemento importante es ofrecer todo bajo servicio, es decir, no nada más la infraestructura, las aplicaciones o el software sino todos los componentes bajo un modelo integrado con el centro de datos”, resaltó Ricardo Rentería, Director General de Amazon Web Services en México.

De acuerdo con el directivo, esto significa ofrecer soluciones de ERP, web o almacenamiento que pueden ser integradas bajo el concepto de cloud, aportando características de elasticidad y facturación por minuto/hora con los conceptos de los centros de datos actuales. “Esto garantiza la extensión de las inversiones que los clientes ya tienen, incorporando la innovación que ofrece cloud”, señaló Rentería.

Ricardo Rentería, Director General de Amazon Web Services en México.

Otro de los proveedores de infraestructura en este sector, Intel, busca habilitar nuevos modelos de negocio para entregar servicios más personalizados y orientados hacia un sector o empresa en específico, de manera “que al proveedor de nube le dé una ganancia adicional y al usuario una mejora en la experiencia, así como un modelo de negocio más ajustado a lo que necesita”, explicó Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Dijo que la inversión en los centros de datos se debería enfocar hacia dos grandes rubros: un cambio completo en la cultura organizacional (“más ágil, rápida y abierta en cuanto a dónde se genera la información para tomar decisiones”) y hacia una plataforma digital, en la cual intervenga la toma de decisiones informada (con base en Big Data), a partir de muchas fuentes (Internet de las Cosas), con plataformas que mantengan la confianza que ha ganado la empresa con sus clientes, “y que sea un centro de trabajo con pensamiento innovador que genere una experiencia continua hacia el cliente con interacción 7×24”, explicó Cerecer.

Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Por su parte, Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam, afirmó que, de acuerdo con una encuesta aplicada a nivel mundial, en México el 60% de las organizaciones que están invirtiendo en plataformas de Software o en Infraestructura como Servicio, o bien, planean hacerlo en los próximos 12 meses. Este porcentaje es significativo, ya que duplica el promedio de inversión en estos rubros declarado a nivel global. Montes de Oca agregó que su empresa ofrece disponibilidad para el centro de datos moderno, “con tiempos de recuperación menores a 15 minutos para cualquier organización, independientemente de dónde se encuentre su nube”.

Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam.

Ofrecer este tipo de garantías puede asegurar “una larga vida” al centro de datos. De hecho, información proporcionada por Furukawa Electric, empresa dedicada al sector de telecomunicaciones, energía y electrónica, señala que el 76% de los datos que existen a nivel mundial residen dentro de un data center (DC), un 17% se encuentran entre el DC y el usuario, y el 5% restante interactúan entre varios centros de datos. “Además, hay muchas cosas que cambiarán en el ámbito de los data centers: la descentralización de la nube, la distribución de contenido más cercana al usuario, y datacenters distribuidos con ancho de banda hiperescalables con velocidades de 200 y 400 gigas”, advirtió Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Seguridad, control de riesgos y backup

No obstante lo anterior, aún persiste una falta de conciencia respecto a la seguridad de los datos y los sistemas, al menos esa es la perspectiva de Alejandro Lomelín, de HPE, quien aseguró que en las empresas debería haber un mejor manejo de la información y una mejor gobernabilidad. “La información debería vivir en dispositivos muy seguros que no sean vulnerados ni por externos ni por empleados mal intencionados”.

Y es que al producirse mayor cantidad de datos y procesos se generan mayores densidades de calor en diferentes áreas de las salas que alberga el centro de datos. “Es necesario entonces un adecuado sistema de enfriamiento que permita la continuidad del negocio, evitando caídas de sistemas provocadas por el sobrecalentamiento de los equipos”, dijo Alejandro Sánchez, Director Comercial de Stulz México.

Alejandro Sánchez, Director Comercial de Stulz México.

Para lograr lo anterior, recomendó nivelar la carga de energía en todo el centro de datos, estableciendo zonas de baja, media y alta densidad para así enfocar los diferentes niveles de esfuerzos en esas zonas para el suministro del aire acondicionado. “Es un hecho que hoy día estamos viendo una tendencia creciente a que todos los servicios sean a través de la nube y para esto todos los componentes, incluidos los sistemas de enfriamiento, deben estar preparados”, resaltó Sánchez.

Por otra parte, las certificaciones de seguridad juegan un papel importante en esta transformación, especialmente al momento de seleccionar un proveedor de servicios de nube, para que éste garantice que los datos no se van a ver comprometidos, ni mis procesos detenidos. “Existen diferentes niveles de certificación, dando un nivel de confiabilidad que depende de que, en caso de que suceda algo, cuánto tiempo me tardo en recuperar esa continuidad. Entre menos tiempo me tarde, un nivel de certificación más alto se obtiene”, aseguró Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

El papel del CIO en este proceso

Gartner reconoce la importancia de destacar el papel del CIO en este proceso y la necesidad de transformar el rol que ejerce dentro del área TI, pasando de ser simples gerentes a convertirse en asesores confiables de los CEO. Según esta firma consultora, deben estar conscientes de que aquellas habilidades que les permitieron llegar a su puesto no necesariamente los llevarán al siguiente nivel.

“Si bien la tecnología siempre será importante, no es lo único ni lo primordial para el CIO, dado que las personas y los procesos de operación de TI resultan tanto o más importante en este proceso”, afirmó Silva León, de Gartner.

Se trata de una primicia compartida también por HPE: “Queremos empoderar a este personaje de tecnología, al área de Sistemas, para que se vuelva un bróker de estos servicios y tenga cierta gobernabilidad de todo el proceso”, comentó Lomelín.

Los CIO deben entender que su papel está cambiando, que se están convirtiendo en habilitadores de servicios, y deben entender que la TI es el medio para lograr que las aplicaciones de negocio trabajen de un modo más eficiente, rentable y seguras, y deben asegurarse de tener las herramientas para poder orquestar el movimiento de la información, de acuerdo con Benavides, de Dell EMC.

Innovación en Data center, un paso obligatorio

Gartner destaca la necesidad de aumentar la influencia mediante innovación, con la construcción de sistemas de TI ágiles y definidos por software, así como detectar comportamientos anormales para monitorear, gestionar, medir, asegurar y alertar; automatizar la toma de decisiones a partir de datos, y unirse a la economía de las API.

Si bien el cloud computing es una solución que llegó para quedarse al ofrecer muchas ventajas para el negocio, el centro de datos no va a desaparecer, al menos así lo consideró Adrián Simg, de Lenovo. “No creo que una empresa vaya a una nube al 100%. Siempre existirá un equilibrio entre el centro de datos y cloud, si bien puede haber más procesamiento o almacenamiento en la nube, pero el centro de datos jamás dejará de existir”, afirmó.

Es por ello que las empresas no deben dejar este importante proceso de actualización de su infraestructura on site de lado, a través de una serie de herramientas, productos y servicios que les ayuden a efientar el data center.

“La optimización de todo lo que tienes en el centro de datos es algo que no va a parar. Pero los ingredientes adicionales que se le ponen al centro de datos para amalgamar este proceso serán la clave”, aseguró Alejandro Lomelín, de HPE.

Uno de los avances más significativos en este aspecto es el almacenamiento, que ha pasado del tradicional gran gabinete lleno de discos duros giratorios que generaban mucho ruido, ocupaban gran espacio y consumían altos niveles de electricidad, al almacenamiento flash que no genera ruido, disminuye en gran medida la generación de calor y consumen mucho menos electricidad. Hoy en día son drives con mucha más capacidad en menos espacios. Además, ayuda a reducir costos operativos, eficientizar la administración generando un centro de datos verde.

Otras de las innovaciones que se han dado en los últimos años a fin de robustecer la infraestructura para el centro de datos tiene que ver con sus sistemas de supresión de incendios, pasando de sistema tradicional de chorros de agua o químicos que suelen ser dañinos para el ambiente y las personas, a sistemas híbridos.

Estos sistemas híbridos combinan nitrógeno (un gas inerte que no acelera el calentamiento global), con micromoléculas de agua para generar una emulsión que no produce humedad residual, permitiendo proteger el centro de datos y áreas críticas, sin interrumpir las actividades del mismo.

Si se comparan los sistemas tradicionales a chorro de agua –que requieren procedimientos más complejos como almacenamiento de agua, bombas, rociadores y otra clase de infraestructura pesada–, los sistemas híbridos sólo necesitan de un almacenamiento reducido de agua y nitrógeno conectado a tuberías de áreas críticas que se están protegiendo. Además, el costo por toda la infraestructura que debe sobrellevar es mucho menor.

“Si se nos cae el sistema, estás dejando de vender, estás perdiendo confiabilidad y clientes. Una vez que pierdes un cliente estás perdiendo negocio, participación de mercado, y otra serie de grandes pérdidas intangibles, pero que a veces tienen más valor que el monetario, incluso estamos hablando de cosas irreemplazables”, puntualizó Eurídice Ibarlucea, de Victaulic.

Esta nueva alternativa es amigable con el medio ambiente, al mismo tiempo que protege los activos que se están resguardando, evitando que se detenga la transmisión de datos, avalando la continuidad del negocio y operaciones.

Para finalizar, Stulz recomendó contar con una plataforma de DCIM (Data Center Infrastructure Management) que permita tener una completa visibilidad y administración de toda la infraestructura física, y no sólo la parte del enfriamiento.

Por su parte, Ricardo Rentería, de AWS, aseveró que todavía veremos la integración entre ambientes site y cloud por algunos años más, “debido a que hay una fuerte inversión en centros de datos locales en México, ya sean propios o por contratos de outsourcing o hosting.

“En lo que las empresas hacen un ciclo completo de proyecto, capacitación, habilitación, definición de estrategias hasta llegar a un cloud natural, veremos una etapa de transición de por lo menos dos años. Tras ese periodo, veremos compañías que ya harán cloud al 100%”, concluyó Rentería.

 

Por Karina Rodríguez y José Luis Becerra

Cómo es que el vehículo autónomo cambiará nuestra vida

Una de las grandes promesas de la inteligencia artificial (IA) es nuestro futuro sin conductores gracias a los vehículo autónomo. Cerca de 1,3 millones de personas mueren en accidentes de circulación cada año en todo el mundo, un promedio de 3.287 muertes al día y cerca del 90 % de estas colisiones han sido causadas por errores humanos, según explica Brian Krzanich, CEO de Intel Corporation.

La tecnología para conducción autónoma puede ayudar a prevenir estos errores, ya que ofrece al vehículo autónomo este tipo la capacidad para aprender de la experiencia colectiva de millones de automóviles – evitando los errores cometidos por otras personas y creando un entorno de conducción más seguro.

En vista del ritmo al que se está haciendo realidad la conducción autónoma, espero plenamente que los hijos de mis hijos nunca tengan que conducir un automóvil. Esta es una idea asombrosa: algo que casi el 90% de los norteamericanos hacen a diario va dejar de realizarse dentro de una generación. Con un potencial tan grande para salvar vidas, estamos hablando de una rápida transformación en la que Intel está encantada de estar al frente junto a otras empresas destacadas del sector de la conducción autónoma, como es el caso de Waymo.

Los más recientes vehículos de Waymo, las minifurgonetas híbridas de conducción autónoma Chrysler Pacifica, se encuentran equipadas con tecnologías de Intel para el procesamiento de sensores, computación general y conectividad, facilitando la toma de decisiones en tiempo real para posibilitar una autonomía total en entornos urbanos.

A medida que las tecnologías de conducción autónoma de Waymo se hagan más inteligentes y cuenten con una mayor capacidad, su hardware y software de alto rendimiento requerirán una potencia informática más poderosa y eficiente. Colaborando estrechamente con Waymo, Intel puede ofrecer a su flota de vehículos la potencia de procesamiento avanzada necesaria para los niveles de autonomía 4 y 5.

Con 4,8 millones de kilómetros de conducción en la vida real, los vehículos de Waymo equipados con tecnología de Intel ya han procesado más kilómetros en vehículos de conducción autónoma que cualquier otra flota de vehículos de este tipo en las carreteras de EE. UU. La colaboración de Intel con Waymo garantiza a Intel el mantenimiento de su liderazgo a la hora de hacer realidad la promesa de una conducción autónoma y un futuro más seguro y sin colisiones.

 

IDG.es

Cómo las tecnologías apoyarán la economía de México 

Lenovo, Microsoft e Intel se unen en debate sobre el futuro de la tecnología y las empresas dentro del país en un panorama de 10 años, donde aspectos como movilidad, cloud, datos y talento serán clave para impulsar los negocios.

Uno de los puntos destacados tiene que ver con el uso de nuevas tecnologías para cambiar el modelo de trabajo, apoyándose de las nuevas tecnologías  y dándole más apertura al empleado y colaborador. En concreto, el aprovechamiento de los equipos móviles y la nube para empoderar el trabajador móvil, aumentando su productividad.

Según comentó Marco Jiménez, Director General de Lenovo México, esta descentralización del trabajo será importante para el desarrollo de los negocios en México, reflejándose en impactos positivos tanto en disminución de costos (electricidad, luz, espacios), como en productividad.  “Con tendencias como movilidad y cloud podemos ser productivos sin importar dónde nos encontremos, no necesitas ir a una oficina física, priorizamos la capacidad del colaborador en creatividad y productividad”, comentó.

 

Datos, el nuevo petróleo de México

Cada día se genera una gran cantidad de datos, a través de sensores, redes sociales, y una creciente cantidad de dispositivos. Diferentes consultoras han acordado que los datos se han convertido hoy en día en el activo más valioso de una empresa, el más buscado por los cibercriminales y el nuevo petróleo del país.

Es por ello que se debe buscar no sólo la recolección y almacenamiento de ellos, sino la explotación de los mismos a fin de sacar el completo potencial para las empresas. Para Moisés Avelar De la Llave, CDS  Lead México Microsoft México, este poder que obtenga la empresa en recopilar, almacenar y aprovechar el valor de la información hará la diferencia en el mercado. “Con toda esta información que  está ocurriendo debemos utilizarla de un modo mucho más inteligente a través de tendencias como Big Data, creando oportunidades de negocio interesantes, un mejor servicio al cliente y hasta nuevas formas de comercialización de productos y servicios”.

¿La tecnología está afectando puestos de trabajo?

Tendencias en crecimiento en nuestro país, como el internet de las cosas, robótica, impresión 3D y la inteligencia artificial, están ayudando a las empresas a automatizar procesos, pero, ¿esto afectará a los puestos de trabajo?

Según Moisés Avelar, la tecnología no es un freno para que las personas pierdan su trabajo, por el contrario, evita trabajos engorrosos, logrando que enfoquen sus esfuerzos en tareas que requieran más de su intelecto y creatividad.  “Los puestos de trabajo no se pierden, van a cambiar, y debemos estar muy abiertos a aceptar estos cambios”, aseveró.

El ejecutivo de Microsoft también agregó que esta  evolución tecnología impulsará la economía no sólo en empleos ya existentes, sino en la generación de nuevos puestos de trabajo, como el cada vez más incorporado en empresas mexicanas, Chief Data Officer, siendo, además, una nueva carrera en diferentes instituciones de nivel superior.

Marco Jiménez secundó esta moción al comentar que, “Estamos en la 4ta. Revolución Industrial, que creará una nueva ola de empleos. La tecnología no eliminará empleos, sólo se redireccionarán a tareas que requieran de mayor creatividad y aporten un mayor valor al negocio”, puntualizó el director de Lenovo México.

Según datos proporcionados por Ricardo López Tello – Director de Client Computing Group de Intel México,  gracias a la adopción de cloud se han generado en México unos 63,000 empleos nuevos, logrando ahorros de un 0.31% del PIB, por lo que López Tello espera que este número crezca con la adopción de tecnologías más innovadoras.

 

-Karina Rodríguez, Computerworld México.

 

Intel realiza inversión de 1,000 millones de dólares en Inteligencia Artificial  

El monto comprende inversiones en startups, compra de empresas, creación de alianzas con terceros y la apertura de un laboratorio.  

El brazo inversor de Intel ha destinado más de 1.000 millones de dólares a invertir en compañías de inteligencia artificial y en cambios estructurales internos. 

En concreto Intel ha financiado startups como Data Robot, Mighty AI y Lumiata y ha adquirido Altera, Nervana Systems y Movidius. La compañía ha creado un departamento específico sobre AI y un laboratorio de I+D dedicados a la inteligencia artificial y ha cerrado alianzas con empresas, administraciones e instituciones académicas para investigar el potencial de la tecnología. 

Brian Krzanich, CEO de Intel, ha ponderado este impulso inversor y ha dicho que están “profundamente comprometidos para descifrar la promesa de la inteligencia artificial: dirigir la investigación a la computación neuromórfica, explorar nuevas arquitecturas y paradigmas de aprendizaje”. 

“Creo que Intel será la plataforma AI elegida”, ha declarado, tal y como recoge ZDNet. 

Aunque desde diferentes ángulos, compañías como Google, Spotify, Microsoft, Uber y Facebook son algunas de las empresas que más fondos están destinando al desarrollo de herramientas con capas de inteligencia artificial. 

Tal y como revela el informe elaborado por Tractica, en 2016 el mercado de AI generó 644 millones de dólares. La firma espera que en menos de 10 años el volumen alcance los 37.800 millones de dólares. 

Redacción  

 

 

Intel, AT&T, Ericsson, Samsung y Nokia se unen para ofrecer red 5G

Intel, AT&T, Ericsson, Samsung y Nokia anunciaron estar trabajando en conjunto con el propósito de expandir las pruebas de red inalámbrica fija 5G a Waco, Tex., Kalamazoo, Mich. y South Bend Ind.

AT&T anunció a través de un comunicado emitido esta mañana que los participantes de las pruebas pueden ser universidades, hospitales, iglesias, restaurantes y otras empresas pequeñas. Dichas pruebas utilizan la Plataforma de Prueba Móvil 5G de Intel y se extienden a las nuevas ciudades los aprendizajes clave de las actuales pruebas realizadas en Austin, Texas con el objetivo de acelerar el despliegue basado en estándares. .

“La extensión de estas pruebas a otras ciudades se basa en nuestra colaboración a largo plazo con AT&T y colaboradores de la industria”, aseveró Sandra Rivera, vicepresidente ejecutiva y directora general del Grupo de Plataformas de Red y Patrocinadora Ejecutiva 5G de Intel Corporation.

La ejecutiva también agregó que lo aprendido en Austin servirá para expandirse en otros territorios, tentativamente la localidad a seguir sería Indianapolis. “Considerando lo aprendido con la Plataforma de Prueba Móvil 5G de Intel en Austin hacia otros mercados, podemos probar más aplicaciones más reales de la tecnología 5G con nuestros colaboradores de infraestructura como un ecosistema, desde la red, la nube y el dispositivo hasta convertir la tecnología 5G en una realidad.”

 

-Redacción.