Día: 28 febrero, 2014

Opinión: Privacidad en la nube vs seguridad, ¿cuál es la diferencia?

Privacidad vs seguridad en la nubeLa tecnología evoluciona a un ritmo vertiginoso y en ningún ámbito es más evidente que en los negocios. Por desgracia, no importa dónde estemos ubicados: los hackers encuentran una manera para mantenerse al ritmo de los avances tecnológicos. El único sistema verdaderamente seguro es uno al que nadie puede acceder (y que sin duda hace que sea el menos deseable para el despliegue en una empresa con necesidades de empleados móviles).

Los CIOs siguen señalando a la “seguridad” como su principal preocupación, sin embargo, esto no ha frenado la adopción de los servicios en la nube.

Afrontemos esta realidad: cada vez que se combinan los servicios normales y en la nube, el nivel de amenaza se incrementa automáticamente; cada vez que la empresa tiene puntos de acceso separados, aumenta la vulnerabilidad y también hay vulnerabilidades inherentes cuando se tienen portales donde diferentes personas pueden iniciar sesión.

Toda compañía de comunicaciones que se respete debe crear barreras que mantengan a estos intrusos fuera del perímetro, en una estrategia inteligente, parecida a un juego de Serpientes y Escaleras, con barreras cada vez más complejas. Con tiempo y paciencia suficiente, es posible violar cualquier sistema.

Esto no es lo que los usuarios quieren oír, pero el reconocimiento de esta realidad es lo que hace que los datos estén más seguros.

La seguridad es siempre una preocupación cuando se trata de datos sensibles y ésta se acentúa cuando se trata de servicios en la nube que se localizan fuera del firewall corporativo.

Sabemos que la “nube” no es nueva. En realidad se trata un gran término amorfo que ha estado durante mucho tiempo en existencia. Por ejemplo, piense en su correo electrónico: ¿alguna vez ha tenido una cuenta de Hotmail, Yahoo o Gmail? Esos son los primeros servicios en la nube.

Pues bien, ahora la tecnología está cambiando los métodos de ejecución. Caminamos hacia un mundo donde el hardware específico ya no es tan relevante como la experiencia del usuario –esta última debe incluir una cierta apariencia de control sobre el contenido que creamos y sus metadatos asociados.

Pero aunque los términos se hayan vuelto intercambiables, vale la pena tener en cuenta que hay una diferencia entre la privacidad y la seguridad. En efecto, la seguridad consiste en estar libre de peligro; la privacidad, en estar libre de la observación: nadie mira lo que está transmitiendo (ahí tenemos el escándalo del espionaje efectuado por la Agencia de Seguridad Nacional (NSA) en 2013, por ejemplo).

Entonces, ¿por qué tenemos tanto miedo?

Algunas razones pueden ser las siguientes:

  • Pérdida de control: pasar a la nube significa renunciar al control principal en la gestión diaria de sus sistemas. Esto no es un punto negativo si la empresa en la nube se centra en sus sistemas 24 horas los siete días de la semana.
  • Datos de infracciones: la pesadilla de cualquier proveedor de servicios. Cualquier problema puede ser mitigado con medidas tales como el cifrado.
  • Pérdida de datos: no siempre existe un problema de robo. Los desastres naturales o errores simples pueden ser la causa principal. Esto se elimina con tres palabras: redundancia de datos.
  • Secuestro de servicio: tristemente, las estafas de phishing y otras interacciones sociales fraudulentas continúan produciendo resultados. Mantenga sus tarjetas confidenciales.
  • Tiempo de inactividad: clientes ansiosos, un huracán inesperado o la negación del servicio por ataque son temas que dan lugar a un cierre de las operaciones hasta que el problema se resuelva. Un seguimiento coherente puede ayudar a reducir el impacto y nos pondrá de nuevo en línea.
  • Infiltrados maliciosos: esta preocupación es sobre todo humana. El espionaje corporativo no es un concepto nuevo. La clave consiste en mantener un sistema de gestión de controles y un equilibrio fácil de usar que evite que usuarios no autorizados tengan acceso a los datos por encima de su nivel de autorización.

La llave adecuada

Asegúrese de que sus comunicaciones se aseguran con autenticación robusta y credenciales de autorización cifradas. Además, un proceso de instalación o registro puede validar la información del usuario mediante la certificación digital. Lo ideal sería una solución que detectara automáticamente cuándo se accede al sistema desde fuera del firewall de la empresa, para que automáticamente ubique e identifique la sesión en curso.

La triste realidad es que el subconjunto criminal de la sociedad siempre hará todo lo posible para frustrar a los “chicos buenos”. Sin embargo, la belleza de la constante evolución de la tecnología es que somos capaces de mantener el ritmo tanto en la simplificación de las tareas, como en asegurarnos que el negocio puede continuar de forma habitual, a pesar de las amenazas potenciales a la seguridad.

–––––––––––––

Rafael Fernández Corro es director para Latinoamérica de Shoretel Inc.

¿Es 2014 el año de la arquitectura Big Data?

Big Data es su año 2014Hay una increíble muestra de arquitecturas de referencia para Big Data, y 2014 puede ser el año en el que estas arquitecturas empiecen a fusionarse. ¿Se verá en 2014 la aparición de un equivalente en Big Data a la arquitectura LAMP?

Algunos creen que tal arquitectura empezará a fusionares este año, cuando comience a haber consenso en ciertas arquitecturas de referencia de Big Data, aunque las capas superiores de la arquitectura puedan tener más elementos propietarios que tiene LAMP

El acrónimo LAMP es utilizado para referirse a un sistema de infraestructura de Internet que utiliza las herramientas: Linux, como sistema operativo; Apache HTTP, como servidor web; MySQL, como administrador de bases de datos y PHP, Perl oPython como lenguaje de programación.

“Hay miles de arquitecturas de referencia de Big Data por ahí”, afirma Daley. “La historia se repite. Vimos ocurrir exactamente lo mismo con el sistema de infraestructura LAMP. Está impulsado por el sufrimiento. El sufrimiento es lo que lo va a conducirlo inicialmente, sufrimiento en forma de coste y escala”, señala Richard Daley, uno de los fundadores y director de estrategia de Pentaho, compañía que ha profundizado en el futuro de este concepto.

Pero para Daley, las organizaciones que trabajan con tecnologías de Big data (el 42% de las organizaciones estaban ya abordando alguna iniciativa de Big Data en 2013, según un estudio de CompTIA) empiezan rápidamente a ver los beneficios de esos datos, particularmente las organizaciones que lo utilizan para marketing o para detección de intrusiones en la red.

“En los últimos 12 meses hemos visto más y más gente obteniendo beneficios de Big Data”, afirma. “Hay mucho más que ganar del análisis y utilización de Big Data, que sólo en almacenarlos”.

La explosión de sitios web dinámicos e interactivos a finales de los años 90 y primeros del 2000, estuvo motivada, al menos en parte, por la arquitectura LAMP, formada por Linux, Apache HTTP server, MySQL y PHP. Cada uno de estos componentes gratuitos y de código abierto son poderosas herramientas desarrolladas de manera independiente, pero se unen para formar una plataforma de desarrollo web que es más potente que la suma de sus partes.

Estos componentes están disponibles y tienen licencias abiertas con relativamente pocas restricciones. Y, quizá lo más importante, el código fuente está disponible, lo que da a los desarrolladores una tremenda flexibilidad.

Mientras la arquitectura LAMP especifica los componentes individuales (aunque pueda haber sustitutos en ciertas capas), la arquitectura de Big Data que Daley prevé tiene muchas más opciones en cada capa, dependiendo de la aplicación que se tenga en mente.

“D” por la capa de Datos

La capa inferior de la pila, la base, es la capa de datos. Ésta es la capa para las distribuciones Hadoop, bases de datos NoSQL (HBase, MongoDB, CouchDB y muchas otras), incluso bases de datos relacionales y analíticas, como SAS, Greenplum, Teradata y Vertica.

“Cualquiera de esas tecnologías se puede utilizar para aplicaciones de Big Data”, dice Daley. “Hadoop y NoSQL son abiertas, más escalables y más eficaces en coste, pero no pueden hacerlo todo. Ahí es donde entran otras como Greenplum y Vertica, que tienen su lugar para aplicaciones analíticas muy rápidas.”

Sin embargo, esta capa de la arquitectura tiene el mayor trabajo por hacer, según Daley, ya que las bases de datos relacionales y analíticas tienen muchos años de desarrollo realizado, pero las tecnologías Hadoop y NoSQL están todavía en una fase relativamente temprana.

“Estamos sobre el abismo en términos de adopción. Estamos más allá de los primeros seguidores, pero hay todavía mucho que hacer en términos de administración, servicios y capacidades operacionales para ambos ambientes. Hadoop es una tecnología muy, muy complicada y todavía con muchas aristas. Y si miras al ámbito NoSQL, es como un gran lío. Cada uno de los motores NoSQL tiene su propio lenguaje de consulta.

“I” por la capa de Integración

La siguiente capa es la capa de integración. Aquí es donde ocurre la preparación, limpieza, transformación e integración de datos.

“Rara vez obtenemos datos de una sola fuente”, explica Daley. “Si miramos una aplicación de cliente-360, obtendremos datos de 3, 4 o incluso 5 fuentes. Cuando alguien debe hacer una aplicación analítica o incluso una aplicación predictiva, el 70% del tiempo se pasará en esta capa, machacando datos”.

Aunque esta capa es la parte menos glamurosa del Big Data, es también un área que es relativamente madura, con muchas utilidades (como Sqoop y Flume) y suministradores para llenar las lagunas.

“A” por la capa de Análisis

La siguiente capa es la capa analítica, donde ocurren el análisis y la visualización.

“Ahora tengo los datos, los tengo almacenados y listos para que sean examinados”, explica Daley. “Tomo un Tableau, o Pentaho o Qlikview y visualizo esos datos. ¿Tengo patrones? Aquí es donde la gente, los usuarios de negocio, empiezan a sacar algún valor de todo ello. Aquí es donde yo también incluiría las búsquedas. No todo consiste en tableros de control y en cortar y fragmentar datos, dice.

Esta área también es relativamente madura, aunque Daley reconoce que todavía tiene bastante recorrido. “Todavía tenemos que resolver como industria cómo sacarle más jugo a Hadoop, métodos para obtener datos más rápido. ¿Quizá reconozcamos que se trata de un ambiente batch y necesitamos obtener ciertos datos de otras fuentes de datos? Los suministradores están trabajando contra-reloj para hacer esas integraciones mejor y mejor”.

“P” por Analítica Predictiva/Prescriptiva

La capa superior de esta pila es la analítica predictiva/prescriptiva, afirma Daley. Aquí es donde las organizaciones empiezan a reconocer el valor verdadero de Big Data. La analítica predictiva utiliza datos (datos históricos, datos externos y datos en tiempo real), reglas de negocio y aprendizaje de la máquina para hacer predicciones e identificar riesgos y oportunidades.

Un paso más es la analítica prescriptiva, algunas veces considerado el Santo Grial de la analítica de negocio, que toma esas predicciones y ofrece sugerencias para formas de aprovechar las oportunidades futuras o mitigar riesgos futuros, junto con las implicaciones de las diferentes opciones.

“Se tiene que hacer todo el camino y llegar a la fase predictiva para obtener valor de Big Data”, dice. “No es probable que se obtenga un gran valor sólo de cortar y fragmentar datos. Hay que llegar a la parte superior de la pila”.

“Al menos el 70, quizá el 80% de lo que vemos en las aplicaciones de Big Data son ahora analíticas predictivas o incluso prescriptivas”, añade Daley. “Esto se debe a la necesidad, pues se empieza en la base con la tecnología de datos (almacenamiento, manipulación, transformaciones, analítica básica), pero al final llega el momento de la analítica predictiva avanzada. Esto se está volviendo más y más genérico”.

Aunque la analítica predictiva ya es –de alguna forma– “madura”, hoy es un área donde sólo los científicos de datos están equipados para gestionar.

“Creo que lo predictivo ha avanzado mucho”, afirma Daley. “Desde el punto de vista tecnológico, creo que ya está madura. Pero necesitamos ver cómo lo podemos poner en las manos de muchos más usuarios. Necesitamos incorporarlo en aplicaciones que los usuarios de negocio puedan acceder, no sólo los científicos de datos”.

¿DIAP o PAID?

Llamémoslo arquitectura DIAP. O quizá, si empezamos desde arriba, llamémoslo PAID. La jugada ahora, comenta Daley, no sólo consiste en añadir más madurez a los componentes tecnológicos como Hadoop y NoSQL, sino en proveer la integración de arriba debajo de la pila.

“Ese es un punto clave”, añade. “Hasta ahora todos estos elementos están separados. Muchas compañías sólo hacen una de estas cosas. Pero los clientes quieren obtener una arquitectura integrada. Deberíamos al menos asegurar que nuestros productos de arriba a abajo de la arquitectura están realmente integrados. Ahí es donde tenemos que llegar. Para que de verdad sea adoptada, productos y proveedores necesitar trabajar arriba y abajo en la arquitectura. Necesito soportar todos los sabores de Hadoop, al menos los más favorables comercialmente. Y lo mismo para NoSQL“.

Sisoft de México introduce CRM desarrollado en Java

Sisoft CRMSisoft de México anunció su herramienta CRM (Customer Relationship Manager), desarrollada en Java para automatizar la gestión de la fuerza de ventas en las empresas.

De acuerdo con información proporcionada por la compañía, Sisoft CRM permitirá establecer parámetros al gusto de sus clientes, con lo cual las empresas podrán mejorar la productividad de sus vendedores al aumentar las tasas de conversión, anticipar su futuro y tomar mejores decisiones para su gestión comercial.

Entre las principales características del Sisoft CRM figura la creación de distintos tableros de comando, para seguir en tiempo real el desempeño del equipo de ventas mediante gráficos, así como reportes inteligentes sobre cualquier indicador que el usuario necesite, como la cantidad de empresas atendidas o ventas obtenidas, con la posibilidad de segmentarlas por dimensiones como tamaño de empresa o rubro.

“Creemos que en México se requiere de CRM totalmente a la medida de las compañías mexicanas”, explicó Arturo Campos, director general de Sisoft de México. “Nuestra ventaja competitiva radica en el manejo modular del CRM, en su plataforma de base que es Java y en que logramos mantener costos bajos, lo que nos permite ofrecer un precio muy accesible para las PyMEs. Este sector es al que queremos apoyar con este tipo de desarrollos, que suelen estar al alcance de grandes empresas únicamente”, aseveró.

La nube pasa de ser “deseable” a “necesaria”

Nube necesariaLa consultora Ovum afirma que los servicios TI en la nube ya no es un algo que sea “bueno tener”, sino que se ha convertido en una “necesidad estratégica” para la empresa. Para los no iniciados, Ovum recomienda realizar inversiones a largo plazo que permitan analizar su impacto en el valor del negocio.

Los proveedores, por su parte, deben seguir trabajando para ayudar a sus clientes a lidiar con aspectos que tienen que ver con la gestión y el soporte que exigen los ambientes de cloud híbridos, así como seguir buscando formas de aprovechar la convergencia entre cloud, movilidad y análisis de los datos.

Estas son algunas de las conclusiones más interesantes del informe sobre tendencias de servicios cloud para 2014 de Ovum, que explica también cómo la adopción de servicios en la nube ha pasado de ser algo recomendable a un imperativo estratégico.

John Madden, Líder de Prácticas de Servicios TI y autor del informe, señala que “la tasa de adopción de la nube está creciendo rápidamente y se abre paso en casi todas las conversaciones con clientes. Este nuevo ritmo acelerado se aplica no sólo a los modelos de nube privada o privadas virtuales, que siguen siendo el método preferido de despliegue, sino también a los modelos de gestión más públicos o a nubes híbridas”, reconoce.

Cuatro tendencias clave

La consultora indentifica cuatro tendencias claves al respecto. Por ejemplo, que la forma en que el proveedor realiza la implantación de los servicios en la nube se está convirtiendo en un factor de decisión importante para los clientes, o cómo la gestión híbrida de la nube y los servicios de integración surgen como aspectos diferenciales de cada proveedor de outsourcing, y que un planteamiento sólo basado en el precio, a la larga, ofrecerá beneficios limitados.

Además, los expertos de la consultora confirman que, cada vez más, las empresas intentan mantener acuerdos a largo plazo con su proveedor de servicios TI  y consolidar el número de proveedores estratégicos con los que trabajan.

En este sentido, se espera que este año se produzca un buen número de adquisiciones, asociaciones y alianzas similares a las observadas en el segundo semestre de 2013. Algunas de estas operaciones incluirán servicios de TI tradicionales y, como consecuencia, las empresas de outsourcing seguirán adquiriendo mayores capacidades de centro de datos, en previsión de un incremento de precios en los contratos de outsourcing de infraestructuras basadas en la nube, mientras que otros proveedores se convertirán en jugadores de nicho.

Como reconoce el propio Madden, “esperamos más inversiones y adquisiciones de empresas externas de movilidad, social business y analítica, por ejemplo, junto a un mayor compromiso con los ecosistemas y estándares abiertos, como OpenStack, al igual que un mayor énfasis por parte de los proveedores en la seguridad, gobernanza y procedimientos que se emplean en la nube”.

Crece la demanda de expertos en Linux

Linux crece demandaLa infraestructura cloud –incluyendo los Amazon Web Services– está basada gran parte en Linux, y el crecimiento general de los servicios en la nube está incrementando las implantaciones de servidores Linux. Además, por lo menos un 30% de todos los servidores vendidos este año serán para servicios en la nube, según la firma de investigación IDC.

Este cambio puede estar contribuyendo a la tendencia de contratación de expertos en Linux, según un informe presentado por la Linux Foundation y el sitio web Dice. El informe indica que el 77% de los directivos han puesto la contratación de talento en Linux en su lista de prioridades, cifra que supera el 70% del año pasado.

El estudio no conecta explícitamente el cambio en la utilización de servidores con la contratación, pero Shravan Goli, presidente de Dice, atribuye la creciente demanda de profesionales de Linux a las implantaciones cloud, así como al incremento de aplicaciones móviles. “Muchos de los servicios móviles están construidos sobre sistemas de código abierto”, afirmó.

En el tercer trimestre del año pasado, los servidores Linux constituían el 28% de toda la facturación de servidores, según IDC. En el tercer trimestre de 2012, los servidores Linux representaban un 21.5% de la facturación de servidores.

Actualmente, Dice tiene unos 11,000 anuncios de puesto de trabajo de Linux en su sitio web, afirma Goli. “Y es que la utilización del sistema operativo Linux crece más y más”.

 

Según estimaciones de IDC, Windows está perdiendo terreno en el mercado de hardware de servidores, al tener el 50.3% de toda la facturación de hardware de servidores en el tercer trimestre de 2013. La cifra era del 51.1% en el mismo trimestre un año antes.

Por su parte, los sistemas Unix experimentaron una caída del más del 31% en 2013 con respecto al 2012. Sin embargo, es un mercado particularmente débil, pues el de servidores decrece en total un 3.7% cada año.

El caso de Linux

Linux es “por mucho” la plataforma elegida para implantaciones de cloud computing, según Charles King, analista de Pund-IT, quien asevera que el incremento de la facturación de servidores Linux “sirve como dato de soporte para el incremento” de las contrataciones Linux.

En el área de Unix, King destaca la creciente promoción por IBM de Linux sobre Power. Cabe recordar que, a finales del año pasado, IBM anunció un plan de inversión de 1,000 millones de dólares para promocionar el desarrollo de Linux sobre su sistema Power.

Al respecto, King asevera que la inversión de IBM es un esfuerzo por capturar el mismo tipo de momentum con Linux sobre su plataforma Power que el que ha tenido con su mainframe Linux.

Más de 1,100 directivos responsables de contratación a nivel global fueron entrevistados en el estudio de Dice y Linux Foundation, al igual que más de 4,000 profesionales de Linux.

El estudio cita un número de puntos para soportar lo que denomina “demanda explosiva de profesionales Linux”. Entre sus descubrimientos, cita un incremento en la utilización de Linux en la empresa. El número de managers que afirman que Linux se está convirtiendo cada vez más en “aspecto clave para sus negocios” creció 10 puntos porcentuales desde el año pasado.

En total, 93% de los entrevistados afirmaron que pensaban contratar profesionales de Linux en los próximos seis meses. No sorprende que el 86% de los profesionales de Linux respondieran diciendo que sabían que Linux les había dado más oportunidades profesionales.

El análisis de los datos del estudio para Estados Unidos indica una tendencia similar, pero con algunas diferencias en la demanda de profesionales Linux.

A nivel global, la mayor demanda es de desarrolladores, con el 68%, pero en el vecino país del norte los puestos más buscados son los de administradores de sistemas, con el 66%, seguido por los desarrolladores con el 58%.

Primeras tablets HP empresariales con Windows 8.1 a 64 bits y chips Atom

HP ElitePad 1000Después de meses de espera, HP anunció sus primeras tablets con Windows 8.1 a 64 bits y chips Bay Trail de Intel. Se trata de la ElitePad 1000 G2 y ProPad 600 G1, que se dirigen a usuarios empresariales.

Ambos modelos, que incluyen procesadores Atom de cuatro núcleos de Intel con velocidades de reloj de 1,6GHz, cuentan con pantallas de 10.1 pulgadas y una resolución de 1920 por 1200 pixeles.

El lanzamiento de tablets Windows 8.1 de 64 bits con chips Atom se retrasó por las limitaciones del sistema operativo, en relación con algunas de las características del dispositivo. Los primeros modelos ya estaban en puerta desde septiembre pasado, pero Microsoft tuvo que afrontar problemas que ya ha resuelto.

Características de la ElitePad 1000 G2

A medio camino entre una tablet pura y un sustituto de una portátil, el modelo ElitePad 1000 G2 incluye funcionalidades de auto-reparación únicas, que la distingue de sus rivales. Por ejemplo, la tapa trasera se puede abrir para cambiar tanto la batería como la pantalla, la cámara web, la tarjeta madre u otros componentes.

Hasta ahora, las tablets han sido muy integradas y necesitaban ser reemplazadas o devueltas al fabricante para su reparación, lo que podría quedar superado con las características de auto-reparación de este nuevo modelo de HP, con el consecuente ahorro en tiempo y dinero.

La tablet, que pesa 680 gramos, incluye una batería de diez horas, según HP, y cuenta con 64 GB o 128 GB de almacenamiento. Otras características destacadas son su cámara de 8 megapixeles trasera, cámara frontal de 2.1 megapixeles, USB 3.0 y ranuras micro-SD.

La conectividad LTE es opcional y dispone de cubiertas protectoras, además de que se le puede añadir batería y puertos adicionales.
El modelo ElitePad 1000 sustituye a la ElitePad 900.

La ProPad 600 G1

Por su parte, la ProPad 600 G1 cuenta con muchas menos características que la ElitePad 1000, aunque la tecnología de base es similar, según el propio fabricante.

ProPad 600 G1 ofrece hasta 64 GB de almacenamiento, un peso de apenas 652 gramos y resulta algo más gruesa que la ElitePad 1000. También dispone de cámara trasera de 8 megapixeles, cámara frontal de 2.1 megapixeles y puertos micro-SD, micro-USB 2.0 y micro-HDMI. No dispone de añadidos de batería ni de la capacidad de auto-reparación como la ElitePad 1000. El modelo ProPad también estará disponible con Windows de 32 bits, anunció la compañía.

En 2017 habrá 1,300 millones de clientes de 4G/LTE

4G LTE creceráCoincidiendo con la realización del Mobile World Congress, que se lleva a cabo esta semana en Barcelona, el organismo independiente de investigación y consultoría especializado en telecomunicaciones, IDATE, publicó el informe LTE 2014 – Markets & Trends, cuyas conclusiones apuntan a un nivel de ingresos generados por estos servicios 4G de unos 78,000 millones de dólares a finales del año pasado, momento en que sumaban 450 operadores móviles, con más de 1,000 dispositivos diferentes y 19 bandas de frecuencias. El video ya representa el 60% del tráfico de Evolución a Largo Plazo (LTE).

Según el informe, a mediados de 2013 más del 54% de los suscriptores de LTE correspondían a Estados Unidos, mercado en el que domina Verizon Wireless, que cubría en ese momento el 96% de la población de ese país. A nivel global existían 200 redes LTE comerciales, de las que 180 son LTE FDD y 20 TD-LTE. En la segunda mitad del pasado año, Corea del Sur estrenó LTE Advanced.

Para Yves Gassot , CEO de IDATE, “el éxito de LTE es sin duda el ejemplo espectacular del inexorable auge de las tecnologías inalámbricas. Es más, la asignación de nuevas bandas de frecuencias a los operadores móviles, el esperado progreso que supone LTE Advanced, la complementariedad con Wi-Fi y las buenas expectativas para M2M y el Internet de las Cosas potenciarán aún más esta tendencia durante los próximos años”.

Entre los muchos efectos que LTE ejerce en el sector de las telecomunicaciones es de resaltar su potencial para proporcionar servicios diferenciados por calidad y velocidad, al tiempo que permite a los operadores redefinir sus modelos de negocio.

Por otra parte, LTE marcará una nueva era de consolidación y de acuerdos de compartición de infraestructuras. Consolidación que no se limitará al mercado de la movilidad, ya que abarcará también los mercados de cable y de comunicaciones fijas.

Intel quiere llevar los 64 bits a smartphones y tablets

Intel en BarcelonaIntel acude a su cita con el Mobile World Congress, que se realiza esta semana en Barcelona, y lo ha hecho con la apuesta por llevar los 64 bits a smartphones y tablets. Nuevos chips para dispositivos móviles, novedades en el área de comunicaciones con LTE Cat6, una redefinición del centro de datos y nuevas y reforzadas alianzas, las principales novedades.

Paul Bergevin, vicepresidente de comunicación global, comenzó su presentación haciendo referencia a la apuesta de Intel, “potentes iniciativas en un amplio rango de dispositivos, pero también más allá de los dispositivos”, en alusión a uno de los fenómenos que se está imponiendo en el mercado: Internet de las Cosas.

Renee James, presidente de Intel, dio paso a la visión de Intel de lo que han denominado como “la nueva ola de la computación”, una apuesta por conectar todo, pensando en los miles de millones de dispositivos conectados en 2020, “todos generando datos”.

Para ello, la visión de Intel integra desde los dispositivos móviles hasta los grandes centros de datos, sin olvidar que “la base de todo es la conectividad IP”, ni, por supuesto, la seguridad.

Por su parte, Hermann Eul, vicepresidente y director general de Mobile and Communications Group, recordó la apuesta de Intel, que se apoya en el soporte multi-sistema operativo, propuestas para todo tipo de dispositivos y fuertes alianzas con partners.

Pero si por algo se conoce a Intel es por los chips, y en esta ocasión no han querido defraudar esta idea, y han presentado oficialmente Merrifield, un chip dual core para smartphones y tablets que será completado en la segunda mitad del año por Moorefield, la apuesta quad core. En ambos, se presume de mejores gráficos, sensores avanzados, optimizado consumo de batería.

Se trata de acelerar la adopción de los 64 bits en el terreno de los smartphones y las tablets.

Lo nuevo

Asimismo, Intel anunció novedades en las plataformas de comunicaciones. A la ya conocida LTE 7160, llegada al mercado en el tercer trimestre de 2013, se une ahora LTE 7260, una plataforma de categoría 6, que ofrece conectividad hasta a 300 Mbps y más de 3GPP Bands, además de una reducción del consumo de energía.

En cuanto a las alianzas, se refuerzan las ya existentes con firmas como Asus, Dell, Lenovo o Samsung, y se une a la lista Foxconn, que presentará productos basados en arquitectura Intel en los próximos meses.

__________

Miguel Ángel Gómez, CW España