Día: 4 julio, 2016

La nube tiene crecimiento dispar por segmentos y área geográfica

La facturación por infraestructura tecnológica cloud (servidores, almacenamiento y conmutación Ethernet), tuvieron un incremento del 3.9% en los tres primeros meses del año hasta posicionarse  en 6 600 millones de dólares, si bien se observa una reducción de la demanda en el ámbito de nube pública.

IDC, señala que los ingresos por nube suponen el 32.3% del total de la facturación del sector TI, 2.3 puntos porcentuales más que en el primer trimestre de 2015. La facturación procedente de ventas relacionadas con la cloud privada creció un 6.8% hasta 2 800 millones de dólares, mientras que los de nube pública aumentaron un 1.9% hasta 3 900 millones de dólares.

En comparación, dice la consultora, los ingresos por infraestructura tradicional, es decir no cloud, experimentaron una caída interanual del 6%. En este caso, han penalizado los resultados la disminución de las ventas de almacenamiento y servidores, reducción que no se ha visto compensada por el crecimiento en el área de switches Ethernet.

Regresando a la nube, la conmutación creció tanto en el área de cloud pública como privada, con crecimientos del 53.7 y el 69.4%, respectivamente; el almacenamiento experimentó un aumento interanual del 11.5% en lo que se refiere a nube privada, pero retrocedió en pública un 29.6%. Y por lo que respecta a los servidores, los ingresos disminuyeron un 1.1% en nube privada y un 8.7% en pública.

Desde una perspectiva regional, donde más crecieron las ventas fue en Oriente Medio y África (casi un 26%), seguida de Europa Central  con un 20,6%, Asia-Pacífico (sin incluir Japón), que lo hizo en un 18.5%, y Canadá obtiene un 9.5%. También hay regiones donde las ventas han sido menores si se compara con el primer tramo de 2015. Los ingresos se redujeron en Latinoamérica un 22.2%, un 4.1% en Estados Unidos y un nimio 0.1% en Europa Central  y del Este.

Redacción

 

Conozca las dudas más recurrentes de la Transformación Digital

Muchas empresas comienzan a abordad la Transformación Digital, una de las dudas más recurrentes de los gerentes de empresas de todos los tamaños era, hasta hace poco, cuál sería el mejor momento para que la organización invirtiera en tecnología, cuando existía un buen contexto económico global y, por ende, más presupuesto y menos riesgos para invertir; o en el momento en que se daba una contracción en el mercado, cuando hay que ser más innovador y reducir al máximo los costos.

La pregunta es interesante, en especial, si miramos la realidad económica de nuestra región, está obsoleta. Y lo está tanto desde un punto de vista del negocio como de la tecnología. En el primer sentido, cualquier negocio, independiente del sector y tamaño, tiene en la actualidad como obligación permanente la innovación, entendiéndola como un factor determinante para mejorar su nivel de competitividad e incluso, en algunos casos, como una cuestión de subsistencia. Asimismo, el transformar costos fijos en variables, así como el externalizar procesos y el reducir costos operativos, entre otros objetivos, son hoy búsquedas constantes para cualquier organización.

La parte positiva de la Transformación Digital, es que gran parte de lo que se menciona ha tenido que ver, desde hace muchas décadas, con la tecnología. Al momento de adquirir hardware y software no pocas organizaciones debían asumir contratos que implicaban “amarres” con proveedores y poca flexibilidad para innovar. En el mejor de los casos, la tecnología solucionaba problemáticas presentes y ofrecía respuestas para un período acotado de tiempo, a veces de varios años, a partir de proyecciones teóricas de futuras necesidades. En los casos en que esas proyecciones fallaban, la tecnología quedaba “corta” al poco tiempo o, por el contrario, resultaba totalmente exagerada, lo que redundaba en una capacidad ociosa de la infraestructura de TI, con costos de mantenimiento y administración en total desacuerdo con la realidad.

Hoy todo ha cambiado, porque el rol de las TI y la propia industria de las TI han variado. La tecnología ya no es un “soporte” o un “habilitador” del negocio sino que se ha ido convirtiendo en algo fundamental; la tecnología es hoy parte de la estrategia del negocio, relacionada directamente con la productividad y la competitividad de éste, y con toda la cadena de valor. Pero todavía hay más.

Cada vez permea más esta filosofía y comenzamos a familiarizarnos con estos términos u otros similares, todos referidos a la aceleración de los procesos de cambio generados por el Cloud Computing, el Big Data, la Internet de las Cosas (IoT), el Social Business y la movilidad.

El proceso de transformación obligará a las empresas de todos los sectores a adoptar muy pronto estrategias digitales, las cuales no sólo les permitirán generar más beneficios tangibles en sus procesos, sino que harán posible que ellas encuentren nuevas plataformas para generar nuevos ingresos, es decir, harán que la tecnología agregue, como nunca antes, valor al negocio. La consultora Gartner considera que para el año 2020 los ingresos digitales de las empresas crecerán en un 80%.

Lo mejor de esta nueva filosofía, son servicios basados en el Cloud, es decir, sin límites y con capacidad para ajustarse a las necesidades propias de cada organización en cualquier momento y lugar, adaptándose a sus ciclos de negocios con total agilidad, incluso, en muchos casos, con un esquema de pagos flexibles o bajo demanda.

En consecuencia, la inversión en tecnología dejó de estar asociada a incertidumbre o riesgo presupuestario, para convertirse con nitidez en sinónimo de innovación y de agregar valor al negocio. Este 2016, haya mayor o menor dinamismo los sectores o mercados, se debe tomar desde ya nota del significado de la transformación digital que vivirá, tarde o temprano, la organización.  Se trata de un proceso que ya no admite preguntas obsoletas. Para que la empresa se fortalezca y esté preparada para este profundo proceso de transformación, debe partir por entender que tecnología y negocio sólo son dos caras de una misma moneda.

 

David Iaccobucci, Director de Ventas de Level 3 Communications

Qué busca Cisco al comprar CloudLock

La reciente adquisición de BlueCoat por parte de Symantec y la construcción de IBM con la solución Cloud Security Enforcer CSG, no es sorprendente ver a Cisco realizar sus propios movimientos de seguridad en la nube.

Al realizar el anuncio de adquirir la empresa de seguridad en la nube CloudLock por 293 millones de dólares, el gigante de las redes quiere dar un paso más en su portafolio de seguridad, basada en la estrategia “Security Everywhere”, diseñada para proporcionar protección de la nube a la red. “A medida que las empresas están migrando a cloud, necesitan un socio tecnológico que pueda acelerar la transición y ofrecer capacidades de seguridad críticas para todos sus usuarios, las aplicaciones y los datos, de una manera transparente”, dijo el vicepresidente de desarrollo corporativo de Cisco, Rob Salvagno. “CloudLock trae una única nube nativa, la plataforma y el enfoque basado en la API de seguridad en la nube, lo que permite construir soluciones de seguridad de gran alcance y que son fáciles de implementar y de manejar.

Según lo explicado por Salvagno, en un contexto en el que cada vez hay más dispositivos, más datos, y las compañías hacen negocio de forma cada vez más descentralizada, lo que significa que la seguridad tiene que evolucionar más allá del enfoque de las instalaciones.”CloudLock ayuda a acelerar su adopción de la nube mediante la entrega de seguridad construida específicamente para satisfacer las realidades de la nube”, agregó. “La tecnología de CASB CloudLock ayuda a los clientes a entender los datos y el comportamiento del usuario, proporcionando una mayor visibilidad, el cumplimiento y la protección frente a amenazas”.

Además, añadió que la adquisición ayudará a acelerar la cartera de seguridad en la nube de la compañía, y a ampliar la oferta. “Juntos tenemos la intención de ofrecer una protección más amplia en seguridad en la nube de la industria, y así permitir a nuestros clientes obtener los beneficios de la era móvil en la nube”.

Es por ello que se debe tener en cuenta que el ADN de CloudLock es principalmente el gobierno de datos en la nube y la prevención de fuga de información mediante la conectividad basada en API para SaaS, desde Forrester Research han visto así la compra: “Cisco integrará la oferta de CSG CloudLock con la suya propia para la interceptar el tráfico de la nube. Además, se invertirá en la mejora del aprendizaje automático y de comportamiento de análisis”. La compra ayudará también al proveedor a mejorar la protección de datos y encriptación de la nube en la solución, utilizando sus canales de distribución de crecimiento rápido, con entre un 20% y un 25% global de año con año en el mercado CSG.

James Henderson

 

Nuevo ransomware Satana cifra el sistema de arranque en PCs

El primer ataque denominado Petya, ahora se ha detectado esta nueva modalidad de malware bautizada como Satana que actúa como un ransomware peligroso al cifrar los archivos de los usuarios y los sistemas de arranque de sus equipos. Satana logra afectar al sector de arranque MBR de las computadoras, dejándolos sin posibilidad de iniciar el sistema operativo que tengan instalado. Según la firma de seguridad Malwarebytes, es funcional pero todavía de baja propagación.

El código MBR es almacenado en los sectores de arranque del disco duro, conteniendo información relacionada con las particiones del disco para permitir su inicio. Sin una adecuada estructura MBR, los equipos de cómputo desconocen qué particiones tienen sus discos duros y en cuál de ellas se encuentra el sistema operativo para poder iniciarlo.

Ahora bien, existen diferencias significativas entre Petya y Satana. Si Petya actúa de manera que reemplaza el MBR con el fin de poner en marcha un sistema de arranque personalizado que cifra la tabla maestra de archivos del sistema, Satana actúa de forma diferente. Simplemente reemplaza el MBR con su propio código y almacena una versión cifrada del registro de arranque original, por lo que puede restaurarse más tarde si la víctima paga el rescate. Esto deja al ordenador sin posibilidad de iniciarse, pero ofrece alternativas más factibles frente a cómo actúa Petya.

En mayo, se detectó que Petya se combinaba con un programa de ransomware denominado Mischa que también lleva a cabo un comportamiento más tradicional, cifrando los archivos personales de los usuarios directamente si no se pueden obtener privilegios de administrador para atacar los sectores de arranque MBR y MFT.

Satana cifra los archivos de usuario con extensiones específicas y espera pacientemente a que el primer reinicio se produzca, momento en el cual reemplaza al MBR. Es cuando el usuario ve una pantalla de inicio exigiendo un pago de un rescate de 0.5 Bitcoin, que equivalen a 340 dólares.

Dicha rutina hace que sea más difícil para los usuarios que no tienen conocimientos técnicos, restaurar su equipo, ya que les obliga a utilizar un equipo independiente para realizar el pago, ya que el ordenador infectado no es capaz de iniciar Windows. Por el momento, no han encontrado modo alguno de poder descifrar Satana de manera gratuita, destaca Lawrence Abrams, fundador del foro de soporte BleepingComputer.com, un blog de tecnología.

Es posible que algunos usuarios sean capaces de reparar el MBR de los equipos, pero haciendo uso de las opciones de recuperación del sistema Windows y trabajando además con la línea de comandos de Windows, con la herramienta de recuperación Bootrec.exe, por otro lado se pudo haber estropeado el arranque además de la partición y sería necesario instalar Windows desde cero.

La versión actual de Satana aún no ha sido distribuida de forma masiva, y los investigadores no esperan que hará porque el código aún no es maduro y tiene defectos. Sin embargo, creen que esta versión es probable que sirva como base para futuras mejoras.

IDG News Services, Lucian Constantin

Google y Facebook también querían comprar LinkedIn

La red social profesional, ya estaba en la mira de Facebook y Google a la par de Microsoft, ésta última fue la que terminó adquiriendo a LinkedIn, con ello se comprueba que ya había más interesados que analizaban la compra con sigilo.

Google y Facebook han sido otras dos compañías interesadas en comprar LinkedIn, aunque finalmente fue adquirida por Microsoft el pasado mes por 26 000 millones de dólares.

Un documento de la SEC (Securities and Exchange Commission) presentado el pasado viernes reveló que LinkedIn atrajo el interés de hasta cinco compañías. Salesforce fue una de ellas, tal y como su CEO, Marc Benioff, confirmó a Recode, pero una fuente relacionada con el acuerdo asegura que Google y Facebook se reunieron con ejecutivos de la red social profesional para negociar una posible adquisición.

Según manifiesta Recode, medio especializado en información tecnológica, el documento de la SEC se refiere a las organizaciones interesadas como Parte A (Salesforce), Parte B (Google), Parte C (no identificada) y Parte D (Facebook). De acuerdo con él, un alto ejecutivo de Google se reunió a mediados de marzo con el CEO de LinkedIn, Jeff Weiner, después de que Microsoft y Salesforce expresaran su interés en la compra. Después de dicha reunión, el ejecutivo de Google contactó con Weiner y con el presidente de la junta directiva de LinkedIn, Reid Hoffman, para establecer otro encuentro y hablar de la adquisición.

Tras él, Google declaró oficialmente su interés en la red profesional. Pero una vez realizadas las ofertas por Microsoft y Salesforce, Google se retiró, informando a LinkedIn de que ya no deseaba adquirirla, pero que sí estaba interesado en una “sociedad comercial”.

Finalmente, en el documento de interesados, las intenciones de Facebook fueron más breves. Según el documento de la SEC, Hoffman propuso medir el interés de la red social el 1 de abril. Seis días más tarde se reunió con el CEO de Facebook, Mark Zuckerberg, y este manifestó que su compañía ya no estaba interesada en la compra.

Redacción

 

Intel afina su megachip para el machine learning

Intel afina su megachip para el machine learning

La firma de microprocesadores prepara la actualización de la familia de chips adaptada a la era del aprendizaje automático, donde competirá con otras soluciones del mercado como las TPU de Google o las GPU de Nvidia.

Intel quiere seguir asumiendo su rol de líder en el nuevo escenario tecnológico para el que se pronostica un auténtico “boom” de chips para tendencias como IoT, Cloud, Big Data y tecnologías que lo cambiarán todo, asociadas al machine learning y el tratamiento de los datos. Sin embargo, la compañía debe acelerar sus pautas de innovación, puesto que ya no será suficiente con su actual modelo de desarrollo de dos fases conocidas como Tick Tock, optimizando los procesos de fabricación y reduciendo el área de sus transistores en la primera de ellas, y rediseñando la arquitectura del procesador en la segunda fase. La competencia aprieta y el mercado demanda ciclos de desarrollo mucho más ágiles.

La compañía se ha percatado de esta necesidad y se ha puesto en marcha en la evolución de los chips de PC para evolucionar el silicio dirigido a centros de datos e IoT. Ahora sabemos que los modelos Xeon Phi van a contar con nuevas características machine learning, según ha destacado recientemente Nidhi Chappell, director de aprendizaje automático de Intel. Más allá de su definición, estos chips mejorarán su comportamiento con el nuevo software, entrenado para tareas como el reconocimiento de imágenes o el análisis de datos de manera mucho más eficiente.

Intel no ha desvelado cuando serán añadidas estas nuevas características, pero la próxima versión de Xeon Phi, prevista para el año 2018, podría incluir estas mejoras, adoptando nuevas instrucciones preparadas para el aprendizaje automático de la máquina. Se trata de un procesador con nombre en código Knights Landing que cuenta con hasta 72 núcleos de CPU. El chip todavía está siendo probado pero la compañía cree que puede superar a las GPU de otros fabricantes. Podría estar formada por una CPU principal, acompañada de un coprocesador con el fin de mejorar el rendimiento en supercomputación. El Xeon Phi reduce la necesidad de extraer los datos, dado que muchas de las tareas de aprendizaje automático se llevan a cabo hoy en día por parte de la GPU. Google anunció el pasado mes de mayo su modelo TPU (Tensor Processing Unit) de similares características a la GPU de Nvidia.

Chappell comenta que Intel MIC puede ser encapsulado con conexiones internas de alta velocidad que favorecerán su uso en entornos machine learning. Intel está intentando enlazar sus Xeon Phi con el OmniPatch para agilizar la transmisión de datos entre distintos servidores conectados.

Además, ampliará el soporte para el código abierto. La compañía está construyendo modelos de ‘machine learning’ en torno a Coffee, un paquete de código abierto. Los chips Xeon Phi podrían ultimar el soporte TensorFlow, el software de código abierto ‘machine learning’ de Google.

Intel ve a futuro in gran potencial en áreas como la medicina y el procesamiento de imágenes, donde los modelos de aprendizaje pueden ayudar a dar sentido a los datos. Por citar un ejemplo, el chip podría ayudar a identificar enfermedades de forma prematura, o a clasificar una imagen mediante el análisis de píxeles.

Intel cree que los chips podrían ser utilizados en áreas como la medicina y el procesamiento de imágenes, donde los modelos de aprendizaje pueden ayudar a dar sentido a los datos. Por ejemplo, el chip podría ayudar a identificar una enfermedad, o podría ayudar a clasificar una imagen mediante el análisis de píxeles. El objetivo es reducir los tiempos de cálculo, destaca Chappell.

Alfonso Casas

 

BMW, Intel y Mobileye se alían para desarrollar un auto autónomo

El proyecto de las tres firmas se llamará iNEXT, se espera que esté en circulación para 2021. El objetivo es que el vehículo funcione sin que haya ningún humano dentro de él.

BMW se ha propuesto poner en las carreteras un coche completamente autónomo para 2021 llamado iNEXT. Para ello se ha unido a Intel y Mobileye con el objetivo de desarrollar una plataforma abierta más segura, desde las cerraduras de las puertas hasta el centro de datos, y así alinear a la industria en la producción de estos vehículos.

La ambición del grupo pasa por desplegar soluciones que permitan a los conductores no solo soltar las manos del volante, sino por conseguir que el coche funcione sin que haya nadie dentro de él. La intención confluye con la visión del fabricante alemán de automóviles de que un importante vector de negocios en el futuro será el de los taxis automáticos y el de autos autónomos en el marco de la economía colaborativa. Por ello, Uber ya ha desplegado también su propia tecnología en Pittsburgh.

En la actualidad, muchos vehículos ya han incorporado tecnologías como el frenado automático, cámaras de alta resolución, radar o sensores ópticos y térmicos, acercándose al modelo de auto conducción. Los fabricantes de automóviles han entrado en por desarrollar este tipo de vehículos tan rápido como lo están haciendo las propias tecnológicas. Google es una de las que más tiempo y dinero está invirtiendo, y ya tiene un coche de auto conducción en la calle, aunque últimamente ha sido noticia por haber estado involucrado en accidentes.

Por su parte, los fabricantes de chips están proporcionando las tecnologías subyacentes. Mobileye tiene el llamado EyeQ5, que ya se utiliza en vehículos Tesla, y que proporciona más seguridad en el momento de estacionarse, gracias a las cámaras y sensores simultáneos. Además, Intel podría proporcionar procesadores chips de conectividad y herramientas de seguridad. Además, la empresa ha detectado la posibilidad de vender sistemas de aprendizaje profundo. Se espera que estos sistemas en la nube ayuden a los coches a identificar objetos y signos. Intel ya ha adquirido compañías como Yogitech e Itseez, que aportan características de visión por computadora y seguridad a los coches.

La firma de investigación IHS estima que en 2035 habrá cerca de 21 millones de coches autónomos en las carreteras de todo el mundo.

Redacción