Día: 13 enero, 2016

Ya disponible la Veeam Availability Suite v9

Veeam anunció la disponibilidad general de Veeam Availability Suite v9. La más reciente versión de la solución de disponibilidad de Veeam cuenta con más de 250 funciones y mejoras para ayudar a las organizaciones a cubrir las necesidades de la empresa Always-On, dando lugar a acuerdos de nivel de servicio (SLAs) para objetivos de tiempo y punto de recuperación (RTPO) de menos de 15 minutos para todas las aplicaciones y datos.

Según una encuesta de Forrester/Disaster Recovery Journal entre personas que toman decisiones en recuperación de desastres globales, el 35 por ciento de las compañías reportó que las expectativas de negocios incompatibles con las capacidades de la tecnología fueron uno de los más grandes retos a los que se enfrentaban cuando se recuperaban de su desastre más reciente o de un importante daño empresarial. La encuesta encontró que los directivos y ejecutivos están demandando a sus organizaciones de TI mayor disponibilidad, pero TI está teniendo problemas para cubrir dichas expectativas. Con Veeam Availability Suite v9, Veeam le ofrece a las empresas de todos los tamaños cerrar esta brecha y brindar disponibilidad 24/7.

 

Veeam Availability Suite v9 cuenta con cientos de mejoras enfocadas en la empresa y nuevas funciones que ofrecen las siguientes capacidades: recuperación de alta velocidad, prevención de pérdida de datos, capacidad de recuperación verificada, datos aprovechados y visibilidad completa. Entre las funciones más notables dentro de Veeam Availability Suite v9 se encuentran:

 

Integración de arreglo de almacenamiento híbrido EMC VNX y VNXe

Una combinación de Veeam y EMC da lugar a objetivos de tiempo y punto de recuperación (RTPO) más bajos con Veeam Backup from Storage Snapshots y Veeam Explorer for Storage Snapshots. Esta integración ayuda a los profesionales de TI a crear rápidamente respaldos de EMC VNX o instantáneas de almacenamiento VNXe hasta 20 veces más rápido que la competencia y recuperar fácilmente elementos individuales en dos minutos o menos—sin puntos de escala ni pasos intermedios—todo con un mínimo impacto en las máquinas virtuales (VMs) de producción.

 

Nueva característica de Integraciones adicionales de almacenamiento primaria para HPE, NetApp y EMC

Veeam On-Demand Sandbox for Storage Snapshots y mejoras a Backup from Storage Snapshots para las soluciones de almacenamiento de EMC, HPE y NetApp para ayudar a aprovechar las inversiones de almacenamiento empresarial en desarrollo/evaluación y eliminar el impacto de las actividades de respaldo en el ambiente de producción.

Acceso directo a NFS para cualquier almacenamiento primario basado en NFS para mejorar el desempeño de respaldo y eliminar el impacto de las actividades de respaldo en hosts VMware vSphere.

 

Nuevo Veeam Explorer for Oracle (y muchas otras mejoras para la familia de Veeam Explorers)

Veeam Explorer for Oracle: cuenta con recuperación a nivel transacción de bases de datos Oracle, incluyendo respaldo de registro de transacciones sin agente para que los clientes puedan restaurar bases de datos en un punto preciso en el tiempo, alcanzando así objetivos de punto de recuperación (RPOs) bajos; restauración de bases de datos individuales rápida y sencilla con un solo clic; soporte para bases de datos que se ejecutan en servidores basados en Windows y Linux, y compatibilidad total con Oracle Automatic Storage Management (ASM)

Nuevas funciones eDiscovery para Veeam Explorer for Microsoft Exchange: las nuevas funciones, que son útiles para cumplir con investigaciones legales o gubernamentales, incluyen reportes de exportación detallados que especifican con exactitud qué se exportó, desde dónde y con qué criterios de búsqueda, así como capacidades de cálculo de tamaño de resultados de búsqueda, y

Importantes mejoras para aplicaciones empresariales Microsoft: permite restauraciones de Objetos de Políticas Grupales (Group Policy Objects), registros DNS integrados y objetos de partición de configuración con Veeam Explorer for Microsoft Active Directory, restauraciones de todo el sitio con Veeam Explorer for Microsoft SharePoint, y restauraciones a nivel mesa con Veeam Explorer for Microsoft SQL Server.

 

DRaaS habilitado por Veeam Cloud Connect Replication

Incluido en v9, los clientes Veeam obtienen una forma integrada, rápida y segura de replicar cargas de trabajo en la nube, dando lugar a Disaster Recovery as a Service (DRaaS) con objetivos de tiempo de recuperación (RTOs) dramáticamente mejorados. Al desarrollar una tecnología que lleva al usuario de forma segura y transparente a un proveedor de servicios confiable de su elección, los clientes Veeam ya no tienen que desarrollar ni dar mantenimiento a un sitio de recuperación en caso de desastre, eliminando una gran cantidad de costos y complejidades de la infraestructura de TI. La funcionalidad extendida también da a los proveedores de servicios y Veeam Cloud la capacidad de brindar a sus clientes DRaaS rápido y seguro con la nueva oferta Veeam Cloud Connect Replication for Service Providers.

 

Unlimited Scale-out Backup Repository

Administrar el almacenamiento de respaldo es un enorme y costoso esfuerzo para la empresa, en gran medida debido a que la tasa exponencial de crecimiento de datos está superando la capacidad de las soluciones tradicionales para administrarlos de forma eficiente y económica. La nueva función Unlimited Scale-out Backup Repository  de Veeam resuelve este problema, ya que permite reducir los gastos en hardware para almacenamiento de respaldo y simplificar radicalmente la administración de almacenamiento y trabajos de respaldo en la empresa, al tiempo que mejora el desempeño de respaldo hasta 2 veces.

 

Precio y disponibilidad

El precio inicial de la nueva Veeam Availability Suite v9 es de $1,150 dólares por socket; el precio inicial de Veeam Availability Suite Enterprise Plus es de $2,650 dólares por socket. Ambas ya se encuentran disponibles.

 

 

N. de P. Veeam Software

Gratis las herramientas de programación para Microsoft R Server

Microsoft está ofreciendo a desarrolladores y estudiantes herramientas gratuitas para su plataforma de analítica de datos Microsoft R Server. En el blog de la empresa, Machine Learning, el vicepresidente de Microsoft, Joseph Sirosh anunció el nuevo R Server enfocado en los desarrolladores. El software dará una oportunidad a los desarrolladores de probar gratuitamente una versión de empresa del popular lenguaje de análisis de datos antes de comenzar su producción comercial.

El lanzamiento viene acompañado del cambio de nombre de Revolution R Enterprise, que a partir de ahora se llamará Microsoft R Server; es el resultado natural de la adquisición por parte de Microsoft de Revolution Analytics el año pasado.

El servidor del software puede usarse para analizar una gran cantidad de datos en sistemas Linux, Hadoop y Tetradata. Esta edición de desarrollo contiene todas las funciones de su “primo”, pero solo se puede utilizar con fines comerciales. El principal beneficio de utilizar la nueva plataforma de datos de Microsoft es que viene acompañado de un compromiso de mantenimiento para las empresas que lo necesiten; además, viene acompañado de otras mejoras como la habilidad de procesar más información por partes o en paralelo.

 

Quiénes se benefician

Aparte de los desarrolladores, muchos de los profesores y estudiantes que forman parte del programa DreamSpark de Microsoft podrán descargarse también el servidor de forma gratuita; el Servidor R también dará el salto a la plataforma Cloud de la compañía, conocido como Azure, como máquina de soporte virtual. De esta manera los desarrolladores podrán emplearlo en la empresa sin tener que realizar muchos cambios.

Toda esta estrategia es el resultado de las ambiciones de Micrsoft de continuar impulsando el negocio hacia las herramientas del Big Data, la inteligencia artificial y los análisis predictivos. La compañía lleva años invirtiendo en ayudar a las compañías a sacar mayor provecho de la información que tienen; su fin no es otro que el Big Data ayude a los negocios a desarrollar su éxito.

 

-Redacción.

Tango para drones y robots, el plan de Google

El ambicioso proyecto de Google está creciendo a pasos agigantados. Primero se anunció en el CES el próximo lanzamiento de un ‘smartphone’ Tango en conjunto con Lenovo, pero parece que también próximamente dispondremos de drones con esta tecnología.

“Hay un gran potencial aquí”, apuntó Eitan Marder-Eppstein, quien lideró varios equipos del programa Tango en Google. Durante su discurso en la convención Ubiquity Developer el ejecutivo habló del enorme interés que mostraron los fabricantes de drones quadrotos (drones de cuatro rotores). “Nos hemos centrado en un principio en smartphones porque queríamos rebajar los costos de los sensores, de esta forma el producto será más barato y la plataforma Tango será más accesible para el público. Pero después llegará en otros dispositivos” explicó Marder-Eppstein aludiendo a los drones y robots.

 

Qué es el proyecto Tango

La tecnología Tango permitirá mapear a tiempo real y con gran precisión localizaciones y objetos, editar esa información y alterarla según desee el usuario. Las implicaciones de esta plataforma significa cambiar la forma en la que las personas interactúan con la realidad: medir distancias, reconocer y encontrar objetos, crear una realidad mixta, editar la visualización; las posibilidades son infinitas como ya anunció Google en CES.

project-tango-screen-shot-254x300Para ello, la plataforma emplea una gran cantidad de sensores y cámaras de alta capacidad; Google ya ha preparado Tango para que sea capaz de reconocer y localizar obstáculos (árboles, vallas, objetos que se balanceen…), pero el mayor reto hasta ahora es crear modelos precisos de la realidad en 3D; la luz del sol afecta a la luz infrarroja, una de las herramientas que emplean las cámaras para mapear la profundidad y geometría de los objetos en Tango.

La empresa tecnológica se ha enfocado hasta ahora en interiores, pero ya está trabajando en preparar la plataforma para el exterior, dónde prevén que será de mucha ayuda. Los drones y robots ya son lo suficientemente sofisticados para ayudar a evitar los obstáculos y moverse por espacios exteriores.

“Creemos que las experiencias basadas en localizaciones y exploraciones son uno de los pilares de esta tecnología, por ello queremos fortalecer la plataforma en este aspecto”, aseguró Marder-Eppstein en referencia al futuro de la tecnología Tango en exteriores.

 

Posibles funciones

Uno de los grandes atractivos de Tango es la realidad aumentada: emplear los modelos 3D captados por la plataforma para combinarlos con videojuegos virtuales, creando un juego adaptado al espacio en el que nos movemos o con gráficos impuestos sobre los objetos reales.

En la actualidad ya existen supermercados que emplean esta tecnología para indicar a los compradores donde está cada producto en la tienda, además de ayudar a encontrar a otros conocidos en el área.

Por ahora, Google se está enfocando en el primer smartphone con tecnología Tango, una creación conjunta con la empresa china Lenovo; según anunciaron las do empresas en CES, el dispositivo estará disponible este verano por un precio menor a 500 dólares. Los drones, en cambio, tendrán que esperar.

 

-Redacción.

Una vulnerabilidad de EZCast permite atacar las Smart TV

Investigadores de Check Point identificaron una vulnerabilidad relacionada con el famoso streamer para TV, EZCast, este equipo con salida HDMI permite que televisores no conectados se conviertan en Smart TV.

La vulnerabilidad permitiría que un cibercriminal tenga acceso total no autorizado a la red doméstica de cualquier usuario de EZCast, tomando el control de sus dispositivos domésticos y comprometiendo la seguridad de la información personal disponible.

Se calcula que EZCast es utilizado por unos 5 millones de usuarios alrededor de todo el mundo, teniéndolo instalado en su red WiFi y siendo controlado mediante un smartphone, tableta o PC.

De acuerdo con el análisis de Check Point, los atacantes pueden acceder a través del sistema WiFi, ya sea desde el dispositivo EZCast como a la red doméstica. Una vez dentro, pueden moverse por toda la red, visualizando información confidencial e infectando los dispositivos domésticos. Los ataques se pueden iniciar de forma remota, y ejecutar malware desde cualquier ubicación.

“Esta investigación proporciona una visión de algo que se volverá habitual a partir de ahora. Los cibercriminales idearán modos creativos para lograr explotar cualquier tipo de fisura que exista en un mundo cada vez más conectado”, señaló el vocero de Check Point, agregando que “Internet de las Cosas es una tendencia que seguirá creciendo y, por este motivo, será esencial que consumidores y empresas se preparen para esta adopción masiva”.

 

-Hilda Gómez.

Predicciones para América Latina, según IDC

Este año, la nube impactará no sólo la infraestructura sino todas las inversiones de tecnologías de la información en América Latina, la “computación cognitiva” formará parte de nuestro lenguaje común y el comercio electrónico será una oportunidad de doble dígito para las empresas. Además, dos de cada tres compañías sufrirán fallas de seguridad, y los CIO de la región pondrán su mirada en el open source, de acuerdo con la firma de consultoría y análisis de mercado IDC.

Como ya está siendo costumbre, correspondió nuevamente a Ricardo Villate, principal responsable de la gestión y dirección de la investigación de toda América Latina para IDC, describir las 10 principales proyecciones en materia de TIC que vaticina su compañía para esta región durante 2016.

Por principio de cuentas, la firma estima que el gasto total de TI en América Latina será de 133.8 mil millones de dólares, lo que incluye hardware, software y servicios. La parte de TI empresarial representará unos 68 mil millones de dólares.

Ante este panorama, “la nube se ha vuelto la plataforma preferida para cualquier nuevo desarrollo de tecnología y, en lo que respecta a la transformación digital, se ha convertido en un habilitador clave”.

Y es que, según el analista, las decisiones en torno a la nube se han vuelto esenciales, dadas las necesidades para obtener más eficiencia en costos, especialmente en una región como América Latina, donde la incertidumbre económica influencia las decisiones y el modelo operacional.

Para el 2016, IDC pronostica que la inversión en servicios de nube pública y de nube privada hosteada crecerá 40% y alcanzará los 3.6 mil millones de dólares, aunque la inversión directa de infraestructura de hardware y software para la creación de nubes privadas, será aún mayor: En efecto, la implementación, los servicios de integración, los equipos de redes, software y los servicios profesionales también van a sumar a la ecuación alrededor de la nube y se espera que la inversión directa e indirecta en su conjunto de la nube alcance el 40% de todo el gasto de tecnología en América Latina en el 2018, señaló Villate.

 

Ahí vienen los híbridos

La movilidad será otra de las constantes en la región. “El número de trabajadores móviles, que en 2014 fue 110 millones, IDC espera que en cuatro años más exceda los 138 millones, alcanzando la mitad de toda la fuerza de trabajo en América Latina”.

No obstante, Villate advirtió que solamente el 6% de las organizaciones en la región distribuyen sus aplicaciones móviles a través de una plataforma de gerenciamiento empresarial móvil (Enterprise Mobility Management Platform), que hoy representa el máximo nivel de control y seguridad para el despliegue de dispositivos móviles en una organización.

Los pronósticos de la firma apuntan que en el 2016 se comprarán más de 14 millones de dispositivos híbridos como los 2 en 1, phablets y PC convertibles (en ese orden de importancia).

“Debido a que una de cada dos empresas ya acepta el fenómeno del Bring Your Own Device (BYOD, o Traiga su Propio Dispositivo), la mayoría de estos equipos encontrarán su camino en los ambientes corporativos o empresariales”, manifestó el analista.

 

eCommerce, mejor que nunca

Asimismo, en este año la firma de consultoría espera que el 30% de las empresas de consumo masivo o de venta al por menor en América Latina invertirán en la Tercera Plataforma (que incluye a la movilidad, cloud computing, social business y Big Data) para sacar provecho del comercio electrónico que está sucediendo bajo la superficie de la desaceleración económica en la región. “He aquí una oportunidad de un sector comercial que está creciendo por encima de doble dígito”.
Tan sólo en 2016 se gastarán más 68 mil millones de dólares en las seis principales economías de América Latina a través del modelo de comercio electrónico, y esta cifra se incrementará rápidamente a 100 mil millones de dólares en tres años. “Esto beneficiará a todas las industrias, en particular a las que atienden al consumidor final”.

Buena parte de este incremento obedece a que más del 55% de la población latinoamericana esté conectada mediante una multiplicidad de dispositivos como PC, tablets y principalmente smartphones. “Este 2016 será el primer año en que los consumidores y negocios en América Latina comprarán más de 200 millones de dispositivos de cómputo móvil en un periodo de 12 meses”, señaló el directivo.

 

 

El open source sumará simpatizantes

Más de dos terceras partes de las inversiones en TI requerirán una demostración de ahorro en costo, lo cual enfocará la atención hacia el open source. La situación económica de América Latina contribuye a que las organizaciones en esta región busquen soluciones más flexibles y con mejor relación en el costo/beneficio.

“Los proveedores de open source en sistemas operacionales y en suites de productividad reportaron en 2015 una penetración más alta, por lo que IDC espera un crecimiento de 30% en el 2016”.

Al respecto, el Vicepresidente de IDC para América Latina señaló que los ecosistemas de Big Data y cloud en la región han incorporado rápidamente elementos de open source como Hadoop, NoSQL y Mongo en bases de datos y estándares como OpenStack en la nube. IDC estima que más de la mitad de las implementaciones de Big Data en 2015 incluyeron a Hadoop.

También el año pasado, por lo menos uno de cada dos CIO reveló a esta firma consultora que sus presupuestos de TI para 2016 se enfocarán en costos operacionales. Para los próximos dos años, un número cada vez más grande de CIO y responsables de las líneas de negocios van a evaluar soluciones o estándares basados en open source en sus implementaciones de Tercera Plataforma.

Finalmente, otra de las proyecciones que vislumbra IDC -en este caso para el 2018- es que un tercio de las compañías que estén persiguiendo estrategias de Transformación Digital sumarán competencias de desarrollo para soluciones cognitivas o de realidad virtual o aumentada. “Para el 2016, la realidad virtual y el cómputo cognitivo se convertirán en frases familiares para las empresas en América Latina”. Y aunque son conceptos muy diferentes, dijo, esta proyección habla de cómo los dos tendrán un fuerte impacto en el futuro, por lo que crear conciencia será un primero y muy importante paso para incorporar ese valor en las estrategias de las organizaciones.

 

Recomendaciones de IDC

Al final de su presentación, trasmitida por webcast a toda la región, Villate aseveró que las empresas en todas las industrias serán impactadas por estos eventos clave de TI en 2016. Estas predicciones de IDC, dijo, reflejan las transformaciones más importantes que han identificado sus analistas en América Latina, por lo que las siguientes recomendaciones ofrecen un “mapa” para que las empresas continúen o inicien su camino hacia Transformación Digital.

1. En su nivel más alto, los ejecutivos deben reconsiderar su enfoque estratégico: en el nivel negocio, deberán hacerlo alrededor de iniciativas de Tranformación Digital; y en el nivel del área de TI, en torno al portafolio de tecnologías y arquitecturas de la Tercera Plataforma. Para ejecutar ambos niveles, las empresas necesitan escalar rápidamente sus competencias y desarrollar experiencias para entregar al negocio productos y servicios basados en nube.

2. Las organizaciones en América Latina deben expandir su capacidad de innovación incrementando el tamaño del equipo de innovación digital, enfocándose en el desarrollo de código como una competencia estratégica.

3. Requieren extender el borde de la innovación digital a los puntos de entrada más importantes del Internet de las Cosas.

4. Deben traer una competencia en tiempo real a todos sus empleados, a sus partners y a sus clientes.

5. Finalmente, es necesario el rediseño de una nueva arquitectura para las funciones de marketing, ventas y entrega de servicios, de modo que puedan apoyar órdenes de magnitud cada vez mayores de clientes y partners. “Porque si hoy apoyamos a miles de clientes, mañana serán millones; si servimos a millones, serán billones”, remató Villate.

 

-José Luis Becerra, CIO México

Microsoft deja de dar soporte a Windows 8

Microsoft anunció ayer que suprimirá el sistema operativo Windows 8 de su oferta de servicios de soporte, incluidas las actualizaciones de seguridad. Los usuarios de Windows 8.1 que quieran seguir contando con los servicios de soporte deberán de actualizar sus sistemas a la versión 10.

Windows 8, el sitema operativo de escasa repercusión que lanzó Microsoft en 2012, se le ha retirado el soporte que ofrecía la compañía, poniendo en un serio dilema a los más de 48 millones de usuarios que todavía utilizan este SO con tan sólo tres años de vida, quienes deberán optar por actualizar la plataforma a Windows 8.1 o 10, o sufrir el riesgo de ser hackeados.

A partir de ayer, Microsoft ya no facilita actualizaciones de seguridad para Windows 8 –o para IE10 e IE11, los navegadores de la compañía que corren en el SO–, asegurando que tampoco proporcionaría servicios de soporte al sistema operativo en general. De querer seguir recibiendo actualizaciones de seguridad para Windows 8, los usuarios deberán actualizar su SO a Windows 8.1, que es la versión gratis que está disponible en la tienda de aplicaciones de Microsoft: Windows Store.

La fecha límite de soporte fue anunciada por la compañía desde que salió Windows 8.1 más de dos años atrás, un momento en el que Microsoft anunciaba 24 meses de periodo previamente otorgado a los usuarios para que éstos migraran de un sistema operativo “core” a ese otro SO ofertado en un principio como un “service pack”.

A pesar de que el concepto de service pack está obsoleto, Microsoft describió la actualización de Windows 8 a Windows 8.1 como un requerimiento necesario para acceder a los service pack, en el momento en que lanzó la última remesa de actualizaciones de seguridad  a finales de octubre de 2013.

De acuerdo con Net Applications, existe un extenso parque tecnológico de dispositivos que funcionan con Windows 8, los cuales proporcionan operatividad al 3% de todos los equipos PC personales que corren con Windows, mientras que el renovado Windows 8.1 operan en casi un 12% de los PC con Windows.

 

Gregg Keizer

 

Ford prueba sus vehículos autónomos en climas adversos

Ford es uno de los principales fabricante de automóviles que está avanzando hacía el desarrollo de su programa de vehículos autónomos, en esta ocasión anunciando que comenzó las pruebas de automóvil sin conductor en condiciones meteorológicas adversas. En concreto, sobre la nieve, un ambiente que es difícil para cualquier tipo de vehículo.

La marca lo considera esta acción un paso clave para hacer posible que el automóvil realmente sea autónomo, y éste pueda llegar en un futuro no muy lejano a las calles de la ciudad.

El automóvil conectado y la tecnología de conducción autónoma son, desde hace pocos años, el sueño de la industria de automotriz. Su llegada abre un gran mundo de oportunidades para este sector, pero los desafíos que afrontan no son pequeños, entre ellos la seguridad, el aprendizaje de los conductores, el tratamiento de los datos generados, o la conectividad, de la que algún experto dice que está en un estado bastante “verde”.

Sin embargo, esto no es impedimento para que el sector siga avanzando y esto es lo que está haciendo Ford, que está probando los vehículos autónomos en entornos nevados. El mapeado en resolución 3D y el sistema LiDAR, para facilitar la conducción sin señales viales visibles, son la clave del proyecto de este proveedor mundial de vehículos, más allá de la recientemente anunciada ampliación de su flota de vehículos autónomos, la mayor entre todos los fabricantes de automóviles a nivel global.

Estas primeras pruebas en entornos nevados resultan novedosas, debido a que es el primero en este mercado que lo realiza en este tipo de clima adverso, otros competidores han realizado todas sus pruebas en climas secos y mayoritariamente soleados, así como en las calles más populares de las ciudades. Sin embargo, el futuro de la conducción autónoma no puede centrarse únicamente en las condiciones ideales del tiempo. “Ahora se trata de probarlo cuando los sensores del vehículo no pueden ver la carretera, porque está cubierta de nieve”, afirmó Jim McBride, jefe técnico de vehículos autónomos de Ford.

Estas pruebas se llevan a cabo en Michigan, en ubicaciones como Mcity, un entorno urbano simulado a escala real de casi 130,000 metros cuadrados en la Universidad de la capital.

La conducción completamente autónoma no puede depender únicamente del GPS, según afirmaciones de la Ford; no es suficientemente preciso para localizar o identificar la posición exacta del vehículo. Y es fundamental que un vehículo autónomo conozca su posición exacta, no sólo en una ciudad o una carretera, sino también en su carril de circulación, donde una variación de tan solo unos centímetros representa una gran diferencia.

Para el fabricante, el sistema LiDAR es mucho más preciso que el GPS, ya que permite identificar la ubicación hasta en centímetros, ya que emite haces cortos de luz láser que permiten al vehículo crear, de manera precisa, una imagen de alta definición en 3D de lo todo lo que le rodea.

En el verano pasado, Ford pasó su programa de desarrollo de vehículo autónomo de la fase de investigación a fase de desarrollo avanzado, la segunda de las tres etapas previas a iniciar la producción masiva y, por supuesto, su venta al público.

A principios de este mes, Ford anunció que va a dar el siguiente paso, triplicando su flota de vehículos autónomos hasta alcanzar la cifra de 30 vehículos en las carreteras y circuitos de pruebas de California, Arizona y Michigan. Esto convierte a la flota de vehículos totalmente autónomos de la compañía en la más grande de todo el sector de automoción.

 

-Redacción.

Lo que David Bowie predijo en su faceta de visionario tecnológico

En su faceta de visionario tecnológico, el polifacético artista predijo en 1999 el éxito que tendrían las descargas de temas musicales, el desarrollo de la realidad aumentada, y las posibilidades que ofrecerían los wearables, claro, entre otros muchos temas tech.

A finales de 1999, ComputerWorld, en su versión estadounidense, invitó a 20 personajes destacados de la industria en general para avanzar 10 años en el tiempo y compartir sus ideas acerca del impacto que tendrían las tecnologías una década después, de cara a la entrada del nuevo milenio.

Entre los entrevistados en aquellas épocas se encontraban, además de pioneros en internet y veteranos CIOs, se tomó en consideración la opinión de un polifacético artista cuyo impacto fue seguido por diferentes generaciones de fans, y quien el domingo pasado dejó el mundo físico a la edad de 69 años: David Bowie. Es sorprendente la precisión con la que Bowie predijo en enero de 1999 las tendencias que siguen vigentes hasta hoy en día.

Con cuarenta años recién cumplidos y una exitosa carrera a sus espaldas, al músico, filósofo y creador de tendencias que ya era Bowie se sintió familiarizado con el mundo de la tecnología. Desde mediados de los años 80 del siglo pasado, Bowie utilizaba su Macintosh para crear litografías y escribir canciones.  A la edad de 51, el artista pop ya estaba en internet, siendo BowieNet su último proyecto online, un portal en el que el artista escribía un diario personal y chateaba frecuentemente con sus fans (y también los espiaba  en espacios chat bajo nombres falsos para observar sus reacciones).

El siguiente paso de Bowie era añadir avatares tridimensionales para que los miembros crearan sus propias versiones digitales. Asimismo, planeaba  hacer la retransmisión de una grabación en directo con una cámara de 360 grados de Lucent Technologies.

“La Red se convertirá cada vez más en un terreno exploratorio que se irá reduciendo dando lugar a infinidad de unidades cada vez más pequeñas e informales. Los sitios online emergerán y se disolverán con regularidad, mientras que las empresas proveedoras de internet irán perdiendo su hegemonía. Las personas, por su parte, se esforzarán por mantener el aspecto de aldea de la Red”, afirmaba el artista en 1999. Con respecto a los wearables, el Duque Blanco señalaba quince años atrás: “Oiremos hablar de trajes con aire acondicionado, cascos con sistemas de visión integrado y enviaremos emails desde computadoras o relojes colocados en nuestras muñecas.”

 

-Redacción Computerworld.

2016, un año importante para IPv6

Las direcciones IPv4 se agotan y aumentan los móviles y todo tipo de sensores IoT, por lo que éste va a ser un año importante para IPv6. Cuatro de los cinco grandes Registros Regionales de Internet (RIR), que asignan espacio IPv4, han dejado de hacerlo, sólo AFRNI y el RIR africano, siguen ofreciéndolo.

Ciertamente hay un mercado secundario muy grande, aún para IPv4 y que se pueden comprar direcciones “usadas” de terceros y no pasar por el filtro de la concesión del citado registro. Pero su precio está subiendo claramente y el costo comienza a acercarse a la inversión necesaria para adaptarse a IPv6.

Algunas organizaciones llegaron a ese punto desde hace tiempo y los carriers comprendieron que los grandes despliegues móviles requieren IPv6 para tener suficiente espacio de direcciones en el futuro.

Por el momento, en la industria hay una gran cantidad de contenido y servicios que sólo están disponibles en IPv4. Los proveedores de contenido no han visto la demanda y, en realidad, han estado más preocupados porque la experiencia de usuario en IPv6 pueda ser peor.

El IETF (Internet Engineering Task Force), el organismo de normalización responsable del desarrollo de IPv6, se dio cuenta de esto y publicó en 2012 un algoritmo que rige el comportamiento de cada aplicación y que permite que ésta detecte el estado de la conectividad IPv4 e IPv6 y utilizar la que mejor le convenga.

Esto beneficia tanto a la experiencia del usuario como potencia una mayor adopción de IPv6, al evitar cualquier temor de parte de los editores de contenidos.

Entre los factores que están impulsando el despliegue de IPv6, destacan el auge de Internet de las Cosas (IoT) y la imposibilidad de encontrar acomodo en IPv4. Por esta última razón, es previsible que cualquier nuevo proyecto de IoT salte directamente a IPv6, que además tiene el potencial de evitar las dificultades de conectividad introducidas por la traducción de direcciones de red (NAT), que es ubicuo en IPv4.

En un entorno IPv6, es posible la verdadera conectividad de extremo a extremo, lo que era habitual también en los primeros días de IPv4.

En todo caso, se trata de un proceso evolutivo que se retroalimenta y cuanto más nos despleguemos dispositivos compatibles con IPv6, en redes IPv6, con capacidad, contenidos y servicios disponibles, más y más tráfico fluirá a través de IPv6, quedando IPv4 superado.

Finalmente, al igual que un programador especialista en COBOL se puede ganar la vida hoy en día sin problemas, tendremos IPv4 por muchos años.

-Redacción