Etiqueta: respaldo

¿Dónde queda nuestra información después de un siniestro?

Pensemos en una lista de documentos básicos que se pueden extraviar durante un suceso inesperado como los recientes sismos: identificaciones oficiales, contratos y títulos de propiedad, documentación financiera, laboral y de salud, por citar algunos ejemplos. Todos estos datos tienen un valor fundamental para recuperar algunos de los bienes materiales perdidos y poder reconstruir la vida.

En suma, se trata de bienes intangibles que nos permiten acreditar nuestra identidad, derechos y compromisos civiles, procedimientos comerciales, de negocios o legales, estatus jurídico y de salud, pertenencias y más, dentro de un universo reconocido como información sensible. Su resguardo y protección le compete a gobiernos, corporaciones privadas e individuos.

Durante los terremotos de 1985 los juzgados familiares de Pino Suárez se desplomaron junto con miles de expedientes resguardados por la institución judicial.

La tarea para restituirlos implicó años de trabajo, y no existen informes sobre cuántos expedientes se perdieron, ni cuántos casos se quedaron en el limbo. Tres décadas después, esta información ha quedado a buen resguardo gracias a la tecnología.

Hoy la mayor parte de las instituciones públicas y privadas de primer nivel, han transformado el procesamiento de su información a través de medios digitales y cuentan con poderosos servidores que respaldan información propia y la de sus usuarios. Estos últimos por Ley, pueden solicitar la reposición de sus datos. No obstante, el tiempo para obtenerlos puede ser muy largo ya que tendrán que seguir distintos criterios de burocracia y pasar por diferentes filtros tanto en ventanillas virtuales, consultas telefónicas y presenciales para solicitarlos.

Aun cuando la tecnología ya existe y está disponible para garantizar la integridad de toda clase de información sensible, aún quedan rezagos a resolver en áreas legales y otros relacionados con los hábitos de los usuarios de los sistemas:

  • Gestiones documentales híbridas. Corresponden a procesos que se pueden realizar a través de medios digitales pero que invariablemente su resultado será un instrumento físico: actas de nacimiento, tarjetas bancarias, tokens, licencias de manejo, pasaportes, etc.
  • Certificados digitales. Aún existe documentación sujeta a su existencia física por falta de normatividades que den validez a certificados y/o firmas digitales. En este caso están los actos notariales, contratos comerciales, financieros y laborales, expedientes de salud, etc.
  • Prácticas informáticas inapropiadas. Es común que los usuarios guarden sus claves de acceso a los sistemas en sus propios equipos, y lo mismo que respalden su información en equipos de cómputo locales. Estas son prácticas que tienen los mismos riesgos que el resguardo de información de forma física.

Tres recomendaciones para salvaguardar nuestra información

La Nube. Adoptar un sitio para nuestra información en el ciberespacio. Las ventajas de tener un lugar en la nube son prácticamente innumerables. Esta plataforma corresponde a la revolución 4.0 de Internet y la forma más sencilla de transitar a ella es a través de los servicios que brindan las compañías de tecnología licenciataria, aunque también existen opciones sobre plataformas abiertas y gratuitas.

Digitalizar nuestra documentación física. Aunque en este estatus no se logre su validez legal, nos permite tener testigos y evidencias de nuestra información sensible. Estos documentos archivados en la nube estarán disponibles en todo momento y en cualquier lugar.

Recurrir a los sistemas de bóvedas digitales. Son sistemas blindados con las más altas calificaciones de seguridad informática. Se recomiendan para respaldar información financiera y cualquier otra que requiera de un tratamiento de extrema confidencialidad.

En la actualidad es muy fácil crear un maletín digital con la información urgente y delicada, necesaria para dar continuidad a nuestras vidas después de una contingencia.

Cynthia Solís Arredondo y Alfredo Reyes Krafft, Lex Informatica

 

Veeam ayuda a mantener la disponibilidad para Microsoft Azure Stack

Veeam Software anunció la compatibilidad con Microsoft Azure Stack. Esto amplía las capacidades de Veeam para proporcionar protección de datos y disponibilidad a través de Microsoft Azure y Azure Stack como una extensión de Azure, trayendo agilidad e innovación acelerada del cómputo en la nube a entornos on-premises. El soporte de Veeam ayudará a las organizaciones a proteger datos y aplicaciones en Azure Stack.

“Estamos ampliando nuestra colaboración con Microsoft para garantizar la disponibilidad de cualquier aplicación y dato, a través de cualquier nube”, dijo Peter McKay, Co-CEO y Presidente de Veeam.

Con el apoyo de Azure Stack, las soluciones de disponibilidad de Veeam proporcionan a los clientes una plataforma común de respaldo y administración para entornos on-premises, virtuales, físicos y en la nube, garantizando una rápida recuperación de aplicaciones críticas.

Los proveedores de servicios pueden administrar y mantener el control y la visibilidad con un fácil rastreo de las cargas de trabajo y de la utilización de cada usuario final.

Los principales beneficios del soporte de Veeam para Azure Stack incluye:

  • Multi-cliente: Veeam Cloud Connect aísla respaldos para cada cliente garantizando la seguridad y el cumplimiento;
  • Múltiples opciones de recuperación: Veeam Backup & Replication soporta tanto la recuperación a nivel de elemento granular a través de Veeam Explorers para Microsoft Exchange, SQL Server, Microsoft SharePoint, Microsoft Active Directory y Oracle, así como restauraciones a nivel de archivo completo para archivos del cliente que fueron eliminados o corrompidos;
  • Informes y facturación: Veeam Availability Console soporta el monitoreo en tiempo real y la devolución de cargos sobre el uso del cliente permitiendo que los proveedores de Hosting o las organizaciones empresariales administren y facturen fácilmente a sus clientes para el uso de disponibilidad.

 

El soporte de Veeam para Microsoft Azure Stack se espera que esté disponible a principios de 2018.

 

N. de P.

Energía de respaldo, indispensable en la industria de las Telecomunicaciones

Actualmente, la energía eléctrica encara una creciente demanda y, cada vez más, estrés en la red de suministro. Esto ha ocasionado un aumento importante en las caídas de suministro y en los daños ocasionados por problemas eléctricos. Los problemas más frecuentes relacionados con el suministro eléctrico son picos de energía, ruido eléctrico, altibajos de voltaje y apagones.

Proporcionar soluciones de energía de respaldo confiable es el desafío de muchas compañías de Telecomunicaciones para proteger sus flujos de ingresos y su rentabilidad y de esta manera, proteger sus infraestructuras, que incluyen sitios de celdas, centros de datos, back haul y hubs, para de esta forma salvaguardar la experiencia de sus clientes.

El tiempo perdido de un sistema, como una red informática, producto de una mala planificación de respaldo de energía, trae consigo diversas pérdidas: productividad, ingresos, de ventas y clientes, amén de daños a equipos e infraestructura y daños a la información.

Para esta industria de telecomunicaciones es de suma importancia poder realizar evaluaciones de necesidades y planes de recuperación anticipados ante cualquier falla de su sistema.  Para enfrentar dichos desafíos, requerirá de soluciones a la medida para la generación y/o respaldo de energía eléctrica, que le brinden siempre el mejor servicio, soporte y relación costo/beneficio para mantener en operación sus procesos críticos.

Tome en cuenta que esta industria requerirá siempre de una solución que entregue la potencia correcta para las operaciones y las aplicaciones de telecomunicaciones, un sistema en el que pueda confiar y al que pueda acceder de manera sencilla, sobre todo cuando se trata de operaciones automatizadas en emplazamientos remotos.

Escrito por Bulmaro Rojas, Director General de Generac-Ottomotores

¿Qué representa un ciberataque para las pequeñas y medianas empresas?

Los ciberataques con ransomware son más frecuentes de lo que se piensa, sin ir más lejos, en los dos últimos meses se han dado dos ciberataques a escala mundial, hablamos de WannaCry y Petya, ambos provocando la pérdida de datos y robando información de numerosas compañías.

Los ataques provocan unos daños difícilmente calculables en su totalidad, pero IBM Security y el Security Intelligence coinciden en el cálculo y cifran que en lo que va de 2017 los virus representaron una pérdida de unos 3,62 millones de dólares en promedio y afecta, según IBM, a unos 24.089 archivos.

Según el informe Small Business Reputaction and The Ciber Risk el 89% de las pymes que han sido víctimas de un ciberataque coinciden en que el 31% tuvieron daños en su marca, el 30% perdieron clientes y redujeron un 29% su capacidad de generar un nuevo negocio.

Las copias de seguridad fuera de la base de datos son la solución más eficaz para luchar contra la amenaza de ransomware, Cryptolocker y la ciberdelincuencia en general. Sin embargo, las pymes no tienen el hábito de realizar respaldos.

“Nos sorprendió ver que tantas pymes están totalmente desprovistas de servicio de copias de seguridad, sin embargo, tras los últimos ataques las empresas han comenzado a prestar más atención a su seguridad y todas las entrevistadas estarían dispuestas a invertir una parte de su presupuesto en caso de pérdida de información”, explica Juan Llamazares, fundador de Datos101.

Las pymes deberían documentar su procedimiento de procesamiento de datos, examinar su nivel de riesgo y tomar las medidas necesarias para prevenir las brechas de seguridad y mantener a sus clientes informados de cómo se están protegiendo sus datos.

 

IDG.es

¿Por qué es necesaria la energía de respaldo en lugares de trabajo exigentes?

 

Si un negocio brinda una función de misión crítica siempre requerirá energía automática de respaldo que mantenga la productividad, el funcionamiento y la continuidad permanente de sus operaciones en caso de una falta de alimentación eléctrica de la red comercial, ya que las pérdidas pueden ser millonarias

No hay duda de que la electricidad es un impulsor clave del progreso de la humanidad. De hecho, para mantener nuestra forma de vida y el desarrollo económico de nuestra sociedad, necesitamos un acceso continuo a la energía eléctrica a un precio asequible, y es así como la consultora Deloitte, en su estudio “El futuro del sector de energía eléctrica global”, lo determina.

“Aunque no existe una versión única para la forma en que el sector de generación de electricidad a nivel global evolucionará en el futuro, una verdad está clara: la industria descansa en la antesala de los grandes cambios. La forma en la que las compañías de electricidad respondan dependerá del lugar donde operen, su entorno normativo, la estructura de sus portafolios de activos, las demandas cambiantes de sus clientes, su madurez económica y el nivel de adopción de tecnología que requieran. Pese a esto, en la mayoría de los escenarios, los servicios del futuro se desempeñarán como la argamasa que mantenga la conexión entre las múltiples fuentes de generación de electricidad, desde fuentes de energía renovables distribuidas de pequeña escala, hasta plantas de energía convencionales de gran escala, micro-redes y estaciones de recarga eléctrica, y por supuesto los clientes”.

Si un negocio brinda una función de misión crítica -como las de los sectores Financiero, Salud, Construcción, Servicios y Centros de Datos-, siempre requerirá energía automática de respaldo que mantenga la productividad, el funcionamiento y la continuidad permanente de sus operaciones en caso de una falta de alimentación eléctrica de la red comercial, ya que las pérdidas pueden ser millonarias.

De acuerdo con Generac, es necesario contar con soluciones que se adecúen a las necesidades de los clientes en el manejo de variación de voltaje.

Uno de sus clientes, Wood Dale en Estados Unidos, reconoció la importancia de tener un sistema de energía de respaldo para su nueva Planta de Tratamiento de Aguas Residuales, en vista de las desastrosas implicaciones de un potencial corte en el suministro eléctrico.

Dicha compañía adquirió cinco generadores a gas Generac MG 300 que en paralelo entregan un total de 1,500 kW para asegurar confiabilidad y redundancia. De esta manera, la nueva planta trata ocho millones de galones de aguas negras diariamente, ayudando a restaurar y mantener la calidad del agua alimentando a un sistema de torre para sus 14,000 residentes.

“Si la Planta de Tratamiento de Aguas Residuales de Wood Dale tuviera una falta de energía de apenas 15 minutos, cerca de 85,000 galones de aguas negras crudas comenzarían a fluir dentro de los sótanos de los hogares. Y eso sería en un día seco. En un día de lluvia, la planta podría llegar a tratar el doble de aguas negras”, explican voceros de Generac.

N. de P. Generac

EMC se mantiene como líder en el mercado de dispositivos backup

La empresa a pesar de estar incorporándose con Dell, está ocupado la primera posición en el ranking de ingresos de este mercado, con un 61.8% del total, esta cifra es del segundo trimestre de 2016.

Los ingresos del mercado global de dispositivos que han sido construidos específicamente para tareas de backup (PBBA), la cuales han crecido un 11.5% en el segundo trimestre de 2016 con respecto al mismo período del año anterior, sumando un total de 871.1 millones de dólares.

De acuerdo con la firma de análisis IDC, los ingresos de fábrica de los sistemas abiertos de PBBA aumentaron un 12% en el segundo trimestre de 2016, sumando 787,6 millones de dólares.

Después de tres trimestres consecutivos de caídas, los ingresos en el mercado de mainframe crecieron un 6.2% con respecto al año anterior. Asimismo, la capacidad vendida a escala global de PBBA en el segundo trimestre de 2016 alcanzó un exabyte, consolidándose así un incremento del 35.3% con respecto al segundo trimestre de 2015.

“El mercado de PBBA presentó un buen comportamiento en la primera mitad de 2016”, afirma Liz Conner, directora de Investigación para Sistemas de Almacenamiento de IDC.

“En respuesta a los puntos críticos del usuario final, los proveedores continúan mejorando su cartera de productos, poniendo mayor énfasis en automatización, en herramientas de gestión simplificadas y en la mejora de RPO y RTO”, explica Conner.

El proveedor de EMC, tiene un punto de vista dónde la empresa ha mantenido el liderazgo en el mercado general de PBBA, con un 61.8% de la proporción de ingresos en el segundo trimestre de este año, seguido por Veritas, con el 13.3%.

IBM y HPE ocuparon la tercera y cuarta posición con un 5.6% y un 3.7%, respectivamente. Finalmente, Dell se ha mantenido en la quinta posición de este ranking con un 2.9% del total de ingresos globales.

James Henderson

 

Ante un terremoto como el de 1985, ¿cómo garantizaría la disponibilidad de su información?

Han pasado 31 años de aquel triste y sorpresivo acto de la naturaleza, el terremoto de la ciudad de México de 1985, el cual alcanzó 8.1 grados en escala de Richter, fue un evento que ocasionó grandes pérdidas humanas y materiales. De acuerdo al informe final del Comité de Reconstrucción del Área Metropolitana de la Ciudad de México se afectaron 12 mil 747 inmuebles de los cuales el 65% eran de uso habitacional, el 20% comercial y oficinas y el 13% educativos.

Una característica de la naturaleza, es imprevisible, es por ello que ahora la costa de Guerrero y  Oaxaca cuenta con sensores de movimiento que nos previene del inicio de un movimiento telúrico, con 60 a 30 segundos de prevención. En ese momento este terremoto puso en crisis a empresas de todo tipo y tamaño, tales como hospitales, bancos y escuelas, quienes sufrieron pérdidas totales de datos en una época en donde la mayor parte de la información se almacenaba de manera física y era difícil de recuperar. El impacto económico fue devastador, muchas empresas quebraron o tardaron años en recuperarse. Sin contar el enorme dolor que dejó en muchos corazones la pérdida de sus seres queridos.

Con el avance de la tecnología hoy escuchamos hablar de conceptos como virtualización, nube y almacenamiento moderno. El volumen de información que se genera crece aceleradamente, el universo digital se duplica cada dos años y se multiplicará por diez de 2013 a 2020, lo cual sería de 4,4 millón de millones de gigabytes a 44 millones de millones de gigabytes, y es que actualmente a los negocios se les demanda estar en línea en todo momento, no hay tolerancia para tiempos de inactividad, tener la información disponible, 24/7 durante los 365 días del año tiene un valor incalculable y se traduce en pérdida o ganancia de oportunidades.

La pregunta sería: a 31 años de este suceso que marcó al país ¿están las empresas mejor preparadas para proteger y recuperar su información ante desastres naturales?

El año pasado, Google sufrió con cuatro rayos que cayeron en su Centro de Datos en Saint-Ghislain, Bélgica. Gracias a la preparación de Google, la información se recuperó prácticamente al 100% pero esto podría ocurrirle a cualquiera y, por desgracia, es sólo en este tipo de contexto crítico que las empresas se dan cuenta del verdadero valor de un plan de recuperación de desastres. Afortunadamente, Google estaba preparado y debe ser elogiado por sus acciones. Teniendo en cuenta la cantidad de datos y el tráfico que la empresa tiene que gestionar, el incidente podría haber sido mucho peor.

Centro de Datos de Google en Bélgica
Centro de Datos de Google en Bélgica

El tiempo de inactividad en aplicaciones llega a costar a las empresas hasta 16 millones de dólares cada año, además de la pérdida de confianza de los clientes y el daño a la marca de las organizaciones; ante un daño provocado por algún desastre natural como el de 1985, las soluciones tradicionales hoy en día, ya no son suficientes.

Además, de tener plan estratégico de backup, las organizaciones deben prepararse mediante la implementación de Centros de Datos modernos y seguir la regla 3-2-1: tres copias, al menos en dos tipos de almacenamiento de datos, entre ellos uno fuera del sitio.

No basta con hacer un respaldo, éste debe estar al día, y debe ser funcional para minimizar el riesgo de pérdida de datos. Los periodos largos entre pruebas incrementan la posibilidad de encontrar problemas cuando es necesario recuperar datos, punto en el que quizá sea demasiado tarde para estas organizaciones. De las empresas que realizan pruebas de respaldo, sólo el 26% evalúa más del 5% de sus respaldos. Sin embargo, las soluciones de disponibilidad modernas garantizan la calidad de las copias de seguridad creadas sin ningún esfuerzo adicional. Las tecnologías ahora permiten realizar respaldos y replicas que se recuperan hasta en menos de 15 minutos, hacer pruebas en ambientes de producción y garantizar su efectividad.

El 96% de las organizaciones a nivel mundial están incrementando sus requerimientos de minimizar los tiempos de inactividad y 94% de las organizaciones en garantizar el acceso a los datos, es por ello, optar por una solución de disponibilidad efectiva, permite a las empresas no sólo minimizar los riesgos de pérdida y la imposibilidad de recuperar los datos ante cualquier desastre cotidiano o provocado por la naturaleza,  sino también garantizar la continuidad del negocio, es decir, el Always-On Enterprise.

Jonathan-Bourhis---Veeam

Por:Jonathan Bourhis,

director general de

Veeam México.

Consejos para mantener la integridad del backup

La tecnología ha cambiado mucho en los últimos 50 años y con ella los procesos para hacer copias de seguridad. El backup nos da la posibilidad de cubrir gran variedad de usos. Si se tiene cuidado con ellos, será más fácil una futura recuperación en el caso de sufrir algún problema.

Los expertos de información tecnológica (TI) protegen la información contra la pérdida o la destrucción, ya sea por robo, por borrado involuntario o por alteración deliberada de ellos. Hay que considerar la protección de los datos Bootstrap, la estructura de archivos metadatos, los controladores binarios, los sistemas operativos, los archivos de configuración, las aplicaciones, los archivos de datos y las bases de datos.

El mejor consejo, es que el backup debe de ser una tarea sencilla. Las empresas que han desarrollado sus soluciones de backup durante años pueden estar utilizando productos incompatibles que pueden causar problemas. Si no tienen listas estándares de comprobación de recuperación o procedimientos escritos, están casi buscándose problemas. Podría decirse que más importante que las listas de verificación y planes claros son los interfaces fáciles de usar, con una configuración mínima y a un solo clic de recuperación. Hay que asegurarse en todo caso de que se tiene en cuenta la facilidad de uso en la elección de un producto de backup, que sea completa y segura.

También hay que considerar la importancia que tiene la confianza. Y esta depende, por un lado, de la fiabilidad (los datos del backup deben capturarse de forma segura). Obviamente, la información debe ser legible, y si la copia de seguridad depende de algún otro dato, éstos deben ser legibles también. El software de backup puede utilizar una variedad de técnicas para capturar los datos de forma segura, pero si los datos no se pueden leer, el sistema no puede recuperarse. Si falta una pieza de los datos todo el sistema puede ser irrecuperable.

También debe tener confianza al realizar la copia de seguridad. Tras capturar los datos, deben protegerse contra los cambios y robo. Si el sistema de backup no es seguro, cualquier virus podría colarse, robar información, y luego hacer algo para dañar el sistema principal sin que nadie lo sepa. La única cura es la prevención. Mantenga su proceso de copia de seguridad simple y bien documentado. Desde el principio, captura los datos correctamente.

Finalmente, hay un factor importante es la integridad, significa tener no sólo todos los datos necesarios para recuperar el sistema después de cualquier fallo, sino también las herramientas y procesos adecuados. El software de backup ayuda a crear un CD o DVD de inicio, que se puede utilizar para recuperar cuando el sistema no está en funcionamiento. Si el sistema no permite que crear un disco de este tipo, se tendrá que volver a instalar. Del mismo modo, el programa de backup debe ser capaz de reproducir las particiones y formatos de disco en lugar de esperar a hacer el trabajo de forma manual; esta tarea es complicada y debe hacerse perfectamente. Por último, el software de backup debe dar instrucciones de recuperación para seguir, al igual que un piloto de avión sigue una lista de control para aterrizar un avión.

Redaccion

El backup como plan B para enfrentar al ransomware

El ransomware es disfrazado de diferentes formas por parte de los ciberdelincuentes, con la finalidad de conseguir infectar los equipos valiéndose de la propagación de código malicioso. Cuando las medidas adoptadas no han sido suficientes, conviene tener un plan B de actuación.

A diario podemos comprobar como aparecen nuevas modalidades de malware, como el reciente ransomware codificado en su totalidad en Javascript. Estas prácticas aumentan las posibilidades de que el código malicioso pueda ser activado desde el mismo instante en que cae al buzón del correo electrónico de la computadora de la víctima, utilizando los archivos adjuntos de Javascript. El malware, con el tiempo, puede causar la pérdida de todos los datos y el sistema de archivos del sistema operativo del PC. Las soluciones de seguridad basadas en antivirus no siempre son factibles para la protección actual, por lo que los usuarios quedan expuestos a mutaciones de malware nuevas. Ransome32, por ejemplo, se basa en el framework NW.js-marco, lo que implica que emplea un proceso rápido y sencillo para reajustar su código.

Frente a estas situaciones, algunos expertos recomiendan el uso de software adicional de backup y recuperación que habitualmente es utilizado para recuperar el sistema. Una copia completa de seguridad de todo el sistema nos permitirá restaurar los datos más valiosos. El fabricante Paragon, por citar un ejemplo, dispone de su solución Hard Disk Manager con la que es posible establecer copias de seguridad incrementales. De esta forma, el proceso se realiza de manera constante y ocupando muy poco espacio, además de consumir escasos recursos del sistema. En el momento que el problema es detectado, fruto de la actuación del ransomware, es posible determinar la fecha y hora de actuación del malware para restaurar los datos a un punto anterior.

Para que las empresas enfrenten este problema, Paragon cuenta también con la solución profesional Paragon Protect & Restore, con una única consola de gestión centralizada con la que es posible recuperar servidores físicos, máquinas virtuales, así como estaciones de trabajo. Los administradores de TI que gestionan las infraestructuras de su compañía pueden utilizar políticas basadas en agentes para facilitar su configuración y despliegue. De esta forma es posible solventar cualquier inconveniente relacionado con el puesto de red de un usuario, con los archivos individuales del mismo, con las bases de datos de Exchange, con los buzones de correo de los empleados, así como con la copia de seguridad y restauración de todo el sistema.

Alfonso Casas

 

Big Data revolucionará el mundo del backup

Las cosas están cambiando muy rápido en materia de backup. El Big Data está afectando el modo en que se realizan los negocios, especialmente al mundo de las bases de datos, empezando con la capacidad de escalar en productos como Hadoop, MongoDb o Cassandra; en estos servicios la información se distribuye en diferentes servidores, lo que aporta gran flexibilidad gracias a que para poder almacenar más petabytes solo es necesario añadir un par de máquinas

Pero el siguiente nivel en el que más está afectando el Big Data se encuentra en el backup y la recuperación de los datos. El problema de las bases de datos escalables es que pueden ser complicadas de manejar para algunas organizaciones con aplicaciones TI más tradicionales, además de que sus capacidades de recuperación y acceso no son tan robustas como las que conocen los usuarios.

La respuesta está llegando con productos como RecoverX de Datos IO. “Si tienes una base de datos tradicional escalada siempre está presente la noción de un log duradero”, explicó Tarun Thakur, co fundador de la empresa y CEO. El problema es que en estos casos, una copia de este log puede constituir un problema de backup.

“En la actualidad no existe realmente el concepto de log durable porque no existe un administrador maestro en el programa, cada nodo trabaja en su propia sección, por lo que cada uno de ellos tiene diferentes privilegios y puntos de vista de una operación”, agregó Thakur.

Esto es el resultado directo de la política de las empresas que quieren ofrecer las tres conocidas V: velocidad, volumen y variedad. Para poder ofrecer escalabilidad mientras se maneja una cantidad tan grande de datos y a mucha velocidad, las bases de datos están dejando atrás el criterio “ACID”, en el que se busca una fuerte consistencia desde el principio, para moverse hacia el principio “BASE”, por el cual se busca una consistencia más eventual. De esta forma, las actualizaciones se reflejarán en algún momento, pero habrá siempre cierto desfase temporal. “Si quieres escalabilidad, tienes que renunciar a la consistencia”, explica Thakur.

El resultado es que es más complicado conseguir una foto general de un momento concreto a la hora de recuperar una base de datos, no solo por saber hacia dónde se han movido los diferentes datos, sino que otras funciones que normalmente vienen ya integradas en las bases, como la replicación, no protegerán el sistema si los datos están corrompidos según explica Simon Robinson, un vicepresidente de investigación en 451 Research. “Solo replicarás la información corrompida”.

A principios de junio Datos IO lanzó RecoverX para responder a estos problemas con funciones que incluyen llamadas escalables o deduplicación semántica, con el resultado de un conjunto de copias de seguridad consistentes que son especialmente eficientes en accesibilidad desde formatos nativos.

Souviek Das acusa el cambio en la industria de las copias de seguridad; el vicepresidente de la startup tech de sanidad Grand Rounds; “necesitamos una nueva estrategia en las copias de seguridad y de recuperación; la mayoría de los vendedores de software o backup están enfocados en los productos que han utilizado en los últimos años, y utilizar esos sistemas antiguos con bases de datos nuevas puede causar muchos problemas”, advierte Das.

“O el software va a fallar estrepitosamente porque no entiende como copiar desde los nuevos almacenes de información, o va a funcionar de manera muy poco óptima”, estima el vicepresidente de la startup tech de sanidad Grand Rounds.

Aun así, hay buenas noticias; los proveedores de los productos más tradicionales de backup están ajustando poco a poco su propia tecnología hacia el Big Data. “Normalmente lleva un poco de tiempo que los fabricantes de copias de seguridad empiecen a apoyar la nueva tecnología, pero la tendencia está,” concluyó.

 

CSO