Etiqueta: informática

El entendimiento del Big Data como película de ciencia ficción

Muchas veces nos ponemos a pensar si algún día la realidad sobrepasará a la ciencia ficción, y es que cada productor, escritor y actor de este tipo de películas tiene el poder de despertar en nuestra mente, una gran imaginación para estos temas.

Este fin de semana, tomando un momento para ver una película de este género me interesé por la nueva apuesta del director Denis Villeneuve: ‘La llegada’… y me llamó mucho la atención la forma en que los profesionales, desde científicos, ingenieros, militares, lingüistas, entre otros, se unen para descifrar uno de los eventos que siempre nos ha causado incertidumbre, la llegada de los extraterrestres a la tierra.

Si bien no soy experto en cine, voy a servirme de esta película para introducir lo que sí es mi tema: los datos. Dentro de la trama y desarrollo principal de la película, el enfoque es descubrir una forma de comunicación con estos seres de otro planeta, que comienzan a enviar información con el fin de transmitir un mensaje a la humanidad; por lo que especialistas realizan un trabajo tanto manual como de desarrollo de software especializado que ayude a entender y tener el mensaje clarificado, ya que no se sabe si es pacifista o es un llamado a la guerra.

Mientras más veía, más me imaginaba el gran reto que estaban enfrentando allí al descifrar, gestionar, entender, acomodar toda esa información; creo que eso me aterraba aún más. Y es que eso es algo que vivimos en el mundo real, nuestra relación con la gran cantidad de información y datos que se generan a diario, ¡da miedo!

El Big Data en sí, lo que provoca en la mayoría de las organizaciones es incertidumbre, un temor a lo desconocido en el tema de administración de los grandes volúmenes de datos que registran constantemente y que en la mayoría de las veces carecen de organización, limpieza, actualización, por mencionar algunos. Lo peor es que este temor los lleva a dar pasos muy chiquitos, en mucho tiempo o a simplemente no darlos, y estamos en una era en la que es necesario descifrar ya el mensaje que todos estos datos quieren transmitirnos.

¿Qué pasa actualmente con las empresas?

El Big data llegó para quedarse y sigue evolucionando, ante este crecimiento y explosión de datos las empresas se preguntan, ¿cuáles son las herramientas, metodologías, pasos a seguir para poder hacer uso del Big Data correctamente? ¿Cómo limpiar, administrar y leer estos datos e información que recibimos cada día?

Para esto Informatica recomienda contar con un estándar de referencia en soluciones de gestión de datos para integrar, gobernar, brindar seguridad de datos en Hadoop y garantizar que su información de negocio esté lista cuando lo necesite y así obtenga su valor rápidamente, es decir, hablamos de Big Data Management.

Según especialistas del tema, el mercado de Hadoop estima una tasa de crecimiento anual del 58%, superando los 1,000 millones de dólares de ganancias en 20201. El Big Data Management es una solución de gestión de datos conectada a cada sector, creada para acceder, integrar, limpiar, dominar, gobernar y asegurar que el Big Data trabaje de las siguientes formas:

  • Integración de datos desde más fuentes: Simplifica y acelera la integración de Big Data mediante conectores específicos listos para usar cientos de fuentes de datos, transmisión en tiempo real e incorporación masiva, al mismo tiempo que ofrece Big Data a varios consumidores con una arquitectura basada en un concentrador.
  • Flexibilidad y productividad: La interfaz de desarrollo visual parametrizado acelera la productividad del desarrollador y garantiza la adopción flexible de las mejores innovaciones de plataforma de fuente abierta sin sacrificar el mantenimiento y la reutilización del código. Los analizadores y las transformaciones pre-integradas garantizan que los proyectos puedan entregarse lo más rápido posible y listos para usarse.
  • Gobernanza de datos de forma integral: La administración basada en datos multipersona y la calidad de datos específica, garantizan que los datos sin procesar se conservan con rapidez y de forma colaborativa como información confiable. Una visión integral de las relaciones y los datos facilita la detección de datos sensibles y el seguimiento de las categorías de los datos, de principio a fin.
  • Seguridad de Datos: El enmascaramiento de datos persistente y la disociación no intrusiva garantizan la seguridad de los datos sensibles frente a usos no autorizados al mismo tiempo que las políticas de seguridad se gestionen de forma centralizada.

Estas cuatro funciones son básicas para que las empresas tomen ventaja de la administración de los datos y cuenten con información de forma rápida, práctica y al momento.

Big Data Management permite a las organizaciones integrar más datos de forma rápida a partir de muchas fuentes de datos utilizando conectores pre-construidos, motores de integración de valores múltiples y descubrimiento basado en aprendizaje automático. Las empresas pueden transformar, limpiar y compartir fácilmente los datos utilizando herramientas de preparación de datos almacenados, interfaces de usuario basadas en funciones, gestión completa de metadatos, catalogación inteligente de datos y capacidades de descubrimiento. La administración de datos y la inteligencia proactiva de seguridad de datos convierten al Big Data en un activo de datos ricos, seguros y confiables.

El camino de la transformación de las empresas a veces es lento, pero con la ayuda de soluciones como Big Data Management, la travesía puede ser más sencilla. El proceso está basado en entender qué nos quieren decir, cómo entenderlos e interpretarlos para después actuar y salir en tiempo y forma a obtener valor de negocio.

Samuel Dos Reis, VP de Informatica para Latinoamérica

La física cuántica cuestiona la seguridad informática

El nivel de seguridad que tenemos y manejamos en nuestros teléfonos, correos electrónicos, navegar por la red e Internet es fundamental en nuestra sociedad de la información.

Los recientes ciberataques sufridos, por ejemplo, en las cuentas de correo de Yahoo o la debilidad de la seguridad mostrada por las nuevas generaciones de dispositivos interconectados en el Internet de las Cosas son buenas muestras de esto.

Pese a que los usuarios utilizan contraseñas cada vez más robustas, de poco sirve si los servidores que alojan la información o los mismos dispositivos son vulnerables ante los ataques. Un equipo de investigadores de la Universidad Politécnica de Madrid ha desarrollado un método que, aplicando las leyes cuánticas, muestra una nueva manera de romper los algoritmos en los que se basa la gran mayoría de algoritmos de cifrado usados en la actualidad.

Una de las claves de los procesos de cifrado de las comunicaciones es la factorización. Cuando una persona envía información cifrada a través de Internet, el proceso que se sigue es complejo. “En primer lugar, los datos son cifrados para enviarlos al lugar de destino y para ello se utilizan pares de claves cuya seguridad descansa finalmente en la dificultad de descomponer un número grande en sus factores primos. Dados dos números primos, es muy fácil calcular su producto, pero dado un número grande, es muy difícil calcular sus factores primos. Es la supuesta complejidad computacional de este problema, aparentemente sencillo pero que ha resistido siglos de investigación en matemáticas, lo que confiere seguridad a la mayoría de algoritmos de cifrado usados en la actualidad”, explica Vicente Martín, uno de los autores del estudio y director del Centro de Simulación Computacional de la UPM.

Aunque el problema de factorización haya resistido hasta ahora todos los esfuerzos de los criptoanalistas, lo cierto es que su complejidad computacional real es todavía desconocida. Lo que sí se sabe es que, si pudiésemos usar un ordenador cuántico en lugar de uno clásico, el problema sería fácil de resolver.

En 1995 Peter Shor, entonces en el instituto de tecnología de Xerox, desarrolló un algoritmo que resolvía el problema recurriendo a un ordenador capaz de manipular qubits, el análogo cuántico de los bits. El enorme potencial de ruptura de este algoritmo ha sido uno de los principales impulsores del desarrollo de los ordenadores cuánticos, una tecnología compleja que se cree que tardará todavía décadas en realizarse.

Es por ello que existe la necesidad de salvar un equipo de cómputo cuántico programable completamente funcional para poder ejecutar el algoritmo de Shor ha sido el problema en el que han trabajado los expertos de la UPM.

Para ello han desarrollado una nueva estrategia basada en el diseño de un simulador cuántico: un sistema físico cuya evolución resuelve el problema. “Lo primero que hicimos fue redefinir el problema, de modo que ya no tengamos que esperar a tener un ordenador cuántico completamente operativo para poder utilizar con normalidad el algoritmo creado por Shor. Hemos reformulado el problema de la factorización entera de un número grande en otro aritméticamente equivalente que depende de una función de los factores primos. Esa función puede asociarse con la energía de un dispositivo cuántico que puede medirse para obtener los factores”, explica José Luis Rosales, investigador de la UPM que ha desarrollado el estudio, recientemente publicado en Physical Review Letters, junto con Vicente Martín.

El estudio no solo abre una nueva manera de resolver el problema de factorización. Demostrando que hay un dispositivo físico que tiene acceso a los números primos, se puede estudiar la estadística de los mismos y arrojar luz sobre problemas de matemática puras. También muestra que existen algoritmos clásicos de factorización fundamentados en principios completamente distintos de las cribas tradicionales, lo que plantea nuevas dudas sobre la solidez de los métodos antiguos.

“Tal vez sea el momento de plantearse seriamente incorporar otros protocolos de seguridad, que no estén basados en complejidad computacional, al arsenal de la criptografía. La misma física nos da la criptografía cuántica, basada en principios que nunca podrá romper ningún ordenador, sea cuántico o clásico”, concluyen los investigadores.

Redacción

 

Los datos ofrecen mejores resultados de marketing

Los datos empresariales siempre han existido, desde que una empresa empieza a funcionar los datos comienzan a generarse y año con año vemos la importancia que estos tienen para las organizaciones y no es sólo obtener datos, es saberlos interpretar, limpiar, integrar y que siempre estén conectados, en pocas palabras tener datos confiables, si estos no son de confianza carecen de utilidad efectiva.

Convertir los datos de cliente en datos confiables es esencial ya que estos son el activo más importante para las empresas, lo que les brindará una toma de decisión más práctica y con mejores resultados. Cifras de Bloor Research, dicen que el 80% del tiempo de un especialista en datos se invierte en preparar los datos en lugar de analizarlos; se necesita una solución de integración de datos probada, automatizada y ágil que le permita combinar o migrar datos de manera rápida, fluida y rentable.

Gartner señala que, el 64% de las personas dicen que la experiencia del cliente es más importante que el precio de su selección de la marca, a continuación, le compartimos 8 pasos para lograr datos confiables del cliente:

  • Conectar: localizar los sistemas de su negocio que tengan los datos críticos de los clientes.
  • Limpiar: Corregir las imprecisiones, campos incompletos y normalizar los datos.
  • Consolidar: Identificar duplicados y asegurar un único perfil confiable del cliente.
  • Verificar: Comprobar los datos de contacto con el cliente para que pueda llegar a sus clientes.
  • Enriquecimiento: Lograr perfiles con datos externos, datos sociales y de mercado.
  • Relacionar y Contextualizar: Descubrir las relaciones entre los clientes y las personas, lugares y cosas que más importan.
  • Compartir: Proporcionar información confiable y relevante para las personas, los procesos y las aplicaciones que necesitan.
  • Gobernanza de datos: Para guiar de forma proactiva la forma de datos se gestiona y utiliza de modo que permanezca limpia y segura.

De acuerdo con datos de Informatica, las empresas están teniendo dificultades en el uso de datos del cliente en: 35% de personalización, 27% la participación del cliente, 22% en los informes y análisis a realizar, 8% pasos de leads y ciclos de ventas e inteligencia de Marketing. Los datos “malos” conducen a resultados inferiores al estándar.

Como conclusión, el equipo de marketing, de venta y de servicio, los datos erróneos son un dolor de cabeza, ya que sufren debido a datos pocos confiables, duplicados o desconectados que no les brinda la información correcta. Sin embargo, teniendo datos confiables del cliente se podrá obtener mejores resultados de marketing, lo cual brindará a las empresas la ventaja competitiva que buscan para lograr el éxito.

N. de P. Informatica

Big Data y la informática distribuida proyectarán el negocio de la IA en 5 años

Juniper Research, ha revelado los resultados de un estudio, se destaca que el mercado relacionado los proveedores de servicios que ofrecen aprendizaje automático asistido por técnicas de bid optimisation crecerá un 960% para 2021.

La inteligencia artificial, no es algo nuevo, lleva un tiempo entre nosotros, y sigue siendo un término un tanto brumoso debido, en gran medida, a la visión que la industria del cine ha ofrecido de ella durante años. De hecho, y gracias a su naturaleza fundamentada en una gran variedad de aspectos y aplicaciones, la IA ofrece múltiples facetas: desde Terminator a HAL 9000. Teniendo en cuenta el amplio espectro de posibilidades que ofrece la IA, las expectativas de lo que podría ser capaz de lograr se tornan estratosféricas.

Juniper Research contempla la IA como un gran programa informático que emplea una combinación de bloques digitales, como si se tratase de ladrillos, que contienen fórmulas matemáticas, algoritmos y datos destinados a la resolución de problemas complejos que, normalmente, son realizados por personas.

El renacimiento de la IA y la probabilidad de poder obtener éxito de un modo sostenido en esta “era”, dando una proporción por una combinación de factores entre los que se encuentran big data, la computación en la nube (la cual permite el acceso a los recursos de computación masiva), y la disponibilidad de ancho de banda para el aprovisionamiento de servicios en internet.

Todos estos elementos han permitido llevar a la práctica conceptos relacionados con el aprendizaje automático a costes mucho más reducidos. Así, los avances conseguidos en potencia computacional, en especial a través de la programación de unidades de procesamiento gráfico y fuentes de informática distribuida, han permitido el desarrollo de algoritmos de aprendizaje automático para verificar (a escalas de tiempo mucho más reducidas) que la IA era ya una realidad diez años atrás.

El surgimiento de gigantes de internet como Alphabet, Amazon y Facebook ha reducido la necesidad de contar con muchos actores relacionados con la innovación a la hora de poseer sus propias infraestructuras de servicios de IA. Como contrapartida, estas compañías han creado un espacio en el que grandes proveedores de servicios han visto la oportunidad de hacer realidad recursos en la parte del cliente a través de la extensión de servicios en nube.

Aún sigue, el trabajo en la digitalización de activos, como por ejemplo registros e imágenes médicas, ha favorecido la creación de datasets desde los que los proveedores de servicios pueden “entrenar” a sus sistemas de inteligencia artificial. Los expertos en analítica de datos podrán ahora diferenciarse ofreciendo servicios de análisis predictivos y prescriptivos en contextos en los que, desde hace poco tiempo, los servicios de big data han revolucionado la retrospectiva de análisis, incluso en sistemas que trabajan en tiempo real como hace HANA, la base de datos de SAP.

Firmas como Google DeepMind y Vicarios buscan algoritmos genéricos de IA que sean aplicables para un amplio abanico de aplicaciones ya que, en el momento actual, la mayoría de servicios mantiene un enfoque muy limitado y resultan difíciles de adaptar a nuevos casos. En este sentido, la emergencia de algoritmos más generales agilizará la aparición de proveedores de servicios más específicos.

Juniper predice que los proveedores de servicios que ofrecen aprendizaje automático asistido por técnicas de bid optimisation, se espera que generen un volumen de ventas cercano a los 13,400 millones de dólares para 2021.

Redacción

 

Intelligent Data Lake, la oferta de Informatica LLC

Informatica presentó la más reciente versión de Big Data Management V10, Intelligent Data Lake, una nueva solución de principio a fin para convertir el Big Data en activos de datos fiables para lograr un valor de negocio más rápido y sostenible.

Samuel Dos Reis, VP para Latinoamérica de Informatica, señala que “clientes de todo el mundo se ven abrumados por los datos: datos de marketing, datos de aplicaciones, datos sociales, etc. Estos datos están almacenados en enormes data lakes y, con el fin de que las organizaciones puedan extraer el máximo valor de estos, Informatica proporciona a estas empresas la información necesaria para poder sacar partido a los datos. Durante años, Informatica ha proporcionado ofertas de datos únicas. Ahora, llevamos esta información y estas funcionalidades a los data lakes en constante proliferación, para que sean más ágiles, flexibles y confiables”.

La nueva solución de la empresa permite a los clientes encontrar, preparar y proteger el Big Data que las empresas necesitan para extraer valor de negocio de forma rápida y uniforme. El enfoque de Informatica acelera la productividad del desarrollador y el analista al mismo tiempo, lo que mejora la agilidad de TI en un entorno totalmente seguro y gobernado.

Cabe destacar que la herramienta está lista para los principales entornos, incluidos Amazon Web Services, Elastic Map Reduce y Microsoft Azure HDInsight. Informatica proporciona a sus clientes la solución de gestión de Big Data más completa, con independencia de dónde almacenen sus datos: en un entorno local, en cloud o en entornos híbridos de TI. De este modo, los clientes siempre disponen de la capacidad necesaria para procesar la gama más amplia de cargas de trabajo.

Los equipos de análisis y especialización de datos no consiguen recabar información de utilidad porque se ven obligados a encontrar y ordenar de forma manual los datos de la organización almacenados en silos, duplicados e incoherentes. Informatica permite a las organizaciones encontrar y acceder a todo tipo de datos y descubrir las relaciones entre los más importantes, en toda la empresa.

Los equipos de análisis y especialización de datos ven limitada su capacidad para ofrecer una ventaja competitiva a sus organizaciones debido a los retrasos a la hora de acceder a los datos necesarios y compartirlos entre sí de forma oportuna. Por ello la solución ofrece equipos de análisis y especialización de datos se enfrentan al riesgo de entregar informes y predicciones imprecisas debido a datos insuficientes, incompletos, incoherentes o inexactos.

Finalmente, sobre los riesgos de los datos sensibles en distintas plataformas de datos heterogéneos, incluidas las bases de datos tradicionales, en el Cloud y de Big Data. La solución de seguridad amplía el soporte del Big Data y Cloud, incluida la integración con Salesforce e Informatica Big Data Management.

Redacción

Kaspersky Lab descubre amenaza que ha operado desde 2005

La firma de seguridad Kaspersky Lab, revela el descubrimiento del Grupo Poseidón, un actor de amenazas avanzada, el cual ha estado activo a nivel global desde el año 2005.

Lo interesante del Grupo Poseidón es que se trata de una entidad comercial, cuyos ataques están relacionados con malware firmado digitalmente con certificados falsos para robar datos confidenciales de sus víctimas y así obligarlos a establecer una relación de negocios. Además, el malware está diseñado para funcionar específicamente en máquinas con operativo Windows, el cual se encuentra en inglés y portugués brasileño, algo por primera vez detectado en un ataque dirigido.

“El equipo opera en todos los dominios: aire, mar y tierra. Algunos de sus centros de mando y control se han encontrado dentro de ISPs que ofrecen servicios de Internet a buques en el mar, conexiones inalámbricas, así como dentro de ISPs de operadores tradicionales”, dijo Dmitry Bestuzhev, Director del Equipo de Análisis e Investigación Global de Kaspersky Lab América Latina. “Además, se encontró que varios de sus ataques tenían una vida útil muy corta, lo cual contribuyó a que este grupo haya podido operar durante mucho tiempo sin ser detectado”.

Sobresale este grupo, ya que se enfocan en la exploración activa de las redes corporativas basadas en el dominio. Una vez que se infecta una computadora, el malware se comunica con el servidor de comando y control antes de iniciar una fase compleja de movimiento lateral. Esta fase suele aprovechar una herramienta especializada que recoge de forma automática y agresiva una amplia gama de información, como credenciales y políticas de gestión con la finalidad de perfeccionar nuevos ataques y asegurar la ejecución del programa malicioso.

image002

Después de realizar este procedimiento, los atacantes saben realmente qué aplicaciones y comandos pueden utilizar sin alertar al administrador de la red durante el movimiento lateral y la exfiltración. Varios de los centros de comando y control de Poseidón han sido detectados en Brasil, Estados Unidos, Grecia, Colombia, Venezuela y en alta mar.

La información recopilada es aprovechada para un supuesto negocio el cual manipula a las compañías víctimas a que contraten al Grupo Poseidón como consultor de seguridad, bajo la amenaza de utilizar la información robada en una serie de negocios obscuros en beneficio de dicho grupo.

-Comunicado de prensa

 

 

Cinco pasos para obtener valor de negocio con IoT

internet de las cosasEl valor de despejar el acceso de los usuarios de negocio al Big Data, mediante autoservicio, es cuestionable si no pueden analizar sus hallazgos ni actuar en consecuencia mientras sigan siendo recientes y pertinentes. Desde el punto de vista del diseño, no resulta práctico adaptar las rígidas e inapropiadas arquitecturas tradicionales a los usos innovadores. Y resulta del todo ineficiente adoptar nuevas soluciones si su gestión exige un grado ilusorio de experiencia o si les falta desarrollo para funcionar como soluciones empresariales.
No obstante, existe una manera de mejorar la capacidad de respuesta y extraer valor sin sacrificar la agilidad a la hora de diseñar aplicaciones con datos del “Internet de las Cosas” (IoT) introducidos.

En los cinco pasos siguientes, se ofrece un panorama de lo que implica transformar los datos generados por las máquinas y dispositivos conectados de simples registros en información conectada, limpia, útil y segura sobre clientes y operaciones. También sirven para que cambie su rol como simple desarrollador o arquitecto por un papel de contribución activa a la inteligencia operativa en tiempo real que permite impulsar la estrategia de negocio.

Paso 1: Conectar
Al configurar, implantar y supervisar conexiones a varias fuentes de datos de manera inmediata, se elimina la complejidad inherente al mapping -mapeo- manual de fuentes y destinos. Para sustentar este proceso, busque una herramienta visual de incorporación del Big Data, que permita elegir las fuentes de datos, identificar los sistemas de destino y definir los resultados deseados con una función gráfica de mapping. Así, puede definir con facilidad la velocidad de procesamiento y priorizar los casos de uso que necesitan información en tiempo real sobre los datos, en detrimento de los que exigen un procesamiento de batch -lotes- o casi en tiempo real.

Paso 2: Recopilar
No puede esperar funcionalidades de transmisión de datos en tiempo real de una herramienta poco fiable o sin posibilidad de escala. Si no tiene más expectativas, es probable que le basten las soluciones heredadas. Es necesario confiar en que la solución de recopilación o incorporación de datos sea capaz de afrontar una gran demanda con la máxima disponibilidad y una función integrada de failover.

La escalabilidad no sólo es importante para los datos, sino que también es clave para gestionar los recursos o poner al día a los nuevos empleados. Una herramienta basada en una Interfaz de Programación de Aplicaciones (API) y un Kit de Desarrollo de Software (SDK) estándar ofrece accesibilidad a un grupo mayor de empleados actuales y futuros, lo cual aporta, mientras tanto, otra capa de agilidad al proceso.

Paso 3: Analizar
Cuando recopila datos en tiempo real, se encuentra en el lado receptor de todo: Desde datos de redes sociales hasta registros, pasando por datos de máquinas y dispositivos conectados. Por eso, resulta esencial el paso consistente en procesar la información para normalizar los necesarios y descartar los prescindibles. Al conectar la fuente de datos directamente al destino, evita el (a menudo) costoso y engorroso paso de colocar los datos en el “staging area“. En su lugar, se entregan tal y como indiquen los requisitos predefinidos del usuario y se omiten los datos que no sean pertinentes. Como consecuencia, puede garantizar la exactitud del término “tiempo real”.

Paso 4: Examinar
Ya está todo listo para que los datos cumplan su función y cumplan con las tres aristas de conexión, limpieza y seguridad. En esta fase, se analizan los datos y, si se detectan anomalías o ciertos eventos, se activan las respuestas predefinidas, tal y como se ejemplifica en el paso 5. Con una arquitectura orientada a eventos e impulsada por datos en tiempo real, recoge el premio al instante en lugar de lanzar consultas manuales por si detectan algo que tenga valor inmediato o significativo.

Paso 5: Actuar
En el paso final, las situaciones predefinidas activan acciones. Los patrones que permitan suponer una actividad delictiva concreta, por ejemplo, pueden activar notificaciones inmediatas que avisen a las autoridades de la necesidad de intervención urgente; una alerta sobre el uso incongruente de una tarjeta de crédito que indique cargos en dos localidades distintas al mismo tiempo, lo cual indique al prestador del servicio de llamar al usuario para asegurarse de que los gastos son legítimos. Quizá le interese procesar en lotes los datos para supervisar la correspondencia entre determinados comportamientos que, aunque resulten oportunos (por ejemplo, contratar un préstamo hipotecario de una pareja que va a tener un bebé), no exigen una respuesta inmediata.

Esther Riveroll, Country Manager de Informatica Corporation para México, Costa Rica y Panamá, menciona que”el diseño de aplicaciones para Big Data que empleen la información del “Internet de las Cosas” de forma práctica y sistemática eliminará muchos obstáculos en su implementación. Tomar ventaja de una mina de datos conectados, limpios y seguros sobre los patrones de consumo y estilo de vida de los clientes, permitirá dar pasos hacia la innovación y consolidación de su negocio. Hoy, IoT ya no es una promesa, es una realidad”.

 

N. de P. Informatica.

Trend Micro ofrece simulador de ataques dirigidos a profesionales

seguridad negocio proteccion

“The Fugle” es un juego que permite a los jugadores tomar el papel como director de seguridad de una empresa ficticia, al momento de actuar tendrá que tomar las decisiones necesarias para afrontar los ataques dirigidos, el juego está disponible en español.

En el día a día podemos recibir los ataques dirigidos, son un tipo de amenaza que puede llegar a una situación de emergencia, las decisiones deben tomarse rápido y en un tiempo muy corto. Pa hacer conciencia sobre estos hechos que pasan por alto muchas empresas, Trend Micro acaba de lanzar el simulador de ataques dirigidos “The Fugle” ahora el juego se ofrece en español.

El público objetivo de este juego son los profesionales de informática, The Fugle propone a los participantes ser de manera ficticia el director de seguridad de una empresa y tomar las decisiones de seguridad correctas con antelación a que tenga lugar el lanzamiento de un importante producto. El juego ofrece más de 120 secuencias de vídeos diferentes, los acompañan una serie de  preguntas de opción múltiple relacionadas con la estrategia de seguridad de la compañía ante un posible ataque dirigido. Con este juego online, Trend Micro propone a los profesionales de la informática adentrarse ante una posible situación similar, de forma segura, con la meta de que se puedan reforzar sus habilidades y su experiencia tratando de frente con este tipo de amenazas y ofreciéndoles ayuda para estar más preparados.

Se puede acceder al juego a través de su sitio en internet de la compañía.

-Hilda Gómez

El mainframe cumple medio siglo

Mainframe cumple 50 años
El legendario Sistema 360, considerado como el primer mainframe de IBM.

En muchos sentidos, la informática moderna nació en el New Englander Motor Hotel de Greenwich, Connecticut. Allí, en 1961, uno de los grupos de ingenieros de más talento de IBM se reunió en secreto para encontrar la forma de construir el equipo IBM de última generación. Este lunes se celebran los 50 años del Sistema 360, el primer mainframe, que cambiaría pocos años después la historia tecnológica mundial.

IBM necesitaba entonces un nuevo diseño con urgencia. Vendía con éxito diferentes líneas de computadora, totalmente independientes, pero que se mostraban cada vez más difíciles de mantener y actualizar. Se encontraba en una encrucijada, como recuerda el director de contenidos del Museo de Historia Informática de Estados Unidos, Dag Spicer. “IBM se estaba colapsando, en cierto modo, por la presión de tener que respaldar múltiples líneas de productos, incompatibles entre sí”, resume.

Pero lo que presentó el 7 de abril de hace medio siglo fue su System/360 que logró un éxito sin precedentes, hasta el punto que su presidente de entonces, Tom Watson Jr., cerró varias líneas de desarrollo para concentrarse en el que sería su gran fuente de ingresos para los siguientes años.

En apenas seis años, sus números pasaron de 3,600 a 8,300 millones de dólares en 1971 y, en 1982, más de la mitad de los ingresos de IBM ya procedía de la generación 360.

Según los expertos, marcó el comienzo de una nueva forma de pensar, en cuanto a diseño y construcción de sistemas, una perspectiva que, pasados los años, no recordamos bien pero resulta radical.

Un verdadero parteaguas

Antes del Sistema 360, los fabricantes construían cada nuevo modelo de computadora desde cero. A veces, incluso se fabricaba en exclusiva para un cliente. Desde luego, los programas de esa computadora no funcionaban en ninguno más, ni siquiera del mismo fabricante. El sistema operativo de cada modelo también era único y se escribía desde cero.

Pero la idea que surgió de aquel hotel de Connecticut cambió el rumbo: crear una sola arquitectura que diera lugar a una familia de computadoras. Ni siquiera por entonces había una idea clara de lo que era una arquitectura, por lo que resulta aún más revelador del carácter innovador del proyecto.

En realidad, la idea era disponer de dos arquitecturas comunes, una de gama baja y otra de altas prestaciones, que realizaría su trabajo 40 veces más rápido. Al centrarse en la arquitectura, en lugar de en una aplicación concreta, se allanaba el camino, además, para la compatibilidad entre diferentes modelos. Como subraya Spicer, “en realidad, resumió todas las discusiones de negocio e informática a un solo sistema”.

Aunque ahora resulte obvio, el concepto resultó en su tiempo revolucionario y tuvo un profundo impacto en toda la industria.

IBM lograba utilizar un sistema operativo único para todas sus computadoras (aunque luego creó tres variantes para abarcar todos los escenarios).

De esta manera, se ahorraba mucho trabajo de escritura de software para centrarlo en nuevas aplicaciones y además redujo los recursos de hardware. Ya no habría que diseñar para cada máquina cada componente, procesadores y memoria. Diferentes modelos compartían componentes, lo que favoreció las economías de escala del fabricante.

Los clientes se beneficiaron también. Podían tomar el código escrito para una máquina y ejecutarlo en otra, algo nunca visto. “Entonces no se concebía la idea de ejecutar un software en diferentes máquinas”, recuerda Spicer.

En aquellos tiempos comenzó toda una generación que ha perdurado durante décadas y que han parecido en diferentes etapas a punto de desaparecer. Sin embargo, después de tanto tiempo, nadie se atreve a aventurar el final del mainframe.

América Latina invertirá 44 mdd anuales para cerrar brecha digital

Brecha digital en LAAmérica Latina invertirá en promedio 44.378 millones de dólares (mdd) anuales para cerrar la brecha digital en el acceso a Internet, lo que equivaldrá a 355.825 mdd de inversión acumulada hasta 2020. Así lo señala el informe Latinoamérica: Desafío 2020, presentado por la Asociación Iberoamericana de Centros de Investigación y Empresas de Telecomunicaciones (AHCIET) y Convergencia Research.

De acuerdo con esta firma, para lograr tal desafío se requiere de una serie de condiciones, entre ellas un marco regulatorio estable y propicio; seguridad jurídica y un clima de confianza que promueva la cooperación público-privada; niveles tributarios simples y moderados; medidas que faciliten el despliegue de infraestructura como las tendentes a la reducción de costos; normas de antenas adecuadas; simplificación de permisos; facilidades para el uso de medios e infraestructuras públicas; derechos de paso y, sobre todo, un horizonte planificado, previsible y razonable de asignaciones de espectro, costos y requisitos, puesto que el principal cierre de brecha digital en América latina se lograría mediante la banda ancha móvil.

En este estudio se seleccionó un conjunto de 25 países europeos (denominado Europa-25) para proyectar sus niveles de penetración de banda ancha fija por cada 100 hogares y banda ancha móvil por cada 100 habitantes. A partir de esta selección, se analizó y comparó el contexto que tendrían 11 países latinoamericanos en su camino por alcanzar la “Brecha 0” o, en su defecto, reducirla hasta el mínimo posible.

Dicho informe indica que la mayor parte de los países analizados estaría muy cerca de cerrar la brecha de accesos de banda ancha móvil con respecto a Europa en 2020 o en una fecha posterior cercana. Por el contrario, en banda ancha fija la convergencia hacia “Brecha 0” con Europa  tiene diferentes grados de dificultad dependiendo de cada país.

Según el estudio, Uruguay y Argentina lograrían la “Brecha 0” de accesos de banda ancha fija y móvil con Europa-25 en el año 2020. Mientras que Chile y Brasil la alcanzarían en acceso de banda móvil y conseguirían mejoras sustanciales en la penetración de banda ancha fija.

Por su parte, México, Colombia y Venezuela casi cerrarán la brecha de banda ancha móvil, pero conservarán un déficit en banda ancha fija. Perú y Ecuador podrían reducir a un 30% de brecha con Europa su penetración de banda ancha móvil: el primero podría lograr una penetración de banda ancha fija de más del 100% actual a 50%, mientras que Ecuador pasaría del 80% al 30% de distancia con Europa.

Para Bolivia y Paraguay será más complejo reducir su brecha de acceso de banda ancha fija. Sin embargo, lograrán disminuir ampliamente la de banda ancha móvil y seguramente será esta plataforma tecnológica la que también permita conectar los hogares, afirma el estudio.