Día: 15 noviembre, 2016

¿Cómo entregar aplicaciones y datos críticos de forma segura a trabajadores?

La mayoría de las pláticas acerca de la virtualización de aplicaciones y escritorios se centran en la reducción de costos, la simplificación de las operaciones de TI y el  incremento de la productividad empleados. Estos factores son extremadamente importantes, pero el departamento de TI no debe de perder de vista el inmenso impacto  de la virtualización de los espacios de trabajo en la seguridad de la información. De hecho, estas tecnologías conllevan múltiples ventajas para las funciones de claves como protección de datos, control de accesos y cumplimientos de las políticas. También proporcionan a los administradores, el control segmentado sobre cómo los trabajadores y partners usan y comparten datos críticos.

Por otro lado, actualmente, los corporativos del país están continuamente “retados” a apoyar nuevos iniciativas de negocio y mejorar la experiencia de computación de los usuarios, mientras se enfrentan a crecientes presiones para mejorar la seguridad de la información. Muchos de estos retos, incluyen hacer que los recursos tecnológicos disponibles sean más fáciles de utilizar, independientemente de los límites físicos y o geográficos.

Los empleados están demandando los siguientes requerimientos:

  • Trabajar en cualquier lugar, con experiencias consistentes, desde computadoras, laptops, o smartphones
  • Utilizar dispositivos personales dentro de un entorno corporativo a través de sus propios programas.
  • Cambiar los rígidos controles de seguridad de TI que restringen el desempeño e inhiben la productividad
  • Acceso a datos corporativos de forma instantánea.

Al mismo tiempo,  los crecientes ataques cibernéticos y programas maliciosos provocan inseguridad en las empresas para implementar tendencias para aumentar el rendimiento de los nuevos espacios de trabajo.  Entonces, ¿cómo pueden las empresas ofrecer más flexibilidad frente a las cada vez más sofisticadas amenazas? Cada tipo de dispositivo – PC, laptops, tablet y smartphone- requiere de diferentes herramientas de seguridad, para que estén protegidos contra la gran variedad de amenazas y además, se les tiene que aplicar diferentes políticas de acceso. El remedio no es sumar varias capas de seguridad que requieran de mayor gestión. En cambio, se trata de migrar a un modelo tecnológico que sea más seguro de por sí, una arquitectura que simplifique dramáticamente las funciones de seguridad claves.

En concreto, hoy en día existen tecnologías de virtualización de escritorios y aplicaciones con las cuáles los administradores pueden usar un set de herramientas para crear y aplicar unas simples políticas de control de acceso para todos los usuarios, independientemente de su ubicación y los dispositivos que estén utilizando. Además, pueden agregar autenticación multifactorial incluyendo tokens, tarjetas inteligentes, RADIUS, Kerberos y biométricos. Estos mismos controles de accesos y métodos de autenticación, pueden ser usados mientras se ofrece la flexibilidad de contar con una tienda empresarial de aplicaciones para mejorar la experiencia de los trabajadores. Además, incluso se incrementa la seguridad, proporcionando a los usuarios acceso pertinente a aplicaciones, aprobadas anteriormente con el objetivo que no descarguen información potencialmente infectada o de dudosa procedencia.

Además, que los nuevos usuarios pueden ser provistos de acceso a aplicaciones con unos pocos clics, el acceso a aplicaciones e información también puede ser revocado en segundos. En el caso de empleados que ya no trabajen en la empresa y están usando sus propias laptops o dispositivos móviles, los datos sensibles están almacenados en un centro de datos, por lo que rápidamente pueden estar fuera de su alcance.  Por último, la respuesta a incidentes y recuperación de desastres es substancialmente más sencilla a través de la virtualización. La información centralizada es más fácil de monitorear y analizar que los datos que están esparcidos en varios sistemas. Las vulnerabilidades se solucionan desde una locación central, en vez de hacerlo a través de cientos de dispositivos o computadoras. Además, el departamento de TI puede configurar “dos centros de datos”. Si uno de los dos no funciona, los usuarios pueden rápidamente cambiarse al otro sin perder información o productividad. O si las laptops o algunos dispositivos son robados o se estropean, los empleados pueden acceder a su información desde otros equipos de forma segura.

 

emilio-tamez-citrix-mexico

Por: Emilio Tamez,

Gerente de Canales

Citrix México.

¿Los archivos son la debilidad de las organizaciones?

El informe “Data Breach Investigation Report 2016” realizado por Verizon, analiza 100,000 incidentes de seguridad reportados en 82 países, con 2,260 de ellos confirmados, la firma de telecomunicaciones obtuvo los siguientes resultados en su investigación.

La primera solución que se señala, es fortalecer la infraestructura tecnológica del perímetro corporativo, es decir, las aplicaciones y los equipos que resguardan la frontera digital entre la red de la organización y el exterior. Una medida así, por supuesto, no es criticable. Cuando se trata de defender la información crítica de negocios, todas las iniciativas suman.

La principal, es incrementar el número de los firewalls disponibles en la red corporativa no es sinónimo de inmunidad. Según diversas referencias, los firewalls actuales, por ejemplo, aún no son muy efectivos para bloquear email con phishing (correos electrónicos que incluyen adjuntos maliciosos o ligas electrónicas que permiten el ingreso de malware).

Más importante aún, la estrategia de blindar la frontera digital conduce a un olvido muy peligroso: en muchas ocasiones, en una fuga de información confidencial, el factor detonante se ubica dentro del perímetro de la propia empresa.

El estudio señala que el 49.1% de las fugas de datos críticos se puede detectar un origen interno, no directamente relacionado con la acción de un agente externo. En este contexto, las principales causas son:

  • 17.7%: simples -y variados- errores del usuario (como enviar un email con datos confidenciales a la persona equivocada).
  • 16.3%: mal uso de privilegios internos (lo que podría hacer un empleado corrupto o resentido).
  • 15.1%: robo o extravío de equipos con información delicada (memorias USB, laptop, tablet).

A la luz de este escenario, la mejor opción para las empresas es replantear su línea de defensa. En específico, que la protección no se límite a la frontera corporativa, sino que inicie en los mismos documentos, esto es, en los archivos confidenciales que pueden ser extraídos indebidamente.

Actualmente, vemos como las compañías tiene que lidiar con riesgos internos y externos, y necesitan operar en un ambiente móvil y global, IRM se ubica como una innovación ideal para satisfacer necesidades críticas como:

Controlar y asegurar la información corporativa en cualquier lugar donde resida: en la nube, en un modelo on-premise, o en un entorno híbrido; y sin que importe si el uso y almacenamiento de la información es local o internacional. Sin dificultades, gestionar y asegurar los archivos delicados sin que importe la forma en que son accesados ya sea para escritorio, tableta o dispositivo móvil.

Integrar la protección al propio documento, y hacerlo con un alto nivel de autorizaciones -permitiendo que la empresa controle los permisos para abrir, ver, editar, borrar, copiar o imprimir la información. Garantizar y revocar el acceso a la información corporativa delicada, garantizando su control y protección incluso si ha salido de la red interna.

Cuando sus protecciones internas fallan, las empresas involucradas en una fuga de información confidencial ya están condenadas. Fuera de la red corporativa y sin la protección de una tecnología como IRM, sus datos están listos para ser explotados por cualquiera. Ahí tenemos una gran lección por aprender. Para proteger la información crítica de una empresa, el perímetro de seguridad puede iniciar en nuevo lugar: en el archivo.

Redacción

¿Cómo la transformación digital puede revolucionar al sector agrícola?

Sin duda, la agricultura es una de las principales actividades en Latinoamérica. De hecho, según datos de LEDS LAC, la región tiene más de 500 millones de hectáreas cultivables de las mil 995 millones que existen. Pero para impulsar el crecimiento de este sector, la transformación digital se vuelve clave dado que permite mejorar el proceso de producción y distribución de alimentos. La realidad es que, según datos de la ONU, para 2050 la producción de alimentos tendrá que aumentar alrededor de un 70% para sustentar a una población en crecimiento constante; en un mundo que actualmente desperdicia 300 millones de toneladas de alimentos.

Pero ¿Cómo la transformación digital transformará la vida en la granja? ¿Qué impacto tendrá en este gran sector?

 

Los métodos de trabajo también se transforman

La transformación digital contribuye a actualizar y mejorar la forma en que se trabaja en el campo. Uno de los mayores desafíos de agricultores hoy en dia es cultivar, producir y entregar sus productos de la forma eficiente, de buena calidad y rápidamente. Hoy, se estima que 50 % de los productos de agriculturas nunca llegan a los consumidores por desperdicio y altos precios.  La combinación de la nube con IoT y Big Data nos proporcionará una gran potencial en la planificación, supervisión y desarrollo de soluciones que  optimizan la eficiencia de los agricultores y hacen llegar más rápidamente los productos a sus destinos final. Por ejemplo, hoy podemos  optimizar su tiempo y trabajo al contar con soluciones para monitorear la maquinaria, la ganadería y la vigilancia de los cultivos. Y el impacto de la transformación digital también puede alcanzar otras actividades como la pesca y la ganadería aportando soluciones inteligentes para la cría de animales así como los sistemas de seguimiento de ganado y la Alerta General de muerte animal.

 

El análisis de datos

La gestión de datos es crítica y la transformación digital implica que todos los nuevos detectores, tales como sensores de campo, drones y maquinaria estén conectados, haciendo del análisis de la información como parte de las herramientas para la agroindustria. Hoy ya somos capaces de medir remotamente las condiciones del suelo para determinar con exactitud el momento de irrigar campos de uva y asegurar que reciba la cantidad correcta de agua que la materia prima necesita para  la producción de cada tipo de vino. Toda esta operación hoy ya sucede sin intervención humana y es fruto del análisis de datos automáticos por software y su integración con la robótica y los dispositivos conectados.
internet-de-las-cosas-industria-agricultura

La transformación tecnológica

La innovación tecnológica permite incrementar el rendimiento del cultivo, mejorar los métodos de fertilizantes, maquinaria, protección de cultivos. La realidad es que la infraestructura de banda ancha fija es deficiente en muchas comunidades rurales, por lo que la banda ancha móvil será parte del futuro de la agricultura.

Definitivamente, las tecnologías digitales invitan a la industria alimentaria a hacer frente a los retos de la globalización y satisfacer, al mismo tiempo, la creciente demanda del consumidor. En un mundo cada vez más digital, avanzar hacia mejoras tecnológicas no es un detalle menor, es una ventaja competitiva y un habilitador de los negocios.

 

Samir-El-Rashidy-Orange

Por: Samir El Rashidy,

Director de Soluciones de

Orange Business Services

para América Latina.

La seguridad digital de IoT aún es una preocupación en el área de TI

Internet de las Cosas (IoT) es una área interesante para los negocios e incluye factores como conveniencia y practicidad, lo que, para la vida moderna de los consumidores también es una necesidad. Pero las posibilidades abiertas para este mundo de cosas conectadas a Internet también abren puertas a incontables riesgos. Por eso, el factor de seguridad nunca fue tan importante para el IoT.

Una de las grandes preguntas hechas en este tema es sobre la vulnerabilidad de los consumidores en el ámbito personal, ya que, los productos actualmente comercializados con esas características ya poseen alguna sofisticación en la implementación de seguridad de sus sistemas.

No obstante, un reciente estudio de la IOActive que trabaja justamente en la seguridad del IoT, mostró que 47% de los entrevistados evaluaron que menos del 10% de los ítems disponibles en el mercado de Internet de las Cosas, están proyectados con una seguridad adecuada.

Eso puede conducirlos, por ejemplo, a riesgos potenciales como el acceso a una cámara de seguridad y un sistema de control de residencias, el uso no autorizado y hasta indebido de informaciones personales, a partir de la recolección de hábitos, ubicaciones, y condiciones físicas a lo largo del tiempo.

Vale la pena enfatizar en algunos consejos de cómo protegerse con tantos dispositivos conectados al mismo tiempo, de los cuales no nos damos cuenta de sus peligros y posibles implicaciones. a esa materia, por ejemplo, actualizar contraseñas, saber cuáles son las informaciones personales que se exigen y se comparten en cada equipo conectado, actualizar los productos y tener cuidado con los dispositivos que son usados como accesorios.

El estudio mostró también que 63% de los entrevistados creen que la seguridad de los productos de Internet de las Cosas debería ser mejor que las de otras categorías. Esa revelación es preocupante, ya que traduce un sentimiento de recelo de las personas en relación al tema.

Otro gran problema a enfrentarse es la rapidez con la que nuevos productos de esa categoría llegan al mercado y con diferentes formas de conectividad: aun de acuerdo con la IOActive, 21 billones de dispositivos se conectarán a las cosas en uso hasta el 2020. Por lo tanto, es fundamental que las empresas desarrollen mecanismos eficaces de seguridad para estos dispositivos, ya que estos ofrecen un amplio campo para que los hackers puedan actuar. Y trabajar en la seguridad ahora es claramente una ventaja competitiva sobre los nuevos productos que serán lanzados.

Justamente es ese uno de los últimos aspectos al cual el estudio le dio el enfoque. 72% de las personas entrevistadas evaluaron que la seguridad adecuada en el desarrollo de los productos es el mayor desafío para Internet de las cosas, y también señalaron que es preocupante la falta de educación para la seguridad para los usuarios, la falta de privacidad de esos productos, que solamente la divulgación pública de la vulnerabilidad no es suficiente y que normas regulatorias también pueden traer conquistas importantes para el área.

La falta de orientación del usuario es uno de los factores que se resuelven con mayor facilidad, que le ofrecen a la persona el control sobre sus decisiones, y que al mismo tiempo le exigen mayor sensibilidad a las empresas.

Sería interesante mostrarle al cliente, por ejemplo, que si se mantiene un monitor de bebé electrónico, que hoy en día ya se puede conectar a Internet, inclusive todo el tiempo, un hacker puede pensar en invadir este dispositivo, y todo el comportamiento de una casa puede ser observado sin que el dueño del dispositivo lo sepa. Una cámara de un computador portátil es la misma cosa. El orientar a que simplemente se tapen esas cámaras con un obstáculo o un pedazo de papel cuando no están en uso, ya resuelve algunos factores fundamentales de seguridad.

 

N. de P.

¿Cómo los datos de su empresa pueden mejorar la experiencia de sus clientes?

Estamos inmersos en una era digital, donde los productos de consumo se han comoditizado, y las organizaciones se enfocan en asegurarse de que la experiencia de los clientes se convierta en el mayor diferenciador.

Y es que antes dicha experiencia estaba conformada por una serie de encuentros estáticos y unilaterales. Pero hoy, gracias en gran medida a los Big Data y a las innovaciones que vienen con ellos, la experiencia de los clientes puede ser un intercambio que se realiza a través de diferentes canales entre la gente y las organizaciones con las cuales deciden hacer negocio, comprar un producto, contratar un servicio, interactuar a través de medios sociales, etcétera.

Un proceso personalizado

Cada vez se observa más que el marketing masivo e impersonal se está dejando a un lado, y las marcas que están teniendo más éxito en esta era digital son las que están apostando por elevar dicha experiencia: están buscando formas de crear una conexión personal y emocional con sus clientes. Para ello, están echando mano de los datos para entender qué es lo que los motiva y qué no, con la ayuda de la inteligencia de clientes holística. Sin embargo, brindar una experiencia del consumidor basada en datos requiere tiempo y preparación, al igual que una serie de actividades y competencias, como es la integración de la información, la implementación de diversas tecnologías, capacitación, así como replantear los procesos.

Lo que queda cada vez más claro es que la demanda de los consumidores está estrechamente relacionada con una comunicación más personal y relevante. Las marcas necesitan poner frente a los ojos del cliente las ofertas idóneas en el momento más adecuado y en el canal preciso. Podría ser la oferta de un producto perfectamente dirigido y que aparece en la pantalla del teléfono, sin necesidad de hacer mayor exploración o tener que abrir otras páginas o enlaces.

Los beneficios pueden tener un alcance amplio: las empresas no sólo pueden dirigirse mejor a clientes específicos, sino que también les permite establecer un contexto consistente en todos sus canales de interacción. Asimismo, puede mejorar la generación de ingresos y reducir los costos, así como mejorar la eficiencia de los procesos y elevar la agilidad del negocio.

Derribando los silos

Para lograr una experiencia como esta, fundamentada en datos, la investigación mencionada descubrió que es necesario que haya un mayor alineamiento entre la gente, los procesos y la tecnología. Si bien las empresas podrían pensar que esto involucra sólo a los equipos de ventas y marketing, también hay otras áreas clave que influyen en la experiencia de los clientes, como la de tecnología de información, compras y producción.

La gente que está detrás de los procesos en su empresa necesita estar perfectamente capacitada, tener la información necesaria e inspirar a los directivos y empleados. Lograr que una compañía en su conjunto opere en términos de datos requiere un cambio total de mentalidad, pues no se trata únicamente de máquinas y sistemas. El éxito de la experiencia del cliente basado en datos depende de la interacción de la gente que crea y gestiona estos sistemas, así como de su capacidad de ayudar a diseñar procesos de negocio.

La clave radica en que cada organización tiene datos almacenados relacionados con sus clientes, pero muchos de ellos siguen siendo “datos oscuros”; esto es, que están guardados y son gestionados, pero nunca se utilizan. Estos silos refuerzan esta inaccesibilidad, pues los datos siguen dentro del departamento o área funcional que los genera.

De ahí la importancia de que las empresas derriben esos silos e inicien un viaje de descubrimiento, encuentren esos recursos ocultos y los reúnan. Y es que en el fondo de todos esos datos y elementos puede haber información de gran valor que aún no se descubre. De hecho, se recomienda iniciar la búsqueda en los sistemas de CRM, ERP, ventas, cadena de suministro o

Sin importar la industria, la experiencia de los clientes determinada por los datos está tomando relevancia en la economía global y competitiva de hoy. Se requiere de una combinación cuidadosamente equilibrada de factores para entablar relaciones estrechas con los clientes, quienes ahora demandan un servicio totalmente personalizado. La tecnología está disponible, sólo es cuestión de elegir la correcta.

Ariadna Solís, CI Domain Expert de SAS Latinoamérica Norte.

 

Nutanix presenta redes de solo un clic para la nube

Nutanix a través de un comunicado, anunció que extenderá sus capacidades de automatización de centros de datos con el objetivo de incluir virtualización, seguridad y orquestación de redes, además de incrementar su línea ya amplia de APIs.

La Transformación Digital, la Internet de las Cosas (IoT) en surgimiento y la proliferación de aplicaciones mayormente móviles han desencadenado un rediseño importante de la forma en que el software se construye, implementa y escala. Las aplicaciones modernas se desarrollan con arquitecturas flexibles mediante el uso de servicios modulares más independientes. Aunque estas nuevas arquitecturas de aplicaciones han mejorado la agilidad global de la tecnología de información, también han expuesto un sinfín de retos para TI: visibilidad de las interdependencias de las aplicaciones para la resolución de problemas, nuevas amenazas a la seguridad y una carencia de herramientas de manejo unificadas.

Visualización de redes para detectar problemas en la infraestructura

El rápido aumento del número de cargas de trabajo ejerce más presión sobre los equipos de TI para el monitoreo de la infraestructura integral a fin de asegurarse de que las aplicaciones cumplan con SLAs (acuerdos de niveles de servicio) de desempeño y disponibilidad. Sin una vista unificada de todos los recursos de la infraestructura, incluyendo el entorno de la red, identificar, aislar y corregir problemas se vuelve una tarea en extremo compleja y que consume mucho tiempo. Los retos comunes, como las configuraciones erróneas de VLAN, toman horas en diagnosticarse y corregirse, lo que desencadena interrupciones en las aplicaciones y pérdida de ingresos.

Nutanix Prism brindará visualización de la red centrada en aplicaciones. En lugar de recurrir a un abanico de herramientas de diferentes fabricantes, los equipos de TI obtienen una vista completa de la topología de la red física y virtual. Esto incluye una vista intuitiva de la forma en que las máquinas virtuales (VMs) están conectadas a la infraestructura de red física y virtual, además de proporcionar estadísticas detalladas de condición y desempeño del entorno de la red. La virtualización integrada de la red permite a los administradores de centros de datos identificar y aislar al instante problemas de la red que afectan los SLAs de las aplicaciones.

 

“La transición a la plataforma de la nube empresarial Nutanix Enterprise Cloud Platform permite desviar nuestro foco de atención hacia la recuperación de valor para nuestra empresa”, dijo Alexandre Delen, director administrativo de Delen Private Bank. “Con la adición de servicios de microsegmentación, podemos tener la confianza de que nuestras aplicaciones críticas estarán seguras sin tener que implementar una topología de red virtual totalmente nueva”.

Orquestación de redes con un clic

La orquestación de los diversos servicios de red requeridos para la entrega de aplicaciones no sólo es complejo y propenso a errores, sino que también puede frenar la modernización de los centros de datos empresariales. Lograr una infraestructura más ágil, dinámica y similar a la nube exige que las redes se hagan invisibles, al igual que los recursos de cómputo y almacenaje, de modo que los equipos de TI puedan canalizar sus esfuerzos en la entrega de aplicaciones que resulten críticas para la empresa.

Los equipos de TI se benefician de que Nutanix Prism sirve como punto único de control para todos los recursos de la infraestructura, a la par de integración imperceptible con la red, de modo que los servicios basados en la red se adapten al instante a cambios en el entorno virtual.

Disponibilidad del producto

La virtualización para redes y el conjunto inicial de APIs para la orquestación de redes estarán disponibles en enero de 2017. Las capacidades restantes se encuentran en proceso de desarrollo.

Google Assistant para desarrolladores llegará en diciembre

El altavoz inteligente de Google, permitirá emitir comandos de voz para una amplia variedad de aplicaciones y servicios inteligentes domésticos y móviles gracias al SDK que llegarán antes de que termine 2016.

El mayor impulso en la automatización del hogar y la Inteligencia Artificial lo ha realizado la compañía con el Google Assistant. Éste reside dentro de Pixel y Google Home, y la empresa quiere que sus aplicaciones y servicios favoritos se conecten con él para que pueda emitir comandos de voz que simplifiquen las tareas diarias.

Google ha anunciado recientemente que Actions on Google estará disponible para desarrolladores el próximo mes. Esto les permitirá crear comandos de voz desde el asistente de Google para sus aplicaciones y servicios.

Hay tres herramientas que los desarrolladores pueden aprovechar: las acciones directas, las acciones de conversación y el SDK adjunto.

Para mencionar un ejemplo, una plataforma de garaje podría mandar al servicio que cierre y abra la puerta cuando se necesite. Asimismo, el SDK adjunto es para aquellos que quieran introducir Google Assistant dentro de su propio hardware. Esto indica que, si bien Google quería impulsar el asistente con sus propios productos en primer lugar, el plan es que esté disponible en una gama de dispositivos diferentes. La compañía espera tener docenas de aplicaciones y servicios, así como el asistente integrado en varios teléfonos diferentes y otros dispositivos para los hogares inteligentes.

IDG.es

El iPhone se verá amenazado en ventas si Trump cumple amenazas: China

Uno de los periódicos controlados por el Partico Comunista chino, Global Times ha publicado un editorial dónde los directores advirtieron que las tarifas que pretenden imponer los Estados Unidos provocarían una serie de reacciones.

“China tomará una serie de decisiones; los negocios con Boeing los haremos con Airbus, las ventas de coches y iPhone procedentes de Norteamérica sufrirán, y las importaciones de soja y maíz se paralizarán”, señala el diario.

Sin embargo, los editores no especificaron cuales serían las medidas que el gobierno podría tomar para reducir sustancialmente las ventas de productos Apple en el país asiático.  En la campaña electoral, Trump anunció que su administración impondría lo que él llamó “tarifas defensivas” de hasta el 45% de las importaciones chinas.

En cualquier caso, los presidentes solo tienen una autoridad ejecutiva sustancial sobre los aranceles durante los períodos de “emergencia nacional”. Mientras, están más que limitados por las leyes. Además, en el escrito realizado por el periódico apuestan porque finalmente Trump renegará de sus promesas arancelarias ya que es un “hombre de negocios astuto”, y que no pasa por “ingenuo” como para alimentar una guerra comercial.

No obstante, los smartphones son muy susceptibles a los aranceles de importación. Según Caroline Freund, investigadora del Instituto Peterson para la Economía Internacional, Estados Unidos importa 40 mil millones de dólares en teléfonos móviles procedentes de China, lo que supone tres cuartas partes del valor total importado.

“Para la mayoría de las mercancías, las importaciones solo cambiarían a otros proveedores extranjeros si Estados Unidos restringiera en gran medida el comercio con China”, escribió Freund el pasado mes de junio. “Pero para 825 productos, de un total de 5,000 que suman casi 300,000 millones de dólares, China suministra más que todos los demás socios comerciales juntos”. Y los smartphones encabezaron esa lista el año pasado por delante de los ordenadores portátiles.

El país asiático es un mercado muy importante para Apple. Los 8,800 millones de dólares de ingresos de la región en el pasado trimestre representaron el 19% total para la compañía. Sin embargo, los ingresos atribuidos a China han ido disminuyendo año a año durante tres trimestres consecutivos.

El mes pasado, Tim Cook, CEO de Apple, identificó que posiblemente, esa fuerte caída de ingresos en la región se debía al gran número de ventas de iPhone 6 y 6 Plus durante los años 2014 y 2015.

Redacción

 

Exceso de confianza, mayor riesgo ante ciberataques

La revolución digital trae consigo múltiples beneficios en los distintos niveles corporativos y para cada miembro de la sociedad; sin embargo, también representa nuevos retos para preservar la seguridad.

Según datos arrojados por el reciente informe de Accenture títulado, Construyendo Confianza: Enfrentando el enigma de la Ciberseguridad, un 75% de los encargados de la seguridad en las empresas confía en tener la capacidad para proteger a su infraestructura de los riesgos cibernéticos, a pesar de que uno de cada tres ataques termina por provocar un riesgo real para las compañías, lo que equivale a un promedio de entre dos y tres agresiones efectivas al mes para cada empresa, .

El estudio analiza las percepciones de más de 2,000 encargados de seguridad en 15 países sobre riesgos cibernéticos, así como la efectividad de sus esfuerzos en seguridad y la calidad de las inversiones asociadas a ellos. A 51% de los encuestados les toma meses detectar ataques complejos, y que hasta un tercio de dichos ataques pasan inadvertidos para el equipo de seguridad. “Actualmente, los ataques cibernéticos son una realidad constante en la operación de empresas en todas las industrias, y para detectar el comportamiento delictuoso se requiere más que las mejores prácticas y perspectivas aprendidas en el pasado. Se necesita una perspectiva totalmente distinta con respecto a la protección”, aseguró Juan Sadurní, Director de Digital para Accenture México.

A pesar de que los encuestados aceptan que los ataques internos tienen una repercusión cada vez mayor, 58% da prioridad a intensificar los controles perimetrales en vez de enfocar la atención en amenazas internas de alto impacto. La investigación también muestra que la mayoría de las empresas no ha implementado tecnología efectiva para monitorear las afrentas digitales, por lo que se centran en riesgos y soluciones que no están a la altura de las amenazas existentes.

  • 44-54% Invertiría en mitigar pérdidas financieras
  • Sólo el 17% Invertiría en entrenamiento sobre ciberseguridad
  • Sólo el 28% Invertiría presupuesto extra en los mismos métodos que utilizan actualmente

Los recientes ataques cibernéticos de alto perfil han familiarizado al público en general con el tema e incrementado el gasto en seguridad cibernética. No obstante, el estudio deja ver que las empresas planean por el momento seguir buscando medidas correctivas tradicionales, en lugar de invertir en controles de seguridad nuevos y diferentes para mitigar las amenazas.

Los ejecutivos confirman que si sus empresas tuvieran un excedente presupuestario para ciberseguridad, del 44 al 54% simplemente aumentaría el gasto en sus inversiones actuales, aunque éstas no hayan sido efectivas en combatir a los ataques previos. Entre las prioridades de gasto están la protección de la reputación de la empresa (54%), la protección de la información (47%), y la protección de los datos del consumidor (44%). A pesar del creciente riesgo de amanezas cibernéticas y su respectivo impacto financiero, sólo el 28%invertiría los fondos adicionales en esfuerzos para la mitigación de pérdidas financieras por ciberataques o en capacitar a su personal en temas de seguridad cibernética (17%). “Queda claro que la necesidad de las empresas por adoptar una perspectiva integral con respecto a seguridad digital nunca había sido mayor. Es necesario construir capacidades que permitan combatir los ataques desde el interior de cada empresa de tal suerte que se puedan realmente enfocar en innovación y crecimiento”, finalizó Sadurní.

Para realizar el estudio, la compañía encuestó a 2,000 profesionales de seguridad empresarial que representan a compañías con ingresos anuales de mil millones de dólares o más en quince países, acerca de sus percepciones sobre los riesgos cibernéticos, la eficacia de los actuales esfuerzos de seguridad y la adecuación de las inversiones existentes.

 

Redacción

La inteligencia artificial mejora los sistemas de seguridad

El aprendizaje automático de las maquinas se está desarrollando y hacen que los sistemas de seguridad sean más fáciles de entrenar y más flexibles para hacer frente a las condiciones cambiantes, pero no todos los casos de uso se están beneficiando al mismo ritmo.

El aprendizaje automático y la inteligencia artificial han estado recibiendo mucha atención últimamente. Uno de los efectos secundarios es que prácticamente todo está siendo reetiquetado como “aprendizaje automático”, lo que hace que el término sea extremadamente difícil de precisar. Así como la palabra “nube” ha llegado a significar prácticamente cualquier cosa que sucede en línea, la “inteligencia artificial” se está moviendo rápidamente al punto donde casi cualquier cosa que involucre a una computadora está recibiendo esa etiqueta.

Una de las tareas de seguridad más comunes es determinar si las aplicaciones recién descargadas o instaladas son maliciosas. La desventaja del antivirus estándar, sin embargo, es que necesita actualizarse constantemente a medida que se presenta un nuevo malware, y es extremadamente frágil.

Deep Instinct, es una starup que está tratando de aplicar técnicas de aprendizaje profundo del problema, aprovechando el hecho de que ahora hay cerca de mil millones de muestras de malware conocidas que se pueden utilizar para fines de entrenamiento. “El proceso toma alrededor de un día y requiere de unidades de procesamiento gráfico de alto rendimiento para analizar los datos”, explica Eli David, CTO de la compañía. El sistema es de aproximadamente un gigabyte de tamaño, demasiado grande para la mayoría de las aplicaciones, pero luego la compañía lo reduce a unos 20 megabytes. Puede instalarse en cualquier dispositivo, incluido el móvil, y puede analizar las amenazas de entrada en unos pocos milisegundos.

Mientras tanto, en el laboratorio, se agregan nuevas muestras de malware a la recopilación de datos y cada tres o cuatro meses aproximadamente una actualización se dirige a todos los cerebros que trabajan en los dispositivos. “Pero incluso si el cerebro no se actualiza durante seis meses, se sigue pudiendo detectar nuevos archivos”, asegura David. “Los métodos tradicionales no detectarán la amenaza, el aprendizaje profundo los detectará fácilmente”.

Una de las desventajas de los sistemas más recientes de aprendizaje profundo es que pueden llegar a una respuesta, pero no necesariamente puede ser capaz de explicar cómo lo hicieron. Aunque no siempre es así. De hecho, el trabajo principal de Eureqa, motor de la inteligencia artificial de la propiedad de Nutonian, es encontrar explicaciones de por qué las cosas suceden. “Uno de los problemas más difíciles es descubrir la anatomía de un ciberataque”, explica Michael Schmidt, fundador de la compañía y CTO. “Una de las aplicaciones de la IA con Eureqa es hacer ese proceso de forma automática”.

En ciberseguridad, las actualizaciones regulares son importantes para cualquier tipo de sistema de aprendizaje de máquina porque el paisaje cambia rápidamente. Sin actualizaciones regulares, todos los sistemas se vuelven obsoletos porque los seres humanos siempre están inventando cosas nuevas. Los empleados empiezan a hacer cosas nuevas, los proveedores cambian sus aplicaciones, los clientes cambian sus patrones de compras y, por supuesto, los hackers inventan nuevos malware específicamente diseñados para evitar los sistemas existentes. La solución según Mike Stute, científico jefe de Masergy Communications, es alejarse del enfoque de un solo tamaño para todos, usado por muchos vendedores de sistemas de seguridad.

Redacción