Día: 21 julio, 2016

Se detecta ransomware que aprovecha una vulnerabilidad de Windows 10

PandaLabs detectó un ransomware que emplea la herramienta de Microsoft incluida en Windows 10, PowerShell, que lleva tiempo siendo explotada por ciberdelincuentes, conocida como Powerware.

Luis Corrons, director técnico de PandaLabs explica cómo funciona este ransomware, con la intención de mostrar a la comunidad cómo protegerse ante esta y otras vulnerabilidades que en estos momentos constituyen amenazas importantes a la seguridad de nuestros datos.

El ransomware sonaba desde hace tiempo y, de hecho, en Carbon Black escribieron un artículo sobre él en marzo pasado. El flujo de ataque es fácil de seguir: comienza con un correo de phishing con un documento Word adjunto. Una vez abierto, una macro incluida en el documento ejecuta el archivo cmd.exe para abrir PowerShell, que utiliza para descargar un script desde Internet. A continuación, se vuelve a ejecutar PowerShell empleando dicho script como datos de entrada para llevar a cabo las acciones del ransomware.

Este Powerware, tal y como lo han llamado en Carbon Black, es uno más de los miles de ransomware que Panda Labs ha identificado. La marca de seguridad afirmó ya haberlo bloqueado incluso antes de conocer a esta familia de ransomware (como en el 99.99% de los casos. Para algunas empresas de seguridad esta familia concreta de malware supone un reto mayor que las demás. ¿Cuál es el motivo? Bueno, muchos de los llamados ‘Antivirus de Nueva Generación’ siguen confiando demasiado en las firmas de virus, y además su presencia es mucho mayor en el perímetro que en el endpoint. Y como es de imaginar, bloquear documentos de Word en el perímetro no es precisamente lo más conveniente. Una vez se han infectado algunos clientes es cuando pueden añadir las firmas correspondientes al antivirus y proteger al resto (por ejemplo, bloqueando las direcciones IP desde la que se descarga el script), aunque la ausencia de un ejecutable malicioso que se descargue desde Internet es una auténtica pesadilla para ellos.

Al final, el ransomware es un negocio increíble para los ciberdelincuentes, y como tal, invierten grandes cantidades de recursos en encontrar nuevas maneras de evitar ser detectados por todo tipo de soluciones de seguridad, siendo este Powerware un ejemplo más de esta tendencia. El comportamiento general es siempre el mismo, aunque se introducen pequeños cambios cada semana. Estos cambios pueden afectar tanto al propio malware (el modo en que lleva a cabo sus acciones) como a la forma de llegar al sistema (mediante el uso de nuevos exploits, modificación de exploits existentes, modificación de los efectos de dichos exploits, etc.)

Un buen ejemplo de los nuevos métodos de infección es uno que hemos visto recientemente: después de explotar una vulnerabilidad de Internet Explorer, se ejecuta la consola CMD mediante la función ‘echo’ para crear un script. A continuación, se ejecutan una serie de archivos de Windows para realizar las acciones encaminadas a evitar la detección de los comportamientos sospechosos por parte de las soluciones de seguridad. El script, ejecutado por Wscript, descarga una DLL. A continuación, emplea CMD para ejecutar regsvr32, que ejecuta la DLL (mediante rundll32). En la mayoría de casos, dicha DLL es un ransomware. De hecho, hasta el momento hemos bloqueado en PandaLabs más de 500 intentos de infección que emplean este nuevo método.

En PandaLabs aún no han analizado el exploit utilizado, pero teniendo en cuenta el momento del ataque (que apareció por primera vez el 27 de junio), éste tuvo lugar una vez AnglerEK había desaparecido, por lo que es probable que los atacantes utilizasen o Neutrino o Magnitude.

Redacción

 

Kaspersky lanza solución para detectar ataques dirigidos

Kaspersky Lab anunció en México la ampliación de su cartera de productos de seguridad empresarial con una solución diseñada para detectar ataques dirigidos. La Plataforma Kaspersky Anti Targeted Attack es una solución basada en la tecnología y experiencia de Kaspersky Lab en la detección y análisis de las amenazas.

Hoy en día las empresas tienen que superar muchas amenazas informáticas, incluyendo aquellas consideradas como las más avanzadas, y para ello requieren conocimiento de los posibles vectores de ataque, indicadores de compromiso y la capacidad para distinguir las operaciones normales de la actividad maliciosa. Esto requiere de una fuerte experiencia en seguridad, combinada con tecnología que sea capaz de detectar un acto delictivo en medio de la avalancha de actividad diaria en una gran corporación. “Se está haciendo frente a este reto con la Plataforma Kaspersky Anti Targeted Attack, junto con los servicios de seguridad que tienen como objetivo compartir la inteligencia de seguridad más rápido que nunca con nuestros clientes”, comentó Daniel Molina, Director General de Kaspersky Lab para los Mercados Estratégicos de América Latina.

Las organizaciones en México y en la región se han enfrentado a numerosos ataques dirigidos, incluidos los descubiertos por Kaspersky Lab: Poseidón, Machete, Careto, Carbanak, Adwind, Turla, Regin, y Winnti. De acuerdo con la Encuesta sobre Riesgos de Seguridad de TI de 2015, realizada por la compañía de seguridad y B2B International, el 32% de las organizaciones en todo el mundo afirmaron haber sido objeto de un ataque dirigido en el último año; un aumento del 7% en comparación con el año anterior.

Las tecnologías convencionales de protección son muy buenas en la prevención de amenazas y ataques genéricos para evitar que violen el perímetro de la empresa. Aunque el número de este tipo de amenazas sigue creciendo, las empresas están cada vez más preocupadas por los ataques dirigidos y las armas cibernéticas avanzadas que se utilizan con fines de ciberespionaje o la interrupción de la actividad empresarial. Si bien estas amenazas representan una fracción muy pequeña (menos del 1%) de la totalidad del entorno, presentan el mayor riesgo para las empresas en todo el mundo. Lo que es aún más importante, el número de este tipo de ataques está creciendo de manera constante y el precio por ataque está disminuyendo.

Para resolver el problema del “uno por ciento” se requiere de una tecnología avanzada y la inteligencia de seguridad adecuada que se haya acumulado dentro de la compañía o que se haya solicitado a un proveedor de seguridad. La Plataforma Kaspersky Anti Targeted Attack está diseñada para identificar y destacar las acciones inusuales que constituyen una fuerte evidencia de malas intenciones.

“El Mercado de Análisis Especializado de Amenazas y Protección de IDC (STAP) mide la oportunidad para luchar contra las amenazas avanzadas persistentes, así como los ataques dirigidos. IDC cree que el mercado crecerá a más de $3 mil millones de dólares para el año 2019, con una tasa de crecimiento compuesta anual a cinco años del 28%. Esta alta tasa de crecimiento es impulsada por la adopción significativa de productos STAP para hacer frente a la creciente necesidad de detección de amenazas avanzadas”, comentó Christian A. Christiansen, Vicepresidente de Programa IDC, Productos de Seguridad.

 

La Plataforma Kaspersky Anti Targeted Attack

La Plataforma Kaspersky Anti Targeted Attack analiza los datos recabados desde diferentes puntos de la infraestructura de TI corporativa. Los sensores de la solución son responsables de reunir datos del tráfico de la red, la web y correos electrónicos, así como de endpoints. Esto permite a la solución detectar ataques complejos en cualquier momento, incluso cuando no haya actividad maliciosa en curso, como exfiltración de datos. Los incidentes sospechosos son procesados ​​a través de diferentes motores, los cuales incluyen Aislamiento Avanzado de Procesos y un Analizador de Ataques Dirigidos.

El Aislamiento Avanzado de Procesos proporciona un ambiente seguro, aislado y virtualizado para el análisis de objetos sospechosos y la detección de su intención. El Analizador de Ataques Dirigidos utiliza tecnologías de procesamiento de datos y aprendizaje automático para evaluar y combinar veredictos de diferentes motores de análisis. Aquí es donde se toma la decisión final para alertar al personal.Las tecnologías adicionales que ayudan a reducir las alertas falsas positivas incluyen el propio motor anti-malware de Kaspersky Lab para descartar ataques genéricos que se pueden bloquear mediante las soluciones tradicionales; análisis de URL; alimentación de datos de amenaza suministradas por la red de seguridad en la nube de Kaspersky Lab; un Sistema de Detección de Intrusiones; y soporte para reglas personalizadas con la finalidad de detectar actividad específica de una red corporativa.

La Plataforma Kaspersky Anti Targeted Attack está disponible como una solución independiente o en combinación con servicios expertos dirigidos a la detección y respuesta rápida de incidentes. La disponibilidad de los servicios de inteligencia también permite a los clientes adaptar la solución a las necesidades específicas del negocio.

 

Nota de Prensa.

La nube como detonante de la competitividad en México

Gracias a los avances tecnológicos, hoy en día las empresas grandes y pequeñas tienen a su alcance una gran variedad de herramientas que pueden impulsar sus negocios para alcanzar el éxito.

Tal es el caso del cloud computing, un modelo de prestación de servicios de negocio y tecnología que permite el acceso remoto, según las necesidades de nuestro negocio, respondiendo a la demanda del mismo de forma flexible y adaptativa. Esto se logra a través de una red de comunicaciones y a un conjunto compartido de recursos de cómputo configurables (redes, servidores, almacenamiento, aplicaciones y servicios) que pueden ser reservados y liberados de manera rápida con un mínimo esfuerzo e intervención por parte del proveedor.

 

Las principales características de este modelo de prestación de servicios son:

  1. Disponibilidad de recursos masivos para el cliente conforme a demanda de uso.
  2. Capacidad de que diversos clientes realicen accesos remotos al mismo tiempo de una forma eficiente, a través de la red.
  3. Infraestructura virtual, es decir, agrupación y reutilización de recursos para facilitar la gestión, así como estar preparado para que diferentes clientes hagan uso de los mismos recursos en un momento dado sin que esto sea en prejuicio del rendimiento que observen y de manera que sea transparente para ellos.
  4. Escalabilidad y dinamismo, ya que los recursos deben poder reservarse, escalarse y liberarse según las necesidades de los clientes en cada momento.
  5. Monitoreo, control y medición de manera disciplinada de los servicios, así como en un cumplimiento estricto de las normas y políticas de información y privacidad.

 

Si bien este modelo es relativamente nuevo, en la actualidad existen varios tipos de servicios cloud computing, sin embargo los más comunes son: SaaS (Software como Servicio); PaaS (Plataforma como Servicio) e IaaS (Infraestructura como Servicio).

El Software como Servicio (SaaS) es un modelo de distribución de software en el que las aplicaciones están alojadas por una compañía o proveedor de servicio y puestas a disposición de los usuarios a través de una red, generalmente Internet. Por su parte, la Plataforma como Servicio (PaaS) es un conjunto de utilitarios para abastecer al usuario de sistemas operativos y servicios asociados a través de Internet, sin necesidad de descargas o instalación alguna. Y finalmente, la Infraestructura como Servicio (IaaS) se refiere a la tercerización de los equipos utilizados para apoyar las operaciones, incluido el almacenamiento, hardware, servidores y componentes de red.

La PyME en su esfuerzo por posicionarse privilegiadamente en el mercado de forma continua y no limitada en el tiempo, busca obtener diferenciación en sus segmentos de actuación con respecto a sus competidores y liderazgo en costos. Por tal razón, el cloud computing permite que las PyMEs puedan competir en igualdad de circunstancias con las grandes empresas de su segmento, ya que este modelo les da acceso al mismo nivel tecnológico para obtener servicios informáticos de calidad mundial y así, atender y relacionarse con sus clientes.

De esta forma, el cloud computing se vuelve importante para las PyMEs porque:

─       Les permite centrarse en su actividad principal o modelo de negocio

─       Transforma los costos de capital en costos de operación

─       Reduce los costos de inversión inicial y puesta en marcha de un activo TIC

─       Disminuye los tiempos de desarrollo y despliegue de un activo TIC

─       Reduce los costos de propiedad de la infraestructura

─       Permite innovar en productos y servicios, aportando mayor valor a los clientes

─       Permite la creación de proyectos piloto con menos costo asociado a la infraestructura

─       Incorpora rápidamente nuevas tecnologías

─       Posibilita el acceso a recursos masivos y casi ilimitados

─       Simplifica las necesidades de capacidad, ya que sólo se debe notificar al proveedor la necesidad de mayor capacidad para que le sea liberado al cliente

─       Facilita el acceso a los recursos a través de clientes heterogéneos, utilizando un explorador web

─       Agiliza la colaboración entre los agentes de la cadena de suministro

 

Según la consultora IDC, en América Latina el cloud computing se puede valorizar en 280 millones de dólares, y entre el 2012 y 2016, ha tenido una tasa de crecimiento anual de 70%. Asimismo, de acuerdo con el Instituto Mexicano para la Competitividad, este mercado es el nuevo detonador para la competitividad de México, pues al adoptar la nube se podrían generar cerca de 63,000 nuevos empleos en nuestro país y reducir el costo para las PyMEs, permitiéndoles competir con empresas grandes por acceder a tecnología de bajo costo.

Así que si una PyME desea adquirir este modelo de servicios, es importante que antes haga un ejercicio formal de comprensión de lo que significará la Planeación, la Definición, la Transición y la Operación del cloud computing, siendo importante en cada tema lo siguiente:

  • Planeación: ¿Por qué requerimos de servicios en la nube?
  • Definición: ¿Qué necesitamos? y ¿quién puede proporcionarnos el servicio?
  • Transición: ¿Cómo pasamos a la nube?
  • Operación: ¿Cómo gestionar la nube?

 

En este sentido, la PyME tiene que estar muy atenta en lo referente a la alineación, la interdependencia, la reutilización, la escalabilidad, la confidencialidad, el determinismo, el cumplimiento, la personalización, la elasticidad, la accesibilidad, la criticidad y el riesgo, para verdaderamente obtener los beneficios delcloud computing.

No olvidemos que muchas empresas han empleado plataformas costosas en su búsqueda del éxito, sin embargo, afortunadamente hoy existe un concepto que simplifica las operaciones de las empresas y que consolida la evolución que ha tenido Internet: el cloud computing.

 

Sergio-De-La-Vega_TOTVS-

Por Sergio De La Vega,

Gerente de Servicios Norte de América Latina

– TOTVS

Twitter ya ofrece cuentas verificadas a todos los usuarios

La red social poco a poco se va renovando para atraes más usuarios, y es que se ha quedado atrás de Instagram o Snapchat, aunque se ha apoderado de ser la fuente de información, una estrategia que puede ayudarle es verificar cuentas de cualquier usuario, con este anuncio la red social se refiere al pequeño check azul que hay al lado del nombre de todos los famosos cuyas cuentas se han comprobado auténticas.

Andrew Hutchinson ha comentado que hasta ahora el símbolo azul ha sido una marca de la élite online, “era más una señal honorífica, como si fueras un gurú o un influencer”. Hasta recientemente, no había manera ni si quiera de hacer una petición para que verificasen las cuentas de los usuarios, simplemente Twitter un día aleatorio decidía que era una cuenta real.

Ahora, sin embargo, va a ofrecer el proceso de hacer una petición y verificar la cuenta. Para ello, Chris Duckett señala que hay que tener un teléfono móvil y una fecha de nacimiento, con los cuales se dedicará a producir un tipo de anuncios específicos y a personalizar la cuenta. Sin embargo, Twitter ha anunciado que solicitará más información para el proceso, “por ejemplo una copia legible de tu carnet de identidad para poder confirmar quién es el usuario”.

Twitter ha sido líder en materia de verificación de cuentas oficiales, remontándose hasta el 2009 y con más de 187.000 cuentas verificadas, una de las primeras @CDCgov, para poder garantizar a los ciudadanos que accedían a información auténtica.

Tal y como ha señalado Chelsea Hassler, esta nueva actualización puede ayudar a identificar bots y cuentas de spam fácilmente. También ayudará a monitorear que tipo de influencia tiene cada usuario sobre sus followers.

En los próximos meses es muy probable que la verificación de cuentas de Twitter se vuelva una cuestión profesional, aunque el proceso puede llevar más tiempo de lo previsto debido a la naturaleza de los datos a procesar.

Redacción

¿Internet de las cosas o Internet para las personas?

La primera vez que se acuñó el término “Internet de las cosas” (IoT por sus siglas en inglés) fue en 1999, de boca del empresario e investigador de MIT, Kevin Ashton. A casi dos décadas de este hecho, tal vez ha llegado el momento de evaluar si el IoT realmente engloba lo que está sucediendo en la actualidad, debido a que el avance de la tecnología desde entonces ha sigo gigantesco. ¿Quizá habría que renombrar al internet de las cosas por algo como “Internet para las personas”?

Aunque en un principio el IoT se pensaba como algo que implicaría que cada vez más las conexiones a internet serían entre máquinas, y no entre personas, la realidad es que en muchos aspectos, IoT está reuniendo la información necesaria para hacer a la población mundial más segura y productiva. “Con este ‘Internet para las personas’ se espera que la información ayude también a desarrollar avances en la medicina que ayuden a la gente a vivir mejor; y no sólo eso, sino que impulsen grandes inversiones para hacer de la vida en el planeta Tierra, un lugar más ambientalmente seguro”, aseguró Tom Murphy, Director Global Super tech/hyperscale en CommScope.

Aunque estas son grandes cuestiones, la industria apenas está comenzando a acomodarse a ellas; un ejemplo de ello es el anuncio de IBM durante el año pasado, donde apuntó una inversión de 3 millones de dólares en una nueva unidad de IoT para hacer frente a un mercado que crece exponencialmente cada año, a tal ritmo que IDC estima que el mercado del IoT llegará a alcanzar los 7.1 billones de dólares para el año 2020.

Aunque el crecimiento constante de este aparente “nuevo” mercado del Internet de las cosas ha llegado como una gran ola, poco se ha hecho aún en el sector para hacer frente a la infraestructura crítica necesaria para apoyar este gran crecimiento en la explosión de datos que aumentará aún más dentro de los 10 próximos años. Por ello, al detectar esta oportunidad, muchas compañías ya están haciendo, o planeando hacer, inversiones en este tipo de infraestructuras en un futuro próximo, para sacar ventaja frente a sus competidores.

En esta línea, diversos analistas de Centros de Datos están de acuerdo en que el IoT será el principal impulso para continuar con la actual explosión en el crecimiento de los Centros de Datos, no obstante, “quizá la construcción de los centros de datos complejos y gigantescos se ralentizará, mientras que los centros más pequeños y ágiles crecerán significativamente; esto por el hecho de que en un futuro, se buscará colocar los Centros de Datos más cerca de los consumidores del IoT, en busca de acercar muchas más conexiones y recolectar mayor cantidad de datos posible. Algunos incluso han llamado a estas unidades de borde ‘unidades de agregación de datos’ en lugar de los centros de datos”, agregó Murphy.

Con todo esto, es de suponerse que los edificios de las grandes compañías tecnológicas globales, así como de sus inmensos centros de datos, tienen un plan para el uso de estos pequeños “centros de agregación de datos”, como puntos de apoyo de sus grandes despliegues de información, así como de la recolección de grandes cantidades de datos que están surgiendo con este “Internet para las personas”.

“Al final, habría que preguntarse si realmente seguimos hablando de un Internet de las cosas, o habría que comenzar a referirnos a ‘Internet para las personas’. Pero no sólo eso, sino que tendremos que empezar a cuestionar si realmente la infraestructura de las organizaciones está preparada para esta nueva oleada de datos”, finalizó el Director Global Super tech/hyperscale en CommScope.

Los claves para identificar correos electrónicos dañinos y utilizarlos de forma segura

La propagación de ransomware o del uso de información privada para enviar facturas falsas se ha convertido en un problema grave para las compañías, por lo que dar a conocer las técnicas más habituales de ingeniería social, así como los recursos utilizados por los atacantes para conseguir infectar un equipo puede suponer un ahorro increíble de problemas.

Este es el objetivo del Informe de Buenas Prácticas del CCN-CERT. En el documento podemos encontrar las siguientes pautas de cómo evitar los problemas de los correos dañinos:

  1. No abra ningún enlace ni descargue ningún fichero adjunto procedente de un correo electrónico que presente cualquier síntoma o patrón fuera de lo considerado normal o habitual, sea muy cuidadoso con los archivos de Word.
  2. No confíe únicamente en el nombre del remitente. El usuario deberá comprobar que el propio dominio del correo recibido es de confianza. Si un correo procedente de un contacto conocido solicita información inusual contacte con el mismo por teléfono u otra vía de comunicación para corroborar la legitimidad del mismo.
  3. Antes de abrir cualquier fichero descargado desde el correo asegúrese de la extensión y no se fie por el icono asociado al mismo.
  4. No habilite las macros de los documentos de oficina, incluso si el propio fichero así lo solicita.
  5. No debe hacerse clic en ningún enlace que solicite datos personales ni bancarios.
  6. Tenga siempre actualizado el sistema operativo, las aplicaciones ofimáticas y el navegador, ya sean plugins y extensiones instaladas.
  7. Utilice las herramientas de seguridad para mitigar exploits de manera complementaria al software de antivirus.
  8. Evite hacer clic directamente en cualquier enlace desde el propio cliente de correo. Si el enlace es desconocido es recomendable buscar información del mismo en motores de búsqueda como Google o Bing.
  9. Utilice contraseñas robustas para el acceso al correo electrónico, las contraseñas deberán ser periódicamente renovadas. Si es posible utilice doble autenticación.
  10. Cifre los mensajes de correo que contengan información sensible.

Redacción

Google lanza servicio en la nube para comprender el lenguaje humano

Como Google anunció en marzo de este año, sus herramientas de desarrollo de nube inteligente continúan su expansión, esta vez, con el lanzamiento de la API Cloud Natural Language que tiene la función de ayudar a los desarrolladores a crear aplicaciones que entiendan el lenguaje humano.

Se trata de un movimiento importante para Google ya que como proveedor de nube pública se encuentra en medio de una carrera por albergar nuevas aplicaciones construidas a partir de capacidades de Inteligencia Artificial. El procesamiento del lenguaje natural permite a los desarrolladores crear servicios que pueden hacer frente a la difícil tarea de comprender como nos comunicamos los seres humanos; y además es clave para la construcción de soluciones como asistentes inteligentes.

Esta API puede proporcionar grandes cantidades de información acerca de un bloque de texto a la aplicación, incluyendo el sentimiento general de un grupo de frases y análisis de estructura de la oración. El sistema también puede identificar las atribuciones, incluyendo personas, organizaciones, lugares, eventos y productos.

Éste se basa en la misma investigación que Google utilizó para crear Parsey McParseface, un analizador de código abierto para el texto en inglés que la compañía dio a conocer a principios de este año. La API de lenguaje natural entró en beta pública junto a la de voz que ya había anunciado la empresa. Mediante la conexión de estas dos los desarrolladores pueden escuchar la voz de un usuario y entender lo que esa persona está diciendo.

De este modo, Google continúa su competencia con Microsoft, Amazon e IBM que también están lanzando habilidades de inteligencia en sus nubes públicas.

 

IDG.es

Consejos para protegerse del ransomware

Día a día, el número de infecciones detectadas por ransomware aumenta y también el valor medio de los rescates. Respecto al elevado número de consumidores afectados por el ransomware, la firma de seguridad Symantec, ofrece una serie de recomendaciones para protegerse de esta amenaza.

  • Utilizar contraseñas complejas: Para asegurar la protección de las cuentas y los dispositivos es muy importante utilizar contraseñas complejas y únicas. Lo ideal es emplear claves distintas para cada cuenta y actualizarlas cada tres meses.

 

  • Precaución en redes sociales: No es recomendable hacer clic en links recibidos por email o mensajes en redes sociales si se desconoce su origen o se desconfía del contenido. Es importante recordar que los cibercriminales saben que los usuarios confiarán más en un link si procede de un amigo, por lo que recurren a técnicas fraudulentas para comprometer cuentas reales y enviar mensajes en su nombre.

 

  • Ser consciente de qué se está compartiendo: Al instalar dispositivos conectados a una red, como un router, o instalar nuevas aplicaciones, es prioritario revisar qué permisos se aceptan y qué datos se van a compartir. Es recomendable desactivar el acceso remoto en caso de que no vaya a ser necesario.

 

  • La importancia de la seguridad multicapa: Ante amenazas actuales como el ransomware, una protección básica no es suficiente. Para asegurar la máxima protección es recomendable utilizar herramientas multiplataforma complejas y robustas y crear copias de seguridad regulares que eviten la pérdida de datos.

Redacción

Microsoft tiene grandes planes para .Net Core

.Net Core es la versión modular del modelo de programación .Net Framework, fue actualizada con la versión 1.0 a finales de junio, con ello y junto con la estructura de aplicaciones ASP.Net Core Web 1.0.

Las novedades no se quedan ahí, puesto que Microsoft planea lanzar nuevas APIs, actualizar el lenguaje de programación, y añadir un mayor soporte de procesadores que trabajen en entornos Linux. Su finalidad no es otra que la de permitir la reutilización del código al máximo y su uso compartido, incluyendo Windows de escritorio tradicional, así como dispositivos y teléfonos de Windows.

Scott Hunter, miembro del equipo de ingeniería de .Net en Microsoft destaca que “este lanzamiento hará que vuelvan muchas de las API que se echan en falta en .Net Core, incluyendo la creación de redes, la serialización, datos y mucho más”. El directivo también añade que “estas API formarán parte de .Net Standard 2.0, que será lanzado simultáneamente, haciendo que las API sean más uniformes en .Net Framework, .Net Core y Xamarin.” Las API facilitarán la escritura de código y simplificarán el funcionamiento en plataformas .Net orientándolas a .Net 2.0 Standard.

Ahora con F#, el lenguaje funcional desarrollado por Microsoft, también se actualizará como parte de los planes principales de .Net. A finales de este año, o bien, durante el primer trimestre de 2017, F# 4.1 incluirá soporte completo para .Net Core y una mejor experiencia IDE en el servicio del lenguaje F#. Se añadirán también algunas características para que sea posible operar con ValueTuple.

Hunter señaló que las intenciones de Microsoft se centran en traer conceptos más funcionales a los lenguajes .Net, incluyendo combinación de patrones. Estos idiomas también están programados para recibir código de mayor calidad y mejoras en el rendimiento como throw expressions. También se esperan mejoras en la productividad del desarrollador incluyendo funciones locales. “Estas características estarán disponibles en C#7”, añadió Hunter.

Además, Microsoft planea dar cabida a los procesadores ARM 32/64 durante el desarrollo de .Net Core en los próximos años, tanto para Windows, como para Linux, aunque en momentos diferentes y sin especificar fechas. La distribución de Linux contará con apoyo especial, aunque Microsoft no ha desvelado todavía qué características tendrá. La versión 1.0, por ejemplo, apoyaba distribuciones destacadas como son Red Hat Enterprise Linux 7.2 y OpenSUSE 13.2.

El gigante del software señala que a finales de 2016 y principios 2017, se lanzará una pequeña actualización para .Net Core , trasladando las herramientas del sistema ‘xproj/project.json’ a ‘csproj/MSBuild’ para que todos los proyectos .Net puedan utilizar el mismo sistema de construcción. ASP. Net Core recibirá capacidades de WebSockets, así como varias mejoras para optimizar el servicio Azure Cloud, incluyendo mejoras en los tiempos de inicio y proveedores para el registro y gestión de claves seguras en Key Vault. SignalR, la biblioteca para comunicaciones bidireccionales, será visto de antemano en ASP.Net Core.

Microsoft concluye que lo más importante en la hoja de ruta, es el lanzamiento del patch 1.0.1, esperado para principios de agosto. Esto acelerará el rendimiento en la construcción .Net para mejorar los tiempos de publicación ASP.Net Core. Hunter informó que las nuevas plantillas dotnet para F# estarán disponibles para su uso con la última versión alfa de la F# en .Net Core.

Paul Krill, IDG News Service

LinkedIn añade Gmail e integración CRM en su Sales Navigator

LinkedIn busca aumentar su atractivo entre aquellos empleados que se encargan de labores comerciales, con la presentación de la primera actualización de su producto para estos profesionales, Sales Navigator. La nueva edición conecta con clientes actuales y potenciales en función de criterios preestablecidos.

La actualización de Sales Navigator presenta tres novedades importantes, entre ellas, introduce mejoras esenciales para los vendedores más activos y rentables, y ahora se integra automáticamente con el CRM e identifica los clientes potenciales y las cuentas más importantes a partir de LinkedIn. Con esto ya no será necesario seleccionar manualmente los datos del CRM más relevantes para cada proyecto.

Además, la herramienta ya se integra con Gmail para ver los datos de los contactos más importantes. “Esta nueva extensión permitirá a los usuarios compartir ideas con sus contactos”, subraya Tom Lee, director de producto en LinkedIn. Incluso, es posible guardar un contacto en Sales Navigator sin salir de Gmail.

El último cambio llega con la aplicación móvil, que incorpora una nueva pestaña que facilita encontrar nuevos clientes potenciales. Se ofrecen hasta diez recomendaciones al día y la lista se actualiza cada 24 horas. Según la empresa, más del 25% de los usuarios de Sales Navigator utiliza sólo la aplicación móvil.

“Nuestro objetivo es que Sales Navigator sea parte importante de la vida cotidiana de los profesionales de ventas y creemos que estas mejoras nos acercan mucho a ello”, concluye Lee.

 

IDG.es