Día: 30 noviembre, 2016

AWS entra al mundo de la IA con tres nuevos servicios para desarrolladores

Amazon Web Services está llevando a cabo su evento anual re:Invent 2016, donde entre una ola de lanzamientos, alianzas y actualizaciones, dieron a conocer su entrada al mercado de la Inteligencia Artificial con tres nuevas soluciones: Amazon Rekognition, Amazon Polly y Amazon Lex.

La nueva oferta de la compañía fue creada a fin de facilitar a desarrolladores la construcción de aplicaciones que puedan entender el lenguaje de un modo mucho más natural, con mayor precisión y calidad, permitiéndoles crear lo que la compañía denomina “aplicaciones de nueva generación”, capaces de ver, escuchar, hablar, entender e interactuar con personas, maquinas y objetos de su entorno.

El primero de ellos es Rekognition, que como su nombre lo indica, es capaz de reconocer en una imagen el rosto de una persona, con la inteligencia suficiente para registrarla, incluso con características físicas cambiantes como una barba, cambio de corte de cabello e incluso si ésta porta lentes. Pero, a diferencia de herramientas similares, no sólo es capaz de reconocer personas, también lo hace con objetos y escenas dentro de una misma imagen gracias a su Deep Learning.

Polly les permitirá a desarrolladores introducir sonidos y capacidades de habla a aplicaciones ya existentes basadas en texto, pensado para aplicaciones de noticias, libros, y similares, ya sea para personas que capacidades diferentes o simplemente para facilitar la interacción del usuario con este tipo de apps. De igual manera puede ser utilizada para crear nuevas apps o introducirlas a objetos para que cubran la misma función.

Por su parte, Lex es un servicio para construir interfaces de conversación usando voz y texto. Está construido bajo la misma tecnología de reconocimiento automático del habla (ASR por sus siglas en inglés) y la tecnología de entendimiento natural del habla (NLU, en inglés), que el asistente de voz de Amazon, Alexa, permitiendo mantener conversaciones más realistas para prácticamente cualquier tipo de aplicación.

Los servicios de inteligencia artificial de AWS son totalmente manejables, a fin de que el desarrollador no necesite de un gran número de algoritmos para poder desarrollar aplicaciones basadas en éstos, sin modelos de machine learning para entrenar, y sin necesidad de invertir mucho capital en infraestructura para correrlos.

La IA que ofrece AWS con sus nuevos servicios está disponible para cualquier tipo de escala, cualquier app, sin importar en qué dispositivo se desee implementar, o desde cualquier lugar, gracias a la combinación de mejores algoritmos, permitiendo un amplio acceso a grandes cantidades de datos.

Si bien no es el primer contacto de Amazon en la IA, ya que es la misma que utilizan de manera interna para, por ejemplo, predecir gustos de compras, y con su asistente de voz, Alexa, sí es la primera vez que la compañía abre su tecnología y APIs para desarrolladores.

Por el momento son capacidades de IA disponibles sólo en inglés pero esperan próximamente abrirlo a mayores idiomas, incluido el español. Polly estará disponible en el primer trimestre de 2017, Lex y Rekognition ya están disponibles.

 

Karina Rodríguez, Computerworld México.

México podría ser el Silicon Valley de Latinoamérica: Estudio

De acuerdo con el estudio App Nations: Startups, States and Enterprises realizado por The Economist y CA Technologies, la economía de las aplicaciones es una de las tendencias más preponderantes en la industria tecnológica y de startups en todo el mundo. La innovación se puede dar en cualquier rincón del planeta, pero está creciendo de manera exponencial en algunos lugares, México es uno de ellos.

Durante la última década, se ha visto un mayor énfasis en la tecnología, innovación y emprendimiento y por ello, México es considerado como el lugar de nacimiento de muchas startups y donde se encuentran las mentes con ideas innovadoras, propositivas y ambiciosas que vislumbran cambios significativos en la sociedad.

Manuel Emilio Morato Mungaray, co-fundador de Dev.F, una organización que capacita a los desarrolladores en la Ciudad de México, la ciudad ha logrado ser, desde cero, un punto de referencia en tecnología gracias a su cercanía con Silicon Valley y Nueva York, entre otros centros de inteligencia. Esto ha permitido el acceso a información, desarrollos y la concentración de talento y crecimiento del espíritu empresarial y emprendedor. Si bien la economía del país no goza de altas tasas de crecimiento, el desarrollo de tecnología es relativamente accesible y muchos de los emprendedores se valen de su ahorro personal o de otras compañías que fondean proyectos para llevarlos a la realidad.

Actualmente, en México existen grandes compañías aceleradoras que hoy están haciendo crecer proyectos empresariales que proyectan un futuro prometedor; Wayra México tiene 5 años de operación local y ha logrado apoyar a casi 50 empresas, con un capital de alrededor de 60 millones de pesos, siendo hasta el momento, una de las aceleradoras que está impulsando el sector en el país. Por su parte, el INADEM (Instituto Nacional del Emprendedor) de la SE (Secretaría de Economía) tiene un robusto plan para el apoyo a emprendedores y Startups para ofrecerles subsidios, cursos y talleres que les permiten enfocar sus estrategias de negocio, fortaleciendo el sector.

“México se encuentra en plena curva de adaptación de muchas de las tendencias tecnológicas que dirigen hacia la transformación digital y al término de ésta se podrá ver un país lleno de oportunidades de crecimiento de nuevas empresas y, con esto, el crecimiento exponencial de la economía de las aplicaciones. Todas las empresas deben basar su estrategia de negocio en software y hoy pueden contar con compañías que respaldarán su seguridad y desempeño ágil y oportuno, sólo es cuestión de ser parte de la ola tecnológica que nos ha alcanzado”, comentó Gerardo Flores, Country Manager de CA Technologies México.

Esta cercanía, entre México y el país del norte, hace que nuestro país sea un punto de referencia como mercado emergente donde las compañías están implementando estrategias basadas en software y en lasaplicaciones para el desarrollo de su negocio.

La tecnología es, sin duda, motor de la innovación, al mismo tiempo que presenta retos y grandes oportunidades para los jugadores de cualquier nivel. Las grandes empresas seguirán reconociendo y actuando sobre las oportunidades que ofrece para el desarrollo de su negocio; sin embargo, un elemento de cambio es que éstas tengan la necesidad de apoyarse en otras empresas (o hasta en la creación de nuevas) para una mayor colaboración que implica, por ejemplo, financiación, aceleración, asociación y el intercambio de ideas. Reconocida hoy como “hotspot” de la economía de las aplicaciones, la Ciudad de México tiene el potencial necesario para estar a la par de otros centros líderes de inteligencia tecnológica en el mundo.

N. de P. CA Technologies

Microsoft y Red Hat se unen para potenciar la nube híbrida y la interoperabilidad

Actualmente, muchas empresas eligen esquemas híbridos de cómputo en la nube, lo cual obedece a la versatilidad que les ofrece el tener lo mejor de los dos mundos: efectividad para tratar datos sensibles para el negocio, por un lado, y altos niveles de rendimiento y escalabilidad, por el otro.

La nube se afianza cada vez más como un componente principal en las estrategias de TI. La consultora IDC, señala que la conformación de estrategias para los dos años siguientes, 70% de los usuarios empresariales de nube se enfocarán en el modelo híbrido.

Microsoft y Red Hat se enfocarán en proveer flexibilidad, seguridad rigurosa y ambientes operativos empresariales, con una oferta de nube consistente, que abarca opciones de nube privada, pública e híbrida, tanto de infraestructura como servicio (IaaS) como de plataforma como servicio (PaaS).

Por otro lado, organizaciones de todo el mundo confían en un ambiente tecnológico heterogéneo, utilizan tanto Linux como Windows. Con la complejidad de entornos diversos, estas organizaciones buscan conformar un ecosistema consistente que permita la estabilidad de procesos y operaciones. Asimismo, atributos de grado empresarial, como la confiabilidad, la seguridad en entornos de misión crítica y el soporte integral, son también temas prioritarios para ellas.

La interoperabilidad se ha convertido en un requisito empresarial, razón que motiva a Red Hat líder en soluciones de código abierto, y a Microsoft Azure, que soporta Linux desde hace tres años, a colaborar en la tendencia de Open Source que despega cada vez más.

A través de esta colaboración, ambas empresas son capaces de ofrecer a sus clientes soluciones en nubes híbridas. Entre los elementos clave de esta alianza que pueden beneficiar a las empresas destacan: soluciones de Red Hat disponibles de manera nativa para clientes de Microsoft Azure, soporte de grado empresarial integrado que abarca ambientes híbridos, y gestión unificada de cargas de trabajo a través de los desarrollos de nube híbrida.

El objetivo de esta alianza se enfocará a ir más allá de la capa del sistema operativo, la cual ofrece soluciones reales que consideran elementos como interoperabilidad, integración, apertura y nuevas tecnologías.

Redacción

16 puntos del Big Data que todo profesional de TI debe saber

Comstor ofrece 16 claves a tener en cuenta sobre Big Data que todo profesional de TI debe saber, donde aprender a usarlo es inmensamente más relevante.

Saber qué es lo que significa cada término relacionado al Big Data es fundamental para aplicar en el día a día de los negocios. Sin embargo, muchos de los términos que existen hoy no poseen una definición exacta, pues se transforman en la medida que son usados.

A continuación, dejamos algunas palabras esenciales para los que trabajan con esta tecnología:

1-    Algoritmo: Secuencia lógica, finita y con instrucciones que forman una fórmula matemática o estadística para realizar el análisis de datos.

2-    Analytics: Es la forma de capturar informaciones, procesarlas y analizarlas para que se conviertan en insights.

3-   BI (Business Inteligence): Es el método que transforma informaciones almacenadas y analizadas en datos que son estratégicos para una empresa y que se convierten en ganancia para el negocio.

4-    Data Scientist: Es el analista de datos. La persona que capturará los insights, las principales informaciones dentro de un gran volumen de información.

5-    Small Data: Mucho más pequeño que el Big Data, se refiere al análisis que se hace con pocas fuentes de datos.

6-    Datos estructurados y no estructurados: Los estructurados tienen una organización lógica, pero con posibilidades pequeñas de extracción de informaciones para el Big Data. Por otro lado, los no estructurados son desorganizados, como los mensajes en emails y redes sociales, pero permiten una gran posibilidad de extracción de insights comerciales.

7-    Dark Data: Se refiere a datos desconocidos que pueden perderse o almacenarse, sin la posibilidad de accederse o analizarse en caso de que el sistema no esté configurado para eso.

8-    Data Cleansing: Es el método que mantiene los bancos de datos libres de informaciones inconsistentes o irrelevantes.

9-    Data Lake: Es un lago de datos en el cual se almacenan informaciones en su estado natural y en gran volumen, es allí donde el Data Scientist debe sumergirse para encontrar sus principales insights.

10- Data Mining: Es el proceso previo al Analytics, es la minería de los datos, la forma de descubrir informaciones relevantes.

11- Dirty Data: Son los registros que no se han limpiado. Datos que se capturaron, almacenaron y que se usarán, pero que precisan ser primeramente trabajados.

12- Fast Data: Los datos rápidos son los que pierden valor a lo largo del tiempo y que, por eso, necesitan ser analizados prácticamente en tiempo real para que generen respuestas estratégicas para las empresas que necesitan dar respuestas y tomar decisiones de forma instantánea.

13-Slow Data: Es lo opuesto de Fast Data y hace referencia a las informaciones que se pueden capturar en el Data Lake para un análisis posterior. Esos datos no necesitan un análisis en tiempo real, con tiempo de respuesta menor.

14- Medium Data: Término que define una cantidad intermediaria de datos que son necesarios para que se generen análisis e insights. Es un tamaño menor de información que el generado por el Big Data.

15- Predictive Analytics: El análisis predictivo es la utilización de datos para predecir tendencias o eventos futuros.

16- Sentiment Analysis: El análisis de sentimiento son técnicas usadas para identificar el sentimiento de un individuo sobre determinada cuestión. Hay muchos términos que surgen a cada momento, muchas veces creados por proveedores de herramientas y analistas de consultorías para intentar ofrecer un nuevo servicio. Generalmente son funciones que ya existen y que quien trabaja con Big Data ya está acostumbrado, pero con un nuevo nombre o definición.

Finalmente, hay que destacar que el dominar estos términos es importante para el área de TI, pero es aún más importante que se enfoque en la forma en la que se puede usar el Big Data para que se generen resultados que puedan transformar una empresa.

N. de P. Comstor

Once claves para mejorar los negocios con Facebook

Son más de mil millones de personas de todo el mundo visitan Facebook cada día para conectarse con amigos y familiares y visitar sus negocios favoritos.  Tener una página de Facebook para su negocio es un buen comienzo para construir una comunidad online y atraer a nuevos clientes; sin embargo, existen once consejos que se pueden seguir para aprovechar con éxito esta red social según expertos.

Native checkout

Aunque crear una página de empresa en Facebook aumenta la visibilidad de un negocio, no garantiza la venta del producto o servicio. Uno de los trucos que puede ayudar en las ventas, es crear un sistema de native ckeckout, es decir, crear una forma de pago personalizado que hace que los clientes nunca abandonen la página al pagar. Esto hará que el cliente tenga una experiencia de compra simplificada y positiva.

Postear de forma regular

Es necesario publicar regularmente en esta plataforma para tener más posibilidades de que un negocio sea visto porque, según expertos, la vida útil de un post es muy corta. Lo ideal sería, en el caso de Facebook, publicar tres veces al día, pero sino una por lo menos. Con una constancia, los negocios pueden conseguir que los clientes se comprometan mucho más.

Realizar concursos y regalos

Para hacer crecer a los seguidores y ganar nuevos, un negocio debe llevar a cabo sorteos. Esto llamará mucho la atención de los clientes y hará que se impliquen en la marca. De hecho, Facebook tienen una aplicación para ayudarle a ejecutar este tipo de estrategias.

Ofrecer descuentos y promociones sólo para Facebook

Haz que tus seguidores de Facebook se sientan especiales al ofrecerles códigos de descuento y promociones sólo disponibles para los seguidores de Facebook, así como un aviso previo de las próximas ventas.

Compartir contenido que a la audiencia le interese

Es importante compartir contenido divertido, útil e interesante para el target de la empresa. No se trata de publicar sólo contenido del producto o servicio de la marca (puesto que estarías recurriendo a la autopromo y eso puede aburrir) sino contenidos relacionados con lo que se intenta vender y que esté dentro de los gustos de la audiencia que define el negocio.

Publicar fotos originales y generadas por el mismo cliente

Incluir fotos de los productos o servicios que ofrece una marca en Facebook es necesario. También animar a los clientes a compartir sus fotos de ellos con sus productos. No hay mejor testamento que una foto que muestra a alguien disfrutando de sus productos o servicio.

Publicar contenido audiovisual directamente a Facebook

No es beneficioso para la empresa recurrir siempre a YouTube. A veces, es necesario que inserte directamente el video en la página de Facebook. Los vídeos se reproducirán automáticamente en los canales de noticias de tus fans, lo que puede dar lugar a un aumento significativo en las vistas y los clics totales. Además, el algoritmo de Facebook favorece el video incrustado directamente, no los enlaces externos a sitios como YouTube o Vimeo, lo que permite una mejor oportunidad para que más personas vean el contenido.

Utiliza los anuncios dinámicos de Facebook

Se trata de una de las características más recientes de Facebook. El objetivo es promocionar un catálogo de productos para los minoristas que buscan impulsar la marca y la conciencia del producto. Esta herramienta no sólo le permite orientar a audiencias específicas, sino que agrega una capa adicional a esa orientación, utilizando inteligencia algorítmica para trabajar.

Utilizar Facebook Insights

Es una herramienta que hace la vida más fácil a cualquier Community Manager, profesional del marketing digital o a los amantes de las estadísticas, ya que ofrece una gran variedad de información. Ofrece una amplia variedad de datos que ayudan a que tu página sea exitosa, incluyendo cuándo la audiencia es más activa.

Boost posts

Las publicaciones potenciadas ayudan a que tus posts alcancen más prospectos y aumenten las posibilidades de que se vean. También puede dirigirse a un público más específico basado en la edad, la ubicación, los intereses y el género para llegar al mercado adecuado.

Utilizar Facebook como un canal de servicio al cliente

Cuando los clientes dejan comentarios, positivos o negativos, hay que asegurarse de reaccionar rápido y responder. Ellos quieren sentirse reconocidos y apreciados, pudiendo convertir una situación negativa en una oportunidad.

Redacción

 

Samsung se podría dividir en dos compañías

El diario financiero español Cinco Días, señala que Samsung estaría estudiando dividir su estructura empresarial, como consecuencia de una propuesta realizada por el fondo activista estadounidense Elliott Management, de acuerdo con una información publicada por el diario Seoul Economic Daily.

Según detalla Reuters, al parecer, de producirse la división, tal estrategia abriría una nueva situación en la estructura organizativa de la compañía que permitiría a los herederos de la familia fundadora Lee fortalecer su control sobre la división dedicada a la fabricación de smartphones, la más importante de la organización surcoreana. Elliott Management hizo esta proposición a Samsung el pasado mes de octubre con el fin de impulsar el valor de las acciones del gigante asiático.

El citado diario avanzó que el consejo de administración de Samsung se reunirá para responderá a las propuestas de Elliott. Ante los rumores, el regulador coreano pidió a la empresa que aclarase si planea una segregación, y ésta aseguró que realizará en breve una conferencia sobre la política de remuneración al accionista.

La idea de Elliott Management es que Samsung Electronics se divida en un holding encargado de la gestión y una empresa operativa, y que pague un dividendo especial de 26,000 millones de dólares, prometa devolver al menos el 75% del flujo libre de caja a los inversores, y que contrate a varios consejeros independientes.

Redacción

 

La física cuántica cuestiona la seguridad informática

El nivel de seguridad que tenemos y manejamos en nuestros teléfonos, correos electrónicos, navegar por la red e Internet es fundamental en nuestra sociedad de la información.

Los recientes ciberataques sufridos, por ejemplo, en las cuentas de correo de Yahoo o la debilidad de la seguridad mostrada por las nuevas generaciones de dispositivos interconectados en el Internet de las Cosas son buenas muestras de esto.

Pese a que los usuarios utilizan contraseñas cada vez más robustas, de poco sirve si los servidores que alojan la información o los mismos dispositivos son vulnerables ante los ataques. Un equipo de investigadores de la Universidad Politécnica de Madrid ha desarrollado un método que, aplicando las leyes cuánticas, muestra una nueva manera de romper los algoritmos en los que se basa la gran mayoría de algoritmos de cifrado usados en la actualidad.

Una de las claves de los procesos de cifrado de las comunicaciones es la factorización. Cuando una persona envía información cifrada a través de Internet, el proceso que se sigue es complejo. “En primer lugar, los datos son cifrados para enviarlos al lugar de destino y para ello se utilizan pares de claves cuya seguridad descansa finalmente en la dificultad de descomponer un número grande en sus factores primos. Dados dos números primos, es muy fácil calcular su producto, pero dado un número grande, es muy difícil calcular sus factores primos. Es la supuesta complejidad computacional de este problema, aparentemente sencillo pero que ha resistido siglos de investigación en matemáticas, lo que confiere seguridad a la mayoría de algoritmos de cifrado usados en la actualidad”, explica Vicente Martín, uno de los autores del estudio y director del Centro de Simulación Computacional de la UPM.

Aunque el problema de factorización haya resistido hasta ahora todos los esfuerzos de los criptoanalistas, lo cierto es que su complejidad computacional real es todavía desconocida. Lo que sí se sabe es que, si pudiésemos usar un ordenador cuántico en lugar de uno clásico, el problema sería fácil de resolver.

En 1995 Peter Shor, entonces en el instituto de tecnología de Xerox, desarrolló un algoritmo que resolvía el problema recurriendo a un ordenador capaz de manipular qubits, el análogo cuántico de los bits. El enorme potencial de ruptura de este algoritmo ha sido uno de los principales impulsores del desarrollo de los ordenadores cuánticos, una tecnología compleja que se cree que tardará todavía décadas en realizarse.

Es por ello que existe la necesidad de salvar un equipo de cómputo cuántico programable completamente funcional para poder ejecutar el algoritmo de Shor ha sido el problema en el que han trabajado los expertos de la UPM.

Para ello han desarrollado una nueva estrategia basada en el diseño de un simulador cuántico: un sistema físico cuya evolución resuelve el problema. “Lo primero que hicimos fue redefinir el problema, de modo que ya no tengamos que esperar a tener un ordenador cuántico completamente operativo para poder utilizar con normalidad el algoritmo creado por Shor. Hemos reformulado el problema de la factorización entera de un número grande en otro aritméticamente equivalente que depende de una función de los factores primos. Esa función puede asociarse con la energía de un dispositivo cuántico que puede medirse para obtener los factores”, explica José Luis Rosales, investigador de la UPM que ha desarrollado el estudio, recientemente publicado en Physical Review Letters, junto con Vicente Martín.

El estudio no solo abre una nueva manera de resolver el problema de factorización. Demostrando que hay un dispositivo físico que tiene acceso a los números primos, se puede estudiar la estadística de los mismos y arrojar luz sobre problemas de matemática puras. También muestra que existen algoritmos clásicos de factorización fundamentados en principios completamente distintos de las cribas tradicionales, lo que plantea nuevas dudas sobre la solidez de los métodos antiguos.

“Tal vez sea el momento de plantearse seriamente incorporar otros protocolos de seguridad, que no estén basados en complejidad computacional, al arsenal de la criptografía. La misma física nos da la criptografía cuántica, basada en principios que nunca podrá romper ningún ordenador, sea cuántico o clásico”, concluyen los investigadores.

Redacción

 

Intel podría instalar su Core i7 en automóviles autónomos

La empresa de microprocesadores estaría cerca de anunciar un potente procesador diseñado específicamente para estos vehículos en la nueva edición del CES, el cual se celebrará en Las Vegas el próximo mes de enero.

Hace 16 años, un pequeño chip llamado Transmeta obligó a Intel a reequipar sus procesadores de las computadoras de escritorio para satisfacer las demandas de los portátiles. Hoy día, la compañía está adaptando sus procesadores de PC a un mercado completamente nuevo: el de los autos autónomos.

El diario The New York Times, señala que Intel ha realizado una alianza con Mobileye, el antiguo cerebro del sistema de piloto automático de Tesla Motors, y con el fabricante de piezas de automóviles Delphi para que el Core i7 sea mando principal de los vehículos de conducción autónoma, junto con los chips EyeQ de Mobileye.

Intel utilizará “un procesador desconocido y más potente que será revelado en unas pocas semanas”, informabael diario estadounidense. Probablemente, la presentación del nuevo procesador se llevará a cabo durante la feria de tecnología CES el próximo mes de enero.

A principios de noviembre, la compañía californiana anunció una asignación de 250 millones de dólares a estos autos como parte de su compromiso de “hacer plenamente la conducción autónoma una realidad”, explicaba Brian Krzanich, director ejecutivo de Intel.

Intel y Mobileye también han acordado trabajar con BMW para conseguir poner sobre la pista un auto de conducción autónoma en el año 2021. Para ello, Intel ha establecido un grupo impulsor dentro de la compañía encabezado por su jefe de IoT, Doug Davis.

Según el Times, el Core i7 de Intel no llegará a los autos hasta dentro de dos años. Estos chips serán capaces de realizar “20 billones de operaciones matemáticas por segundo”, afirma el medio. Además, ha señalado que una versión posterior tendrá dos o tres veces más potencia de procesamiento.

Por su parte, Delphi y Mobileye demostrarán sus capacidades autónomas en un trayecto de 6.3 millas durante el CES, combinando la conducción urbana con la conducción en carretera. Las compañías afirman que sus vehículos de conducción autónoma tendrán una mayor precisión para conocer su geolocalización, incluso sin GPS, y que serán capaces de detectar vehículos ubicados en cualquier ángulo y de calcular el espacio libre en situaciones inusuales.

Mark Hachman