Día: 28 junio, 2016

El reconocimiento de voz crecerá para el usuario y la empresa

La necesidad de mantener interacciones naturales entre los dispositivos entre las personas y sus dispositivos crece a medida que confiamos e interactuamos más en ellos. ABI Research predice que los consumidores que utilicen la funcionalidad por voz ascenderá a más de 1 000 millones en 2021.

Así lo sostiene su analista senior, Eric Abbruzzese, que subraya que los smartphones son los primeros dispositivos en los que la gente piensa para utilizar la tecnología de voz para mejorar la interactuación hombre-dispositivo, pero “el crecimiento de las gafas inteligentes y los dispositivos para el hogar también impulsarán esta tendencia”, dice.

En las empresas, ABI Research predice que el procesamiento del lenguaje natural resultará especialmente beneficioso en prácticas concretas y sectores verticales que requieran una funcionalidad de manos libres, como en la asistencia sanitaria, y los sectores del petróleo y el gas, fabricación o construcción, así como en especialidades que necesiten algún diccionario, aplicación o herramienta personalizada.

El crecimiento que se reflejará en los consumidores las interacciones y el control por voz tiene un encaje natural tanto para las gafas inteligentes como para dispositivos de realidad aumentada o dispositivos para el hogar inteligente, como Amazon Echo o Google Home.

Apple, Google y Microsoft son los actualmente principales actores actuales, y por una buena razón: cada empresa está posicionando su propia plataforma de voz. Amazon quien destaca en el radar de ABI Research, con su entrada en la industria del automóvil a través de su tecnología de voz, y el buen comportamiento de sus dispositivos Echo y Fire, compatibles con voz, el gigante puede experimentar un fuerte crecimiento si sabe capitalizar este momento, concluye el analista.

NetworkWorld

CA Technologies presenta ecosistema integrado de entrega de aplicaciones

La compañía señala que ya está disponible, CA Release Automation Continuous Delivery Edition y nuevas integraciones entre la cartera de soluciones DevOps de CA y soluciones de terceros. Con ello crea “el primer ecosistema de entrega continúa integrado, totalmente automatizado y abierto”.

Automatizar el ciclo de vida de las aplicaciones para mejorar el tiempo de despliegue y la eficiencia de las pruebas. Ese es el objetivo de CA Technologies con el lanzamiento de CA Release Automation Continuous Delivery Edition y nuevas integraciones entre la cartera de soluciones DevOps de CA y soluciones de terceros. Gracias a ello, aseveran desde la compañía, las organizaciones pueden conectar y automatizar toda la promoción de la aplicación desde la fase de desarrollo a la de pruebas y producción. “Esto permite acelerar los tiempos de despliegue de las aplicaciones hasta 20 veces y mejorar la eficiencia de las pruebas hasta en un 25%”, reza un comunicado de ésta.

Jeff Scheaffer, director general de Continuous Delivery en CA Technologies, señaló que “para prosperar en la economía de las aplicaciones, la transformación digital debe ser impulsada por la entrega continua, es decir, la capacidad de entregar rápidamente y de forma fiable aplicaciones que satisfagan las demandas de los clientes externos e internos por igual”. En este sentido, añade, “CA es el único proveedor de soluciones DevOps que actualmente conecta el desarrollo, las pruebas, la gestión y las operaciones de entrega en una cadena de herramientas abierta y transparente que ayuda a las organizaciones a alcanzar nuevos niveles de velocidad y calidad en la entrega de aplicaciones”.

Nuevas soluciones Agile Management

La compañía ha realizado este anuncio poco después del lanzamiento de nuevas capacidades en sus soluciones Agile Management con las que, afirman, “las organizaciones pueden generar valor más rápidamente, desde la planificación hasta la ejecución y el soporte al cliente”.

Entre las nuevas soluciones presentadas, se destacan las capacidades ampliadas que incluyen integraciones entre CA Project & Portfolio Management  (CA PPM) y CA Agile Central (anteriormente Rally), un nuevo enfoque basado en las personas para PPM y para la gestión de servicios TI con CA PPM y CA Service Management, y nuevas características de CA Agile Central.

Redacción

Microsoft actualiza el código fuente de ASP.NET y .NET Core

La compañía lanza la versión 1.0 de sus códigos fuente, .Net Core y ASP. Mediante la tecnología de .Net Core y ASP, Microsoft ha desarrollado la plataforma de software .Net, haciendo posible extenderla a Linux y otras plataformas populares de móviles. La compañía también ha creado un protocolo que permite el uso de las herramientas en varios idiomas.

.Net Core proporciona un set modular del marco de programación base y está destinado a promover la reutilización del código y su intercambio abierto; por otro lado, ASP.Net tiene como fin construir aplicaciones conectadas a la red basadas en cloud, incluyendo apps de la web. Estas tecnologías han transformado .Net en una plataforma centrada en diseñar aplicaciones para Windows, Linux y MacOS, según ha explicado Joseph Sirosh, vicepresidente corporativo del Grupo de Datos en Microsoft.

Además, .Net Core 1.0 incluye el primer lanzamiento de su librería .Net para que facilitar la reutilización de códigos en aplicaciones que funcionen en servidores, escritorios o la nube; soportando también una amplia gama de dispositivos que incluyen smartphones con los sistemas operativos iOS, Android y Windows.

En mayo, Microsoft estimó que introducirían .Net Core 1.0 y ASP.Net Core 1.0 en junio, un movimiento con el que la compañía busca atraer desarrolladores que no trabajen actualmente bajo las plataformas Windows. La tecnología .Net Core se apoya en la red de distribución Linux de la empresa Red Hat.

Por otro lado, Microsoft también está trabajando en la interoperabilidad entre lenguajes y herramientas. El equipo Eclipse Che, así como Red Hat, están adoptando el protocolo de lenguaje para servidores Visual Studio Code, un protocolo abierto que “permite enriquecer con diferentes ediciones el código VS”, ha añadido Sirosh.

Recientemente, la empresa ha mostrado el servidor de base de datos SQL funcionando sobre plataforma Red Hat Linux, como ya anunció el pasado mes de marzo. Además, Microsoft también ha hecho accesible en GitHub su modelo del gestor de recursos Azure, por lo que ya es posible desplegar el PaaS de Red Hat, OpenShift, en Azure.

Por último, la compañía también puede celebrar que Samsung va a unirse al comité directivo técnico de la Fundación.Net, encargado de dirigir el proceso técnico que atañe al núcleo de los componentes de .Net. Algunos otros participantes que ya se unieron en su momento son JetBrains, Red Hat y Unity.

 

El ‘Brexit’ pasa factura al gasto tecnológico mundial

El Brexit que se acaba de imponer en el Reino Unido va a lastrar aún más al mercado tecnológico global. Pero si alguien va a salir perjudicado de esta decisión es el propio mercado británico, según ha concluido Gartner, que confirma los peores pronósticos.

La consultora preveía un aumento del 1,7% en el gasto en TI de Reino Unido para este año, hasta alcanzar los 179.600 millones de dólares. Sin embargo, el pronóstico ha bajado rápidamente, desde el jueves pasado, día en que se conoció el resultado final de la consulta para salir de la Unión Europea.

Ahora, la estimación es que el resultado anual sea negativo, en una horquilla entre el -2 y el -5%, y con visos de que se mantenga también el próximo año. La razón principal se resume en una sola palabra, “incertidumbre”, según el analista de Gartner, John Lovelock.

“Va a ser un problema persistente en los próximos seis meses”, insistió Lovelock, que menciona la dimisión del primer ministro David Cameron, anunciada para el próximo mes de octubre, y los al menos dos años de negociaciones que llevará la negociación con la UE sobre los términos de la salida.

El gasto mundial de IT tampoco se va a librar del impacto y ya se rebaja la tasa de crecimiento prevista para el año, desde el 1,5% al 1,2%. No en vano Reino Unido supone el 26% del gasto global en tecnología de Europa Occidental, superando a Alemania (18%), a pesar de ser ésta la mayor economía de la Unión. Lovelock atribuye la paradoja al uso intensivo de los servicios tecnológicos empresariales en el Reino Unido.

El crecimiento del gasto en tecnología en Europa Occidental para este año estaba fijado en el 0,2% hasta los 688,7 millones de dólares, incluido el Reino Unido. Veremos qué impacto tiene el Brexit sobre este mercado pero todo apunta a que lastrará las cifras europeas a valores negativos.

– IDG.es

13 entornos para dominar el aprendizaje automático

Durante el año pasado, el aprendizaje automático (machine learning) se ha ido generalizado de una forma sin precedentes. La tendencia no está alimentada sólo por los entornos de nube baratos y los cada vez más potentes hardwares GPU. También cuenta la explosión de los entornos ahora disponibles para el aprendizaje automático. Todos son de código abierto, pero aún más importante es la forma en que están siendo diseñados para abstraer las partes más difíciles del machine learning  y poner sus técnicas a disposición de una amplia clase de desarrolladores.

Aquí hay una docena de marcos de aprendizaje automático, ya sean de nueva aparición o recién revisados en el último año. Todos llamaron la atención por ser productos con una gran presencia en TI, por intentar llevar una nueva simplicidad a su dominio del problema, o por  dirigirse un reto específico asociado con el aprendizaje automático.

Apache Spark MLlib

Apache Spark puede ser más conocido por ser parte de la familia de Hadoop, pero este marco de procesamiento de datos en memoria nació fuera de Hadoop y se está haciendo un nombre por sí mismo fuera del ecosistema Hadoop también. Spark se ha convertido en una herramienta go-to para el machine learning, gracias a su creciente biblioteca de algoritmos que se pueden aplicar a los datos en memoria a alta velocidad. Spark no se para, ya que los algoritmos disponibles están siendo constantemente ampliados y revisados. La versión1.5  del año pasado añadió muchos algoritmos nuevos, mejorando los ya existentes, y reforzó aún más el soporte MLlib en Python, una plataforma importante para las matemáticas y las estadísticas de los usuarios. La recién estrenada  versión 1.6 hace posible, entre otras cosas, suspender y reanudar trabajos de Spark ML a través de conducciones persistentes.

 

Apache Singa

Los entornos de aprendizaje profundo potencian funciones de servicio duras de aprendizaja automático, tales como el procesamiento del lenguaje natural y reconocimiento de imágenes. Singa, recientemente aceptada en la Incubadora de Apache, es un marco de código abierto destinado a hacer más fácil entrenar modelos de aprendizaje profundo de grandes volúmenes de datos. Singa proporciona un modelo de programación sencillo para entrenar las redes de aprendizaje profundo a través de un grupo de máquinas, y es compatible con los puestos trabajos de entrenamiento más comunes: redes neuronales convolucionales, máquinas de Boltzmann restringidas, o redes neuronales recurrentes. Los modelos pueden ser entrenados de forma sincrónica (uno tras otro) o asíncrona (uno al lado del otro), dependiendo de lo que funcione mejor para el problema dado. Singa también simplifica la configuración del clúster con Apache Zookeeper.

 

Caffe

El entorno de aprendizaje profundo  Caffe “está hecho con la expresión, la velocidad y la modularidad en mente”.  Originalmente desarrollado en 2013 para proyectos de visión artificial, Caffe  seha ampliado desde entonces para incluir otras aplicaciones, tales como el habla y multimedia. La velocidad es una prioridad, por lo que Caffe ha sido escrito completamente en C ++, con soporte para la aceleración CUDA, aunque se puede cambiar entre la CPU y la GPU de procesamiento, según sea necesario. La distribución incluye un conjunto de modelos de referencia gratis y de código abierto para los trabajos de clasificación comunes, con otros modelos creados y donados por la comunidad de usuarios Caffe.

 

Microsoft Azure ML Studio

Dada la gran cantidad de datos y la potencia de cálculo necesaria para llevar a cabo el aprendizaje automático, la nube es un ambiente ideal para aplicaciones ML. Microsoft ha equipado Azure con su propio servicio de pago por uso de machine learning, Azure ML Studio, con versiones mensuales, por hora, y versiones sin nivel. (El proyecto HowOldRobot de la compañía fue creado con este sistema). Azure ML Studio permite a los usuarios crear y entrenar modelos, para  a continuación,  convertirlos en API que puedan ser consumidos por otros servicios. Los usuarios pueden obtener hasta 10 GB de almacenamiento por cuenta de modelos de datos, aunque también se puede conectar su propio almacenamiento de Azure al servicio para los modelos más grandes. Una amplia gama de algoritmos están disponibles, cortesía de Microsoft y terceros. Ni siquiera necesita una cuenta para probar el servicio; puede iniciar sesión en forma anónima y utilizar Azure ML Studio un máximo de ocho horas.

 

Amazon Machine Learning

El planteamiento general de Amazon para servicios en la nube ha seguido un patrón. Proporcionar los conceptos básicos, atraer una audiencia de base que la cuide, dejar que construyan en la parte más alta y, a continuación, averiguar lo que realmente necesitan y ofrecerlo. Lo mismo podría decirse de su primera incursión en el aprendizaje automático  que ofrece como un servicio, Amazon Machine Learning. Se conecta a los datos almacenados en Amazon S3, Redshift, o RDS, y se puede ejecutar la clasificación binaria, la categorización multiclase, o la regresión de dichos datos para crear un modelo. Sin embargo, el servicio está altamente centrado en Amazon. Además de ser dependiente de los datos almacenados en Amazon, los modelos resultantes no pueden ser importados o exportados, y los conjuntos de datos para los modelos de formación no pueden ser mayores que 100 GB. Aún así, es un comienzo, y muestra cómo el aprendizaje automático se está haciendo práctico en lugar de ser un lujo.

 

Microsoft Distributed Machine Learning Toolkit

Cuantos  más ordenadores tengas  que lanzar en cualquier problema de aprendizaje automático, mejor – pero poniendo juntos máquinas y desarrollar aplicaciones ML  que se ejecuten bien a través de todos ellos puede ser complicado. El marco de Microsoft, DMTK, (Distributed Machine Learning Toolkit) aborda el tema de la distribución de diversos tipos de puestos de trabajo de aprendizaje automático a través de un grupo de sistemas. DMTK está catalogado como un entorno en lugar de solución fuera de la caja en toda regla, por lo que el número de algoritmos reales que incluye en él es pequeño. Pero el diseño de DMTK permite la expansión futura, y a los usuarios sacar el máximo provecho de las agrupaciones de recursos limitados. Por ejemplo, cada nodo del clúster tiene una caché local, lo que reduce la cantidad de tráfico con el nodo servidor central que proporciona parámetros para el trabajo en cuestión.

 

Google TensorFlow

Al igual que DMTK de Microsoft, Google TensorFlow es un marco de aprendizaje automático diseñado para escalar a través de múltiples nodos. Al igual que con Kubernetes de Google, que fue construido para resolver los problemas internamente en Google, y Google finalmente lo ha elegido para lanzarlo como un producto de código abierto. TensorFlow implementa lo que se llaman diagramas de flujo de datos, donde los lotes de datos ( “tensores”) pueden ser procesados por una serie de algoritmos que se describen mediante un gráfico. Los movimientos de los datos a través del sistema se denominan “flujos” – de ahí el nombre. Los gráficos pueden ser ensamblados con C ++ o Python y pueden ser procesados ​​en las CPU o GPU. El plan a largo plazo de Google es que TensorFlow sea desarrollado por contribuciones de terceras partes.

 

Microsoft Computational Network Toolkit

Siguiendo los talones al lanzamiento de DMTK, Microsoft dio a conocer otro conjunto de herramientas de aprendizaje automático, el Computational Network Toolkit, o CNTK para abreviar. CNTK es similar a Google TensorFlow, ya que permite a los usuarios crear redes neuronales por medio de un grafíco dirigido. Microsoft también considera que es comparable a proyectos como Caffe, Theano, y Torch. Su principal ventaja sobre esos marcos es la velocidad, específicamente la capacidad de explotar las dos CPU múltiples y varias GPU en paralelo. Microsoft alega que utilizar CNTK en conjunción con los clústers de la GPU en Azure acelera la formación de reconocimiento de voz de Cortana. Originalmente desarrollado como parte de la investigación de Microsoft en el reconocimiento de voz, CNTK fue ofrecido originalmente como un proyecto de código abierto en abril de 2015, pero desde entonces ha sido re-lanzado en GitHub bajo una licencia mucho más liberal, al estilo del MIT.

 

Veles (Samsung)

Veles es una plataforma distribuida para aplicaciones de aprendizaje profundo, y al igual que TensorFlow y DMTK, está escrito en C ++, aunque utiliza también Python para llevar a cabo la automatización y la coordinación entre los nodos. Los conjuntos de datos pueden ser analizados y automáticamente normalizaron antes de alimentar el clúster, y una API REST permite al  modelo entrenado ser utilizado en la producción inmediatamente (asumiendo que su hardware sea lo suficientemente bueno). El uso de Veles de Python va más allá del simple empleo que se haría de un código de adhesión. IPython (ahora Jupyter), la herramienta de visualización de datos y análisis, puede visualizar y publicar los resultados de un clúster de Veles. Samsung espera lanzar el proyecto como de código abierto lo que impulsará algunos desarrollso, tales como los puertos a Windows y Mac OS X.

 

Brainstorm

Desarrollado a lo largo de 2015 por los estudiantes de doctorado Klaus Greff y Rupesh Srivastava en IDSIA (Instituto Dalle Molle de Inteligencia Artificial) en Lugano, Suiza, el objetivo del proyecto Brainstorm es “hacer las redes neuronales profundas rápidas, flexibles y divertidas”. El soporte ya está incluido para una variedad de modelos de redes neuronales recurrentes, tales como LSTM. Brainstorm utiliza Python para proporcionar dos “handers”, o  APIs de gestión de datos – una para el cálculo de la CPU por la biblioteca Numpy, y otra que aprovecha la GPU a través de CUDA. La mayor parte del trabajo se realiza a través de secuencias de comandos de Python, así que no esperes una rica interfaz gráfica de usuario front-end, a excepción de la que traiga usted mismo. Pero el plan a largo plazo es crear algo que emplee “lecciones aprendidas de proyectos de código abierto anteriores”, y utilice “nuevos elementos de diseño compatible con múltiples plataformas y computación back ends”.

 

mlpack 2

Nuestra evaluación previa de los recursos de aprendizaje automático dio con mlpack, un C ++ – basado en una biblioteca de aprendizaje automático que se puso en marcha en 2011 y diseñado para “escalabilidad, velocidad y facilidad de uso”, según los creadores de la biblioteca. La implementación de mlpack se puede hacer a través de una memoria caché de comandos en línea ejecutables , para operaciones de caja negra, o con un API de C ++ para un trabajo más sofisticado.

 

Marvin

Otra producción relativamente reciente, el marco de la red neural Marvin es un producto del Grupo Vision Princeton. Nació “para ser hackeado”, como sus creadores explican en la documentación para el proyecto, y se basa sólo en unos pocos archivos escritos en C ++ y en el marco de la GPU CUDA. A pesar de que el código en sí mismo sigue siendo deliberadamente mínimo, el proyecto viene con una serie de modelos preentrenados que pueden ser reutilizados con la debida citación y contribuyeron a las solicitudes de extracción como propio código del proyecto.

Neon

Nervana, una empresa que está construyendo su propia plataforma de hardware y software de aprendizaje profundo, ha ofrecido un marco para el aprendizaje profundo llamado Neon como un proyecto de código abierto. Utiliza módulos enchufables para permitir que  el trabajo pesado se haga en la CPU, la  GPU, o en el propio hardware personalizado de Nervana. Neon está escrito principalmente en Python, con unas pocas piezas en C ++ para la velocidad. Esto hace que esté inmediatamente disponible para otros que trabajan en la ciencia de datos en Python o para la mayoría  de los otros marcos que tenga enlaces Python. La versión 2.0 tiene un montón de refactorizaciones y nuevas características, incluyendo muchos nuevos tipos de algoritmos, y los cambios en los ya existentes para acelerarlos o rebajarlos. Por ejemplo, abandona la biblioteca Boost generadora de números aleatorios para funciones aleatorias nativas de C ++ 11.

Una desventaja de muchos años es la falta de enlaces para cualquier idioma que no sea C ++, es decir, los usuarios de todo, desde R a Python no pueden hacer uso de mlpack a menos que alguien lance sus propios envoltorios de dichos idiomas. El trabajo se ha hecho para añadir soporte de MATLAB, pero los proyectos de este tipo tienden a disfrutar de una mayor absorción cuando son directamente útiles en los principales entornos en los que se lleva a cabo el trabajo de aprendizaje automático.

 

Serdar Yegulalp

Google podría estar desarrollando su propio ‘smartphone’

Según información publicada por `TheTelegraph´, Google tiene pensado construir su propio teléfono inteligente desde cero, tal y como ha hecho con el Chromebook y la tableta Pixel.

Este nuevo desarrollo permitiría a Google competir directamente con Apple en el mercado de los smartphones, dominado aún por el iPhone en la mayor parte de Occidente. Según TheThelegraph, una fuente oficial de Google ha afirmado que el teléfono probablemente llegará al mercado a final de año.

Recientemente se ha extendido el rumor de que la compañía está buscando socios para construir sus propios chips, lo que podría aligerar de forma considerable el proceso de reconstrucción de los otros elementos necesarios para el nuevo smartphone. Parece ser que Google también ha contratado al expresidente de Motorola, Rick Osterloh, para dirigir una nueva división de hardware; con este fichaje, la compañía contará con un gran experto en supervisiones de procesos.

Es muy probable que HTC desarrolle dos teléfonos Nexus este año, así que anunciar otro dispositivo móvil tan pronto podría generar cansancio a los usuarios. Por ello, este trabajo entre bastidores podría ser parte de una iniciativa a más largo plazo que se materializaría el próximo año, posiblemente junto al Proyecto ARA de Google de teléfonos modulares. Se trata de un rumor que agrada escuchar, incluso sabiendo que no será posible obtener un hardware nuevo a corto plazo.

Aunque Android domine a nivel mundial el mercado de los smartphones, la diferencia de ingresos con la App Store han sido siempre desafíos para Google. Una forma de solucionarlo es entrando en el negocio de hardware y de esta forma controlar todo: hardware, software y actualizaciones.

 

Irene Muñoz

Cómo lograr ser un desarrollador altamente eficaz

Larry Wall, el autor original del lenguaje de programación Perl, dijo una vez que los grandes programadores tienen tres virtudes: la pereza, la impaciencia y la arrogancia.

Pereza, ya que los impulsa a escribir programas de ahorro de mano de obra y documentación, por lo que no tendrán que responder preguntas sobre ellos. Impaciencia, ya que les motiva a escribir programas que se anticipan a sus necesidades. Y soberbia, ya que les hace querer escribir código apretado que otras personas no criticarán.

Pero los grandes programadores no siempre son los más productivos, y el desarrollador que obtiene trabajo bien hecho a diario, es mucho más eficaz que el que de vez en cuando llega a alturas vertiginosas de codificación. Y para la mayoría de los empleadores lo que cuenta es el área bajo la curva, no el punto más alto que alcanza.

Así que, para maximizar su empleabilidad, no necesariamente tiene que ser un gran desarrollador, pero sí es necesario ser efectivo. Aquí hay siete hábitos que pueden hacer que un desarrollador sea más eficaz.

 

1. Haga por lo menos cuatro horas de codificación cada día
A primera vista esto parece poco ambicioso ‐la mayoría de los codificadores están en sus escritorios durante al menos ocho horas, y muchos por mucho más de 10. Pero Peter Nixey, fundador y CEO del emprendimiento de correo electrónico Copyin, reconoce que muy poco de ese tiempo es dedicado a la labor real de desarrollo.

“He trabajado en proyectos donde los desarrolladores han malgastado su tiempo en reuniones, tenis de mesa, el almuerzo y así sucesivamente”, anota. “Así que cuatro horas de trabajo puro ‐sin interrupciones para conseguir tazas de café‐ son sorprendentemente difíciles de alcanzar en un entorno de oficina”.

Una clave para conseguir esas cuatro horas es evitar las interrupciones. Eso es porque una vez que está “en la zona” y su cerebro está haciendo malabarismos con las variables, una sola interrupción puede provocar la pérdida de hasta una hora a medida que trata de juntar las cosas de nuevo y volver a donde estaba, añade Nixey.

 

2. Encaje con la cultura del equipo de desarrollo
Ser un jugador del equipo y llevarse bien con sus compañeros de trabajo es una parte importante de ser un desarrollador eficaz. Es mucho más importante que tener habilidades de codificación de élite y años de experiencia, de acuerdo con Damien Filiatrault, CEO de la red de desarrolladores ScalablePath.

Señalando lo desagradable que puede ser trabajar con un nerd convencido de que es más listo que los demás, Filiatrault señala que no importa cómo pueden ser las personas con talento, una pregunta clave es, “¿Es divertido trabajar con ellos?” Si la respuesta es no, “puede afectar la moral de todo el equipo”, añade.

Pero no son solo los arrogantes cuyas personalidades causan problemas. También pueden surgir problemas si los desarrolladores son demasiado agradables, o por alguna razón no se sienten cómodos en el ambiente del equipo. Por ejemplo, Filiatrault señala que “los desarrolladores de algunas partes del mundo podrían tratar de evitar conflictos, o pueden estar menos dispuestos a admitir que no pueden hacer algo, y eso puede ser un problema”.

 

3. Codifique en su tiempo libre
Si el único trabajo de desarrollo que hace es el trabajo por el que le pagan, puede ser difícil que aprenda nuevas habilidades y obtener experiencia en nuevos campos. Por eso, Dave Child, fundador del desarrollador web Added Bytes, comenta que es importante hacer algo de código como recreación.

“Los mejores desarrolladores que conozco tienen proyectos secundarios en los que están trabajando”, añade.

Ninguno de esos desarrolladores utiliza las habilidades que necesitan en sus puestos de trabajo remunerados para sus proyectos paralelos, agrega Child. En su lugar utilizan empresas extracurriculares como vehículos para la expansión de sus habilidades, y para mantenerse al día con los nuevos avances tecnológicos en las áreas de su interés.

 

4. Aprenda a escribir código poco riguroso
Muy pocos proyectos requieren desarrolladores brillantes para crear obras geniales de codificación: Lo que se necesita por lo general es una plataforma general donde se puedan construir características específicas en la parte superior.

Nixey señala que la mejor manera de lograr esto es escribir rápidamente algo que funciona y tomarlo desde allí.

“No importa si el código es sucio, repetitivo o si tiene un mal nombre”, indica. “El código es una manifestación de una solución, y puede refactorizarlo y hacerlo bien. Si intenta hacerlo perfecto de inmediato, puede dejarse llevar y lograr muy poco”.

 

5. No se quede en el mismo trabajo durante demasiado tiempo
Una manera segura de perder su eje de codificación es conseguir un trabajo dentro de un equipo de desarrollo y quedarse en la rutina, señala Niño. Eso es porque una vez que domina el trabajo que requiere, llega a un callejón sin salida y ya no avanzan sus habilidades por convertirse en un mejor programador.

“Es necesario ponerse a prueba constantemente”, añade. “Si ha trabajado en algún lugar por un par de años, entonces es probable que haya aprendido varias cosas por el hecho de permanecer allí. Así que no se quede ahí ‐ siga adelante y encuentre un nuevo reto”.

 

6. Nunca deje de aprender
La tecnología de software cambia rápida y constantemente, y eso significa que muchas de las habilidades de codificación vitales de hoy serán obsoletas mañana. Así que, si usted está planeando una carrera a largo plazo en el desarrollo de software, es importante estar al tanto de las nuevas tendencias y lenguajes que van surgiendo.

“El hecho simple es que no puede trabajar el resto de su carrera con el cuerpo actual del conocimiento que tiene ‐tiene que estar preparado para volver a aprender constantemente porque lo que se sabe hoy en día no se sostendrá”, anota Todd Anglin, evangelista jefe en la compañía de desarrollo Progress Software.

Añade que es importante concentrarse en lo que le interesa en lugar de tratar de ser un maestro de todos los oficios. “Tiene que tener una pasión y hambre para continuar, y saber en dónde quiere profundizar. No trate de aprender todo, porque eso es imposible ‐mantenga la concentración y siga aprendiendo”.

Filiatrault está de acuerdo. “Tal vez la mitad de todos los trabajos de desarrollo que hace implicará cosas que no ha hecho antes. Así que la habilidad más importante que puede tener es saber cómo aprender y buscar información”, indica. “Si tiene esa habilidad puede enseñarse a sí mismo lo que le sea necesario”.

 

7. Codifique lo que le importa
Gregor Riegler, autor del blog ‘Sea un mejor desarrollador‘, señala que es vital involucrarse en proyectos que le apasionen para garantizar que pone todo en sus esfuerzos de codificación.

“Lo importante para la motivación es que se preocupe por lo que hace el código”, indica Riegler. “Tal vez pueda hacer el trabajo de una aplicación de una determinada manera, o tal vez haga un trabajo de máquina como usted quiere que lo haga”.

En cualquier caso, añade, “necesita disfrutar lo que está haciendo y tratar de conseguir los mejores resultados posibles. Si encuentra alegría en ello, entonces, desarrollará buen código”.

 

Paul Rubens, CIO.com 

El CEO de Google, víctima de hackeo

El CEO de Google, SundarPichai, se ha convertido en el más reciente ejecutivo tech en ser el blanco de los hackers en redes sociales; el responsable de este ciberataque advirtió de que continuarán los hackeos de este tipo.

Cabe recordar que el domingo, un grupo de hackers llamados OurMine logró tener el control por unos momentos de Pichai en Quora, una red de preguntas y respuestas. “Estamos comprobando nuestra seguridad”, escribió el hacker, lo que ocasionó la publicación automática del mismo mensaje en la cuenta de Twitter, al estar ligadas. La publicación ya fue borrada.

OurMine también es el mismo grupo que logró vulnerar las redes sociales del CEO de Facebook, Mark Zuckerberg, a inicios de este mes. También han revindicado otros ataques, como por ejemplo al CEO de Spotify y a un ejecutivo importante en Amazon.

Los hackers fueron inocuos hasta ahora, sin mayor repercusión o datos sensibles robados de las cuentas. Sin embargo, Silicon Valley sigue preocupado sobre quién podría ser la siguiente víctima.

En el caso de Zuckerberg, los hackers revindicaron que habían conseguido entrar en su cuenta al descubrir que su contraseña de LinkedIn era “dadada”; en el caso de Pichai, OurMine simplemente ha dicho que “su seguridad es muy débil”. El grupo publicó información sobre el ciberataque en su web.

OurMine declaró por medio de un email que continuaría hackeando las cuentas de ejecutivos del mundo de la tecnología y celebridades. La semana pasada, el grupo declaró que también había tomado el control de la cuenta de Twitter de la estrella ChanningTatum y Daniel Ek, el CEO de Spotify, publicando así capturas de pantalla.

El lunes el grupo atacó la cuenta de Twitter del CTO de Amazon, Werner Vogels; según explicó el CTO en un tuit más tarde, ha sido su cuenta de Bitly la que fue comprometida.

Hasta ahora, perece que los hackers están más centrados en conseguir publicidad que otro fin más criminal; OurMine declaró que los usuarios pueden mejorar su seguridad utilizando los servicios que ofrece su grupo.

Por 100 dólares, OurMine asegura que pueden mejorar la seguridad de las cuentas en redes sociales, mientras que por 1,000 dólares revisarán una web en busca de sus vulnerabilidades. “Solo estamos intentando advertir a todo el mundo de que no hay nadie a salvo”, declaró el grupo en un email. Algunas de las cuentas que han podido hacker tenían una contraseña débil, mientras que otras tenían otras vulnerabilidades. Hasta ahora la empresa estima haber ganado 18,400 dólares vendiendo sus servicios.

El costo de una amenaza interna no intencional

Cuando pensamos en una amenaza interna, lo que generalmente nos viene a la mente es un empleado malicioso motivado por dinero, sin embargo, también existen las acciones no intencionales. Una amenaza interna no intencional, ya sean por negligencia o simple descuido, con frecuencia pueden provocar una falla de seguridad que impacta en productividad, tiempo y dinero.

 

Más información aquí.