Etiqueta: aprendizaje

El papel de las TI en la educación

Las necesidades de aprendizaje de las nuevas generaciones son diferentes. La actual era digital demanda herramientas que permitan el intercambio ágil de información, conectividad inmediata e ininterrumpida, así como el uso de las redes por parte de los usuarios -que antes se reservaban para otros fines- para su propia educación. La tecnología avanza a pasos agigantados llegando a todos los sectores de la sociedad, y en este camino las instituciones educativas no son la excepción.

Hasta hace algunos años, las universidades ofrecían clases vía satélite, una gran innovación en su momento para acercar el conocimiento a lugares distantes; pero con la llegada de internet esto quedó atrás:

“Las instituciones educativas han buscado utilizar estas nuevas tecnologías para congregar conocimientos y acercar a los estudiantes, por ello adaptaron las redes de internet para el desarrollo de nuevas tecnologías educativas. Sin embargo, éstas han cambiado con el tiempo, por lo que deben poder soportar más usuarios y aplicaciones que consumen mayor ancho de banda”, puntualizó Ramses González, Gerente de Ventas de la Zona Norte de México en CommScope.

 

El modelo educativo se transforma

En la búsqueda de alinear su estrategia tecnológica a los requerimientos actuales, algunas instituciones de educación superior en América Latina han comenzado a implementar plataformas de conectividad en sus instalaciones.

Las universidades buscan que su infraestructura tecnológica sea capaz de soportar la nueva estrategia educativa por los siguientes 20 años.

Para Ramsés González, una plataforma de conectividad de vanguardia puede asegurar la continuidad y calidad de los servicios académicos, pero no sólo eso. “Al automatizar la infraestructura se reducen costos de operación y se garantiza la capacidad de proveer el mismo nivel de servicio a cada alumno en cualquier campus que se encuentre.”

Aunque en el sector educativo los retos son aún muchos para poder aplicar las nuevas tecnologías, sobre todo en las instituciones que cuentan con diferentes instalaciones o campus, un análisis profundo puede hacer más eficiente el trabajo frente a distintos retos:

Para Giovanni Silva, Especialista en Centros de Datos en MTnet, diferentes topologías de red, estilos de construcción, niveles de antigüedad del cableado y diversas culturas de trabajo pueden representar problemas graves si no se tiene un plan de trabajo adecuado.

La capacidad de controlar las variables que se presentan bajo un mismo plan bien orquestado, con alcances bien definidos y previsiones de riesgo adecuadas, facilitan el desarrollo de los proyectos de forma eficiente”, puntualizó.

 

¿Cómo impacta en la educación?

La coordinación efectiva de todas las áreas involucradas, no solamente del departamento de TI, aunada de la preparación adecuada del personal involucrado en el diseño, implementación y operación de las soluciones tecnológicas no sólo garantiza el eficiente funcionamiento de la plataforma de conectividad. Una plataforma de vanguardia, implementada y lista para los siguientes 20 años, con un control centralizado y un sistema de monitoreo inteligente asegura la continuidad y calidad de los servicios académicos, lo cual implica que los alumnos, y la institución misma, estará preparada para afrontar los desafíos que puede tener el desarrollo tecnológico futuro.

“Un salón de clases vanguardista hoy es muy distinto a lo que se llamaba tecnología de punta hasta hace sólo algunos años. El sector educativo se está transformando de manera acelerada, por ello rol de una plataforma de conectividad para soportar los contenidos de educación y la transformación digital cobra cada vez más relevancia. Hoy ninguna institución educativa, ya sea pública o privada, puede darse el lujo de ignorar esto, pues corre el riesgo de quedarse atrás. Este tipo de tecnología es solo parte de los cimientos para poder seguir avanzando al paso que las nuevas generaciones de alumnos, conectados y ávidos de información, demanda”, finalizó Ramses González, Gerente de Ventas de la Zona Norte de México en CommScope.

 

N. de P.

La Realidad Virtual como aliado en el sector educación

La realidad virtual está cambiando fundamentalmente la educación. El crecimiento exponencial de la computación, visualización de gráficos, procesamiento de audio, y la retroalimentación táctil se han combinado con la computación portátil y el Internet de las Cosas, para crear entornos virtuales tan reales, que la experiencia ha sido descrita como “alucinante”. La tecnología actual no se parece a lo presentado por los precursores como Nintendo Virtual Boy o Sega VR.

Ahora la Realidad Virtual busca adaptarse a las aulas, la cual combina objetos generados por una computadora y los relaciona con el mundo real. Esto permite a los estudiantes para ver y tocar objetos virtuales en 3D. También ven el profesor y otros estudiantes en la medida en que interactúan en el mundo de realidad mixta. Extreme Networks realizó en junio pasado, una encuesta llamada “Realidad Virtual en el aula” a maestros, educadores y pedagogos en escuelas de educación básica. La encuesta arrojó datos interesantes:

  • El 23% de los encuestados han usado o intentado usar realidad virtual en alguna iniciativa educativa.
  • El 53% de los encuestados están algo familiarizados con el concepto de realidad virtual y empiezan a investigar.
  • Sólo el 5% de los encuestados, utiliza realidad virtual en el aula actualmente.
  • La Ciencia es la asignatura que acapara el uso de la realidad virtual en el aula.
  • El 68% de los encuestados cree que el uso de la realidad virtual en el aula incentiva a los alumnos a estudiar.
  • El 47% cree que aún no hay suficiente contenido educativo para ser utilizado con realidad virtual.
  • El 32% de los encuestados está muy seguro que la infraestructura de red de su escuela / institución académica puede soportar tecnología de realidad virtual.

La realidad virtual no se utiliza regularmente y 40% de las escuelas todavía no están seguras de sí van a utilizar la tecnología en el futuro. Muy pocos, sólo el 3%, están llevando a cabo iniciativas de realidad virtual como un siguiente paso, enseñando a los estudiantes cómo codificar y crear contenidos virtuales.

Dado que la realidad virtual en la educación se ha utilizado mundialmente desde hace 10 años aproximadamente, su aplicación en México es mucho más reciente, realizándose de manera importante hace apenas 6 años. Sin embargo, la RV es un proyecto que ya está comenzando a generar expectativas, pues Manuel Gutiérrez, inventor del formato 3D BluRay, está en planes de poder traer al país su tecnología de lentes de realidad aumentada que podrían servir como una herramienta fundamental para el desarrollo de la educación en todos los niveles.

Mientras tanto, la UNAM ya cuenta con un laboratorio de Realidad Virtual inversiva, llamado Ixtli, que cuenta con un sistema de cómputo de alto rendimiento. Permite explorar y experimentar con diversas situaciones inaccesibles que son difíciles de manipular por métodos comunes, por ejemplo, el desarrollo embrionario, visualización de procesos volcánicos, simulación de vuelo, y el manejo del trastorno de estrés postraumático en víctimas de delincuencia.

Algunos avances en materia de realidad virtual que se han dado desde que se llevó a cabo esta encuesta en junio de 2016 son:

  • Google ha eliminado restricciones en Expeditions, el programa de viajes de realidad virtual. Google Expeditions es uno de los programas de realidad virtual más ambiciosos y con mejor recepción, por la calidad de su contenido en realidad virtual. Desde junio, las restricciones que su sistema tenía, fueron retiradas.
  • Intel anunció recientemente el Proyecto Alloy, lo que confirma la importancia en el desarrollo de la realidad virtual, si consideramos el tamaño e importancia de un jugador como Intel. En palabras de la empresa: “Proyecto Alloy es una solución que refuerza la tecnología Intel RealSense; éste será ofertado en 2017 como una plataforma abierta.
  • Samsung Gear VR se ha vuelto mucho más cómodo. Es uno de los sistemas de realidad virtual más asequibles en el mercado. Su peso es ahora ultraligero, lo que lo convierte en una opción perfecta para los jóvenes.
  • En ISTE 2016 las sesiones con realidad virtual fueron muy populares. La conferencia sobre tecnología en la educación, integró diversas sesiones, paneles y demostraciones de realidad virtual en el salón de clases. Particularmente impresionantes, fueron las demostraciones de zSpace, Google y Lifeliqe.

Sobre estos acontecimientos, la realidad aumentada se suma a la lista de nuevas tecnologías con un gran potencial de crecimiento y facilitadoras de procesos de negocios, estilo de vida, y ciencia; y para la educación, la realidad virtual impulsa de manera considerable el desarrollo de las personas en el proceso cognitivo. Las nuevas generaciones de estudiantes podrán estar mejor preparados y enfrentar los nuevos cambios.

N. de P. Extreme Networks

Intel afina su megachip para el machine learning

Intel afina su megachip para el machine learning

La firma de microprocesadores prepara la actualización de la familia de chips adaptada a la era del aprendizaje automático, donde competirá con otras soluciones del mercado como las TPU de Google o las GPU de Nvidia.

Intel quiere seguir asumiendo su rol de líder en el nuevo escenario tecnológico para el que se pronostica un auténtico “boom” de chips para tendencias como IoT, Cloud, Big Data y tecnologías que lo cambiarán todo, asociadas al machine learning y el tratamiento de los datos. Sin embargo, la compañía debe acelerar sus pautas de innovación, puesto que ya no será suficiente con su actual modelo de desarrollo de dos fases conocidas como Tick Tock, optimizando los procesos de fabricación y reduciendo el área de sus transistores en la primera de ellas, y rediseñando la arquitectura del procesador en la segunda fase. La competencia aprieta y el mercado demanda ciclos de desarrollo mucho más ágiles.

La compañía se ha percatado de esta necesidad y se ha puesto en marcha en la evolución de los chips de PC para evolucionar el silicio dirigido a centros de datos e IoT. Ahora sabemos que los modelos Xeon Phi van a contar con nuevas características machine learning, según ha destacado recientemente Nidhi Chappell, director de aprendizaje automático de Intel. Más allá de su definición, estos chips mejorarán su comportamiento con el nuevo software, entrenado para tareas como el reconocimiento de imágenes o el análisis de datos de manera mucho más eficiente.

Intel no ha desvelado cuando serán añadidas estas nuevas características, pero la próxima versión de Xeon Phi, prevista para el año 2018, podría incluir estas mejoras, adoptando nuevas instrucciones preparadas para el aprendizaje automático de la máquina. Se trata de un procesador con nombre en código Knights Landing que cuenta con hasta 72 núcleos de CPU. El chip todavía está siendo probado pero la compañía cree que puede superar a las GPU de otros fabricantes. Podría estar formada por una CPU principal, acompañada de un coprocesador con el fin de mejorar el rendimiento en supercomputación. El Xeon Phi reduce la necesidad de extraer los datos, dado que muchas de las tareas de aprendizaje automático se llevan a cabo hoy en día por parte de la GPU. Google anunció el pasado mes de mayo su modelo TPU (Tensor Processing Unit) de similares características a la GPU de Nvidia.

Chappell comenta que Intel MIC puede ser encapsulado con conexiones internas de alta velocidad que favorecerán su uso en entornos machine learning. Intel está intentando enlazar sus Xeon Phi con el OmniPatch para agilizar la transmisión de datos entre distintos servidores conectados.

Además, ampliará el soporte para el código abierto. La compañía está construyendo modelos de ‘machine learning’ en torno a Coffee, un paquete de código abierto. Los chips Xeon Phi podrían ultimar el soporte TensorFlow, el software de código abierto ‘machine learning’ de Google.

Intel ve a futuro in gran potencial en áreas como la medicina y el procesamiento de imágenes, donde los modelos de aprendizaje pueden ayudar a dar sentido a los datos. Por citar un ejemplo, el chip podría ayudar a identificar enfermedades de forma prematura, o a clasificar una imagen mediante el análisis de píxeles.

Intel cree que los chips podrían ser utilizados en áreas como la medicina y el procesamiento de imágenes, donde los modelos de aprendizaje pueden ayudar a dar sentido a los datos. Por ejemplo, el chip podría ayudar a identificar una enfermedad, o podría ayudar a clasificar una imagen mediante el análisis de píxeles. El objetivo es reducir los tiempos de cálculo, destaca Chappell.

Alfonso Casas

 

IBM desarrollará computadoras que imiten las capacidades cerebrales

En la última versión del NS16e, el cual sigue su progreso. El sistema alcanza el mismo tipo de resultados obtenidos por los algoritmos de aprendizaje automático en las computadoras que realizan reconocimiento de patrones.

IBM quiere crear computadoras inteligentes que puedan llegar a tomar decisiones como si de una persona se tratara. Por ello, esta semana ha lanzado el NS16e, su última proyección en este ámbito. Sin embargo, desde la empresa reconocen que tienen aún grandes metas por delante.

En principio, la multinacional tiene pensado desarrollar varias versiones más grandes del NS16e para intentar igualar las complejidades de un cerebro humano. “Tal vez un día podamos ver un único rack de sistema Neurosynaptic con el mayor número de neuronas y conexiones posible”, ha dicho Jun Sawada, investigador de IBM.

Actualmente los esfuerzos que se realizan para imitar sistemas cerebrales están destinados a proporcionar una gran cantidad de datos de una manera más eficiente energéticamente que los actuales equipos de cómputo. Desde IBM creen que el NS16e puede procesar enormes cantidades de información mientras que consume la misma potencia que una tableta.

Esta nueva herramienta se basa en una arquitectura de chip avanzado llamado TrueNorth que puede retener la información y tomar decisiones basadas en los patrones descubiertos por medio de probabilidades y asociaciones. A través del uso de modelos de aprendizaje y algoritmos la computadora puede asociar datos tanto pasados como actuales con patrones y clasificaciones.

De alguna forma, el sistema alcanza el mismo tipo de resultados obtenidos por los algoritmos de aprendizaje automático en computadoras que realizan el reconocimiento de patrones. Por ejemplo, estos modelos se utilizan para reconocer objetos en imágenes y para los coches autónomos que reconocen peatones o señales de tráfico.

Sin embargo, la computadora de IBM se diferencia en que utiliza circuitos para aproximarse a la forma en que funcionan las neuronas y las sinapsis del cerebro. La compañía ha rediseñado las funciones de memoria, cálculo y comunicación para poder ser más eficientes en el procesamiento de datos.

“En nuestro cerebro, una cierta porción de la corteza es responsable del reconocimiento visual y otras partes son responsables de la función motora. El NS16e tiene algo similar. Puedes asignar al chip las funciones que lleve a cabo, partiendo de una gran red neuronal”, ha asegurado Sawada.

El NS16e tiene 16 chips TrueNorth que están interconectados en una malla, que asciende al equivalente de aproximadamente 16 millones de neuronas y 4 000 millones de sinapsis. Aun así, se trata de una escala muy inferior a la del cerebro humano, que tiene 100 000 millones de neuronas que se comunican a través de billones de conexiones.

“El sistema está todavía en evolución. Estamos creando continuamente nuevos algoritmos de aprendizaje y nuevas técnicas de generación de modelos”, ha expresado Sawada.

Redacción

Trece modelos de aprendizaje automático (Parte 1/4)

En los últimos años, el Aprendizaje Automático, o “machine learning”, se ha colocado en la primera línea de la actualidad de las tecnologías emergentes. Esta tendencia ha crecido enormemente con la explosión de infraestructuras y metodologías que facilitan llevar a cabo desarrollos orientados al aprendizaje de máquinas.

Todos los modelos orientados al aprendizaje automático están desarrollados en código abierto, pero lo más destacado de todos ellos es el modo en el que han sido diseñados para abstraer al usuario de los mecanismos más complejos que intervienen en el aprendizaje automático, facilitando y haciendo accesibles sus técnicas a un colectivo de desarrolladores mucho más extenso.

Trece modelos de desarrollo de machine learning destacan en el panorama -se trata de sistemas de nueva incorporación o bien que han sido actualizados en los últimos meses-, generalmente todos llaman la atención por ser productos que tienen una gran aceptación en el sector TI, por tratar de aportar simplicidad a los procesos, o bien por abordar algún tipo de reto específico asociado con el aprendizaje de las máquinas.

Apache Spark MLlib

Se trata de uno de los sistemas más conocidos en el mercado por pertenecer a la familia Hadoop. No obstante, dispone de un modelo de procesamiento de datos para la memoria interna que ha sido desarrollado fuera del ecosistema Hadoop, lo que le facilita su entrada en otros entornos diferentes. Spark se ha convertido en una herramienta de aprendizaje en desarrollo de sistemas de learning machine gracias a una extensa y creciente librería de algoritmos que pueden ser aplicados con información en la memoria interna del sistema a la velocidad de la luz.

Apache Singa

Muy similar a lo que sucede en los procesos naturales, las estructuras que gestionan el aprendizaje automático profundo de Singa también gestionan el lenguaje y el reconocimiento visual. Este sistema ha sido aceptado para formar parte de Apache Icubator, una red de código abierto cuya finalidad es facilitar el proceso en la realización de modelos de aprendizaje profundo de máquinas que han de operar con grandes volúmenes de datos. Singa dispone de un modelo de programación simple que permite la implementación de técnicas de aprendizaje a redes formadas por clusters de máquinas y soportando una gran variedad de trabajos de aprendizaje.

Caffe

Originalmente desarrollada en 2013 para proyectos de visión artificial, Caffe se corresponde con un modelo de aprendizaje automático profundo, pero “creado con los atributos de expresión, inmediatez o modularidad en mente”, señaló la firma. Caffe ha experimentado una gran expansión tras culminar con éxito sus proyectos de visión artificial, pasando a destacar en otras aplicaciones multimedia. La velocidad es la prioridad máxima para Caffe, un motivo que le ha llevado a desarrollar el sistema con lenguaje C++ con la ayuda de la aceleración de CUDA.

-Computerworld

 

Microsoft lanza un servicio para ayudar a predecir el futuro

Microsoft pronto ofrecerá un servicio dirigido a ampliar el uso de la tecnología de aprendizaje de máquina.

 

“Queremos llevar el aprendizaje de máquina a más personas”, sostuvo Eron Kelly, vicepresidente corporativo y director de marketing de SQL Server de Microsoft, sobre Microsoft Azure Machine Learning, programado para lanzarse en fase beta en julio. “La gente de negocios y los equipos de marketing realmente quieren usar los datos para avanzar, pero los volúmenes de los datos se están volviendo tan grandes que es difícil para las empresas filtrarlos”, indicó el ejecutivo.

 

El aprendizaje de máquina, que es un subproducto de la inteligencia artificial, utiliza algoritmos para que las computadoras reconozcan el comportamiento en grandes conjuntos de datos. Puede ser superior a las formas tradicionales de inteligencia de negocios, ya que ofrece una forma de predecir eventos y comportamientos futuros en base a acciones pasadas.

 

Esta tecnología, que se refinó en la academia en las pasadas décadas, está comenzando a calar en algunos usos de negocio como la detección del fraude en las tarjetas de crédito. Microsoft usa la tecnología para refinar su asistente personal Cortana, así como para planificar cuánto hardware va a necesitar para continuar construyendo sus servicios de computadoras alojadas Azure.

 

La meta de Microsoft es simplificar el proceso de uso del aprendizaje de máquina, para que pueda ser fácilmente usado por un conjunto más amplio de desarrolladores, analistas de negocio y científicos de datos. El servicio apunta a “combinar el poder del aprendizaje de máquina con la simplicidad de la nube”, indicó Kelly.

 

Generalmente, las implementaciones de aprendizaje de máquina a escala industrial pueden requerir de un gran número de servidores, así como de un considerable expertise en entender la forma para aplicar, e implementar, los algoritmos del aprendizaje de máquina.

 

Debido a que es un servicio, Azure ML elimina el problema de conseguir hardware, un requerimiento que podría matar a un proyecto experimental de aprendizaje de máquina. La compañía también ha trabajado para simplificar el proceso de desplegar los algoritmos del aprendizaje de máquina y las herramientas asociadas.

 

El servicio presenta una interfaz llamada Machine Learning Studio. La paleta incluye iconos visuales para algunos de los algoritmos más utilizados, lo cual permite al usuario ‘jalar y soltarlos’ en un flujo de trabajo mostrado visualmente.

 

El estudio también puede ser usado para construir y ‘capacitar’ a nuevos modelos de análisis. Los desarrolladores pueden escribir y compartir sus propios algoritmos, escritos en el lenguaje de programación R. El estudio también viene con un conjunto de plantillas para los patrones de aprendizaje más comunes.

 

“Uno entrena al modelo con datos históricos, lo afina y optimiza, y luego uno puede ver el resultado”, indicó Kelly. Muchos proyectos de aprendizaje de máquina prueban varios modelos algorítmicos para ver cuál predice las acciones futuras con mayor exactitud.

 

Una vez que se completa un modelo de análisis, puede ser publicado como servicio web en Azure, usando un conjunto de controles visuales que Microsoft ha proporcionado. Los usuarios pueden luego proporcionar los datos a través de una API y tener los resultados en un sistema on premise, o en Azure u otro servicio de nube.

 

El servicio también tendrá un SDK para integradores y desarrolladores de software externos que deseen construir sus propios servicios y aplicaciones desde Azure ML.

 

Azure ML ha estado en fase beta privada durante el año pasado con clientes selectos. Con la ayuda de Max 452, empresa constructora de sistemas Microsoft, una gran firma de retail ha usado el servicio para predecir qué es lo que los clientes individuales van a comprar.

 

La Universidad Carnegie Mellon, de Pittsburgh, que trabajó con el proveedor de aplicaciones OSISoft, usa el servicio para estudiar el uso de la energía en los edificios de su campo, así como para monitorear las caídas.

 

Microsoft no dio a conocer el precio de Azure ML pero se estima que lo hará cuando el producto esté plenamente disponible para comercialización, aunque la fecha de ese momento tampoco ha sido anunciada.

 

Joab Jackson, IDG News Service