Las redes neuronales han sido un tema candente en los últimos tiempos, pero evaluar la forma más eficiente de crear una para procesar una pila de datos dada sigue siendo un asunto arduo. Diseñar sistemas que puedan usar algoritmos para construirse de la manera más óptima sigue siendo un campo incipiente, pero los investigadores del MIT han desarrollado un algoritmo que puede acelerar el proceso hasta 200 veces.


El algoritmo NAS

El algoritmo NAS (búsqueda de arquitectura neuronal, en este contexto) que desarrollaron «puede aprender directamente redes neuronales convolucionales (CNN) especializadas para plataformas de hardware de destino, cuando se ejecutan en un conjunto de datos de imagen masivo, en solo 200 horas de GPU«, informa MIT News. Esta es una mejora masiva en las 48,000 horas que Google informó haber tomado para desarrollar un algoritmo NAS de última generación para la clasificación de imágenes. El objetivo de los investigadores es democratizar la IA permitiendo que los investigadores experimenten con varios aspectos del diseño de CNN sin necesidad de enormes arreglos de GPU para realizar el trabajo de front-end. Si la búsqueda de enfoques de vanguardia requiere 48,000 arreglos de GPU, muy pocas personas, incluso en grandes instituciones, tendrán la oportunidad de intentarlo.

Resultado de imagen de redes neuronales

Aumento de velocidad y funcionamiento

Los algoritmos producidos por el nuevo NAS fueron, en promedio, 1,8 veces más rápidos que los CNN probados en un dispositivo móvil con una precisión similar. El nuevo algoritmo aprovechó técnicas como la binarización a nivel de ruta, que almacena solo una ruta a la vez para reducir el consumo de memoria en un orden de magnitud. El MIT en realidad no se vincula con informes de investigación específicos. Los equipos se centraron en podar caminos enteros potenciales para que los CNN los usaran, evaluando cada uno de ellos. Las rutas de menor probabilidad se eliminan sucesivamente, dejando la ruta óptima en el mejor de los casos.

Si te interesa ver código relacionado con REDES NEURONALES te dejo por aquí un articulo realmente interesante

Nuevo modelo

El nuevo modelo incorporó otras mejoras también. Las arquitecturas se verificaron en las plataformas de hardware para determinar la latencia cuando se evaluaron. En algunos casos, su modelo predijo un rendimiento superior para plataformas que se habían descartado como ineficientes. Por ejemplo, los filtros 7 × 7 para la clasificación de imágenes generalmente no se usan, ya que son bastante costosos desde el punto de vista computacional, pero el equipo de investigación encontró que estos realmente funcionaron bien para las GPU.

Resultado de imagen de redes neuronales

«Esto va en contra del pensamiento humano anterior«, dijo Han Cai, uno de los científicos, a MIT News. “Cuanto más grande es el espacio de búsqueda, más cosas desconocidas puedes encontrar«. No sabes si algo será mejor que la experiencia humana pasada. Deja que la IA lo resuelva.

Estos esfuerzos para mejorar el rendimiento y las capacidades de la inteligencia artificial todavía están en la etapa en la que son posibles enormes mejoras. Como hemos discutido recientemente, con el tiempo el campo se verá limitado por los mismos descubrimientos que lo impulsarán. Los aceleradores y los procesadores de inteligencia artificial ofrecen enormes ventajas de rendimiento a corto plazo, pero no son un sustituto fundamental de la escala que históricamente ofrece el avance de la ley de Moore.

Categorías: BIG DATAMACHINE LEARNINGTECNOLOGÍA

1 comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

A %d blogueros les gusta esto: