Inteligencia de negocios y big data para el mundo hispano parlante.

¡Subscríbase al boletín gratuito!


Inteligencia de Negocios en Español - Decideo.com





Noticias

Los investigadores utilizan las GPU para crear la mayor red neuronal artificial del mundo


Nota de Nvidia, el 18 Junio 2013 | Leído 5 veces

La aceleración del Aprendizaje Automático y la minería de datos en la GPU mejorará drásticamente las funciones de reconocimiento de objetos, voz, sonido, imágenes y vídeo



NVIDIA acaba de comunicar que ha colaborado con un equipo de investigadores de la Universidad de Stanford para crear la red neuronal artificial más grande del mundo con el objetivo de reproducir la forma en que aprende la mente humana. La red es 6,5 veces más grande que la anterior poseedora del récord, desarrollada por Google en 2012.

Las redes neuronales basadas en sistemas informáticos pueden aprender a imitar el comportamiento del cerebro, lo que incluye las capacidades que éste posee para reconocer objetos, personas, voces y sonidos.

Sin embargo, crear este tipo de redes a gran escala es extremadamente costoso desde el punto de vista computacional. Por ejemplo, Google utilizó aproximadamente 1000 servidores basados en CPU (o 16.000 núcleos de CPU) para desarrollar su red, que se enseñó a sí misma a reconocer a los gatos en una serie de vídeos de YouTube. El sistema incluía 1700 millones de parámetros, es decir, la representación virtual de las conexiones entre neuronas.

Por su parte, el equipo de Stanford, encabezado por Andrew Ng, director del Laboratorio de Inteligencia Artificial de la universidad, creó una red de igual tamaño pero basada únicamente en tres servidores provistos de GPU NVIDIA® para acelerar el procesamiento del enorme volumen de datos generados por la red. Posteriormente, el equipo creó una red neuronal de 11.200 millones de parámetros, un tamaño 6,5 veces superior al de la red anunciada por Google en 2012, utilizando 16 servidores acelerados con GPU NVIDIA.

Cuanto mayor y más potente es la red, más probabilidades tiene de mejorar su precisión en tareas tales como el reconocimiento de objetos y, de esta forma, aproximarse en mayor medida al comportamiento de la mente humana. Ayer se publicó un artículo sobre la investigación de Stanford en la conferencia internacional sobre Aprendizaje Automático (ICML).

Según afirma Sumit Gupta, director general de la división de procesadores Tesla en NVIDIA, “Al brindar una capacidad de cálculo considerablemente superior a la de las GPU, las GPU aceleradoras ponen la modelización de redes neuronales a gran escala al alcance de un público mucho más amplio. Ahora, cualquier investigador o empresa puede utilizar el aprendizaje automático para resolver todo tipo de problemas con tan solo utilizar unos pocos servidores acelerados con GPU”.

Las GPU aceleran el Aprendizaje Automático
El Aprendizaje Automático, una rama cada vez más importante de la inteligencia artificial (IA), es la ciencia que permite a los ordenadores actuar sin haber sido expresamente programados para ello. En la última década, esta disciplina nos ha proporcionado vehículos capaces de desplazarse sin conductor, buscadores de Internet sumamente eficaces y una comprensión muy superior del genoma humano. Muchos investigadores consideran que es la mejor forma de avanzar hacia una IA equiparable a la inteligencia humana.

Una de las empresas que utilizan las GPU en está área es Nuance, una de las principales desarrolladoras de tecnologías de reconocimiento de voz y procesamiento del lenguaje natural.Nuance enseña a sus modelos de redes neuronales a comprender el habla de los usuarios utilizando terabytes de datos de audio. Una vez enseñados, los modelos pueden reconocer el patrón de las palabras pronunciadas relacionándolo con patrones que han aprendido con anterioridad.

"Las GPU aceleran considerablemente el entrenamiento de nuestras redes neuronales con grandes cantidades de datos, lo que nos permite estudiar rápidamente nuevos algoritmos y técnicas de aprendizaje", señala Vlad Sejnoha, responsable de tecnología en Nuance, que concluye afirmando: "Los modelos resultantes mejoran la precisión de todas las tecnologías de Nuance en el ámbito de la sanidad, la empresa y el mercado de consumo".

NVIDIA estará presente esta semana (stand 220) en la Conferencia Internacional de Supercomputación (ISC) 2013 que se celebra del 16 al 20 de junio en Leipzig, Alemania.




Nuevo comentario:
Facebook Twitter

Usted puede comentar o proporcionar más información a todos los artículos de este sitio. Los comentarios son libres y abiertos a todos. Sin embargo, nos reservamos el derecho a eliminar, sin previo aviso ni explicación, todo comentario que no cumpla con nuestras normas internas de funcionamiento, es decir, cualquier comentario difamatorio o sin relación con el tema del artículo. Así mismo, los comentarios anónimos son eliminados sistemáticamente si son demasiado negativos o muy positivos. Exprese sus opiniones, compártalas con los demás y asúmalas. Gracias de antemano. Igualmente, agradecemos tener en cuenta que los comentarios no sean enviados automáticamente a los redactores de cada artículo. Si usted desea realizar una pregunta al autor de un artículo, contáctelo directamente, no utilice los comentarios.


Twitter
Rss
LinkedIn
Google+
Facebook
Pinterest