Decideo: Noticias sobre Inteligencia de Negocios, Big Data, Data Science, Data Mining


Actualidades y análisis

Google propone una llave USB para ejecutar algoritmos directamente en los objetos conectados


, el 15 Marzo 2019 | Leído 1201 veces

Con su oferta TPU, Google invierte en la Edge Computing, es decir, la distribución de potencia de cálculo para la ejecución de algoritmos más cerca de los objetos conectados. Una solución disponible a partir de 75 dólares y que permite ejecutar los algoritmos de aprendizaje de máquina de TensorFlow.



Google propone una llave USB para ejecutar algoritmos directamente en los objetos conectados
Los objetos conectados están llamados a alimentar cada vez más a los algoritmos de tomas de decisión automatizadas. Uno piensa por supuesto en los sistemas de seguridad, vehículos autónomos, robots asesinos (sistemas de armas autónomos), pero los ejemplos son infinitos. Actualmente los objetos conectados están generalmente alejados físicamente de la máquina en la que corren los algoritmos de toma de decisión: los primeros están en campo, la segunda en un centro de datos, ya sea en la empresa o en la nube.
La Edge Computing (« computación en el filo », llamada también « informática en la periferia »), aparentemente similar a una arquitectura cliente-servidor para el caso de objetos conectados, consiste en acercar los recursos de cálculo lo más posible al objeto, permitiéndole adquirir mayor autonomía. En esta arquitectura, podemos imaginar que se ejecutan modelos de aprendizaje de máquina directamente en el objeto conectado, modelos alimentados en tiempo real por datos recolectados por los sensores del objeto.

Pero los modelos de aprendizaje de máquina son pesados en cuanto a la potencia de cálculo requerida. Y los objetos conectados disponen de recursos limitados. A veces, son simplemente pilotados por unidades centrales de no muy altas prestaciones, como los Raspberry Pi.
La idea de Google es desarrollar módulos de expansión, dotados de procesadores de cálculo optimizados para Google TensorFlow. Estos módulos, de tamaño reducido, podrán instalarse directamente en el objeto y ser pilotados por una unidad central. La división AIY Projects de Google es la encargada de estos desarrollos.

Entre la soluciones desarrolladas tenemos dos kits de experimentación: Vision Kit y Voice Kit destinados más bien a « jugar » con estas tecnologías. Pero también hay dos dispositivos para uso profesional, disponibles a través de la marca Coral, listos para ser montados en soluciones más de tipo industrial. Se trata de las soluciones « Edge TPU ». TPU significa Tensor Processing Unit, es decir, un procesador dedicado a la ejecución de redes neuronales de Google TensorFlow. Anunciadas en la conferencia Google en 2016, ahora se encuentran disponibles en versiones bastante asequibles : una tarjeta de desarrollo por 150 dólares y un acelerador USB por 75 dólares. En 2019, un módulo completo, listo para conexión, debería también salir al mercado.

Nicolas Debay, DSI Data Science Institute
Nicolas Debay, DSI Data Science Institute
Le pedimos a Nicolas Debray, responsable de prácticas de ingeniería de datos del DSI Data Science Institute en Montreal, que imaginase algunos escenarios de uso de estos módulos embebidos para aceleración de algoritmos de aprendizaje de máquina: « El bajo consumo eléctrico de estos módulos los hace perfectos para su instalación en drones: estabilización de la cámara, estabilización del pilotaje, detección del blanco, mecanismos para esquivar obstáculos. Otras aplicaciones podrían ser la apertura automática de puertas con base en la detección del rostro de las personas autorizadas, reconocimiento de voz, etc. Otro campo de experimentación, la detección de incidentes en ambientes no conectados de manera permanente a la red, en el fondo de una mina, en medio de llanuras o en la montaña, durante un vuelo, etc. »

De manera más global, constatamos un aumento permanente del volumen de datos generados por los objetos conectados. Es el caso de las ciudades inteligentes (smart cities). Pero las capacidades de ancho de banda no siempre se mantendrán a la par, a pesar del desarrollo próximo de la 5G. « Necesitamos distribuir los procesos de cálculo para evitar el embotellamiento de las redes », explica Nicolas Debray.

Sin embargo no vaya a imaginarse que podrá reemplazar una granja de servidores en la nube por unos cuantos dispositivos de este tipo. Las capacidades no son comparables. Incluso si esto podría ser propuesto en las próximas versiones, estas herramientas por ahora sólo son capaces de ejecutar modelos, pero no de entrenarlos a través de una matriz de aprendizaje. « No son capaces de recordar y de trabajar con los datos del pasado ». De acuerdo a Nicolas Debray estamos todavía lejos de sistemas autónomos, que aprenderían de su propia experiencia, y ejecutarían entonces todo el proceso de modelado- aprendizaje-ejecución-retroacción.




Nuevo comentario:
Twitter

Usted puede comentar o proporcionar más información a todos los artículos de este sitio. Los comentarios son libres y abiertos a todos. Sin embargo, nos reservamos el derecho a eliminar, sin previo aviso ni explicación, todo comentario que no cumpla con nuestras normas internas de funcionamiento, es decir, cualquier comentario difamatorio o sin relación con el tema del artículo. Así mismo, los comentarios anónimos son eliminados sistemáticamente si son demasiado negativos o muy positivos. Exprese sus opiniones, compártalas con los demás y asúmalas. Gracias de antemano. Igualmente, agradecemos tener en cuenta que los comentarios no sean enviados automáticamente a los redactores de cada artículo. Si usted desea realizar una pregunta al autor de un artículo, contáctelo directamente, no utilice los comentarios.


Twitter
Rss
LinkedIn
Google+
Facebook