Los llamados 'ordenadores de escala milímetrica' o 'micromotes' no son nuevos, llevan varios años desarrollándose con la idea de impulsar dispositivos diminutos para un consumo energético mínimo, sobre todo para dispositivos IoT. La Universidad de Michigan es la que se ha encargado de investigar más a fondo dentro de esta tecnología, de hecho hace dos años nos presentaron su primer apuesta con el M^3.
Hoy en el marco de la Conferencia Internacional de Circuitos de Estado Sólido de la IEEE (ISSCC), los informáticos David Blaauw y Dennis Sylvester de la Universidad de Michigan presentaron la más reciente actualización a su micromote, el cual ha disminuido de forma importante su consumo energético, ampliado su memoria, pero lo más relevante es que ahora es capaz de integrar todo un sistema de inteligencia artificial.
Redes Neuronales y Deep Learning en un ordenador del tamaño de un grano de arroz
Algunos pronostican que para el año 2035 tendremos un trillón de dispositivos conectados enviando información a la nube, y de aquí sólo será útil cerca del 40%, ya que el resto se tratará de información en bruto captada por micrófonos, cámaras de seguridad, y otro tipo de sensores. Por lo anterior es importante crear dispositivos "más inteligentes" que no sólo capten información, sino también que sepan analizarla.
El desarrollo de este nuevo micromote cuenta con la colaboración de TSMC (Taiwan Semiconductor Manufacturing Company), y se trata de al menos 10 diseños que han sido creados para operar con sólo unos nanovatios, pero esto sin perder potencia de procesamiento, ya que también son capaces de ejecutar redes neuronales y procesos de deep learning.
La presencia de un procesador capaz de ejecutar tareas de inteligencia artificial se debe a una ampliación en la memoria, que ahora llega a un megabyte de memoria flash, un avance importante después de que la primera versión sólo contaba con 8 kilobytes de SRAM. Lo atractivo de este nuevo diseño es que han logrado mantener el tamaño de tan sólo un milímetro cúbico, todo un bajo consumo de sólo 288 microvatios.

Ahora ¿para qué queremos inteligencia artificial en un ordenador tan diminuto? La respuesta corta es para que la información enviada a la nube sea de calidad y se aproveche en mayor medida. Por ejemplo, una cámara de seguridad sólo se activará cuando escuche voces o registre rostros, y así no nos llenemos de vídeos donde no se ve nada o ésta sea activada cada vez que un árbol se mueve.
Esto también aplica a dispositivos médicos que sólo enviarían datos cuando se presente una emergencia, o bien, dispositivos en oficinas que sepan cuando una puerta se debe abrir al identificar a una persona autorizada, o desactivar el aire acondicionado cuando la cámara detecte que la mayoría de la gente se está abrigando. Vamos, su uso puede ser tan amplio que incluso Intel Capitals invirtió en 2013 una cantidad de dinero no anunciada para aprovechar este desarrollo.
Vía | IEEE Spectrum
Ver 16 comentarios
16 comentarios
bmwww
Seguro que se puede decir que este micro tiene IA o esto es la enésima muestra de clickbait by xataka?
adriansanchez4
Lo cierto es que en un mega a duras penas se puede decir que el dispositivo sea capaz de analizar las cosas, ¡Y de ahí a Inteligencia Artificial hay un buen rato!
Lo que si, es que el dispositivo cuenta con unas MUY limitadas redes neuronales y es un paso intermedio en el avance hacia soluciones más complejas.
Como usos en el mundo real se me ocurre controlar la climatización adaptándose a los hábitos de los usuarios prediciendo que temperatura van a querer dependiendo por ejemplo de las condiciones lumínicas y de temperatura exteriores, etc.
Me molesta que se digan estas cosas tan exageradas porque más que informar desinforman y solo hacen que generar hype.
sarpullido
La distancia se mide en campos de futbol, la altura en rascacielos, el tiempo en tortillas por segundo y la potencia de proceso en IAs..., quien no sepa esto es que no tiene ni puta idea de patrones y medidas...
Letxau
Creo que muchos tenéis una versión de la IA un tanto limitada.
La IA no deja de ser cualquier algoritmo que sea capaz de tomar decisiones por si mismo en un entorno controlado. Y para eso no hace falta tanto.
De hecho, los algoritmos de deep learning tienen mucho coste computacional a la hora de realizar el análisis de las muestras de entrenamiento elegidas. Una vez realizado este análisis el algoritmo resultante es muy eficiente y por lo tanto ejecutable con pocos recursos.
Este micromote es un comienzo, no lo veo capaz de realizar procesamiento de imágenes en tiempo real, pero para todas esas funciones que tengan una entrada de datos básica si podrán rendir adecuadamente. Por ejemplo, control de temperaturas, humedad, puertas que están abiertas a una hora concreta, etc...
nasher_87-arg-
¿Y porque lo pegan a la mesa? es pequeño pero ¿tienen miedo que se les escape?...;P
Land-of-Mordor
"...Hoy en el marco de la Conferencia Internacional de Circuitos de Estado Sólido de la IEEE..."
Ahí "solid" no significa "sólido". No hay circuitos líquidos, ni gaseosos ni en forma de plasma.
Land-of-Mordor
Si se experimentaba con redes neuronales en los 80 con los procesadores que existían en aquella época, no creo que sea tan complicado fabricar procesadores equivalentes con la tecnología de litografía actual. Eso reduce enormemente su tamaño, su consumo y su posibilidad para trabajar a una mayor frecuencia. Un Motorola 6800 o un 286 fabricado a 14 o 10 nm tiene que ser del tamaño de una cabeza de alfiler o más pequeño, consumir una miseria y servir también para este tipo de estudios. Probablemente el mérito de este equipo de investigación esté en haber diseñado un procesador (y todo lo que le rodea) simple pero diseñado para trabajar con redes neuronales (a muy pequeña escala de proceso) y no tanto en crear un dispositivo de ese tamaño y consumo, cosa que es relativamente fácil.
hamta
"inteligencia artificial"
nouware
Si traducís las noticias podríais hacerlo de una manera correcta al menos.
"Algunos pronostican que para el año 2035 tendremos un trillón de dispositivos conectados enviando información a la nube"
La fuente es americana y los billones americanos son diferentes a los que se usan en europa.
Un trillón americano equivaldría a 1000 billones y 1 billón equivaldría a 1000 millones por lo que se trataría de 1 billón de dispositivos (hablando de Europa) para 2035, y no un trillón como habla la noticia (la diferencia es brutal)
Neopumper666
Xataka ¿Qué pasó? ya son muchos artículos clickbaits
kguy
Muy bien lo de la redes neuronales, pero de donde sacas los descriptores para las entradas con tan poca capacidad de computo ? , procesar el vídeo para sacar unos descriptores validos para la red neuronal ya requiere una buena capacidad de computo por parte de un dispositivo.
pablosanz
Me acabo de enterar que este ordenador pasa el test de Turing. Porque es lo que debe hacer para poder empezar a considerarlo "inteligente", y como decís que tiene inteligencia artificial...