Los avances en "edge AI", mucho más importantes para el futuro que el 5G

Cuando asistí a la Conferencia CeBIT en Hannover en 2016, estaba lleno de dispositivos supuestamente "inteligentes" que a mí no me parecieron especialmente inteligentes. La tendencia "inteligente" inspiró muchos dispositivos diferentes que, en esencia, solo estaban conectados a Internet. En la mayoría de los casos, su conectividad suponía algún beneficio adicional, a menudo poco definido, para el usuario.

Aún recuerdo algunos de ellos:

  • Una válvula de tubería que permite controlar su posición (abierta/cerrada) a distancia
  • Un dispositivo para medir el flujo de gas, instalado en secreto en el depósito de combustible para identificar a los ladrones de combustible
  • Una toma de corriente que se puede encender y apagar a través de wifi

Sin embargo, lo que más recuerdo de la feria CeBIT es la presentación del Laboratorio de desarrollo de IBMque cambió mi forma de pensar sobre la distribución de la inteligencia artificial. IBM presentó en la feria su proyecto Synapse, un chip de inteligencia artificial llamado "TrueNorth", capaz de proporcionar una potencia de cálculo equivalente a la de un cerebro de hormiga con un consumo de energía de sólo 73 mW. La única desventaja evidente era que el procesador costaba en aquel momento alrededor de $1 millones.

Sin embargo, este ejemplo demostró que será posible ejecutar algoritmos de IA en dispositivos finales (edge computing). También estaba claro que la ley de Moore bajaría el precio en pocos años y haría más accesible la potencia de cálculo. La cuestión era con qué rapidez ocurriría esto y cuántas otras soluciones similares surgirían en el mercado. En aquel momento, Neuron soundware ya había empezado a seguir esa estrategia de IoT: desarrollar su propia solución de IoT optimizada para IA, lo que significa que los algoritmos para la monitorización de máquinas de audio funcionarían directamente en los dispositivos finales de IoT.

edge AI

El futuro de la computación periférica

Varios meses después, creé un gráfico que mostraba la relación entre el consumo de energía y la inteligencia en función de la potencia de cálculo que pueden ofrecer los HW de IoT.

  • En 2016 casi no se podía conseguir inteligencia por un precio razonable con solo unos pocos mW.
  • Estrecho AIEl análisis de la entrada de una cámara unas diez veces por segundo, por ejemplo, requiere unos 4 TFLOPS (4 billones de operaciones en coma flotante por segundo, FLOPS o flop/s). El análisis de la entrada de una cámara unas diez veces por segundo, por ejemplo, requiere unos 4 TFLOPS (4 billones de operaciones en coma flotante por segundo -FLOPS, flops o flop/s- es una medida del rendimiento informático).

Pongámoslo en términos de lo que hacemos en Neuron Soundware: Podemos utilizar el mismo rendimiento informático para conducir un coche o para analizar el sonido de las máquinas con el fin de detectar un fallo mecánico inminente. Cualquiera de las dos cosas requeriría una potencia de cálculo equivalente al cerebro de una hormiga. E IBM me hizo ver esta potencia dentro de un único chip de consumo ultrabajo.

edge AI diagram

El auge de la computación periférica

La capacidad de Edge Computing ha ido en aumento desde entonces. Merece la pena echar un vistazo a varios proyectos de chips especializados en aceleración de hardware para inteligencia artificial.

En 2017Movidius ha presentado el Neural Compute Stick, capaz de ofrecer 0,1 TFLOPS por menos de $100 y un consumo de energía de 0,5 W aproximadamente. Se ha diseñado para mejorar el rendimiento de las tarjetas informáticas más pequeñas, como Raspberry Pi, multiplicando por 10 la potencia de cálculo.

En 2018En 2009, Huawei presentó su procesador Kirin 980 con 0,1 W y casi 0,5 TFLOPS. Otros proveedores no se quedaron atrás. Google anunció sus unidades TPU Edge y Rockchip hizo una demostración de su chip RK3399 equipado con una unidad de procesamiento neuronal. Ambos ofrecen un rendimiento de unos 3 TFLOPS y cuestan alrededor de $100.

En 2019Los microordenadores específicos con aceleradores de hardware de tecnologías de IA (en concreto, redes neuronales) se generalizan para su uso en proyectos comerciales. Todos los principales fabricantes de hardware han lanzado versiones optimizadas de la pila de software de IA, lo que aumenta aún más el rendimiento. Entre las placas de IA disponibles se incluye la TPU Edge de Google, un chip ASIC diseñado específicamente para la IA. La Jetson Nano de Nvidia pone en acción 128 núcleos CUDA por menos de $100. La RK3399 Pro de ToyBrick es una de las primeras placas de desarrollo con una Unidad de Procesamiento Neuronal especializada, que supera ligeramente incluso a la Nvidia Jetson.

En 2020 y 2021, Tesla, un conocido fabricante de coches eléctricos, presentó su ordenador de autoconducción con un rendimiento de 36 TFLOPS, mientras que Hailo AI ofrece un rendimiento de 26 TFLOPS en un único chip de aproximadamente $100 y un consumo de apenas varios vatios.

Este rápido avance en la tecnología IoT nos permitió en Neuron Soundware desarrollar nBox, un dispositivo especializado para grabar y procesar sonido que no solo puede grabar audio de alta calidad con hasta 12 canales, sino también evaluar datos localmente utilizando algoritmos de IA. Edge computing nos permite ejecutar solo unos pocos procesos en la nube (plataforma central) y procesar la mayoría de los datos utilizando algoritmos de IA en el dispositivo final.

IntelPor ejemplo, confirmó la importancia del edge computing al adquirir Movidius por un importe estimado de $400 millones, así como Mobileye, fabricante de chips para coches autoconducidos, por más de $15.000 millones. Me fascinó ver la Tesla Motors presentación en línea de su IA especializada, desarrollada para sus coches de conducción autónoma. Puede procesar más de 2.000 imágenes de cámara de alta definición por segundo, y Tesla cree que esto ofrece potencia suficiente para una autonomía completa.

 

En mi opinión, las cuatro ventajas clave del edge computing son las siguientes:

  1. Seguridad: Todos los datos procesados pueden almacenarse localmente y mantenerse seguros según sea necesario.
  2. Velocidad: La IA puede procesar datos en milisegundos, lo que significa una latencia mínima.
  3. Eficiencia: Existen microordenadores potentes y de bajo consumo a precios razonables.
  4. Fuera de línea: El algoritmo de IA también puede funcionar en zonas con acceso limitado a Internet.

Las ventajas de la computación de borde sobre la 5G

¿Por qué tomarse la molestia de utilizar hardware IoT especializado? ¿Por qué no esperar a las redes 5G y hacer uso de la infraestructura de nube altamente desarrollada? Hay varias razones por las que "esperar" puede no ser la mejor estrategia de IoT.

  • Imagínese sentado en un coche autoconducido que de repente pierde su señal 5G. El coche no solo será incapaz de percibir lo que le rodea, sino que perderá literalmente su cerebro, su capacidad de toma de decisiones. ¿Por qué correr ese riesgo cuando la potencia de cálculo necesaria para una comunicación de alta velocidad con baja latencia puede costar prácticamente lo mismo que una unidad de procesamiento neuronal adicional? Utilizar IA especializada también consumiría menos energía.
  • Los proveedores de Internet móvil quieren asegurarse la rentabilidad de su inversión en el desarrollo y uso de redes 5G. Aunque los planes de datos ilimitados son teóricamente posibles, puede que no sean comercialmente viables en un futuro próximo. Nuestra nBox, por ejemplo, tiene 12 sensores acústicos y puede producir hasta 1 TB de datos de audio al mes. Al precio actual de un GB de datos en LTE, transferir ese volumen de datos a la nube no sería económicamente rentable.
  • Por último, la cobertura 5G estará disponible principalmente en las ciudades, y muchos lugares quedarán fuera del alcance 5G. Los dispositivos IoT Edge pueden desplegarse inmediatamente en cualquier lugar, con unos costes iniciales y operativos claros que no suelen aumentar significativamente los costes totales en las soluciones IoT.

La computación en los bordes de la IA puede procesar enormes volúmenes de datos en el lugar donde se crearon o cerca de él. Los costes adicionales de los aceleradores de hardware ya son marginales. La potencia de cálculo de las redes neuronales crece a pasos agigantados, diez veces más cada año. Esta tendencia no se frena porque los datos pueden procesarse en paralelo, superando así los límites del diseño convencional de procesadores.

El futuro al alcance de la mano

El uso de edge computing en aplicaciones como los coches autónomos, el reconocimiento facial y el mantenimiento predictivo es sólo el principio. Pronto dispondremos de potencia de cálculo suficiente para construir máquinas de trabajo verdaderamente autónomas. Con el tiempo, serán capaces de moverse con seguridad por ciudades y fábricas, llegando a ser casi tan competentes en su trabajo como los humanos. Es increíble pensar que alguien pudiera haber previsto esto hace casi 100 años. El año pasado, 2020, se cumplieron 100 años de la acuñación de la palabra "robot". En su obra de ciencia ficción R.U.R., Karel Čapek imaginó robots humanoides que adquirían conciencia y aprendían a sentir emociones como el amor. Esta visión, y la palabra "robot", se extendieron rápidamente por todo el mundo. Teniendo en cuenta la velocidad a la que crecen la potencia informática y las mejoras en la Internet de los objetos, no puedo evitar pensar que la visión de Čapek podría hacerse realidad mucho antes de lo que pensamos.

Reproducido con la amable autorización del Gobierno de Europa, www.governmenteuropa.eu © Government Europa