Cuando asistí a la Conferencia CeBIT en Hannover en 2016, estaba lleno de dispositivos supuestamente "inteligentes" que a mí no me parecieron especialmente inteligentes. La tendencia "inteligente" inspiró muchos dispositivos diferentes que, en esencia, solo estaban conectados a Internet. En la mayoría de los casos, su conectividad suponía algún beneficio adicional, a menudo poco definido, para el usuario.
Aún recuerdo algunos de ellos:
Sin embargo, lo que más recuerdo de la feria CeBIT es la presentación del Laboratorio de desarrollo de IBMque cambió mi forma de pensar sobre la distribución de la inteligencia artificial. IBM presentó en la feria su proyecto Synapse, un chip de inteligencia artificial llamado "TrueNorth", capaz de proporcionar una potencia de cálculo equivalente a la de un cerebro de hormiga con un consumo de energía de sólo 73 mW. La única desventaja evidente era que el procesador costaba en aquel momento alrededor de $1 millones.
Sin embargo, este ejemplo demostró que será posible ejecutar algoritmos de IA en dispositivos finales (edge computing). También estaba claro que la ley de Moore bajaría el precio en pocos años y haría más accesible la potencia de cálculo. La cuestión era con qué rapidez ocurriría esto y cuántas otras soluciones similares surgirían en el mercado. En aquel momento, Neuron soundware ya había empezado a seguir esa estrategia de IoT: desarrollar su propia solución de IoT optimizada para IA, lo que significa que los algoritmos para la monitorización de máquinas de audio funcionarían directamente en los dispositivos finales de IoT.
Varios meses después, creé un gráfico que mostraba la relación entre el consumo de energía y la inteligencia en función de la potencia de cálculo que pueden ofrecer los HW de IoT.
Pongámoslo en términos de lo que hacemos en Neuron Soundware: Podemos utilizar el mismo rendimiento informático para conducir un coche o para analizar el sonido de las máquinas con el fin de detectar un fallo mecánico inminente. Cualquiera de las dos cosas requeriría una potencia de cálculo equivalente al cerebro de una hormiga. E IBM me hizo ver esta potencia dentro de un único chip de consumo ultrabajo.
La capacidad de Edge Computing ha ido en aumento desde entonces. Merece la pena echar un vistazo a varios proyectos de chips especializados en aceleración de hardware para inteligencia artificial.
En 2017Movidius ha presentado el Neural Compute Stick, capaz de ofrecer 0,1 TFLOPS por menos de $100 y un consumo de energía de 0,5 W aproximadamente. Se ha diseñado para mejorar el rendimiento de las tarjetas informáticas más pequeñas, como Raspberry Pi, multiplicando por 10 la potencia de cálculo.
En 2018En 2009, Huawei presentó su procesador Kirin 980 con 0,1 W y casi 0,5 TFLOPS. Otros proveedores no se quedaron atrás. Google anunció sus unidades TPU Edge y Rockchip hizo una demostración de su chip RK3399 equipado con una unidad de procesamiento neuronal. Ambos ofrecen un rendimiento de unos 3 TFLOPS y cuestan alrededor de $100.
En 2019Los microordenadores específicos con aceleradores de hardware de tecnologías de IA (en concreto, redes neuronales) se generalizan para su uso en proyectos comerciales. Todos los principales fabricantes de hardware han lanzado versiones optimizadas de la pila de software de IA, lo que aumenta aún más el rendimiento. Entre las placas de IA disponibles se incluye la TPU Edge de Google, un chip ASIC diseñado específicamente para la IA. La Jetson Nano de Nvidia pone en acción 128 núcleos CUDA por menos de $100. La RK3399 Pro de ToyBrick es una de las primeras placas de desarrollo con una Unidad de Procesamiento Neuronal especializada, que supera ligeramente incluso a la Nvidia Jetson.
En 2020 y 2021, Tesla, un conocido fabricante de coches eléctricos, presentó su ordenador de autoconducción con un rendimiento de 36 TFLOPS, mientras que Hailo AI ofrece un rendimiento de 26 TFLOPS en un único chip de aproximadamente $100 y un consumo de apenas varios vatios.
Este rápido avance en la tecnología IoT nos permitió en Neuron Soundware desarrollar nBox, un dispositivo especializado para grabar y procesar sonido que no solo puede grabar audio de alta calidad con hasta 12 canales, sino también evaluar datos localmente utilizando algoritmos de IA. Edge computing nos permite ejecutar solo unos pocos procesos en la nube (plataforma central) y procesar la mayoría de los datos utilizando algoritmos de IA en el dispositivo final.
IntelPor ejemplo, confirmó la importancia del edge computing al adquirir Movidius por un importe estimado de $400 millones, así como Mobileye, fabricante de chips para coches autoconducidos, por más de $15.000 millones. Me fascinó ver la Tesla Motors presentación en línea de su IA especializada, desarrollada para sus coches de conducción autónoma. Puede procesar más de 2.000 imágenes de cámara de alta definición por segundo, y Tesla cree que esto ofrece potencia suficiente para una autonomía completa.
En mi opinión, las cuatro ventajas clave del edge computing son las siguientes:
¿Por qué tomarse la molestia de utilizar hardware IoT especializado? ¿Por qué no esperar a las redes 5G y hacer uso de la infraestructura de nube altamente desarrollada? Hay varias razones por las que "esperar" puede no ser la mejor estrategia de IoT.
La computación en los bordes de la IA puede procesar enormes volúmenes de datos en el lugar donde se crearon o cerca de él. Los costes adicionales de los aceleradores de hardware ya son marginales. La potencia de cálculo de las redes neuronales crece a pasos agigantados, diez veces más cada año. Esta tendencia no se frena porque los datos pueden procesarse en paralelo, superando así los límites del diseño convencional de procesadores.
El uso de edge computing en aplicaciones como los coches autónomos, el reconocimiento facial y el mantenimiento predictivo es sólo el principio. Pronto dispondremos de potencia de cálculo suficiente para construir máquinas de trabajo verdaderamente autónomas. Con el tiempo, serán capaces de moverse con seguridad por ciudades y fábricas, llegando a ser casi tan competentes en su trabajo como los humanos. Es increíble pensar que alguien pudiera haber previsto esto hace casi 100 años. El año pasado, 2020, se cumplieron 100 años de la acuñación de la palabra "robot". En su obra de ciencia ficción R.U.R., Karel Čapek imaginó robots humanoides que adquirían conciencia y aprendían a sentir emociones como el amor. Esta visión, y la palabra "robot", se extendieron rápidamente por todo el mundo. Teniendo en cuenta la velocidad a la que crecen la potencia informática y las mejoras en la Internet de los objetos, no puedo evitar pensar que la visión de Čapek podría hacerse realidad mucho antes de lo que pensamos.
Reproducido con la amable autorización del Gobierno de Europa, www.governmenteuropa.eu © Government Europa
2023 NSW Todos los derechos reservados.