¿Y si el calor que la electrónica suele intentar expulsar pudiera hacer un trabajo útil?

Esa es la premisa detrás de un nuevo enfoque de cómputo analógico informado por un equipo dirigido por investigadores del Instituto para Nanotecnologías de Soldados del MIT. En lugar de tratar el calor residual como un subproducto no deseado, los investigadores lo usaron como el propio portador de la información.

En el sistema descrito en el informe fuente, los datos de entrada no se codifican como valores binarios eléctricos. Se representan como un conjunto de temperaturas basadas en el calor ya presente en un dispositivo. Esa información térmica se desplaza a través de estructuras microscópicas de silicio cuya geometría está diseñada por un algoritmo de optimización basado en la física. La distribución y el flujo de calor resultantes realizan el cálculo, mientras que la salida se representa por la potencia recogida en el otro extremo.

Es una inversión llamativa de la lógica convencional. La mayoría de los sistemas de cómputo modernos funcionan eléctricamente y luego luchan con el calor que producen. Este trabajo plantea si algunas clases de cómputo podrían, en cambio, apoyarse en ese calor, reduciendo potencialmente la necesidad de aportar energía adicional en aplicaciones específicas.

Los investigadores demostraron una operación central usada en aprendizaje automático

El equipo utilizó las estructuras de silicio para llevar a cabo una forma sencilla de multiplicación matriz-vector, una operación matemática que está en el núcleo de los sistemas de aprendizaje automático, incluidos los modelos de lenguaje grandes. Según el texto fuente, los resultados fueron correctos en más del 99 por ciento en muchos casos.

Esa precisión es notable porque las operaciones matriciales son exactamente el tipo de álgebra lineal repetitiva que domina muchas cargas de trabajo de IA. En principio, cualquier método nuevo que pueda ejecutarlas con eficiencia atrae atención. Pero los investigadores son cuidadosos y no exageran lo que han construido.

El informe fuente deja claro que la técnica está muy lejos de estar lista para escalar a los enormes sistemas usados en el aprendizaje profundo moderno. Agrupar millones de estas estructuras térmicas plantearía retos de ingeniería sustanciales. La precisión también disminuye a medida que las matrices se vuelven más complejas y aumenta la distancia entre los terminales de entrada y salida.

Así que no se trata de un reemplazo a corto plazo para los aceleradores digitales de IA. Es mejor entenderlo como una demostración de que el cómputo analógico térmico puede hacerse real y preciso en condiciones limitadas.