E se o calor que a eletrônica geralmente tenta eliminar pudesse fazer um trabalho útil?
Essa é a premissa por trás de uma nova abordagem de computação analógica relatada por uma equipe liderada por pesquisadores do Institute for Soldier Nanotechnologies do MIT. Em vez de tratar o calor residual como um subproduto indesejado, os pesquisadores o usaram como o próprio portador da informação.
No sistema descrito no relatório original, os dados de entrada não são codificados como valores binários elétricos. Eles são representados como um conjunto de temperaturas com base no calor já presente em um dispositivo. Essas informações térmicas percorrem estruturas microscópicas de silício cuja geometria é projetada por um algoritmo de otimização baseado em física. A distribuição e o fluxo de calor resultantes executam o cálculo, enquanto a saída é representada pela potência coletada na outra extremidade.
É uma inversão marcante da lógica convencional. A maioria dos sistemas computacionais modernos funciona eletricamente e depois luta com o calor que produz. Este trabalho pergunta se algumas classes de computação poderiam, em vez disso, se apoiar nesse calor, potencialmente reduzindo a necessidade de entrada extra de energia em aplicações específicas.
Os pesquisadores demonstraram uma operação central usada em aprendizado de máquina
A equipe usou as estruturas de silício para realizar uma forma simples de multiplicação matriz-vetor, uma operação matemática no núcleo dos sistemas de aprendizado de máquina, incluindo os modelos de linguagem grandes. Segundo o texto original, os resultados foram mais de 99 por cento precisos em muitos casos.
Essa precisão é notável porque as operações matriciais são exatamente o tipo de álgebra linear repetitiva que domina muitas cargas de trabalho de IA. Em princípio, qualquer novo método capaz de executá-las de forma eficiente chama atenção. Mas os pesquisadores são cuidadosos para não exagerar no que construíram.
O relatório original deixa claro que a técnica está longe de estar pronta para ser escalada para os enormes sistemas usados no deep learning moderno. Empilhar milhões dessas estruturas térmicas traria desafios de engenharia substanciais. A precisão também cai à medida que as matrizes ficam mais complexas e a distância entre os terminais de entrada e saída aumenta.
Portanto, isso não é um substituto de curto prazo para aceleradores digitais de IA. É melhor entender isso como uma demonstração de que a computação analógica térmica pode se tornar real e precisa em condições restritas.








