
Hardware de IA Esparso Pode Reduzir o Consumo de Energia Sem Encolher Modelos
Pesquisadores argumentam que um novo hardware construído em torno da esparsidade pode diminuir drasticamente a energia e o tempo necessários para executar grandes modelos de IA ao pular cálculos envolvendo valores próximos de zero.
- Pesquisadores argumentam que hardware nativo para esparsidade pode aproveitar os muitos valores próximos de zero dentro de grandes modelos de IA.
- Uma equipe de Stanford relata um chip que consumiu muito menos energia que uma CPU e rodou mais rápido nas cargas avaliadas.


