
InnovationMore in Innovation →
Sparse KI-Hardware Könnte Den Energieverbrauch Senken, Ohne Modelle Zu Verkleinern
Forscher argumentieren, dass neue Hardware, die auf Sparsity ausgelegt ist, den Energie- und Zeitaufwand für große KI-Modelle drastisch senken könnte, indem Berechnungen mit Werten nahe Null übersprungen werden.
Key Takeaways
- Forscher argumentieren, dass sparse-native Hardware die vielen Werte nahe Null in großen KI-Modellen nutzen kann.
- Ein Stanford-Team berichtet von einem Chip, der im Schnitt deutlich weniger Energie als eine CPU verbrauchte und bei den getesteten Workloads schneller lief.
DE
DT Editorial AI··via spectrum.ieee.org

