La computación espacial por fin recibe una actualización generacional

Durante décadas, las misiones espaciales han dependido de procesadores endurecidos contra la radiación que priorizan la resistencia sobre el rendimiento bruto. Esa compensación tenía sentido cuando las naves espaciales principalmente necesitaban sobrevivir a entornos hostiles y ejecutar tareas estrictamente programadas. Cada vez resulta menos suficiente a medida que las misiones se vuelven más autónomas, intensivas en datos y operativamente complejas.

NASA afirma ahora que trabaja con Microchip Technology en una respuesta de nueva generación: un sistema en chip de computación espacial de alto rendimiento diseñado para ofrecer más de 100 veces la capacidad de cómputo de los procesadores espaciales actuales. Si el proyecto funciona como se pretende, podría transformar la manera en que las futuras naves espaciales gestionan la detección, la navegación, la toma de decisiones y el procesamiento de datos a bordo.

Por qué las arquitecturas heredadas están llegando a su límite

Los procesadores espaciales tradicionales tienen un sólido historial. Impulsaron misiones desde orbitadores hasta cápsulas y rovers de Marte, y ayudaron a definir la cultura de ingeniería de diseño robusto y tolerante a fallos. Pero los objetivos modernos de exploración están cambiando el trabajo de la computación a bordo.

Se espera que las futuras naves espaciales gestionen cargas de sensores más grandes, una autonomía más sofisticada, mayores requisitos de ciberseguridad y duraciones de misión más largas en entornos más hostiles. Ya sea una sonda de espacio profundo, un sistema lunar o una plataforma comercial en órbita terrestre baja, la cantidad de datos que deben procesarse a bordo está creciendo rápidamente. Enviar todo de vuelta a la Tierra para interpretarlo suele ser demasiado lento, demasiado costoso o simplemente imposible.

Esa presión está empujando a los sistemas espaciales hacia un modelo en el que más inteligencia tiene que residir en el propio vehículo.