La tension sur le stockage a atteint les institutions de la mémoire du web
Le boom des data centers d’IA ne reconfigure pas seulement les marchés des puces et la demande en électricité. Il crée aussi une forme plus discrète de pression sur les institutions qui préservent Internet lui-même. Selon des archivistes et des opérateurs d’organisations à but non lucratif cités par 404 Media, la hausse des prix et les pénuries de disques durs de grande capacité et de stockage SSD rendent plus difficile la maintenance et l’extension des archives numériques.
L’effet est particulièrement marqué pour les organisations qui vivent ou meurent selon l’économie du stockage de masse. L’Internet Archive, Wikimedia, les universitaires et les archivistes amateurs dépendent d’un approvisionnement stable en disques pour ingérer, répliquer et protéger d’immenses volumes de données. À mesure que l’infrastructure d’IA prend de l’ampleur, disent-ils, ces composants essentiels deviennent plus chers, plus difficiles à se procurer, ou les deux.
Pourquoi une flambée du marché du stockage compte pour la préservation
La préservation numérique peut sembler immatérielle, mais elle repose sur du matériel physique. Chaque crawl, chaque mise en ligne, chaque sauvegarde et chaque collection miroir finit sur un appareil qu’il faut acheter, déployer et remplacer. Quand le prix de ces appareils s’envole, les archives font face à une contrainte de capacité directe.
Le rapport donne un exemple frappant : un SSD externe Samsung de 2 To qui coûtait 159 dollars à l’automne dernier était affiché à 575 dollars au moment de la publication. Des données de suivi de PC Part Picker montreraient des hausses généralisées tant pour le stockage grand public que professionnel à partir d’environ octobre de l’année précédente, certains disques doublant de prix ou augmentant de plus de 150 %. Dans certains cas, les disques sont tout simplement en rupture de stock, et un marché de revente a émergé autour de modèles rares.
Les plus grandes archives s’adaptent déjà aux pénuries
Brewster Kahle, fondateur de l’Internet Archive et de la Wayback Machine, a décrit le problème comme très réel, à la fois en temps et en argent. L’archive collecte plus de 100 téraoctets de nouveaux contenus chaque jour et conserve déjà plus de 210 pétaoctets de contenus archivés qui nécessitent des mises à niveau et une maintenance continues. Kahle a indiqué que les disques 28 à 30 To privilégiés par l’organisation sont soit indisponibles, soit proposés à des prix anormalement élevés.
Un tel niveau de demande rend la substitution difficile. Une archive peut contourner une pénurie temporaire, mais chaque solution de rechange implique des compromis en matière d’efficacité, de planification des achats ou de standardisation du matériel. Pour une institution de préservation, cela peut se traduire par une croissance plus lente, davantage de complexité opérationnelle ou une pression budgétaire accrue.
Wikimedia voit les mêmes signaux d’alerte
La Wikimedia Foundation, qui soutient Wikipédia et Wikimedia Commons, a également indiqué au média que la hausse des prix du stockage est préoccupante. Avec plus de 65 millions d’articles Wikipédia à elle seule et une infrastructure média importante derrière ses projets plus larges, la capacité des serveurs et du stockage est une exigence opérationnelle essentielle. Wikimedia a précisé que les hausses n’affectent pas seulement les achats directs de mémoire et de disques durs, mais aussi les délais de livraison des serveurs et la capacité à planifier les commandes futures.
Cela compte, car les organisations à but non lucratif n’absorbent pas les chocs d’approvisionnement comme peuvent le faire les acteurs hyperscale. Les grandes entreprises d’IA peuvent contribuer à la demande de stockage par l’expansion des data centers, mais elles disposent généralement d’une flexibilité en capital très différente de celle des archives d’intérêt public.
Un coût plus large du déploiement de l’IA
L’article met en lumière une conséquence culturelle subtile du boom de l’IA. La même course à l’infrastructure qui alimente les nouveaux systèmes génératifs pourrait aussi augmenter le coût de la conservation intacte de l’archive historique du web. Cette tension est difficile à ignorer. Tandis que l’industrie technologique pousse à produire des modèles et des services toujours plus grands, les groupes qui préservent la matière première de la culture numérique sont contraints de dépenser davantage simplement pour rester au même niveau.
Il n’est pas question ici d’affirmer que l’IA explique à elle seule toutes les évolutions du marché du stockage. Mais le secteur des archives ressent clairement les effets secondaires d’un environnement d’approvisionnement façonné par une demande d’infrastructure agressive. Lorsque les budgets de préservation sont comprimés, le risque n’est pas abstrait. Certaines données peuvent être retardées, reléguées au second plan ou plus difficiles à protéger à grande échelle.
Internet a toujours eu un problème de mémoire. Les liens se dégradent, les plateformes disparaissent, et les formats s’usent. Ce qui rend le moment actuel notable, c’est que le marché du souvenir devient plus coûteux au même moment où la quantité de choses qui méritent d’être préservées continue d’augmenter. Pour les archives, ce n’est pas seulement un casse-tête d’approvisionnement. C’est un défi structurel pour la conservation à long terme de l’histoire numérique.
Cet article s’appuie sur un reportage de 404 Media. Lire l’article original.
Originally published on 404media.co



