L’IA gouvernementale fait face à un ensemble de problèmes différent
La course au déploiement de l’intelligence artificielle suppose souvent les conditions de fonctionnement du secteur privé : une connectivité cloud constante, une infrastructure centralisée, une grande liberté de circulation des données et une certaine tolérance à une transparence limitée des modèles. Selon un nouveau rapport de MIT Technology Review Insights, réalisé en partenariat avec Elastic, ces hypothèses s’effondrent rapidement dans les environnements gouvernementaux.
Le rapport soutient que les organisations du secteur public font face à un mélange distinct de contraintes de sécurité, de gouvernance et d’exploitation qui fait des petits modèles de langage, ou SLM, une option plus pratique que l’importation pure et simple du manuel standard des grands modèles. L’idée n’est pas que les gouvernements ne s’intéressent pas à l’IA. C’est qu’ils ont moins de marge d’erreur, moins de flexibilité dans la gestion des données et davantage de raisons d’exiger un contrôle sur l’endroit où les systèmes s’exécutent et sur leur comportement.
Pourquoi les modèles plus petits gagnent du terrain
L’une des pressions les plus évidentes concerne la sécurité des données. Le texte source cite une étude de Capgemini selon laquelle 79 % des dirigeants du secteur public dans le monde se disent préoccupés par la sécurité des données de l’IA. Cette inquiétude n’est pas surprenante dans des administrations qui gèrent des dossiers sensibles, des obligations légales et des systèmes critiques. Dans de tels environnements, transmettre librement des informations à travers les réseaux ou vers des services externes peut être impossible ou inacceptable.
Le rapport cite Han Xiao, vice-président de l’IA chez Elastic, qui affirme que les administrations doivent être très restrictives quant aux données qu’elles envoient sur le réseau. Cette contrainte modifie l’équation du déploiement. Les systèmes volumineux dépendants du cloud peuvent être puissants, mais s’ils reposent sur des hypothèses que l’institution ne peut pas accepter, ils deviennent opérationnellement difficiles à faire confiance.
Les petits modèles de langage sont présentés comme une réponse parce qu’ils peuvent être plus étroitement contrôlés, plus étroitement ciblés et, potentiellement, plus faciles à faire fonctionner dans des environnements contraints. Leur intérêt ne tient pas seulement à l’efficacité. Il tient à l’adéquation. Un modèle plus petit conçu pour une tâche gouvernementale précise peut être plus facile à gouverner qu’un système à usage général conçu pour un usage ouvert.


