政府向けAIには異なる問題設定がある

人工知能の導入競争は、しばしば民間部門の運用条件を前提にしている。常時接続のクラウド、集中化されたインフラ、データ移動の広い自由度、そしてモデルの透明性が限定的であることへの一定の許容だ。Elasticとの共同で作成されたMIT Technology Review Insightsの新しいレポートによると、こうした前提は政府環境ではすぐに成り立たなくなる。

レポートは、公共部門の組織が、セキュリティ、ガバナンス、運用上の制約という独特の組み合わせに直面しており、そのため小規模言語モデル、すなわちSLMは、標準的な大規模モデルのやり方をそのまま持ち込むよりも実用的な選択肢だと論じている。ここでの主張は、政府がAIに関心を持っていないということではない。失敗の余地が小さく、データ処理の柔軟性が低く、システムがどこで動き、どのように振る舞うかを制御する必要がより強いということだ。

なぜ小型モデルが注目を集めているのか

最も明確な圧力の一つはデータセキュリティだ。原文では、Capgeminiの調査として、世界の公共部門幹部の79%がAIのデータセキュリティに不安を抱いていると紹介している。機微な記録、法的義務、ミッションクリティカルなシステムを扱う機関にとって、この懸念は不思議ではない。このような環境では、情報をネットワークや外部サービスに自由に送ることは不可能か、あるいは受け入れられない。

レポートは、ElasticのAI担当バイスプレジデントであるHan Xiao氏の言葉として、政府機関はネットワークに送るデータを非常に厳しく制限しなければならないと述べている。この制約は導入の方程式を変える。大規模でクラウド依存のシステムは強力かもしれないが、機関が受け入れられない前提を要求するなら、運用上は信頼しにくくなる。

小規模言語モデルが解決策として位置づけられているのは、より厳密に制御でき、用途をより限定でき、制約のある環境でも動かしやすい可能性があるからだ。その魅力は単なる効率ではない。適合性にある。特定の政府業務向けに設計された小型モデルは、自由度の高い用途向けに作られた汎用システムよりも、統治しやすい場合がある。