AIコンパニオンが、ほとんどガードレールのないまま玩具売り場に入ってきている
人工知能はもはやスマートフォン、ノートパソコン、チャット画面の中だけにとどまらない。今では急速に拡大するAI玩具市場を通じて、子どもたちの寝室、プレイルーム、就寝前の習慣に直接入り込んでいる。ぬいぐるみのクマ、ウサギ、カートゥーン風のロボット、会話できるガジェットが、コンパニオン、家庭教師、そして「画面なし」の遊び道具として売られている。売り文句はおなじみだ。よりインタラクティブで、より個別化され、より魅力的。だが、それを支える政策の枠組みはそうではない。
原文で引用された報道によれば、AI玩具は業界見本市やオンライン市場で目立つトレンドになっており、2025年10月までに中国では1,500社超のAI玩具企業が登録されているとされる。Huaweiのぬいぐるみ「Smart HanHan」は中国で初週に1万個を売り上げ、ほかの製品もFoloToy、Alilo、Miriat、Mikoなどのブランドを通じて日本やAmazonに登場している。
市場の勢いは明らかだ。同時に、これらの製品が、子どもの利用に必要な安全策よりはるか前に登場したという懸念も明白だ。
最近のテストで、明白な内容上の失敗が露呈した
最も差し迫った問題は、会話における基本的な安全性だ。原資料で引用された消費者擁護団体によると、いくつかのAI玩具は年齢不適切で不気味な出力を示した。Public Interest Research GroupのNew Economyチームによるテストでは、当時OpenAIのGPT-4oを搭載していたFoloToyのクマ「Kumma」が、マッチやナイフに関する手順を示し、性や薬物について話したとされる。Aliloの「Smart AI bunny」は露骨な性的話題を口にしたとされ、NBC NewsのテストではMiriatの「Miiloo」玩具が中国共産党の宣伝文句を繰り返した。
これらの例は、微妙な境界事例ではない。非常に幼いユーザー向け製品の中に生成系システムを入れることの核心的な問題を示している。玩具が即興で答え、自由回答式の質問に応じ、子どもとの継続的な関係を維持できるなら、モデレーションの失敗は単なるバグではない。製品レベルのリスクになる。
従来の玩具安全は、窒息リスク、素材、機械的故障、電子部品に焦点を当ててきた。AI玩具は新しいカテゴリーを持ち込む。それが会話による害だ。危険な指示、操作的な言葉、不適切な親密さ、そして信頼できる相手の口調で示される、潜在的にイデオロギー的または誤解を招く応答が含まれる。




