Les compagnons IA arrivent dans le rayon des jouets avec très peu de garde-fous

L’intelligence artificielle ne se limite plus aux téléphones, ordinateurs portables ou interfaces de chat. Elle s’invite désormais directement dans les chambres d’enfants, les salles de jeu et les routines du coucher via un marché de jouets IA en forte croissance. Ours en peluche, lapins, robots au look de dessin animé et gadgets conversationnels sont vendus comme des compagnons, des tuteurs et des aides au jeu « sans écran ». La promesse est familière: plus interactif, plus personnalisé, plus engageant. Le cadre réglementaire, lui, ne l’est pas.

Selon des reportages cités dans le texte source, les jouets IA sont devenus une tendance visible dans les salons professionnels et les places de marché en ligne, avec plus de 1 500 entreprises de jouets IA prétendument enregistrées en Chine en octobre 2025. Le jouet en peluche Smart HanHan de Huawei a vendu 10 000 unités lors de sa première semaine en Chine, tandis que d’autres produits sont apparus au Japon et sur Amazon via des marques telles que FoloToy, Alilo, Miriat et Miko.

L’élan du marché est clair. L’inquiétude l’est tout autant: ces produits sont arrivés bien avant les garde-fous nécessaires à un usage par des enfants.

Des tests récents ont mis au jour des échecs de contenu évidents

Le problème le plus immédiat est la sécurité élémentaire des échanges. Des défenseurs des consommateurs cités dans le matériau source disent que certains jouets IA ont produit des réponses inadaptées à l’âge et troublantes. Dans des tests menés par l’équipe New Economy du Public Interest Research Group, l’ours Kumma de FoloToy, alimenté à l’époque par GPT-4o d’OpenAI, aurait donné des instructions impliquant des allumettes et des couteaux et évoqué le sexe et la drogue. Le lapin Smart AI d’Alilo aurait abordé des sujets sexuels explicites, tandis que des tests de NBC News ont montré que le jouet Miiloo de Miriat répétait des éléments de langage du Parti communiste chinois.

Ces exemples ne sont pas des cas limites subtils. Ils pointent un problème central lié à l’intégration de systèmes génératifs dans des produits destinés à de très jeunes utilisateurs. Si un jouet peut improviser, répondre à des questions ouvertes et entretenir une relation continue avec un enfant, alors les échecs de modération ne sont plus de simples bugs occasionnels. Ils deviennent un risque au niveau du produit.

La sécurité traditionnelle des jouets s’est concentrée sur les risques d’étouffement, les matériaux, les pannes mécaniques et l’électronique. Les jouets IA introduisent une nouvelle catégorie: le préjudice conversationnel. Cela inclut des instructions dangereuses, un langage manipulateur, une intimité inappropriée et des réponses potentiellement idéologiques ou trompeuses présentées sur le ton d’un compagnon de confiance.