La confidentialité passe d’une préoccupation de niche à un moteur de croissance

Duck.ai, le chatbot développé par DuckDuckGo, semble bénéficier d’un changement dans la manière dont les utilisateurs perçoivent les services d’IA. ZDNET rapporte que le trafic web de Duck.ai a atteint 11,1 millions de visites en février, soit plus de 300% de plus qu’en janvier, selon Similarweb. Le chiffre reste modeste face aux plus grands chatbots, mais c’est le rythme de croissance qui ressort.

L’article suggère que la confidentialité n’est plus seulement un détail de positionnement. Elle pourrait devenir un véritable facteur de différenciation produit dans l’IA grand public, surtout à mesure que davantage d’utilisateurs se demandent ce qu’il advient des prompts, des métadonnées et des informations personnelles qu’ils saisissent dans les systèmes de chatbot.

Ce que Duck.ai propose différemment

ZDNET décrit Duck.ai comme un chatbot centré sur la confidentialité, qui étend au domaine de l’IA générative le positionnement historique de DuckDuckGo sur ce sujet. Plutôt que de s’appuyer sur un grand modèle de langage propriétaire, le service interroge, pour le compte de l’utilisateur, des modèles proposés par des fournisseurs tels qu’Anthropic, OpenAI et Meta. L’objectif est de protéger l’adresse IP de l’utilisateur et ses autres informations personnelles d’une exposition directe à ces fournisseurs.

Le reportage cite aussi la politique de confidentialité de Duck.ai, qui indique que l’entreprise a conclu des accords avec les fournisseurs de modèles pour limiter l’usage des données issues de requêtes anonymes. Selon cette politique, les prompts et les réponses ne sont pas utilisés pour développer ou améliorer les modèles des fournisseurs, et les informations reçues sont supprimées lorsqu’elles ne sont plus nécessaires à la fourniture des résultats, au plus tard sous 30 jours, sauf dans des cas limités liés à la sécurité ou à la loi.

Cette combinaison confère à Duck.ai une position singulière sur le marché. Il ne concurrence pas sur l’originalité du modèle. Il se positionne sur la manière dont la couche d’accès aux modèles est médiée, et sur ce que cela implique pour la confidentialité des utilisateurs.

Des chiffres modestes, mais révélateurs

ZDNET place les 11,1 millions de visites de Duck.ai en février à côté de totaux estimés bien plus élevés pour les principaux concurrents, dont 5,4 milliards pour ChatGPT, 2,1 milliards pour Gemini et 290,3 millions pour Claude. En volume, Duck.ai reste un acteur mineur. En dynamique, en revanche, il mérite soudain qu’on s’y intéresse.

Cette hausse compte parce qu’elle suggère qu’une partie des utilisateurs recherche activement une expérience d’IA offrant de meilleures garanties de confidentialité. Cela peut refléter des inquiétudes plus larges concernant la surveillance, la conservation des données, les pratiques d’entraînement des entreprises ou les conséquences du fait de confier des contenus sensibles à des systèmes de discussion optimisés pour l’apprentissage et la monétisation.

Elle peut aussi traduire une meilleure culture du sujet. L’adoption initiale des chatbots était souvent portée par la nouveauté et les capacités. Un usage plus mature amène des questions plus difficiles sur la confidentialité, le profilage et ce qui constitue une conception de produit responsable.

Pourquoi la confidentialité est plus saillante aujourd’hui

Les préoccupations autour de la confidentialité des chatbots ne sont pas nouvelles, et ZDNET le souligne. Ce qui change peut-être, c’est l’ampleur de l’exposition. À mesure que les outils d’IA s’intègrent dans la navigation quotidienne, le travail de bureau, le code, la recherche et la planification personnelle, les utilisateurs leur confient des contenus plus intimes et commercialement sensibles. Cela augmente le coût de pratiques de confidentialité floues.

Dans ce contexte, l’argument de Duck.ai est simple : les utilisateurs peuvent accéder à des modèles de pointe sans remettre directement autant d’informations identifiables aux fournisseurs sous-jacents. Reste à savoir si cette garantie suffit dans tous les cas d’usage, mais elle est assez claire pour convaincre.

ZDNET suggère aussi que de nouvelles fonctionnalités peuvent contribuer à la hausse du trafic. La confidentialité n’explique donc peut-être pas tout. Elle semble toutefois constituer le récit central qui distingue le service.

Un signal économique pour le marché de l’IA

La croissance du trafic envoie aussi un signal à l’écosystème plus large de l’IA. La demande des consommateurs ne se définit peut-être plus seulement par la puissance du modèle, sa rapidité ou ses capacités multimodales. L’architecture de confiance compte aussi. Les entreprises qui supposent que les utilisateurs accepteront une collecte de données massive en échange de la commodité pourraient rencontrer davantage de résistance à mesure que les alternatives deviennent plus faciles à essayer.

Cela concerne particulièrement les intermédiaires de plateforme. DuckDuckGo enveloppe en pratique plusieurs modèles de pointe dans une couche différente de gouvernance et de confidentialité. Cela montre qu’il existe une place sur le marché de l’IA pour des entreprises qui ne gagnent pas forcément en entraînant elles-mêmes le meilleur modèle, mais en concevant une voie plus sûre ou mieux contrôlée vers les modèles existants.

Si ce schéma se généralise, le secteur pourrait voir davantage de concurrence autour des politiques, du traitement des données et du contrôle utilisateur, et pas seulement autour des performances brutes des modèles.

Les limites du moment

En même temps, ces chiffres doivent être replacés dans leur contexte. Même après une hausse de plus de 300%, Duck.ai reste minuscule face aux acteurs dominants. Une envolée à partir d’une petite base peut signaler un élan sans garantir d’impact durable sur le marché. Il reste aussi possible qu’une partie de la croissance reflète une attention temporaire liée aux cycles d’actualité ou aux lancements de fonctionnalités, plutôt qu’un déplacement durable du comportement des utilisateurs.

Qu’elle soit temporaire ou non, cette poussée reste néanmoins un indicateur utile. Elle montre qu’un positionnement centré sur la confidentialité peut attirer l’attention dans un secteur qui a souvent considéré l’extraction de données comme un coût acceptable pour proposer une IA avancée.

Et maintenant

La question essentielle est de savoir si la confidentialité deviendra une attente standard ou restera un argument de niche. Si les utilisateurs continuent de privilégier les services qui limitent l’exposition des données, les grands fournisseurs d’IA pourraient subir une pression croissante pour offrir des contrôles plus clairs, une séparation plus stricte des données et des limites de conservation plus transparentes. Sinon, la montée de Duck.ai pourrait rester une histoire intéressante, mais limitée.

Pour l’instant, la leçon est plus étroite et plus concrète. La concurrence dans l’IA grand public évolue. Les utilisateurs ne demandent plus seulement quel chatbot est le plus intelligent. Ils veulent de plus en plus savoir qui voit leurs prompts, comment ces prompts sont utilisés et s’il existe un moyen plus sûr d’accéder à des modèles puissants. La récente hausse du trafic de Duck.ai suggère que ces questions commencent à influencer les comportements, pas seulement les titres.

Cet article s’appuie sur un reportage de ZDNET. Lire l’article original.