Google fait passer Gemini de chatbot à assistant du système d’exploitation

Google pousse son effort Gemini plus profondément dans les mécanismes quotidiens d’Android, en passant d’un assistant IA autonome à un logiciel capable d’aider les utilisateurs à accomplir des tâches à travers différentes applications et services. À l’approche de Google I/O, l’entreprise a présenté un ensemble de nouvelles fonctions sous la bannière Gemini Intelligence, conçues pour automatiser des actions en plusieurs étapes, améliorer le remplissage automatique, résumer le contenu web et transformer des entrées vocales brutes en texte écrit plus propre.

Le déploiement initial est prévu cet été sur le Samsung Galaxy S26 et le Google Pixel 10, selon l’annonce de l’entreprise citée dans le document source. Google a également indiqué qu’une prise en charge plus large des appareils est prévue plus tard dans l’année, notamment pour les montres connectées, les voitures, les casques et les ordinateurs portables. Ce calendrier est important, car il montre que Google ne considère pas ces fonctions comme une expérience de niche. Au contraire, l’entreprise positionne Gemini comme une couche pouvant se superposer à l’ensemble de l’écosystème Android et devenir progressivement une partie de la manière dont les gens naviguent entre leurs appareils et leurs services.

Des réponses aux actions

Le changement le plus important est que Gemini est désormais présenté moins comme un système de génération de réponses que comme un système capable d’exécuter des tâches. Google explique que l’assistant pourra prendre en charge des actions telles que la réservation de voyages ou le déplacement d’une liste de courses depuis une application de notes vers un panier d’achat. Ces exemples renvoient à un modèle d’IA grand public qui repose sur l’orchestration plutôt que sur la simple conversation. La proposition de valeur n’est pas seulement qu’une IA comprenne une requête, mais qu’elle la traduise en une séquence d’étapes traversant plusieurs interfaces.

Ce basculement est devenu l’un des fronts les plus importants de la concurrence dans l’IA. Les chatbots peuvent répondre aux questions, résumer des textes et rédiger des messages, mais les utilisateurs doivent encore souvent cliquer à travers les pages, copier des détails et finaliser eux-mêmes les actions. En intégrant davantage de comportements de type agent directement dans Android, Google essaie de combler cet écart et de rendre son assistant utile dans les moments où la friction numérique est la plus forte.

Chrome et Gboard deviennent des terrains d’essai

Deux des exemples les plus clairs apparaissent dans Chrome et Gboard. Dans Chrome, Gemini résumera le contenu web et aidera à remplir des formulaires complexes. Google indique que le remplissage automatique des formulaires ne sera activé que lorsque les utilisateurs l’auront expressément choisi, un détail qui montre que l’entreprise s’attend à un examen autour de la vie privée, du contrôle et du risque d’erreur. Les formulaires constituent une cible naturelle pour l’automatisation par IA parce qu’ils sont répétitifs et chronophages, mais ils impliquent aussi des données personnelles et ne tolèrent guère les erreurs. En laissant la fonction en opt-in, Google semble chercher un équilibre entre commodité et nécessité de rassurer les utilisateurs sur le fait que l’automatisation ne prendra pas silencieusement le contrôle de tâches sensibles.

Gboard va recevoir une fonction appelée Rambler, qui transforme des pensées orales et peu travaillées en messages texte plus clairs. Selon la source, la fonction peut prendre en charge plusieurs langues à la fois. Cela pourrait la rendre particulièrement utile dans les régions multilingues ou au sein de foyers où l’on passe naturellement d’une langue à l’autre en cours de phrase. Cela reflète aussi une tendance plus large dans les interfaces IA : les systèmes cherchent de plus en plus à réduire l’effort nécessaire pour transformer des entrées humaines brouillonnes en quelque chose de présentable, plutôt que d’exiger des utilisateurs qu’ils parlent ou tapent dans des formats rigides.

La personnalisation comme nouvelle commande

Une autre fonction, Create My Widget, vise la personnalisation de l’interface. Les utilisateurs peuvent décrire le type de widget souhaité, par exemple un widget centré sur des suggestions de recettes ou des informations météo précises, et le système le génère. En apparence, cette annonce est plus modeste que l’automatisation des tâches par IA. Mais elle montre comment Google traite le langage naturel comme une nouvelle couche de contrôle pour la création logicielle. Au lieu de naviguer dans des menus ou des outils de mise en page, les utilisateurs décrivent un élément d’interface et laissent le système l’assembler.

Si cette approche fonctionne de manière fiable, elle pourrait abaisser la barrière à la personnalisation des appareils et offrir à Android un autre point de différenciation. Depuis des années, Android se distingue en partie par sa flexibilité. Permettre aux gens de créer des éléments d’interface fonctionnels à partir d’une description prolonge cette identité dans l’ère de l’IA.

Un mouvement concurrentiel avant Google I/O

Le calendrier est également notable. La source relie l’offensive Gemini Intelligence à l’effort de Google pour réduire l’écart avec OpenAI et Anthropic sur le marché des agents IA. Ce marché est de plus en plus défini par des systèmes qui font plus que produire du texte. Les entreprises se précipitent pour créer des assistants capables de naviguer dans des logiciels, de récupérer des informations et d’effectuer des actions significatives avec une intervention limitée de l’utilisateur.

La décision prise par Google début mai de fermer son agent de navigateur expérimental Project Mariner et d’intégrer sa technologie dans le nouveau Gemini Agent suggère une consolidation interne autour d’une stratégie plus unifiée. Plutôt que de garder séparées les capacités expérimentales d’agent, Google semble les intégrer à sa pile IA grand public phare. Une telle consolidation peut compter autant que la qualité du modèle, car les utilisateurs sont plus susceptibles d’adopter des fonctions qui apparaissent là où ils travaillent déjà, comme dans les claviers, les navigateurs et les systèmes d’exploitation.

Pourquoi ce déploiement compte

Ces annonces ne prouvent pas que les agents IA sont un problème résolu. L’automatisation dans le monde réel se heurte encore à des interfaces fragiles, à des intentions utilisateur ambiguës et au risque d’actions incorrectes. Mais la mise à jour de Google montre que le secteur entre dans une phase plus opérationnelle. L’attention se déplace de la démonstration de modèles impressionnants en démo vers leur intégration dans les routines que les gens répètent tous les jours.

Si le déploiement se passe bien, les utilisateurs Android pourraient commencer à percevoir l’IA moins comme une destination que comme une infrastructure de fond : un résumeur dans le navigateur, un polisseur dans le clavier, un assistant dans les flux de commerce et un générateur de composants d’interface personnalisés. Ce serait une étape concrète dans l’adoption de l’IA grand public, car cela relie l’intelligence à l’utilité plutôt qu’à la nouveauté.

  • Google dit que Gemini Intelligence sera lancé d’abord sur le Galaxy S26 et le Pixel 10 cet été.
  • Les nouvelles fonctions visent l’automatisation, le résumé, la rédaction de messages et la création de widgets.
  • Cette évolution positionne Gemini plus directement face aux autres entreprises qui développent des agents IA capables d’agir à travers les logiciels.

Cet article s’appuie sur une couverture de The Decoder. Lire l’article original.

Originally published on the-decoder.com