Face à la course effrénée autour de l’intelligence artificielle, Google mise sur une vision moins abstraite que ses rivaux : une IA intégrée, contextuelle et active, au service d’une vie numérique simplifiée. Avec Gemini 2.5 et ses agents, la firme de Mountain View dessine une informatique centrée sur l’humain… mais pas à la portée de tous.
Sur la scène du Shoreline Amphitheatre, Sundar Pichai n’a pas parlé de révolution. Il a plutôt esquissé une trajectoire. Celle d’un futur proche où l’IA n’est plus un outil qu’on déclenche, mais un environnement qu’on habite. À Google I/O 2025, la promesse était moins spectaculaire que celle d’une intelligence artificielle générale – comme celle évoquée par OpenAI – mais elle semblait plus proche, plus tangible, presque déjà en usage.
Google parle désormais d’« IA universelle ». Une expression un peu floue, volontairement inclusive, qui englobe à la fois la recherche, l’écriture automatique, les agents conversationnels, l’aide au shopping, la création de vidéos, et même la planification de voyages. Tout cela est censé tenir dans un mot : Gemini.
Gemini 2.5, dans ses variantes Pro Deep Think et Flash, n’est pas qu’un nouveau modèle plus rapide. C’est le socle technique d’un écosystème. Un socle qui, selon les premiers chiffres partagés en interne, offrirait jusqu’à 50 % de performances supplémentaires sur certaines tâches complexes. Flash est désormais le modèle par défaut pour ses réponses rapides, tandis que la version Pro Deep Think sera réservée aux abonnés Ultra. Ces derniers bénéficieront également d’un accès anticipé à un mode expérimental baptisé Agent Mode.
Cette fonctionnalité est pensée comme le cœur de la prochaine génération d’IA agentique. Elle permettrait à Gemini de gérer des tâches complexes de bout en bout : réservation, planification, coordination, rédaction. L’utilisateur n’aurait qu’à formuler une intention ; Gemini s’occuperait du reste. Une approche ambitieuse, qui franchit un cap dans l’automatisation personnelle.
Derrière cette stratégie tarifaire se cache une segmentation assumée. Gemini, dans sa version la plus avancée, vise les professionnels, les créateurs de contenu, les technophiles qui ne veulent plus attendre que l’IA les comprenne. L’offre Ultra, à près de 250 dollars US par mois (avec 50 % de réduction les trois premiers mois), inclut un accès anticipé aux outils les plus puissants, ainsi qu’à des fonctions exclusives comme Veo 3 ou la recherche contextuelle enrichie. À l’inverse, les étudiants dans plusieurs pays, dont les États-Unis, le Brésil, le Japon ou l’Indonésie, bénéficieront d’un an d’abonnement gratuit à Gemini Pro.
La logique d’anticipation n’est pas nouvelle, mais elle prend ici une forme technologique inédite. Gemini Live, désormais gratuit sur Android et iOS, permet à chacun de filmer une scène en direct et de dialoguer avec l’IA pour la comprendre, la résoudre ou l’enrichir. Les interactions sont cinq fois plus longues qu’avec le texte, selon Google, preuve que l’interface visuelle change la donne. L’assistant pourra bientôt créer un événement dans votre agenda, réserver un restaurant ou croiser une envie de pizza avec Google Maps.
Cette fluidité repose sur une interconnexion croissante entre les outils de Google : Keep, Agenda, Maps, Gmail, Chrome. Gemini s’y installe peu à peu comme une surcouche intelligente. Dès demain, il sera intégré à Chrome sur desktop (en anglais), capable de résumer des pages ou de répondre à des questions en contexte.
Mais plus l’assistance est subtile, plus elle devient opaque. Google promet la transparence. Tout devra être activé manuellement, dit Pichai. L’utilisateur gardera le contrôle, jure-t-on. Pourtant, à mesure que les fonctions s’automatisent, que Gmail apprend à rédiger vos messages à votre place en imitant votre ton, que la navigation devient proactive, on peut se demander si l’usager ne se transforme pas peu à peu en spectateur.
Du côté des créateurs, les nouvelles sont à double tranchant. Imagen 4 génère des visuels de haute qualité avec un rendu textuel amélioré, Veo 3 produit des vidéos avec dialogues, bruitages et ambiances sonores. Gemini Flow assemble le tout pour créer des courts-métrages en quelques clics. Des outils « créés par des créatifs, pour les créatifs », selon Google. Mais qu’en est-il des cinéastes, des monteurs, des étudiants en animation ? Peut-on parler encore de création quand l’essentiel du processus est géré par des modèles préentraînés ?
Ce paradoxe traverse toute l’annonce. Google veut offrir plus de pouvoir, mais ce pouvoir passe par une délégation quasi complète des gestes quotidiens. Il s’agit moins de gagner du temps que d’abandonner des micro-choix. Ce n’est plus l’ordinateur qui attend vos instructions, c’est vous qui entrez dans son rythme.
Le lancement prochain des lunettes Android XR, mentionnées en clôture de la conférence, cristallise cette ambition. Une IA à la voix douce, toujours présente, ancrée dans un objet aussi banal que des lunettes. Une interface invisible. Une réalité augmentée où l’assistance devient le décor.
Ce que Google propose ici, ce n’est pas seulement un nouveau produit. C’est une vision de l’informatique comme environnement. Une vision où l’IA s’efface derrière les usages, où l’interaction devient intuition, où la technologie cesse d’être un outil pour devenir un contexte. Une vision séduisante, mais qui mérite plus que jamais d’être interrogée.
Car si l’IA devient le cadre, qui en maîtrise les contours ?