Lors de son grand rendez-vous annuel, Google a levé le voile sur une avalanche d’annonces centrées sur l’intelligence artificielle. Derrière l’effet vitrine, une stratégie bien plus profonde se dessine, qui bouscule les usages, les priorités et même les prix.
Quand Google entame sa conférence I/O, c’est souvent pour montrer les muscles. Mais cette année, plus encore que les précédentes, on a senti que quelque chose avait changé dans la respiration même du géant de Mountain View. Moins d’annonces “gadget”, davantage de cap stratégique. Moins d’Android, plus de Gemini. Moins d’hésitations, plus de monétisation. L’intelligence artificielle n’est plus une brique, elle est devenue le ciment.
Le ton est donné d’entrée avec AI Mode, désormais intégré à la recherche pour tous les utilisateurs américains. Google y place un chatbot capable de répondre à des requêtes complexes, de produire des tableaux sur mesure, de manipuler des visuels ou de comparer des billets d’avion. Ce n’est plus un simple outil d’assistance, c’est un moteur de réponse autonome, positionné juste à côté de la recherche classique. Comme une version alternative, déjà prête à prendre le relais.
Cette bascule n’est pas isolée. Elle irrigue toutes les branches de l’écosystème Google. Avec Gemini 2.5, la firme déploie une nouvelle version de son modèle maison, vantée pour sa précision, sa transparence, sa gestion des langues et sa capacité à raisonner en profondeur. Cette dernière fonction, baptisée “Deep Think”, se veut capable de reconstruire une vision tridimensionnelle à partir d’un ensemble d’images, tout en générant une narration audio synchronisée. On est loin des réponses de courtoisie dans Gmail. D’ailleurs, même celles-ci évoluent. Les fameuses “smart replies” deviennent personnalisées en s’inspirant du style de l’utilisateur, à condition d’accepter que Gemini fouille ses mails et ses documents Drive.
Cette interconnexion entre IA et vie numérique prend une tournure encore plus concrète avec Project Astra. Présenté comme un assistant universel, Astra se montre capable de lire vos e-mails, d’identifier un problème, de chercher une pièce détachée, puis d’appeler une boutique pour la commander. Le tout en enchaînant les tâches avec une fluidité qui laisse entrevoir un changement de paradigme. L’IA n’attend plus qu’on l’interroge, elle agit.
Le problème, c’est que ce nouveau monde a un prix. Et pas symbolique. Pour accéder à toutes les fonctionnalités avancées, Google lance un abonnement “AI Ultra” facturé 250 dollars par mois. Oui, 250. L’offre inclut des outils comme Deep Research, de généreux quotas de stockage et YouTube Premium, mais cela reste un tarif qui heurte. La réaction en ligne ne s’est pas fait attendre, avec une avalanche de commentaires incrédules et moqueurs. Pour beaucoup, cette tarification place l’IA de Google hors de portée des utilisateurs moyens, tout en envoyant un signal limpide : l’innovation se paiera cher.
Autour de ce noyau, d’autres annonces viennent enrichir le tableau. Android 16 poursuit sa mue, avec une interface plus expressive, une meilleure gestion des notifications, la prise en charge d’Auracast et des fonctions anti-arnaque renforcées. Mais difficile d’ignorer que l’OS mobile a été relégué en ouverture, traité la semaine précédente dans une émission dédiée. Même Wear OS, qui reçoit sa dose de Material 3, semble passer au second plan. Le futur, pour Google, se joue ailleurs.
Ce “ailleurs”, c’est aussi la réalité augmentée. Android XR, la plateforme qui doit remplacer les expérimentations avortées (Google Glass, Daydream, Cardboard…), se précise. Une collaboration avec Samsung donne naissance à un prototype de lunettes traductrices, capable de reconnaître les langues à la volée. Et ce n’est pas un gadget. L’usage est concret, immédiat, presque rassurant face à la sophistication parfois abstraite des autres démonstrations.
On pourrait croire à un empilement de fonctionnalités, une frénésie d’innovations. Mais en observant l’ensemble, une logique se dégage. Celle d’un écosystème où tout converge vers un point unique : Gemini. Qu’il s’agisse de poser une question à votre navigateur Chrome, d’utiliser la caméra de votre téléphone pour interagir avec le monde ou de générer une vidéo avec Flow, une nouvelle app de montage pilotée par IA, la réponse passe toujours par ce moteur central. Même les outils de vérification comme SynthID Detector, capables de repérer les traces d’une création IA, sont des extensions de ce même cœur algorithmique.
Ce recentrage a quelque chose de fascinant, mais aussi d’inquiétant. Il dessine un futur où chaque geste numérique passera par un filtre algorithmique, calibré, standardisé, potentiellement surveillé. Un futur où l’automatisation se double d’une délégation toujours plus poussée, et où l’humain, pour rester maître, devra apprendre à fixer ses propres limites.
Car tout cela, aussi bluffant soit-il, repose sur un choix implicite. Celui d’accepter que son espace personnel – messages, habitudes, voix, images – serve à alimenter un assistant toujours plus présent. Le confort a un prix. Il est parfois économique, il est souvent éthique.
Il reste à voir si ce pari sera suivi. Si les utilisateurs se reconnaîtront dans cet assistant total ou s’ils préféreront garder la main. En attendant, Google trace sa route, plus droit que jamais.