Lors de la présentation des résultats du deuxième trimestre fiscal 2026 en décembre dernier, Larry Ellison a posé un diagnostic sans concession : les grands modèles d’IA générative finissent par se ressembler et perdent leur caractère distinctif. Pour le cofondateur d’Oracle, la véritable bataille technologique et financière se déplace désormais vers l’exploitation sécurisée des données privées d’entreprise.
L’essentiel
- Analyse : Larry Ellison estime que l’entraînement sur des données publiques similaires conduit inévitablement à une uniformisation des modèles d’IA (commoditisation).
- Pivot : La valeur ajoutée migre vers l’IA capable de « raisonner » sur des données propriétaires sans les exposer, via des architectures de type RAG.
- Infrastructure : Oracle a relevé ses prévisions de dépenses d’investissement (CapEx) à environ 50 milliards de dollars pour l’exercice 2026 afin de soutenir cette demande.
- Chiffres : Le carnet de commandes (RPO) a atteint 523 milliards de dollars, validant l’appétit du marché pour ces capacités de calcul et de stockage.
- Technologie : Le groupe déploie des superclusters massifs, incluant 50 000 GPU AMD MI450 et l’architecture OCI Zettascale10.
L’uniformisation des grands modèles de langage (LLM) est-elle inéluctable ? C’est la thèse défendue par Larry Ellison. Alors que la course à la puissance brute continue, Oracle affirme que la différenciation ne se joue plus sur la taille du modèle, mais sur sa capacité à s’intégrer intimement et surement aux données critiques des entreprises. Une vision qui justifie des investissements colossaux.
Le piège de la commoditisation
L’argumentaire d’Ellison repose sur une observation pragmatique : si les modèles (ChatGPT, Gemini, Llama) s’entraînent sur les mêmes corpus publics, leurs réponses tendent mathématiquement à converger. Lors de la conférence de résultats du 10 décembre 2025, le dirigeant a souligné que cette similarité transforme l’IA générative en une commodité, où la concurrence finit par se faire sur les prix plutôt que sur l’intelligence intrinsèque du système.
Cette analyse, bien que provocatrice, éclaire une réalité pour les directeurs des systèmes d’information (DSI). Pour eux, l’enjeu n’est plus seulement d’avoir un chatbot éloquent, mais un système capable d’accéder à leurs contrats, inventaires et procédures internes sans halluciner ni fuiter.
La « deuxième vague » : l’IA sur données privées
La réponse d’Oracle à cette banalisation est l’IA appliquée aux données propriétaires. L’objectif est de permettre aux modèles de « raisonner » sur des informations qui ne se trouvent pas sur le web public. Cette approche, souvent technique (RAG ou Retrieval-Augmented Generation), devient un impératif de souveraineté opérationnelle : une IA n’est utile en entreprise que si elle connaît le contexte métier spécifique de l’organisation.
Oracle se positionne comme le coffre-fort nécessaire à cette transition. Le groupe met en avant son carnet de commandes, qui affiche des obligations de performance restantes (RPO) de 523 milliards de dollars, pour prouver que le marché valide cette stratégie hybride mêlant capacité cloud et gestion de données.
Une course à l’armement infrastructurel
Pour concrétiser cette vision, il ne suffit pas de gérer des bases de données ; il faut une puissance de calcul phénoménale. Oracle a donc revu à la hausse ses projections de dépenses d’investissement (CapEx), les portant à environ 50 milliards de dollars pour l’année fiscale 2026, contre 35 milliards estimés précédemment.
Cette manne finance des projets d’infrastructure titanesques. Lors de l’Oracle AI World en octobre 2025, l’entreprise a dévoilé un partenariat étendu avec AMD pour déployer un supercluster public de 50 000 GPU AMD Instinct MI450, prévu pour le troisième trimestre 2026. En parallèle, l’architecture OCI Zettascale10 vise à connecter des centaines de milliers de GPU NVIDIA pour des charges de travail encore plus lourdes.
Les limites du modèle
Si la stratégie est claire, elle n’est pas sans risques. D’une part, la rentabilité de ces investissements dépend de la capacité à remplir ces nouveaux data centers sur la durée. D’autre part, la donnée privée n’est pas une panacée : elle est souvent fragmentée, mal qualifiée ou obsolète. Brancher un modèle performant sur des données de mauvaise qualité ne produira pas de miracles.
De plus, Oracle n’est pas seul. Les hyperscalers comme AWS et Microsoft Azure proposent également des architectures robustes pour coupler modèles et données privées. La bataille se jouera donc autant sur la sécurité et la facilité d’intégration que sur la puissance brute des GPU.
FAQ
Il signifie que les modèles d’IA, entraînés sur les mêmes données publiques, finissent par offrir des performances et des connaissances identiques. Ils deviennent alors des produits standards interchangeables, sans réelle valeur distinctive pour le fournisseur.
Ce montant correspond aux dépenses d’investissement (CapEx) prévues pour l’année fiscale 2026. Il sert à construire et équiper des data centers massifs pour héberger les infrastructures cloud et les milliers de GPU nécessaires aux calculs d’IA.
Le RPO (Remaining Performance Obligations) représente le chiffre d’affaires futur sécurisé par contrat mais non encore reconnu. Avec 523 milliards de dollars, il indique qu’Oracle dispose d’un carnet de commandes massif, validant la demande des clients pour ses services cloud et IA.


