Le projet Gemini 3 de Google a rencontré un franc succès. Son impact est tel qu’OpenAI a déclenché une alerte rouge. L’entreprise concentrera désormais ses efforts sur l’amélioration de son produit phare plutôt que sur le développement de nouvelles fonctionnalités.
L’une des particularités de Gemini 3 réside dans son architecture matérielle. Il n’a pas été entraîné sur des GPU Nvidia, mais sur la technologie propriétaire de Google. Ces TPU (Tensor Processing Units) sont désormais en version 7, et Google semble détenir un atout majeur grâce à elles.
Le bond technologique est si important que Nvidia s’est sentie obligée de publier un tweet plutôt timide. Si la puce Google individuelle n’est pas nécessairement supérieure, son passage à l’échelle est exceptionnel. Google peut connecter jusqu’à 9 216 puces dans un seul module, tandis que le cluster standard de Nvidia n’en contient généralement que 72.
Ces TPU sont non seulement adaptés à l’entraînement de nouveaux modèles, mais aussi très performants pour l’application et l’inférence. Google a ainsi surmonté un obstacle majeur à la généralisation de l’IA dans la recherche : le coût par requête.
Je soupçonne donc que le mode IA deviendra le mode par défaut pour de nombreuses requêtes de recherche bien plus rapidement qu’on ne le pensait. Google renforce déjà cette intégration presque chaque semaine. Cela se manifeste notamment à la fin des aperçus de l’IA, dans le navigateur Chrome, et à bien d’autres endroits.