IA générative : Google Cloud passe à la vitesse supérieure
A l'occasion de son événement Google Next, le cloud d'Alphabet annonce une cinquantaine de nouveautés centrées très majoritairement sur la generative AI.
Face au couple Microsoft Azure/OpenAI, Google compte bien rester dans la course à l'IA générative. C'est en tout cas le message que le cloud de Mountain View souhaite faire passer à l'occasion de son événement Google Next qui se tient du 29 au 31 août à San Francisco. Avec un argument de poids : AAI21labs, Anthropic, Character.ai, Cohere... "70% des licornes positionnées dans la generative AI figurent parmi nos clients", insiste Philip Moyer, vice-président global AI & business solutions au sein de l'entité cloud de Google.
En vue d'entrainer les large language model (LLM) à la base de l'IA générative, Google a donné le coup d'envoi de son Cloud A3. Basé sur des cartes graphiques Nvidia H100, le supercalculateur de troisième génération enregistre une vitesse d'apprentissage trois fois supérieure à sa version précédente ainsi qu'une bande passante 10 fois plus importante. "Gérée par Google Kubernetes Engine, sa mise à l'échelle peut encaisser des calculs répartis sur des dizaines de milliers de processeurs H100", précise Mark Lohmeyer, vice-président et general manager compute et ML infrastructure chez Google Cloud. Résultat : Google rivalise largement avec les ressources mises en œuvre par Azure et OpenAI en matière de calcul graphique (lire l'article ChatGPT : les coulisses d'une technologie gigantesque).
Une réponse à Copilot de Microsoft
Après PaLM, Codey et Imagen, tous mis à jour pour l'occasion, Google Cloud ajoute LLaMa 2 de Meta, Claude 2 d'Anthropic et Falcon de TII à la galerie de modèles de sa plateforme cloud d'IA Vertex. Dans le même temps, Vertex AI Search, qui offre toute la puissance du moteur de Google appliqué aux contenus d'entreprise, est annoncé en version finale. "Idem pour Vertex AI Conversation qui est taillé pour déployer des chatbot et voicebot à base de LLM", ajoute Warren Barkley, directeur sénior product management, cloud AI au sein de Google Cloud.
Faisant écho aux assistants Microsoft 365 Copilot, Duet AI est désormais proposé en version finale pour Google Workspace. Dans Google Meet, il automatise la prise de note en identifiant les moments clés des meetings, voire en capturant des extraits vidéos. L'outil prend en charge plus de 300 paires de langues pour assurer la traduction par sous-titres. Dans Google Chat, Duet AI a donné lieu à une réécriture complète du moteur de recherche de la messagerie instantanée. Objectif : faciliter l'identification des messages les plus importants, des conversations manquées mais susceptible de valoir le détour, fournir des résumés de rapport...
"Duet AI suggère automatiquement du code en temps réel"
Mais les assistants Duet AI ne se limitent pas à Google Workspace. Ils viennent aussi épauler d'autres services de Google Cloud. C'est notamment le cas avec BigQuery. Au sein de l'entrepôt de données, ils fournissent une assistance contextuelle pour concevoir des requête SQL ou des lignes en Python. "Au sein de BigQuery, Duet AI suggère automatiquement du code en temps réel et génère des fonctions et blocs de code complets, mais aussi recommande des correctifs", explique Brad Calder, vice-président et general manager Google Cloud Platform et technical infrastructure.
Pour l'occasion, BigQuery est coiffé d'un studio. Lancé en version finale, il se présente sous la forme d'une interface unique à la fois à destination des data engineers, des data scientists et data analysts. Une fonction très demandée sur le marché, dont il convient de saluer la sortie. Ce type de solution facilite en effet la collaboration entre les différents intervenants d'un projet d'IA, ce qui contribue au final à améliorer la qualité du produit fini. Autre évolution : l'unification des traitements analytics et transactionnels dans BigQuery, avec notamment le support natif de Spark. Une nouveauté qui ouvre la porte à la librairie SparkML. Mais ce n'est pas tout. Google Next est également l'occasion de lancer BigQuery ML en version finale. Une surcouche qui n'est autre qu'une passerelle vers Vertex AI. Sa vocation : faciliter la conception et la mise en œuvre de LLM reposant sur des données d'entrainement stockées dans BigQuery. On en revient à l'IA générative.
L'IA générative en mode multicloud
Prenant ses distances avec l'approche Azure-centric de Microsoft, Google a par ailleurs dévoilé la base de données AlloyDB Omni en préversion. "Orienté vectorisation et optimisé pour l'embeddinds, ce serveur taillé pour l'IA générative tourne évidemment sur Google Cloud, mais aussi sur AWS et Azure. Il peut aussi s'exécuter sur un cloud internalisé", commente Andi Gutmans, vice-président et general manager databases au sein de Google Cloud. Le groupe sort ainsi des sentier battus en s'orientant vers une stratégie multicloud, voire edge cloud.
En parallèle, AlloyDB Omni est accompagné d'AlloyDB AI, lui aussi lancé en bêta. Intégrée à Vertex AI, il s'agit d'une boîte à outils permettant d'échafauder les applications de generative AI qui viendront s'adosser à la base de données.