Damien Lucas (Scaleway) "La croissance de Scaleway représente plusieurs fois celle du cloud public"
Le directeur général du fournisseur de cloud français revient sur sa stratégie dans l'IA et livre quelques informations sur sa feuille de route.
JDN. Les études montrent que l'IA pousse la croissance du cloud. Est-ce aussi le cas chez Scaleway ?

Damien Lucas. C'est le cas. Et ce pour plusieurs raisons. Comme l'a dit Michael Dell lors de notre événement mondial ai-Pulse 2024 en novembre dernier, il faut amener l'IA à la data et pas l'inverse. La data étant basé sur le cloud, il est donc logique d'y adjoindre des capacités d'IA. C'est un enjeu que nos clients ont bien compris. Second mouvement : les entreprises qui souhaitent se tourner vers l'IA accélèrent leur migration vers le cloud. L'intelligence artificielle se déploie en effet dans le cloud via des ressources de calcul spécifiques que sont les GPU. Des ressources qu'il est difficile de déployer sur site.
A quel niveau l'IA tire-t-elle la croissance de Scaleway ?
La croissance de Scaleway représente plusieurs fois la croissance du marché du cloud public (qui se situe entre 20% et 25%, ndlr). L'IA est notre premier vecteur de croissance. C'est difficile d'être plus précis car il est complexe de définir où l'IA commence en termes applicatif et d'infrastructure.
Quels sont les usages de vos clients en matière d'IA générative ?
Nous comptons de très nombreux exemples de clients dans ce domaine. Qubit par exemple a recours à l'IA générative pour la recherche dans les médicaments. Ils capitalisent sur cette technologie pour parvenir à des résultats qui auraient demandé des années de travail par les voies classiques. Autre client, Stellia AI développe des assistants pour accompagner les élèves dans leur apprentissage par le biais de questionnaires spécialisés et une aide personnalisée. Parmi nos clients dans le secteur de la mode, Veeton génère des images de mannequins portant des vêtements à partir de simples photos sans avoir recours à des modèles physiques. Cette approche est également adoptée par Photoroom parmi nos clients.
Dans le secteur financier et immobilier, Neomi exploite des modèles de vision par ordinateur exécutés sur notre cloud public pour analyser des images et automatiser la classification de documents avec pour objectif d'accélérer ses processus administratifs. Dans le domaine juridique, Jimini AI automatise l'analyse et la rédaction de documents contractuels, toujours en se basant sur notre offre de cloud public.
Quid des projets de vos clients dans l'agentique ?
Dans ce domaine, nous avons H par exemple, qui est l'un des principaux clients de Scaleway. Ils entrainent leurs modèles chez nous. (H déploie des agents d'IA pour automatiser des tâches et des processus métier, ndlr). Nous avons d'autres clients qui utilisent des agents d'IA. C'est un vrai domaine à fort potentiel qui n'est d'ailleurs pas nouveau. L'industrie du jeu vidéo utilise des agents depuis des années.
Où en êtes-vous dans le déploiement de votre infrastructure de GPU ?
Lors d'ai-Pulse 2023, nous avions annoncé être en possession de 1 000 GPU les plus puissants du marché. A l'occasion de l'édition 2024 de l'évènement, nous avons communiqué sur le chiffre de 5 000 GPU. Je vous laisse deviner le nombre de GPU que nous annoncerons lors d'ai-Pulse 2025 qui aura lieu le 18 novembre prochain. Nous n'allons pas nous arrêter là. Le groupe Iliad a communiqué sur un montant de 3 milliards d'euros d'investissement sur les cinq prochaines années dans le cloud et l'IA. Ce qui recouvre principalement la mise en œuvre de data centers et l'investissement dans de nouveaux GPU.
OVHcloud limite son positionnement dans l'IA à l'inférence de modèles. Est-ce aussi votre cas ?
Nous ciblons également l'entraînement. Sur ce terrain, Mistral a par exemple entraîné Mixtral-8x7B chez Scaleway. C'est également le cas du laboratoire Kyutai avec leurs différents modèles. Nous avons également cité H qui entraîne l'ensemble de son offre chez Scaleway. Il y en a beaucoup d'autres que je ne peux pas mentionner pour des raisons de confidentialité. Côté technique, les configurations choisies peuvent varier. Nous avons des clients qui réalisent des entraînements sur 200 GPU, d'autres sur 2 000 GPU. D'autres encore n'utiliseront que quelques GPU, typiquement pour fine tuner un modèle déjà existant. Avec nos 5 000 GPU, nous sommes capables d'entrainer des modèles de plusieurs centaines de milliards de paramètres.
"Les principaux points de notre feuille de route sont orientés sur la data et l'IA"
Nous sommes également positionnés sur l'inférence. Dans ce domaine, il est important de bénéficier d'une infrastructure correctement dimensionnée pour ne pas faire exploser les coûts. Nous proposons des capacités de calcul très puissantes pour faire tourner les large language model. Nous avons aussi des alternatives moins consommatrices en énergie pour faire tourner des petits modèles. Il s'agit des GPU L40 et L4 de NVidia par exemple. Mais dans ce domaine, nous commercialisons aussi des GPU d'AMD car nous estimons important de mettre en avant des alternatives à NVidia.
Proposez-vous des services cloud pour faire tourner des modèles sur des terminaux ?
Nous proposons le CPU M4 d'Apple qui dispose d'un GPU intégré en mode as a service. Dans la même logique, nous proposons aussi des processeurs ARM pour gérer de l'inférence à la demande sur des terminaux.
En parallèle de l'inférence, nous proposons des modèles as a service qui vont permettre de répondre à des requêtes sans avoir à déployer la stack sous-jacente. Le paiement sera calculé en fonction du nombre de requêtes et non au regard des CPU ou GPU utilisés. Les clients passeront par une API. Au sein de cette offre, nous intégrons les modèles Llama, Mistral, Deepseek, Falcon. En termes d'adoption, nous n'avons jamais vu un produit qui était autant utilisé quelques mois après son lancement.
Avez-vous également avancé sur les outils de PaaS orientés IA générative ?
C'est un point extrêmement important pour nous. La compétitivité de nos clients et donc notre réussite dépendent des outils que nous leur mettons à disposition. Les principaux points de notre feuille de route sont par conséquent orientés sur la data et l'IA. Ce qui inclut les services de stockage de données, de data wahrehouse, mais aussi les bases de données vectorielles pour piloter le RAG, ainsi que les modèles pré-intégrés. A cela s'ajoutent nos offres serverless et de Kubernetes managés, mais également de message queuing. Nous avons également mis en œuvre au sein des tableaux de bord mis à la disposition de nos clients des indicateurs pour suivre l'impact de la consommation de ressources à la fois d'un point de vue financier mais également écologique.
Damien Lucas est le CEO de Scaleway depuis mai 2023. Cet entrepreneur fonde en 2003 Anevia, un éditeur de logiciels pour la distribution en OTT et IPTV ciblant à la fois la vidéo en direct et en différé et la vidéo à la demande (VOD). En 2020, Anevia est acquise par Ateme, un autre spécialiste des infrastructures de diffusion vidéo. Suite à ce rachat, Damien Lucas est promu chief product officer du nouvel ensemble. Il conserve ce poste jusqu'à sa nomination à la tête de Scaleway en 2023.