Il n’y a pas que la RTX 50 et le DLSS 4 : NVIDIA a présenté ce soir une “dernière chose” qui pourrait réécrire les règles de l’IA pour les développeurs, les informaticiens et les chercheurs. Il s’agit du Project Digit, un superordinateur de la taille d’un Mac Mini qui reproduit, à petite échelle, les ordinateurs des centres de données. Il dispose d’une puissance de 1 pétaflop, de 128 Go de mémoire vive et gère 200 milliards de modèles de paramètres.
Pour comprendre à quel point Project Digit, le nouveau supercalculateur de bureau que NVIDIA a annoncé au CES, est incroyable, nous devons faire une prémisse. Aujourd’hui, un développeur ou un data scientist qui veut gérer ou entraîner de grands modèles d’IA a principalement trois options : s’appuyer sur les services cloud d’un datacenter, avec des coûts qui ne sont pas toujours prévisibles et avec la nécessité de télécharger les modèles sur un serveur distant, utiliser un MacBook Studio ou un Mac Mini configuré mais avec 96 ou 128 Go de mémoire unifiée, indispensable pour travailler sur de grands modèles, ou travailler sur des clusters de cartes NVIDIA RTX, avec un petit problème de consommation qui peut nécessiter une augmentation de la puissance du compteur.
À partir du mois de mai, il y aura une solution de plus, et pour ce qu’elle offre, elle coûtera aussi incroyablement peu, autour de 3 000 dollars : NVIDIA Project Mini est la version de bureau d’un supercalculateur de datacenter, conçu pour ceux qui doivent travailler avec des modèles d’IA générative et qui sont aujourd’hui incapables de gérer des modèles de grande taille.
Aussi grand qu’un Mac mini et alimenté par la prise classique d’un ordinateur, qui supporte un maximum de 3 kW, Project Digit est construit autour de l’architecture Grace Blackwell de NVIDIA et a pour cœur le nouveau processeur Superchip GB10. Un SoC capable de gérer jusqu’à 1 pétaflop de puissance de calcul avec des modèles d’IA quantifiés FP4, et capable, grâce à 128 Go de mémoire unifiée, de gérer des modèles comportant jusqu’à 200 milliards de paramètres.
Le SoC se compose d’un GPU Blackwell avec la cinquième génération de Tensor Core et des files d’attente CUDA, connecté via NVLink à un CPU Grace sur architecture ARM. Il est probable, à ce stade, que le CPU que NVIDIA construisait avec Mediatek soit celui-ci : la société basée à Santa Clara explique que Mediatek était le partenaire de choix pour les 20 cœurs qui sous-tendent Grace, et il n’est pas exclu à ce stade que les sociétés puissent également collaborer sur d’autres conceptions à l’avenir.
Revenons au prix pour donner une idée de l’accessibilité de la solution : 128 Go de mémoire, un GPU de 1 pétaflop et 4 To de stockage NVME pour 3 000 euros, soit moins de la moitié de ce qui est nécessaire aujourd’hui avec des solutions alternatives. De plus, grâce à ConnectX, deux Digits peuvent être mis en cluster pour gérer 400 milliards de modèles de paramètres.
L’avantage de NVIDIA ne réside pas seulement dans le prix, mais aussi dans l’évolutivité : un chercheur peut prototyper et affiner un modèle localement, puis envoyer ce même modèle en production dans des centres de données en nuage avec la certitude de la compatibilité et de la performance, puisqu’ils utilisent la même architecture Blackwell. Il sera disponible à partir du mois de mai.