https://media.mmorpg.com/images/heroes/posts/133891.jpg
Au CES de cette année, Joseph et moi avons pu assister à la journée des rédacteurs de Nvidia, avec un certain nombre d’autres journalistes, pour découvrir tous les détails passionnants entourant la série RTX 5000. Beaucoup de choses ont été dites après le discours d’ouverture du PDG Jensen Huang, mais après avoir découvert la nouvelle technologie et vu des avancées telles que Reflex 2 et DLSS 4 en action, nous sommes repartis enthousiastes et impatients d’en voir plus.
À chaque nouvelle génération, Nvidia organise une conférence Editor’s Day, permettant à des journalistes sélectionnés de se plonger en profondeur dans la nouvelle technologie. Cette année, j’ai pris l’avion pour Las Vegas pour le CES 2025 afin de pouvoir y assister aux côtés de Joseph. L’événement consistait en plusieurs présentations, plongeant dans l’architecture, le DLSS 4, la génération Multi Frame et le rôle croissant de l’IA dans les PC. Un certain nombre de choses intéressantes ont été discutées, mais la plus marquante a été d’essayer le RTX 5090 par nous-mêmes et de constater l’impact réel du DLSS 4 sur les FPS, mais plus encore sur la qualité de l’image.
RTX 5000 Blackwell – Conçu pour l’IA, les RTX Neural Shaders
RTX Blackwell comprendra les RTX 5070, RTX 5070 Ti, RTX 5080 et RTX 5090. Ceux-ci seront tous commercialisés cette année et tous, sauf le RTX 5070 Ti, devraient avoir des modèles Founders Edition vendus au détail au PDSF. Pour la première fois depuis des lustres, le RTX 5090 semble être une avancée intéressante avec près du double du shader, de l’IA et des RT TOPS et FLOPS, ainsi que deux fois la mémoire avec un énorme 32 Go de mémoire G7. Il coûtera également 1 999 $, tandis que le RTX 5080 fera ses débuts à 999 $, le RTX 5070 Ti à 749 $ et le RTX 5070 à 549 $.
Le thème général, tout comme le discours d’ouverture, était que cette génération a été conçue en pensant à l’IA. Alors que le thème des « faux cadres » sévit, je suis ici pour vous dire qu’il existe un réel potentiel ici et que Nvidia a beaucoup misé sur son succès. Les RTX Neural Shaders, DLSS 4 et le traitement local de l’IA via un système central raffiné promettent tous deux de fournir des visuels beaucoup plus réalistes tout en réduisant, au moins dans certains cas, l’impact sur les performances.
Les RTX Neural Shaders sont particulièrement intéressants. Blackwell apporte avec lui un multiprocesseur de streaming (SM) retravaillé qui intègre désormais les cœurs tenseurs dans le processus de rendu. Lorsque les jeux sont conçus pour exploiter les Neural Shaders, le SM intégrera ces noyaux pour améliorer considérablement le réalisme des textures, des matériaux et de l’éclairage. Étant donné que ces détails sont mis en cache, générés ou améliorés via le traitement de l’IA, il est possible que les performances du jeu soient réellement affectées. améliorer lors de l’utilisation de ces fonctionnalités.
Dans une démonstration en direct dans le cadre ci-dessus, le système RTX Neural Shading a été utilisé pour permettre à l’éclairage tracé de fournir une lumière et des ombres réalistes du feu dans le coin. Avec la génération actuelle de GPU, le processeur graphique devrait tracer individuellement chaque chemin, ce qui réduirait considérablement les FPS. Avec Blackwell, le GPU est capable de tracer 1 à 2 chemins, de stocker ces données dans son système de cache IA, puis d’utiliser ces chemins pour déduire où la lumière devrait se répandre et où les ombres devraient tomber. L’activer était une amélioration visuelle réelle et immédiatement perceptible, et comme le GPU n’avait pas besoin de tout restituer en temps réel, le FPS s’est considérablement amélioré en activant cette fonctionnalité – l’inverse de la relation qui a toujours existé entre la qualité de l’image et FPS.
La compression de texture neuronale RTX et les matériaux neuronaux RTX étaient encore plus impressionnants. Ces deux systèmes, s’ils étaient intégrés par les développeurs de jeux de la même manière que le DLSS, pourraient améliorer considérablement la fidélité visuelle des jeux. Neural Texture Compression rassemble, compresse et stocke les données de texture, les rappelant plus efficacement que les modèles de chargement de texture traditionnels, économisant ainsi la VRAM et permettant aux développeurs encore plus de marge pour améliorer la fidélité visuelle de leurs jeux.
RTX Neural Materials, quant à lui, prend le code de shader utilisé pour restituer les surfaces matérielles dans les jeux et le compresse, permettant au GPU de traiter les shaders plusieurs fois plus rapidement que le rendu traditionnel. Comme Jensen l’a démontré dans son discours, et cela nous a été montré à nouveau lors de la Journée des éditeurs, cela permet aux shaders d’être beaucoup plus complexes et détaillés.
Ces technologies sont exploitées de nombreuses manières convaincantes qui pourraient avoir un impact direct sur la qualité des visuels de jeu au fil du temps. La peau, par exemple, peut être rendue beaucoup plus réaliste. L’intégration avancée de l’IA permet également aux développeurs d’exploiter des visages d’IA génératifs réalistes. Bien que je ne sois ni développeur ni artiste 3D, il semble que ce système utilisera un modèle rendu avec le moteur de jeu, l’exécutera via un modèle d’IA formé sur un vaste ensemble de données de visages sous différents éclairages et montrant différentes émotions, et améliorera le réalisme. des visages apparaissant dans le jeu.
Plus tard dans les démonstrations auxquelles nous avons assisté, on nous a également montré des exemples de traitement d’IA local améliorant l’IA générative et d’assistance dans les jeux. Un exemple montre des arbres de conversation pilotés par l’IA et des PNJ capables de comprendre les mots prononcés pour effectuer des actions dans le jeu, comme changer la couleur de votre vaisseau spatial. Un autre jeu, InZOI, dont la sortie est prévue en mars, applique l’IA sous la forme d’un Small Language Model (sLM) pour rendre sa simulation de vie plus réelle et dynamique. Les PNJ (ZOI) ont des pensées et des motivations, pilotées par l’IA, et agissent en fonction de celles-ci, de leurs traits de caractère et de leurs interactions avec d’autres ZOI. Un autre exemple, Mir5, présentait un aperçu d’une rencontre avec un boss piloté par l’IA où l’ennemi réagirait à votre stratégie, de sorte que vous ne pouviez pas exécuter deux fois la même routine : le boss apprendrait et réagirait en fonction de vos tentatives.
Une autre partie intéressante de la présentation était l’introduction des agents IA. Ces IA personnalisées prennent une forme physique sur votre PC et peuvent être conçues pour se spécialiser dans différentes tâches et accéder/traiter différents types d’informations. Nvidia a démontré une nouvelle forme graphique de programmation de ces agents qui semble beaucoup plus conviviale pour ceux d’entre nous qui ne savent pas coder.
Nous avons eu droit à une démo de Streamlabs présentant son nouvel agent Intelligent Streaming Assistant. Il est actuellement en développement et la démo a mis en évidence ses performances en tant que producteur de diffusion en direct, surveillant activement le gameplay de Fortnite et ajoutant des effets tels qu’un effet sonore de battement de cœur pour augmenter la tension lors d’une confrontation. Il était également capable d’accepter des commandes pour contrôler OBS, commenter les actions du jeu et converser en tant que co-animateur.
Une autre démo nous a montré PUBG Ally, de Krafton. Ally fournit aux joueurs solo un robot IA capable de suivre des instructions, de fournir des suggestions et de combattre à vos côtés comme un humain. Cela n’a pas été sans heurts, mais la promesse est là. Comment cela serait-il réellement déployé dans le jeu est une autre question à laquelle nous n’avons pas encore de réponse.
Un domaine que tout cela doit améliorer est la qualité des voix de l’IA. Pour l’un d’eux, ils semblaient tous robotiques et contre nature par rapport aux systèmes concurrents comme Google Gemini ou les voix Azure de Microsoft. J’en suis sûr, cela viendra avec le temps, mais cela souligne que ces systèmes sont encore en phase de développement.
L’autre point fort de la journée a été DLSS 4, Multi Frame Generation et Reflex 2.0.
DLSS 4, génération multi-trames, Reflex 2.0
Cette partie du spectacle était particulièrement excitante. DLSS 4 est une évolution de la technologie actuelle et apporte des avancées majeures pour la rendre plus convaincante et performante que jamais.
DLSS 4 reste une solution de mise à l’échelle intelligente, comme toujours, mais, dans les démos que nous avons vues (Cyberpunk 2077 et Alan Wake 2), Nvidia apporte une réelle valeur ajoutée, même si vous n’avez pas nécessairement besoin d’une amélioration des performances. Il y parvient grâce à des modèles d’IA améliorés, à un passage à des modèles de transformateur plus performants par rapport à la conception de réseau neuronal à convolution (CNN) des itérations DLSS précédentes, à la reconstruction de rayons DLSS, à la super résolution DLSS, au DLAA et, bien sûr, à la génération multi-trames DLSS.
DLSS Multi Frame Generation a retenu beaucoup d’attention depuis son annonce et pour cause. Plutôt que de générer une seule image IA, comme la technologie actuelle de génération d’images de Nvidia, le système est capable d’en générer jusqu’à trois sur la base d’une seule image source. Pour garantir que ces images sont livrées de manière fluide et s’intègrent naturellement dans le jeu, la série RTX 5000 est dotée d’une mesure de retournement basée sur le matériel, rythmant intelligemment chaque image.
La question que nous, ainsi que beaucoup de nos lecteurs, nous posions est de savoir comment DLSS 4 pourrait fournir trois images sur quatre avec l’IA seule et si cela aurait un impact sur les performances avec des images fantômes ou une latence supplémentaire. La réponse vient des nouveaux systèmes d’IA du modèle Transformer, qui passent d’un flux optique basé sur le matériel et intègrent l’IA pour la reconstruction des rayons DLSS, la super résolution DLSS, le DLAA et Reflex 2.0. Et pour répondre à cette question :
L’importance du modèle Transformer ne peut vraiment pas être surestimée. Il s’agit d’un changement majeur dans la façon dont le DLSS interprète chaque scène et permet au modèle d’évaluer l’importance relative de ce qu’il y interprète. Le modèle Transformer peut également accepter deux fois plus de paramètres d’entrée et offre quatre fois le calcul du modèle CNN précédent. C’est mieux, beaucoup plus performant et exceptionnellement rapide, tout en offrant des résultats plus clairs avec moins d’images fantômes et d’artefacts visuels.
Ce système fonctionne avec DLSS Ray Reconstruction et DLSS Super Resolution, et ils constituent un grand différence de qualité d’image. La reconstruction de rayons fait une grande différence dans les lignes, comme les fils téléphoniques ou la clôture à mailles losangées illustrée ci-dessus. Super Résolution, grâce au nouveau modèle Transformer, améliore le contenu beaucoup mieux que DLSS 3.5.
Nvidia m’a permis de jouer dans Cyberpunk 2077 et d’explorer librement pour découvrir les améliorations de la qualité d’image apportées par DLSS 4. Un autre système, exécutant DLSS 3.5, était affiché sur un autre PC juste à côté de moi et un employé de Nvidia suivait mes mouvements afin que je puisse toujours avoir une comparaison, peu importe où je me trouvais. DLSS 4 fonctionne non seulement beaucoup plus rapide, mais l’amélioration de la qualité de l’image est comme un pas vers le haut en pleine résolution. Il est incontestablement plus clair et plus beau et vous n’avez pas besoin de regarder au pixel près pour le remarquer.
Pour répondre aux problèmes de latence, DLSS 4 utilisera la deuxième génération de la technologie Reflex de Nvidia. Il fonctionne de manière similaire au premier – de manière identique, en fait – mais utilise la déformation d’image et l’inpainting (IA générative) pour mélanger les images dans le mouvement, gardant les chiffres de latence à peu près cohérents avec Reflex 1 avec génération d’image unique. La technologie, telle que présentée, montre que même avec la génération multi-images 1:3 à part entière activée, la latence d’entrée est la même, voire inférieure. Nous l’avons testé nous-mêmes lors de la finale. Et c’est un cas idéal, bien sûr, mais cela a fonctionné.
Deux autres points importants sont ressortis de cette partie de la conférence. Tout d’abord, idéalement, vous souhaitez aligner la fréquence d’images de votre MFG sur la fréquence de rafraîchissement de votre moniteur. Un dépassement massif de ce que votre moniteur peut afficher peut entraîner des déchirures et des artefacts d’écran sans apporter aucun avantage perceptible dans les jeux.
Deuxièmement, et ce que je trouve particulièrement intéressant, l’application Nvidia ajoutera des remplacements DLSS à son panneau de configuration. Si vous jouez à un jeu prenant en charge la génération de trames DLSS mais que vous n’avez pas encore mis à jour pour prendre en charge MFG, vous pouvez activer manuellement cette fonctionnalité avec une simple bascule. Il vous permet également d’utiliser le dernier modèle Transformer avec DLSS Super Résolution et DLSS Ray Reconstruction pour les meilleurs visuels possibles sans attendre que les développeurs livrent une mise à jour. Enfin, si vous jouez à un jeu qui ne propose pas de modes de performances pour DLSS, l’application Nvidia vous permettra d’activer manuellement le mode DLAA ou Ultra Performance.
Conclusion
En fin de compte, tout ce que nous avons vu devra être testé et confirmé au fil du temps. Mais, en tant que personne sceptique quant à la manière dont l’IA serait appliquée aux cartes graphiques, la manière dont elle sera mise en œuvre est très prometteuse. Si cela se concrétise, comme Nvidia l’a partagé avec nous et les nombreux autres journalistes présents, l’IA pourrait véritablement conduire l’avenir des graphiques pour les jeux sur PC, en améliorant en même temps la qualité de l’image et les performances.
Restez à l’écoute pendant que nous continuons à couvrir cette génération et pour notre examen final.