Razer a présenté des améliorations pour son QA Companion-AI ainsi que de nouvelles fonctionnalités pour Project AVA et Adaptive Immersive Experience lors de la Game Developers Conference en 2026. Ces outils se concentrent sur l'automatisation de l'assurance qualité, la rationalisation des flux de travail et l'intégration d'effets multisensoriels dans le développement de jeux. Les annonces visent à améliorer l'efficacité sans nécessiter de changements significatifs dans les configurations existantes.
Lors de la Game Developers Conference (GDC) 2026, Razer a présenté des mises à jour de ses outils pour développeurs, en mettant l'accent sur l'automatisation pilotée par l'IA et les technologies immersives. L'outil QA Companion-AI de la société, introduit pour la première fois l'année dernière, fonctionne désormais sans nécessiter de SDK, de plugin ou de modifications de code. Il surveille le gameplay pour détecter des problèmes tels que des anomalies physiques et de collision, des problèmes de rendu et des erreurs d'animation, puis produit des rapports avec des étapes de reproduction. Cette approche cible les goulots d'étranglement dans l'assurance qualité en élargissant la couverture et en accélérant les cycles. nn« En automatisant l'exécution et le rapport répétitifs, QA Companion-AI élargit la couverture, accélère les cycles QA et libère les testeurs pour se concentrer sur des tests à haute valeur ajoutée, centrés sur les joueurs », indique un communiqué de presse de Razer. nnRazer a également fait progresser Project AVA, son assistant IA agentique initialement conçu comme un copilote de jeu. La version mise à jour interprète l'intention de l'utilisateur pour exécuter des flux de travail multi-étapes à travers les applications, alimentée par le nouveau Inference Control Plane. Ce système route les tâches entre des modèles IA locaux et cloud pour assurer une faible latence, avec des applications dans la gestion de projet et les processus de build. nnDe plus, le runtime Adaptive Immersive Experience simplifie l'ajout d'haptique, d'éclairage RGB et d'audio spatial aux jeux. Il crée des effets en temps réel à partir des signaux de gameplay, intégrant Sensa HD Haptics, Chroma RGB et THX Spatial Audio+ de Razer. Les développeurs peuvent l'intégrer en aussi peu que trois jours. nnQuyen Quach, vice-présidente du logiciel chez Razer, a commenté : « L’IA devrait amplifier la créativité humaine, pas la remplacer. Cette conviction façonne tout ce que nous construisons dans le hardware, le software et les services. Nous créons des outils IA pratiques qui placent les développeurs fermement aux commandes et aident les équipes à passer de l’idée à la mise en œuvre plus rapidement tout en préservant l’artisanat qui rend les jeux mémorables. Des compagnons agentiques à la QA sans friction et à l’immersion multisensorielle adaptative, notre objectif est simple : aider les studios à construire plus vite, élargir la couverture et livrer des expériences plus riches et plus engageantes. » nnCes développements reflètent l'accent croissant mis par Razer sur le logiciel et les services aux côtés de ses offres hardware.','confidence_comment':null,