Razer hat Verbesserungen für sein QA Companion-AI sowie neue Funktionen für Project AVA und Adaptive Immersive Experience auf der Game Developers Conference 2026 vorgestellt. Diese Tools konzentrieren sich auf die Automatisierung der Qualitätssicherung, die Optimierung von Workflows und die Integration multisensorischer Effekte in der Spieleentwicklung. Die Ankündigungen zielen darauf ab, die Effizienz zu steigern, ohne wesentliche Änderungen an bestehenden Setups zu erfordern.
Auf der Game Developers Conference (GDC) 2026 hat Razer Updates für seine Entwicklertools präsentiert, die KI-gestützte Automatisierung und immersive Technologien betonen. Das QA Companion-AI des Unternehmens, das letztes Jahr erstmals vorgestellt wurde, funktioniert nun ohne SDK, Plugin oder Codeänderungen. Es überwacht das Gameplay, um Probleme wie Physik- und Kollisionsanomalien, Renderingfehler und Animationsfehler zu erkennen, und erstellt dann Berichte mit Reproduktionsschritten. Dieser Ansatz bekämpft Engpässe in der Qualitätssicherung, indem er die Abdeckung erweitert und Zyklen beschleunigt. „Durch die Automatisierung repetitiver Ausführungen und Berichterstattung erweitert QA Companion-AI die Abdeckung, beschleunigt QA-Zyklen und befreit Tester für hochwertige, spielerzentrierte Tests“, hieß es in einer Pressemitteilung von Razer. Razer hat zudem Project AVA weiterentwickelt, seinen agentischen KI-Assistenten, der ursprünglich als Gaming-Copilot konzipiert wurde. Die aktualisierte Version interpretiert die Benutzerintention, um mehrstufige Workflows über Anwendungen hinweg auszuführen, angetrieben vom neuen Inference Control Plane. Dieses System leitet Aufgaben zwischen lokalen und Cloud-KI-Modellen weiter, um geringe Latenz zu gewährleisten, mit Anwendungen im Projektmanagement und Build-Prozessen. Zusätzlich vereinfacht die Adaptive Immersive Experience Runtime das Hinzufügen von Haptik, RGB-Beleuchtung und Spatial Audio zu Spielen. Sie erzeugt Echtzeit-Effekte aus Gameplay-Signalen und integriert Razers Sensa HD Haptics, Chroma RGB und THX Spatial Audio+. Entwickler können sie in nur drei Tagen integrieren. Quyen Quach, Vice President of Software bei Razer, kommentierte: „KI sollte die menschliche Kreativität verstärken, nicht ersetzen. Dieser Glaube prägt alles, was wir in den Bereichen Hardware, Software und Services aufbauen. Wir schaffen praktische KI-Tools, die Entwicklern die volle Kontrolle geben und Teams helfen, schneller von der Idee zur Umsetzung zu gelangen, während sie das Handwerk bewahren, das Spiele unvergesslich macht. Von agentischen Begleitern über reibungslose QA bis hin zu adaptiver multisensorischer Immersion ist unser Ziel einfach: Studios helfen, schneller zu bauen, die Abdeckung zu erweitern und reichhaltigere, fesselndere Erlebnisse zu liefern.“ Diese Entwicklungen spiegeln den wachsenden Fokus von Razer auf Software und Services neben seinen Hardware-Angeboten wider.