xAI d'Elon Musk a perdu sa demande d'injonction préliminaire visant à bloquer l'Assembly Bill 2013 de Californie, qui oblige les entreprises d'IA à divulguer les détails de leurs données d'entraînement. Le juge du district américain Jesus Bernal a statué que xAI n'avait pas démontré que la loi révèle des secrets commerciaux ou cause un préjudice irréparable. L'entreprise doit désormais se conformer à la loi, en vigueur depuis janvier, tandis que le procès se poursuit.
Le 6 mars 2026, Ars Technica a rapporté que le juge du district américain Jesus Bernal a rejeté la requête de xAI pour une injonction préliminaire contre l'Assembly Bill 2013 de Californie (AB 2013). Cette loi, entrée en vigueur en janvier 2026, oblige les développeurs d'IA dont les modèles sont accessibles dans l'État à divulguer des informations sur leurs ensembles de données d'entraînement, y compris les sources, les calendriers de collecte, si la collecte est en cours, l'inclusion de données protégées par copyright, marque déposée ou brevet, les détails sur les licences ou achats, les informations personnelles, et l'étendue des données synthétiques utilisées. xAI a soutenu que ces divulgations révéleraient des secrets commerciaux, tels que les sources des ensembles de données, leurs tailles et les méthodes de nettoyage, permettant potentiellement à des concurrents comme OpenAI de reproduire ses stratégies. L'entreprise a affirmé que l'application de la loi pourrait être « économiquement dévastatrice », réduisant « la valeur des secrets commerciaux de xAI à zéro » et nuisant à l'industrie de l'IA dans son ensemble. xAI a également soutenu que la loi viole le Cinquième Amendement en traitant les données comme un secret commercial et le Premier Amendement en forçant la parole et en ciblant son chatbot Grok, dans un contexte de surveillance concernant les problèmes passés de Grok incluant des sorties antisémites, des images intimes non consenties, et des matériaux d'abus sexuel sur enfants, qui ont conduit à une enquête californienne. Bernal a rejeté ces arguments, notant que xAI n'avait fourni que des « abstractions et hypothétiques fréquents » sans spécifier d'ensembles de données ou méthodes uniques méritant protection. Il a souligné l'intérêt gouvernemental pour la transparence, affirmant qu'il « est difficile à croire » que les consommateurs ne puissent évaluer les modèles d'IA sur la base des données d'entraînement, comme l'inclusion d'informations médicales ou scientifiques pour évaluer la fiabilité. « Sur le marché des modèles d'IA, l'AB 2013 exige des développeurs de modèles d'IA qu'ils fournissent des informations sur les ensembles de données d'entraînement, donnant ainsi au public les informations nécessaires pour déterminer s'ils utiliseront — ou se fieront aux informations produites par — le modèle du demandeur par rapport aux autres options sur le marché », a écrit Bernal. Cette décision intervient alors que Musk fait face à des batailles juridiques en cours avec OpenAI, y compris un récent rejet d'une plainte pour manque de preuves de vol de secrets commerciaux. xAI n'a pas répondu aux demandes de commentaire, tandis qu'un porte-parole du Département de la Justice de Californie a déclaré que le département « célèbre cette victoire clé et reste engagé à poursuivre notre défense » de la loi. L'affaire se poursuivra, xAI ayant besoin de preuves plus solides pour réussir.