Retour aux articles

Les assureurs limitent la couverture pour les entreprises d'IA face à la montée des poursuites judiciaires

9 octobre 2025
Rapporté par l'IA

OpenAI et Anthropic explorent l'utilisation de fonds d'investisseurs pour couvrir d'éventuels règlements de poursuites judiciaires de plusieurs milliards de dollars, alors que les assureurs hésitent à fournir une protection complète pour les risques liés à l'IA. Les entreprises font face à des défis juridiques importants, y compris des violations de droits d'auteur et des réclamations pour mort injustifiée. Ce développement met en lumière l'écart croissant en matière d'assurance pour les technologies IA émergentes.

Les entreprises d'intelligence artificielle comme OpenAI et Anthropic rencontrent des difficultés pour obtenir une couverture d'assurance adéquate face aux énormes responsabilités découlant de poursuites judiciaires. Les assureurs rechignent à offrir des polices complètes en raison de l'ampleur sans précédent des réclamations potentielles contre ces jeunes entreprises technologiques. En conséquence, les deux sociétés envisagent des options d''auto-assurance' en utilisant leurs fonds d'investisseurs substantiels pour combler l'écart.

OpenAI, qui a levé près de 60 milliards de dollars, dispose d'une assurance commerciale traditionnelle mais peine à obtenir une couverture pour l'ensemble des dommages issus d'actions judiciaires de plusieurs milliards de dollars. L'entreprise a obtenu jusqu'à 300 millions de dollars de couverture pour les risques IA émergents via le courtier Aon, bien qu'une source proche de la police ait contesté ce chiffre comme bien plus bas. Toutes les parties s'accordent à dire que ce montant est loin d'être suffisant. Kevin Kalinich, responsable des risques cybernétiques chez Aon, a expliqué les limites de l'industrie : « nous n'avons pas encore assez de capacité pour les [fournisseurs de modèles]. » Il a ajouté que les assureurs ne peuvent pas se permettre de payer pour « un risque systémique, corrélé et agrégé » découlant d'erreurs d'IA.

OpenAI est actuellement aux prises avec des poursuites pour violation de droits d'auteur de la part du New York Times et d'auteurs alléguant un usage non autorisé de leur contenu pour l'entraînement de l'IA. Elle fait également face à une poursuite pour mort injustifiée de la part des parents d'un adolescent de 16 ans qui s'est suicidé après avoir interagi avec ChatGPT. En réponse, OpenAI a discuté de la mise en place d'un véhicule d'assurance 'captive'—un fonds isolé souvent utilisé par les grandes entreprises technologiques comme Microsoft et Google pour les responsabilités cyber—bien qu'elle n'en ait pas actuellement et évalue les options à mesure qu'elle grandit.

De même, Anthropic, qui a levé plus de 30 milliards de dollars, a accepté un règlement de 1,5 milliard de dollars dans une action collective avec des auteurs concernant l'utilisation de livres piratés pour l'entraînement de l'IA. L'entreprise finance cela en partie avec ses propres ressources. Dans des documents judiciaires, les avocats d'Anthropic ont averti des « dommages statutaires sans précédent et potentiellement menaçants pour l'entreprise » auxquels font face les développeurs d'IA. Cette réticence des assureurs survient dans un contexte d'augmentation des 'verdicts nucléaires'—des indemnisations énormes—contre les grandes entreprises américaines.

Static map of article location