Dans une décision du 11 novembre 2025 (affaire n° 42 O 14139/24), le Tribunal régional de Munich s’est prononcé sur la reproduction de paroles protégées par une IA.
Contexte : OpenAI mémorise et restitue des paroles de chanson protégées
L’organisme de gestion de droits d’auteur allemand, « GEMA », a engagé une action à l’encontre de la société américaine OpenAI après avoir constaté que celle-ci intégrait des paroles de chansons appartenant à son répertoire pour entraîner ses modèles IA, sans autorisation.
GEMA lui reprochait de mémoriser les chansons dans ses paramètres et le fait que les modèles de langage étaient capables de citer quasiment à l’identique ces dernières.
Solution : L’IA coupable de violation de droits d’auteurs
OpenAI condamnée pour violations de droit d’auteur
Le tribunal de Munich a jugé que les « modèles linguistiques » utilisés par OpenAI ainsi que « la reproduction des textes des chansons dans les résultats du chatbot » constituaient des atteintes aux droits d’exploitation protégés par le droit d’auteur.
En effet, il retient que la mémorisation des paroles dans les paramètres des modèles constitue une reproduction des œuvres et que leur restitution au public dans les outputs constitue une atteinte aux droits exclusifs des auteurs.
OpenAI invoquait entre autres l’exception de text & data mining qui permet à une intelligence artificielle d’utiliser des textes protégés à des fins d’entraînements pour ses modèles. Toutefois, le tribunal rejette cet argument au motif que, selon lui, OpenAI ne réalise pas une simple fouille et analyse de données, mais effectue bien une reproduction durable et récupérable des œuvres dans les paramètres de ses modèles d’entraînement aux fins d’exploitation par la suite.
Dès lors, la mémorisation et la reproduction de paroles protégées dans les réponses générées par l’IA enfreint les droits d’auteur des musiciens.
La responsabilité de l’éditeur retenue plutôt que celle des utilisateurs
Bien qu’avancée comme argument par la société défenderesse, l’irresponsabilité de l’éditeur n’a pas été retenue. En effet, OpenAI renversait la faute sur les utilisateurs du chatbot puisque les réponses (outputs) n’étaient générées qu’à la suite d’une démarche active de ceux-ci.
Le tribunal a, au contraire, jugé que la responsabilité devait peser sur l’éditeur du modèle (ici OpenAI). Il a retenu en effet que celui-ci doit veiller à ce que son modèle ne puisse pas générer des outputs contrefaisants et est responsable de l’architecture des modèles de langage et des données mémorisées lors de l’entraînement.
En l’espèce, les réponses générées par l’outil résultaient directement de l’entraînement des modèles sur des œuvres protégées, opération imputable à l’éditeur et non à l’utilisateur.
Vous voulez en savoir plus sur le sujet ? Un avocat droit d’auteur du Cabinet est à votre disposition.