L’IA n’est pas l’ennemi du créateur humain, elle a besoin de lui
Créateurs de contenu et géants de la tech s’opposent sur l’application du droit d’auteur. En réalité, leur intérêt converge car le recul de la création de contenus humains pourrait rendre les IA moins pertinentes. Chronique par Cécile Philippe, présidente de l’Institut économique Molinari, publiée dans Les Échos.
La Cour de justice de l’Union européenne (CJUE) sera amenée d’ici plusieurs mois à statuer sur l’application des règles du droit d’auteur aux intelligences artificielles (IA). Plus précisément, il s’agit de savoir si les données sur lesquelles s’entraînent les IA sont des reproductions d’oeuvres originales. Ce contentieux oppose deux types de créateurs. D’un côté, ceux des détenteurs d’oeuvres originales humaines qui prétendent avoir été spoliés et, de l’autre côté, ceux qui créent des intelligences artificielles.
Ce litige ne doit cependant pas occulter le fait que ces deux types d’acteurs ont des intérêts mutuels car les IA, pour rester performantes, ont besoin d’une production intellectuelle humaine authentique.
L’opposition entre les créateurs dits de contenus originaux et les grandes entreprises technologiques comme OpenAI, Google, Anthropic, etc. n’est pas nouvelle. Sur nombre de sujets, l’émergence des nouvelles technologies a suscité des demandes pour des répartitions censées être plus équitables. Ce qui est en jeu dans le cadre d’un droit d’auteur d’un autre temps, c’est de savoir si les LLM lisent ou reproduisent le contenu initial légitimant les demandes d’indemnisation.
Or, la question plus fondamentale qui se pose est la place que les contenus humains originaux continueront à jouer, notamment au moment où certaines des entreprises se séparent d’une partie de leur personnel pour les remplacer par des IA, y compris dans la production de contenus originaux. Pour certains la messe est dite, et le chômage va croître dans les domaines de la création de contenus.
Risque de cannibalisme
Mais l’avenir pourrait être différent. Car quand ChatGPT surprend le monde fin 2022, c’est parce qu’il a pu s’entraîner sur les quatrillions de mots patiemment assemblés les uns aux autres depuis la nuit des temps par des milliards d’individus. Les large language models (LLM) les divisent en représentations numériques, les convertissent de sorte à n’avoir que des probabilités concernant les relations entre les mots. C’est parce que ces modèles ont été entraînés avec l’immensité des textes humains produits au cours de l’histoire qu’ils sont performants.
Or, l’adoption à très grande échelle des LLM modifie radicalement l’environnement dans lequel les données sont produites. S’ils avaient accès avant leur déploiement à des contenus produits par des humains, la situation est en train de changer. Les LLM produisent de plus en plus de contenus de façon autonome.
Mais si la production de contenus humains stagne ou se contracte, ces LLM s’entraîneront sur une masse significative de données produites par eux-mêmes, ce qui pourrait générer des résultats moins pertinents. Pour ceux qui parlent de cannibalisme des IA, sans nouvelles données réelles générées par l’homme, les modèles d’IA risquent de perdre leur capacité à comprendre les nouveaux enjeux, à générer des réponses variées, à créer du contenu ou à innover, à rester pertinents pour les humains.
C’est le paradoxe actuel, qui pourrait avoir un impact bien plus grand sur l’innovation future : le recul de la création de contenus humains pourrait entraîner le recul de la pertinence des IA. Au moment où certains pensent que les humains et les IA ont des intérêts résolument antagonistes, ils pourraient être durablement dépendants.



