ACTUALITÉS
Les aspects juridiques de l’IA et le cinéma
© Simon Wohlfahrt – AFP
L’IA, notamment générative, est au cœur de toutes les discussions : pas un dîner en ville sans que soit évoqué ChatGPT ou l’application de l’IA dans les domaines de la santé, de la justice, de l’industrie, mais aussi du cinéma.
Il est vrai que l’IA pose notamment trois difficultés :
- Le volume de données à collecter,
- L’entraînement des outils d’IA,
- La distorsion avec la réalité qu’il s’agisse du contenu ou de l’auteur.
Le volume de données à collecter
Pour produire des résultats efficients, l’IA nécessite un volume de données sans commune mesure jusque-là, ce qui pose le problème de la collecte, du regroupement et de l’indexation de ces données, même si l’accès en a été facilité par le Big Data (« mégadonnées » ou « données massives »).
Issu du développement des technologies numériques (Internet, réseaux sociaux), ce phénomène a augmenté la production des données numériques disponibles par la publication à grande échelle de textes, photographies ou vidéos (par ceux-là même qui revendiquent aujourd’hui la protection de leur vie privée). Dès lors, l’immense quantité de données numériques, associée aux capacités grandissantes de stockage et de traitement de ces données, offrent aux fournisseurs de systèmes d’intelligence artificielle (SIA) des possibilités quasi illimitées d’accès à ces informations.
L’entraînement des outils d’IA
Dans le domaine artistique, une question s’impose : celle de la fouille ou du forage de textes et de données (text et data mining) qui consiste, pour les créateurs d’outils d’intelligence artificielle, à extraire et à analyser de manière automatisée ou semi-automatisée, les textes et données de tiers afin d’en tirer un savoir ou une connaissance (Assemblée nationale : Rapport d’information du 14 février 2024) leur permettant d’en « dégager des informations, notamment des constantes, des tendances et des corrélations » (proposition de résolution européenne du Sénat du 30 mars 2023) qui vont potentiellement conduire à plagier l’œuvre préexistante d’un auteur vivant ou décédé.
La distorsion avec la réalité, qu’il s’agisse du contenu ou de l’auteur
A l’occasion du dernier Festival de Cannes, le réalisateur polonais Patryk Vega a présenté, dans le cadre du Marché du Film, un biopic intitulé Poutine dans lequel apparaît Vladimir Poutine sous forme de deepfake grâce à l’intelligence artificielle.
Le deepfake désigne une technique de synthèse multimédia reposant sur l’intelligence artificielle qui permet de faire des hyper trucages. Les algorithmes d’intelligence artificielle servent alors à superposer des fichiers vidéo ou audio existants. Capables d’analyser un visage humain ou de reproduire la voix d’une personne, ils permettent, grâce à cette technique de superposition, de changer le visage ou la voix d’une personne dans un contexte détourné de la réalité pour créer de « fausses images ou vidéos, souvent à partir de la fusion d’images existantes, visant à tromper celui qui les regarde en les faisant passer pour vraies » (Assemblée nationale : Rapport d’information du 14 février 2024).
Déjà en 2023, les acteurs d’Hollywood s’étaient mis en grève contre les systèmes d’IA générative utilisés qui remplaçaient les acteurs par des personnages générés par IA et reproduisaient leur image et leur voix.
Là réside l’un des problèmes rencontrés avec l’utilisation de l’IA : la distorsion avec la réalité, qu’il s’agisse de la véracité du contenu que l’on entend ou que l’on voit ou encore de celle de la paternité de l’auteur de l’œuvre (réalisée par une IA générative et non par la seule créativité de l’auteur).
Réglementer pour éviter les dérapages
De la dissertation du lycéen au bulletin météo ou d’actualité du journaliste, en passant par la création de « romans à l’eau de rose », tout conduit à se méfier des apparences et à vérifier les sources des « œuvres » ainsi réalisées.
Si, pendant de nombreuses années, l’utilisation de l’IA et ses conséquences sur la vie quotidienne des citoyens est restée confidentielle, la mise sur le marché de ChatGPT-4 (intelligence artificielle générative de l’éditeur OpenAI marquant un tournant important par rapport à ses versions antérieures) l’a fait connaître du grand public avec son lot de tricheries dans un contexte estudiantin ou politique.
Le législateur devait s’emparer de la question et proposer une réglementation propre à servir de garde-fou à d’éventuels dérapages.
L’IA présente une multitude d’enjeux juridiques en ce qu’elle impacte une pluralité de droits (droit des personnes, de la responsabilité, des contrats, des données à caractère personnel, de la propriété intellectuelle…). L’existence d’un régime juridique propre à l’intelligence artificielle et la naissance d’un droit de l’IA ayant été interrogées, d’intenses débats ont été initiés pour tenter de concilier régulation et innovation. Le règlement européen sur l’intelligence artificielle (IA Act), adopté le 21 mai 2024, vient de définir le tout premier cadre juridique au monde en matière d’IA.
Le régime juridique choisi prend en compte les bénéfices, mais aussi les risques de l’utilisation de l’IA pour mieux la réguler…
Retrouvez l’intégralité de l’article de Catherine Chabert et Anastasia Lambert, Avocat associée – implid Avocats – Pôle IT/IP, dans la Lettre n°188.
Articles récents