Face aux dérives de l’IA générative, les organisations gouvernementales réagissent

Pour répondre à cet article abordant les problématiques que l’IA générative pose au sujet de la créativité et de sa régulation, nous pouvons constater que les organismes gouvernementaux ont su déjà apporter des solutions et réfléchissent actuellement à un moyen de les renforcer.

Comment réglementer les droits d’auteur d’une œuvre générée par IA ?

Le Parlement européen propose, dans un rapport de 2017, de “définir des critères de création intellectuelle propre applicables aux œuvres protégeables par droit d’auteur créées par des ordinateurs ou des robots”.

Mais est-ce que ces réalisations algorithmiques de l’IA sont-elles aussi des œuvres de l’esprit humain ? Car derrière toute intelligence artificielle, il y a une entité physique qui entre les données et qui guide l’IA dans la création. Bien qu’elle soit générative, elle n’est pas entièrement autonome. Par conséquent, à qui accorder les droits d’auteur ? C’est l’un des plus gros enjeux de l’IA générative, en matière juridique.

L’acte créatif est éminemment personnel et subjectif. C’est d’ailleurs la raison pour laquelle, en droit français, une personne morale ne peut jamais être qualifiée d’auteur.

Dans la législation française, les conditions de droits d’auteur sont érigées par la Convention de Berne, adoptée en 1886. Elle porte sur la protection des œuvres et des droits des auteurs sur celles-ci. Elle offre aux créateurs (auteurs, musiciens, poètes, peintres, etc.) les moyens de contrôler la manière dont leurs œuvres peuvent être utilisées, par qui et sous quelles conditions.

En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l’UE pour l’IA appelé “Artificial Intelligence Act” (IA Act). Il propose que des systèmes d’IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu’ils présentent pour les utilisateurs. Les différents niveaux de risque impliqueront plus ou moins de réglementation. Une fois approuvées, ces règles seront les premières au monde sur l’IA.

L’IA générative, comme ChatGPT ou Google LM, devrait se conformer aux exigences de transparence :

  • Indiquer que le contenu a été généré par l’IA
  • Concevoir le modèle pour l’empêcher de générer du contenu illégal
  • Publier des résumés des données protégées par le droit d’auteur utilisées pour la formation

Ces règles permettraient aux utilisateurs de prendre des décisions éclairées. Après avoir interagi avec les applications, ils peuvent alors décider s’ils souhaitent continuer à l’utiliser.

Cela inclut les systèmes d’IA qui génèrent ou manipulent du contenu image, audio ou vidéo (par exemple, les deepfakes, des contenus faux qui sont rendus crédibles par l’IA).

The Human Artistry Campaign a été créé à la suite de ces dérives. Cette campagne réunit une quarantaine de syndicats et d’organisations de l’industrie en défendant que  “seuls les humains sont capables de communiquer les complexités, les nuances et les complications sans fin de la condition humaine à travers l’art”. Ils demandent à ce que tous les développeurs d’IA doivent s’assurer que tout contenu utilisé à des fins de formation est approuvé et concédé sous licence par le propriétaire des droits d’auteur.

Les deepfakes : des dérives à mieux encadrer 

Un deep fake consiste à utiliser la voix de quelqu’un pour la réutiliser à d’autres fins. L’exemple le plus parlant, la chanson « Heart on my sleeve » créée par l’internaute Ghostwriter, où figurent les voix des artistes Drake et The Weeknd. Comptabilisant plus de 15 millions de vues sur TikTok et ayant été nommé aux Grammy’s Awards, le morceau a été supprimée des catalogues de Spotify ou encore Apple Music à la demande d’Universal Music Group (UMG). Celle-ci représentant les deux artistes dénonce une violation des droits d’auteur.

Afin d’éviter de tels débordements et de réguler au mieux les pratiques de l’IA, des mesures ont été prises et sont encore envisagées, à l’échelle gouvernementale. 

Il existe déjà des « watermarks” permettant d’identifier une donnée générée par IA, valides à vie. Ils s’apparentent à des marqueurs invisibles, incrustés sur chaque contenu généré par IA. Cela serait utile pour distinguer les contenus créés par IA de ceux créés par un humain. Et même si les recherches sont encore en cours sur ce dispositif, l’hypothèse qu’il pourrait être appliqué pour réguler les deep fakes et la désinformation est envisageable.

La Chine, les États-Unis, l’UE et une vingtaine de pays ont signé le 1er novembre 2023, au Royaume-Uni la déclaration de Bletchley Park. Elle assure un développement « sûr » de l’intelligence artificielle, lors du premier sommet international (AI Safety Summit) consacré à cette technologie. Les pays présents se sont mis d’accord sur « le besoin urgent de comprendre et gérer collectivement les risques potentiels » de l’IA à travers « un nouvel effort mondial, visant à garantir que l’IA est développée et déployée de manière sûre et responsable ».

En octobre 2023, l’entreprise Tech Adobe a dévoilé une nouvelle icône de “transparence” pour marquer tous les contenus produits par son IA générative d’images. Ce système visant à protéger les droits d’auteur de l’intelligence artificielle pourrait également s’implanter dans le secteur musical.

En 2016 AIVA a sorti l’album GENESIS et en 2017, la SACEM (Société des auteurs, compositeurs et éditeurs de musique) lui a octroyé le statut de compositeur. Les droits sont donc partagés entre compositeurs, auteur, arrangeur et adaptateur, producteur, et artiste-interprète. Grâce à son statut, AIVA empoche les droits d’auteur, et la société AIVA Technologies, les droits d’édition.

Selon le rapport de la commission spéciale sur l’intelligence artificielle à l’ère numérique (AIDA), l’UE devrait soutenir le développement des compétences en matière d’IA. Dans ce but, les citoyens disposeront de compétences nécessaires dans leur vie quotidienne et au travail. Cela permettra également de renforcer la confiance dans la technologie, de favoriser l’innovation et, en soutenant les centres d’excellence et les experts de l’UE, d’éviter la fuite des cerveaux.

L’UE compte également investir. L’objectif affiché dans le nouveau plan coordonné sur l’intelligence artificielle est “d’augmenter progressivement les investissements publics et privés dans l’IA pour atteindre un total de 20 milliards d’euros par an” en Europe. Une utilisation efficace des données implique ainsi d’investir à la fois dans des infrastructures, notamment de collecte puis de traitement des datas et dans les compétences numériques des Européens.

Aux vues de l’évolution fulgurante de la pratique de l’IA dans les différents domaines, qu’ils soient artistiques ou politiques, peut poser problème. La question des droits d’auteur reste encore floue juridiquement et les instances gouvernementales et internationales envisagent un meilleur encadrement de la création par IA générative. Enfin, les deepfakes preuves de la performance inimaginable de l’IA, sont également des sujets à étudier et à réglementer au plus vite.