Retour à Histoires
HISTOIRES

Loi sur l’IA : priorités des médias de service public pour les négociations du trilogue

02 octobre 2023
Loi sur l’IA : priorités des médias de service public pour les négociations du trilogue

La dernière phase de la loi sur l’IA, les négociations du trilogue, a débuté à Bruxelles. Nous examinons ci-après la manière dont les médias de service public utilisent l’IA, ainsi que les sujets de préoccupation que soulève l’évolution de la loi sur l’IA.

L’IA n’a rien d’une nouveauté pour les médias. Depuis des années, les entreprises audiovisuelles publiques utilisent des outils d’IA pour traduire des contenus, générer des sous-titres, gérer des archives, faciliter la production et même observer la vie sauvage !   

Cependant, la récente accélération du développement de l’IA et l’essor de l’IA générative soulèvent de nouveaux défis qui sont appelés à bouleverser le secteur audiovisuel, de l’utilisation de nouveaux outils d’IA dans l’exercice du métier de journaliste à la nécessité de mettre à jour les cadres éthiques.  

La loi européenne sur l’IA, qui constitue le premier règlement transnational sur l’IA, atteint une phase critique. Alors qu’un accord est attendu d’ici la fin de l’année, des questions importantes doivent encore être tranchées, la Commission européenne, le Conseil et le Parlement ayant des approches divergentes sur des sujets cruciaux tels que l’identification biométrique ou l’IA générative. 

Les médias de service public, quant à eux, sont plus particulièrement préoccupés par les questions relatives à la protection des droits de propriété intellectuelle. En effet, les systèmes d’IA générative sont des outils incroyables, mais il est désormais bien connu qu’ils se développent à partir de contenu récupéré sur l’ensemble du Web, en particulier du contenu et des informations produites par des médias publics et privés, et qu’ils sont alimentés en temps réel par ce contenu.

Dès lors, les médias font face à un dilemme. D’une part, le fait de permettre l’utilisation de leur contenu pour entraîner des systèmes d’IA générative peut améliorer la qualité des informations fournies aux citoyen.ne.s, tout en offrant un moyen de rester accessible (si le contenu ou l’adresse URL sont indiqués dans le résultat). D’autre part, cependant, le risque de « cannibalisation » est considérable, car l’analyse et le retraitement du contenu des organismes de médias constituent la base des modèles de développement des entreprises d’IA générative. Avec le temps, les modèles / assistants d’IA générative pourraient constituer une porte d’accès à l’information « par défaut », coupant ainsi les services de médias de leurs publics et de leurs revenus. Ce constat a conduit un certain nombre d’organismes de médias publics et privés à se retirer du robot crawler de ChatGPT, afin d’éviter que leurs données ne soient collectées.  

Le manque de transparence concernant les données collectées pour l’entraînement de l’IA générative est un enjeu crucial. Depuis le lancement de ChatGPT 4, OpenAI ne fournit plus d’informations sur les ensembles de données utilisés pour entraîner ses modèles, invoquant des raisons de concurrence et de sécurité. Pour les organismes de médias, cela signifie qu’ils n’ont plus la possibilité de savoir si leurs contenus sont traités ou non. 

Il est à noter que la proposition du Parlement européen prévoit notamment la divulgation d’informations sur les données protégées par le droit d’auteur utilisées pour entraîner les modèles d’IA générative. C’est un pas dans la bonne direction. L’Union Européenne de Radio-Télévision est prête à aider les colégislateurs de l’UE à peaufiner la disposition afin d’en faire un outil exploitable et pratique. 

Les médias de service public sont également favorables à l’obligation d’informer les utilisateur.rice.s de l’exploitation de certains systèmes d’intelligence artificielle pour lutter contre la désinformation et se félicitent des efforts déployés par les colégislateurs pour rendre cette disposition applicable.  

Les questions restées en suspens dans la loi sur l’IA pourraient également avoir un impact inattendu et involontaire sur le secteur des médias, comme la proposition d’extension de l’interdiction d’utiliser l’IA pour l’identification biométrique, qui pourrait entraîner des répercussions : 

  • sur l’émergence de ces outils dans le cadre d’enquêtes journalistiques ;
  • et sur le marquage et l’archivage de plus en plus automatisés des contenus. 

L’avenir nous dira si et comment ces défis ont été relevés, mais il s’agit sans aucun doute d’une période particulièrement passionnante pour le secteur des médias.

Liens et documents pertinents

Contact


François Lavoir

Conseiller aux affaires européennes

lavoir@ebu.ch