Ce qui fonctionne : stratégies efficaces pour créer des rapports sur l'IA
11 juin 2024Ce petit guide sur ce qui fonctionne - et ce qu'il faut éviter - lors des reportages sur l'IA est tiré du prochain rapport d'actualité de l'UER 2024 : Un journalisme de confiance à l'ère de l'IA générative, disponible en téléchargement en juin 2024.
Lorsqu'on rend compte de technologies en développement rapide comme l'IA, il peut être difficile de concilier la présentation de progrès réels avec la critique des effets potentiels ainsi que les questions de pouvoir, de contrôle et d'avantages. Cependant, des rapports précis sur l'IA générative sont essentiels car ils influencent la perception du public, l'élaboration des politiques et les décisions de l'industrie. surtout pendant cette phase cruciale d'adoption.
Pour aider les journalistes et les managers à couvrir efficacement ce sujet complexe, voici notre petit guide des choses essentielles à faire et à ne pas faire !
FAIRE
1.) Développer une compréhension technique de base
Bien que vous n'ayez pas besoin d'être un informaticien (ignorez ceux qui suggèrent le contraire), essayez de comprendre les principes fondamentaux techniques de l'IA et de ses capacités. Vous n'avez pas besoin de comprendre pleinement le fonctionnement mathématique de l'apprentissage automatique, mais il est utile de comprendre, par exemple, la distinction entre les différents types d'IA et de systèmes d'IA, tels que l'apprentissage automatique, les réseaux de neurones et les modèles de base. Il est également important de faire la différence entre les véritables applications de l’IA et les modèles statistiques plus simples pour éviter les fausses déclarations. Tout ce qui est étiqueté «IA» contient en fait une intelligence artificielle !
2.) Consultez un large éventail d'experts
Évitez de vous fier uniquement aux contributions des sociétés d'IA ou à l'avis d'un seul expert. Pour acquérir une compréhension complète de l’IA et fournir une couverture équilibrée, sollicitez l’avis de diverses sources, notamment des universitaires, des régulateurs et des professionnels de l’industrie. Lorsque vous évaluez l'intelligence d'un système d'IA, ne vous limitez pas aux seuls informaticiens. Impliquez des scientifiques cognitifs, des experts en développement et apprentissage de l’enfant et des linguistes dans vos reportages, car ceux-ci ont souvent des points de vue importants à ajouter aux débats actuels. Méfiez-vous des représentants d'entreprises qui cherchent à promouvoir leurs produits et services.
3.) Faites attention aux avantages et aux risques
Chaque fois que vous soulignez les avantages potentiels de l'IA, accordez la même attention à la discussion des préoccupations, des risques et des défis éthiques, notamment en ce qui concerne les questions de partialité et d'équité, de confidentialité, de droit d'auteur et de préjudice. Ou, comme le dit Clarence Burke de l'AP, demandez : « Où sont-ils [les systèmes d'IA] déployés ? » Dans quelle mesure fonctionnent-ils ? Sont-ils réglementés ? Qui gagne de l’argent grâce à cela ? Et à qui profite-t-il ? Et aussi, très important, quelles communautés peuvent être affectées négativement par ces outils ?
4.) Reconnaître la nature dynamique de l'IA
Lors des reportages sur l'IA, il est essentiel de comprendre et de transmettre la nature dynamique et en évolution rapide de ce domaine. Le développement de systèmes d’IA est un processus continu caractérisé par des progrès, des revers et des changements de trajectoire constants. L’un des principaux défis vient de l’incertitude entourant les effets à long terme de nombreuses décisions prises actuellement dans le domaine de l’IA. Les choix faits aujourd'hui, qu'ils concernent le déploiement et l'utilisation de modèles, la réglementation, les politiques en matière de données, les initiatives open source, les acquisitions d'entreprises ou les partenariats de recherche, peuvent avoir des ramifications importantes à long terme difficiles à anticiper pleinement. En conséquence, la couverture médiatique de l'IA doit trouver un équilibre entre la fourniture d'informations précises et opportunes tout en reconnaissant l'incertitude inhérente à ce domaine.
À NE PAS FAIRE
1.) Capacités d'overhype
L'histoire de l'IA regorge d'exemples d'affirmations exagérées sur les capacités de l'IA, notamment dans les médias. Cela peut créer des attentes irréalistes du public, mais également conduire à une réglementation excessive ou mal orientée. Cela peut également conduire à de mauvaises décisions concernant l’investissement dans l’IA, y compris dans le journalisme, alors que la réalité ne correspond pas aux attentes. Il est important de rendre compte des revers et des échecs du développement de l'IA afin de fournir une vision équilibrée.
2.) Humaniser la technologie
Il est facile d'attribuer des sentiments ou des capacités humaines aux systèmes d'IA ou de laisser entendre que ces systèmes peuvent « penser ». Évitez les termes tels que « L'IA pense ». ou «l'IA se sent» qui anthropomorphisent la technologie et peuvent induire en erreur sur sa nature et ses limites. Décrivez plutôt l’IA en termes d’algorithmes, de capacités de traitement des données et de fonctions programmées pour fournir une représentation plus précise du fonctionnement et de ce qu’ils font. Cela vaut également pour la représentation de l’IA. Comme nous le rappelle la chercheuse Maggie Mustaklem, il existe trop souvent un « fantasme de science-fiction à taille unique » ; autour de l'IA, avec la technologie décrite comme des «robots blancs tapant sur un clavier» ou «un graphique bleu d'un cerveau humain connecté à des lignes colorées» (l'artiste et technologue Neema Iyer a rassemblé certains de ces tropes sur son site Internet) - Pourtant, la complexité de la technologie ne rend pas justice non plus et les deux représentations sont trompeuses.
3.) Ignorer l'élément humain et les facteurs contextuels
Ne négligez pas le rôle des humains et ses implications sur les vies humaines. L’IA n’est pas seulement une histoire de technologie, mais une histoire de technologie au service de la société. Et l’IA n’existe pas dans l’éther. Pour permettre l'IA, une chaîne d'approvisionnement à multiples facettes doit fonctionner, depuis l'extraction de minéraux rares pour les puces jusqu'aux centres de données consommant de l'énergie et de l'eau pour le refroidissement. Les humains font partie intégrante de tous les aspects de cette chaîne et sont affectés par ses composantes. Il est crucial de reconnaître ces facteurs et d'intégrer les personnes qui travaillent «dans les coulisses» pour faciliter l’IA ainsi que ceux directement impactés par son déploiement dans votre couverture. Cela implique d'élargir la perspective au-delà des développements dans les pays occidentaux, qui occupent souvent le devant de la scène dans les discussions sur l'IA.
4.) Ne traitez pas l'IA uniquement comme un problème d'innovation ou de technologie
Les implications de l'IA s'étendent bien au-delà des simples questions d'innovation technologique dans certains domaines spécifiques. Au contraire, comme le changement climatique, l’IA est un sujet qui touche de nombreux domaines, notamment les affaires, le droit, la santé, l’éducation, la politique et l’environnement. Une couverture complète de l'IA nécessite de reconnaître cela, d'explorer comment l'IA remodèle et ne remodèle pas divers domaines, et d'aider le public à parvenir à une compréhension plus globale des opportunités et des défis que présente l'IA. Traiter l'IA uniquement comme une avancée technologique ne suffit plus.
< span class="MsoFootnoteReference" style="vertical-align:super">[2]
[3]< /span>
[4]< /span> https://www.adalovelaceinstitute .org/resource/ai-supchaînes à plis/
Liens et documents pertinents
Liens intéressants
Ressources
Le site Web 'AI Myths' démystifie les mythes et malentendus sur l’intelligence artificielle. Il est structuré en huit sections distinctes, chacune explorant différentes facettes de l'IA, notamment sa représentation, sa définition, sa gouvernance et ses applications pratiques. Chaque section fournit des liens vers des ressources supplémentaires sur les sujets abordés.
Le Leverhulme Center for the Future of Intelligence de l'Université de Cambridge a collecté une série de lignes directrices pour les rapports sur la manière de mieux couvrir l'IA et les éléments à surveiller, chacun d'entre eux méritant d'être lu en détail. Ils fournissent également des liens vers diverses bases de données
La façon dont l'IA est représentée peut masquer les impacts sociétaux et environnementaux réels et importants de la technologie, peut susciter des attentes irréalistes et déformer les capacités réelles de l'IA. Cela peut également occulter la responsabilité des humains derrière la technologie. Le projet Better Images of AI propose des alternatives.