A l’heure où l’intelligence artificielle (IA) pénètre tous les aspects de la vie quotidienne, le monde connaît une crise de la vérité, car il est de plus en plus difficile pour les humains de faire la distinction entre un contenu médiatique réel et un contenu médiatique fabriqué.
Si les contenus générés par l’IA repoussent les limites de la créativité et améliorent l’efficacité de la communication, ils exacerbent également la diffusion de fausses informations, augmentent le risque de violation de la propriété intellectuelle et posent de nouveaux défis au développement d’ un écosystème de communication international.
L’application de l’IA générative et des technologies des grands modèles a ouvert la boîte de Pandore de la tromperie par l’IA. Sous l’assaut des “deepfakes” multimodaux de l’IA (audio, vidéo et photo), les gens peuvent facilement s’égarer dans le brouillard de la désinformation.
“Il est important pour nous de comprendre comment l’intelligence artificielle est appliquée, d’autant plus que ces nouvelles technologies contribuent souvent à la désinformation et aux discours de haine qui ont un impact sur la vie de millions de personnes à travers la planète” , a averti Pierre Krähenbühl, directeur général du Comité international de la Croix-Rouge (CICR), lors du 6e Sommet mondial des médias qui se tient actuellement à Urumqi, la capitale de la région autonome ouïgoure du Xinjiang, dans le nord-ouest de la Chine.
L’utilisation abusive des outils d’IA a considérablement accru la difficulté de gérer la désinformation, érodant ainsi la confiance dans les médias mondiaux. Selon le Digital News Report 2023 publié par l’agence Reuters, seulement 40% des personnes présentes ont exprimé leur confiance dans les informations des médias influencés par des technologies telles que les deepfakes. “Les journalistes et les médias ont le pouvoir et la responsabilité de lutter contre la désinformation afin de découvrir la vérité et de rétablir la confiance du public”, a souligné Najum Iqbal, responsable de la communication au sein de la délégation régionale du CICR pour l ‘Asie de l’Est.
Face aux nouvelles caractéristiques de grande ampleur, diverses et virales de la production et de la diffusion de fausses informations à l’ère numérique, de nombreux médias et organisations internationales ont commencé à explorer les moyens de bâtir ensemble un environnement de discours public clair et de défendre le principe fondamental de la véracité. Un groupe de réflexion affilié à l’agence de presse Xinhua a publié lundi un rapport intitulé “Responsabilité et mission des médias d’information à l’ère de l’IA” lors du Sommet mondial des médias.
Concernant les effets négatifs potentiels de l’IA générative dans les médias, il note que 85,6% des sondés sont favorables au renforcement des mesures de régulation et de gouvernance, avec un fort penchant pour une “autodiscipline de l’industrie”, “l’adoption de lois nationales” et une “régulation de l’organisation interne des médias”.
“Alors que nous nous réunissons aujourd’hui à l’occasion de ce sommet, nous avons l’opportunité de renforcer la crédibilité de l’information en luttant contre la désinformation, les fausses informations et les discours de haine”, a proposé Siddharth Chatterjee, coordinateur résident du système des Nations Unies pour le développement en Chine.
Il a rappelé que l’ONU avait publié cette année ses Principes mondiaux pour l’intégrité de l’information, qui invitent les gouvernements, les entreprises technologiques, les publicitaires, les agences de relations publiques et les médias à collaborer à la construction d’un écosystème de l’information plus éthique. “L’unité et la détermination sont plus que jamais essentielles pour progresser vers nos objectifs communs”, a plaidé M. Chatterjee.
Xinhua
Lire aussi : Médias : Lancement d’un observatoire africain de l’Intelligence Artificielle