L’irruption massive de l’intelligence artificielle dans l’espace numérique mondial représente à la fois une opportunité et une menace pour l’intégrité de l’information. C’est l’un des constats forts du panel organisé par la mission permanente de la Lettonie auprès des Nations Unies, en marge du Sommet mondial sur la société de l’information (SMSI)+20. Le SMSI+20 se déroule du 7 au 11 juillet 2025 au Palexpo de Genève en Suisse.
Intitulé « Que signifie la prolifération de l’intelligence artificielle pour l’intégrité de l’information ? », le panel a réuni, ce 8 juillet 2025, diplomates, universitaires, représentants d’organisations internationales et acteurs de la société civile pour dresser un état des lieux des risques et proposer des pistes d’action.
L’initiative s’inscrit dans le cadre du Pacte numérique mondial, qui introduit des engagements forts en matière d’intégrité informationnelle, d’accès à des contenus fiables et de développement d’une IA éthique, inclusive et transparente. Mais face à l’ampleur des bouleversements en cours, les intervenants ont insisté sur l’urgence d’agir.
Un espace numérique fragilisé
Les outils génératifs basés sur l’IA deviennent plus puissants, accessibles et omniprésents. Cette prolifération fait peser des risques accrus de manipulation, de fragmentation et de perte de confiance dans l’espace public numérique. De l’utilisation malveillante des deepfakes à la microciblage algorithmique, les menaces sont multiples, y compris les erreurs involontaires de systèmes IA peu fiables ou biaisés.
Pour M. Ivars Pundurs, ambassadeur de Lettonie auprès des Nations Unies à Genève, il est impératif que les réflexions sur la gouvernance numérique n’éludent pas les nouveaux défis posés par l’IA, notamment en matière de droits humains, de démocratie et d’état de droit.
Vers une réponse globale et coordonnée
Trois axes prioritaires ont émergé des discussions : renforcer l’éducation à l’IA et la littératie numérique ; développer des outils de détection des manipulations informationnelles ; et encadrer l’innovation par des normes internationales et des dispositifs de régulation nationaux. L’objectif : garantir que l’IA serve l’intérêt général et ne devienne pas un outil de désinformation ou de domination.
Les intervenants, parmi lesquels Peggy Hicks du Haut-Commissariat des Nations Unies aux droits de l’homme, le professeur Zaneta Ozolina de l’Université de Lettonie ou encore Graham Brookie de l’Atlantic Council, ont souligné l’importance de bâtir une coopération transversale entre gouvernements, société civile, chercheurs et entreprises technologiques.
Renforcer les capacités locales et globales
Des exemples concrets ont été présentés, à l’image du travail de l’organisation indonésienne Mafindo, représentée par son cofondateur Septiaji Nugroho, qui mobilise plus d’un millier de volontaires dans 45 villes pour lutter contre la désinformation.
Le panel a également souligné la nécessité de renforcer les capacités locales à contrer les manipulations, notamment dans les pays les plus exposés aux interférences numériques. La formation, le partage de données, l’échange de bonnes pratiques et la création d’outils d’IA éthiques et participatifs figurent parmi les solutions explorées.
Pour une gouvernance numérique centrée sur les droits
En conclusion, les participants ont rappelé que la réponse à ces défis doit rester fondée sur les droits humains et le multilatéralisme. À l’image du SMSI, les processus de transformation numérique doivent s’appuyer sur des principes d’inclusivité, de transparence et de responsabilité.
Alors que l’IA redessine profondément les contours de l’espace informationnel, il appartient à la communauté internationale de veiller à ce que ces mutations renforcent les libertés fondamentales, plutôt qu’elles ne les menacent.