La ministre déléguée chargée de la Transition numérique et de la réforme de l’administration, Amal El Fallah Seghrouchni a souligné, mardi à Paris, l’importance d’intégrer les dimensions cognitives et perceptives dans l’évaluation des technologies de l’intelligence artificielle (IA).
Cette intégration permettra de «mieux encadrer les technologies de l’IA et de protéger durablement la liberté d’expression et la formation du jugement dans nos démocraties», a affirmé la ministre lors de la 3ᵉ réunion du Comité d’experts sur les implications de l’intelligence artificielle générative pour la liberté d’expression (MSI-AI) du Conseil de l’Europe.
Partageant sa réflexion sur les transformations invisibles à l’œuvre dans nos sociétés sous l’effet de l’IA générative, Seghrouchni a relevé que si certains impacts sont mesurables, d’autres – notamment cognitifs et perceptifs – le sont beaucoup moins.
L’un des enjeux majeurs, a-t-elle expliqué, réside dans la capacité de ces technologies à renforcer des mécanismes d’influence subtils, tels que le nudging, à travers la voix, les expressions faciales ou l’interaction affective simulée.
Précisant que l’IA générative ne se contente pas de produire du contenu mais elle amplifie notre perception du monde et modifie notre manière d’y réagir, la ministre a évoqué comme exemple la création d’un lien affectif entre un adulte et un robot à l’apparence enfantine en moins de 30 minutes, notant que ce type d’interaction illustre combien l’attachement, la perception, voire les comportements peuvent être influencés rapidement, sans que les utilisateurs en aient conscience.
Elle a à cet effet interrogé la capacité des sociétés à évaluer ces effets, notamment sur les publics les plus vulnérables : enfants, personnes en situation de handicap, ou encore citoyens dans des contextes de fragilité cognitive. Elle s’est interrogée si, une fois une mentalité est modifiée par ces technologies, est-il possible de revenir en arrière ? Peut-on imaginer une forme de «désintoxication cognitive» à l’IA générative ?, s’est-elle demandé.
Cette intervention s’inscrit dans un cadre éthique et juridique en évolution, alors que certains pays ont reconnu dès 2020 des droits cognitifs, ouvrant un nouveau champ de réflexion sur les libertés fondamentales à l’ère algorithmique.
Le Comité d’experts sur l’impact de l’intelligence artificielle générative sur la liberté d’expression est chargé de rédiger un projet de lignes directrices sur les implications de l’intelligence artificielle générative pour la liberté d’expression, d’ici fin 2025.