Il est devenu pratiquement impossible de parler d’intelligence artificielle (IA) aujourd’hui sans que la conversation ne dévie vers la question de la liberté d’expression. Dans une époque où les plateformes numériques et les réseaux sociaux sont devenus des lieux de diffusion massive, la ligne est mince entre le droit de s’exprimer librement et l’obligation de modérer pour éviter la désinformation, les propos haineux et les dérives dangereuses. C’est dans ce climat tendu que se pose la question : comment borner l’IA pour éviter des dommages, sans que certains y voient une atteinte à un droit fondamental?
Cette question, elle n’est pas nouvelle. Depuis les premiers scandales liés aux réseaux sociaux, où la prolifération des fake news et des propos diffamatoires a forcé les plateformes à adopter des politiques de modération plus strictes, on voit émerger un discours qui brandit la liberté d’expression à tout vent, souvent pour masquer un refus d’encadrement. Et aujourd’hui, l’IA se retrouve au centre du même débat.
Une technologie à risques multiples
L’intelligence artificielle, dans toute sa complexité et son potentiel, n’est pas une simple amélioration technologique. C’est un outil qui, mal encadré, peut facilement devenir un vecteur de dérives graves. Yoshua Bengio, dans un article publié récemment sur son blogue, propose un cadre mathématique pour quantifier les risques associés aux actions d’une IA. Il plaide pour un modèle où chaque décision prise par une IA est évaluée en temps réel pour déterminer si elle pourrait entraîner des conséquences néfastes. Ce modèle bayésien, bien qu’ambitieux, met le doigt sur une réalité simple : il est impératif de mettre en place des garde-fous pour éviter que l’IA ne devienne un danger.
Cependant, chaque tentative de régulation est perçue par certains comme une atteinte à la liberté d’expression. On l’a vu avec les réseaux sociaux : dès qu’on impose des règles de modération, un groupe crie à la censure. Pourtant, quand on parle d’IA, le problème va bien au-delà de simples tweets haineux ou de désinformation.
Une IA non contrôlée pourrait influencer des secteurs comme la santé, la sécurité, ou même la justice. Imaginez un système de justice automatisé basé sur des algorithmes biaisés, ou une IA utilisée dans le domaine médical qui, à cause d’un défaut de conception, privilégie certains patients au détriment d’autres. Ce n’est pas de la science-fiction, c’est une possibilité bien réelle.
La liberté d’expression a ses limites
Ceux qui crient à la censure chaque fois qu’on parle de réguler l’IA oublient une chose essentielle : la liberté d’expression, dans une démocratie, n’est pas absolue. Elle a des limites, et ces limites sont là pour protéger la société dans son ensemble. La diffamation, le discours haineux, la désinformation, ce ne sont pas des formes de liberté qu’il faut défendre. De la même manière, laisser une IA sans contrôle, sous prétexte de préserver une prétendue liberté technologique, est un danger qu’on ne peut pas se permettre de courir.
L’idée de Yoshua Bengio de mettre en place des systèmes de vérification probabiliste pour chaque décision d’une IA est, en soi, un exemple parfait de ce que pourrait être un encadrement sain. Il ne s’agit pas de limiter l’innovation, mais de s’assurer que cette innovation ne vire pas au chaos.
Par ailleurs, il est souvent souligné que l’adoption rapide de l’IA à l’échelle mondiale pose des défis que même les pionniers de cette technologie commencent à reconnaître. La comparaison avec la conduite d’une voiture à grande vitesse dans une montagne illustre bien le danger : sans visibilité sur les virages à venir, le risque d’accident est élevé. Il est donc impératif de ralentir, d’adopter la prudence et d’intégrer des garde-fous avant qu’un dérapage ne devienne incontrôlable.
Cette accélération de l’adoption de l’IA se fait dans un contexte où les gouvernements tentent de mettre en place des régulations adaptées. Certains pays, comme la Californie ou le Mexique, ont déjà adopté des « frameworks souples » visant à garantir une utilisation responsable de l’IA. Toutefois, ces cadres varient d’une région à l’autre, ce qui souligne la difficulté de créer une régulation uniforme à l’échelle mondiale. L’innovation progresse, mais elle doit être accompagnée de balises appropriées pour éviter les dérives.
Le gouvernement canadien a lancé un projet de cadre pour baliser l’utilisation des systèmes d’intelligence artificielle générative. Ce code vise à garantir la sécurité et la fiabilité de ces technologies en fixant des garde-fous sur des aspects clés comme la transparence, l’équité, la supervision humaine et la robustesse des systèmes. L’objectif est d’éviter les dérives nuisibles, tout en respectant les normes éthiques et en éliminant les biais dans les données. Ce projet est en phase de consultation publique avant l’adoption d’une réglementation officielle.
Un enjeu de responsabilité
L’IA générative amplifie les dangers de la désinformation, rendant la création de contenus trompeurs comme les fausses nouvelles ou les deepfakes plus accessible que jamais. Ces outils peuvent inonder l’espace numérique de faux récits. Pourtant, bien utilisée, cette technologie pourrait aussi servir à contrer cette désinformation en produisant du contenu fiable. Le défi réside dans cet équilibre : maximiser les bénéfices tout en minimisant les risques, surtout en période électorale où les manipulations peuvent gravement nuire à la démocratie.
La question que l’on doit se poser est la suivante : pourquoi serait-ce différent avec l’intelligence artificielle? Pourquoi refuser d’appliquer à cette technologie des normes et des règles claires qui protégeraient non seulement les citoyens, mais aussi les entreprises et les institutions? Les tests de sécurité, comme ceux proposés par Bengio, sont un minimum nécessaire pour éviter les débordements.
Le véritable problème, c’est que beaucoup craignent que toute régulation de l’IA ne freine l’innovation. Or, c’est tout le contraire : encadrer l’IA, c’est justement lui permettre de se développer de manière sécuritaire et éthique, en respectant les valeurs de la société. Ce n’est pas une question de censure, c’est une question de responsabilité. Laisser une technologie aussi puissante agir sans balise, c’est faire preuve d’irresponsabilité.
La liberté d’expression, pour être protégée, doit être encadrée. Les plateformes numériques en sont un bon exemple : après des années de laisser-faire, elles se retrouvent aujourd’hui dans l’obligation de repenser leur modèle. Avec l’IA, nous avons l’opportunité d’apprendre de nos erreurs. Ce n’est pas une question de restreindre la liberté, mais de s’assurer que cette liberté ne vire pas au chaos. Et cela passe par l’instauration de garde-fous clairs et efficaces, sans quoi l’IA risque de devenir un monstre que personne ne pourra plus contrôler.