Nous joindre
X
Rechercher
Publicité

Intelligence artificielle: le DGEQ appelle à un meilleur encadrement législatif

durée 10h15
8 mars 2026
La Presse Canadienne, 2026
durée

Temps de lecture   :  

4 minutes

Par La Presse Canadienne, 2026

QUÉBEC — Désinformation, hypertrucage, ingérence étrangère: le directeur général des élections du Québec (DGEQ), Jean-François Blanchet, dit prendre au sérieux l’intelligence artificielle (IA) et ses impacts potentiels dans les prochaines élections. Il admet du même souffle que ses moyens sont limités et en appelle à un meilleur encadrement de la part des élus.

Dans un contexte où la propagation de fausses informations peut être accélérée par l’IA, Jean-François Blanchet rappelle que les électeurs ont une responsabilité de s’informer auprès de sources fiables.

Du même souffle, il tient à se montrer rassurant. «À partir du moment que l'électeur fait son choix et qu'il dépose son bulletin de vote dans l’urne, le résultat va être la volonté de l'électeur», assure-t-il en entrevue avec La Presse Canadienne.

Le problème, c’est plutôt ce qui se passe avant que l’électeur ne se retrouve dans l’isoloir, puisque c’est là que la désinformation – alimentée ou non par l’IA – peut faire son œuvre.

«C’est cette portion-là qui est difficilement contrôlable. (...) On ne peut pas contrôler ce qui se propage sur les réseaux sociaux», indique-t-il.

Jean-François Blanchet assure que son organisation travaille à améliorer son contenu afin «qu’il n'y ait pas de zones grises».

«On va s'assurer, pour tout ce qui touche le processus électoral, de passer la bonne information», ajoute le DGEQ.

Un cadre législatif plus robuste?

Le projet de loi 98, adopté en mai 2025, a créé une infraction pour quiconque diffuse sciemment de fausses informations dans le but d’influencer une élection ou de compromettre la confiance du public dans le processus électoral.

Toutefois, porter des accusations reste ardu, concède le DGEQ.

«Au pénal, on doit être capable de démontrer hors de tout doute qu'il y a une infraction qui a été commise de façon volontaire, et trouver qui. Donc ça va toujours rester difficile», explique-t-il.

Jean-François Blanchet croit toutefois en la nécessité d’un encadrement législatif pour l’IA, malgré les difficultés. «Pourquoi ça ne se fait pas jusqu’à maintenant? Je pense que le législateur ne sait pas par où commencer», soutient-il.

Le DGEQ ajoute que les partis politiques vont devoir se «responsabiliser», car ils ont un «grand rôle à jouer pour protéger la démocratie».

«Dans les cas où il va y avoir de la fausse information qui va circuler sur le parti, ça va être à eux aussi de rétablir les faits», dit M. Blanchet

Élections Québec va utiliser l’IA

Mais il ne «faut pas se mettre la tête dans le sable» et reconnaître que l’IA va être de plus en plus utilisée par tout le monde, souligne le DGEQ. Et Élections Québec ne fera pas exception. Les élections d’octobre 2026 seront d’ailleurs les premières où l’organisme public va faire une utilisation de cette technologie.

En entrevue, M. Blanchet explique qu’Élections Québec va embaucher 70 personnes qui auront comme mandat de répondre aux questions des électeurs et l’IA va venir les aider dans leur travail. Le DEGQ se veut rassurant: l’utilisation de l’IA sera limitée et encadrée. Les employés pourront poser des questions à un robot conversationnel qui aura accès seulement aux informations internes d’Élections Québec.

Est-ce qu’un jour les électeurs pourront poser directement des questions à une IA pour avoir des informations sur les élections? «Inévitablement, je pense qu’un jour on va arriver là», répond Jean-François Blanchet.

Mais il assure qu’il y aura toujours des humains derrière cette IA.

En attendant, le DGEQ met en garde les électeurs contre l’utilisation des agents conversationnels, comme Copilot, Gemini ou encore ChatGPT. Il raconte qu’Élections Québec à reçu des plaintes de citoyens qui ont obtenu des informations erronées de la part d’une IA lors des dernières élections municipales.

Des risques concrets

Les risques de l’IA sur les élections sont bien réels. La Commission de l’éthique en science et en technologie (CEST) en a documenté quelques-uns dans un mémoire publié en 2024.

Elle souligne que «comme l’IA générative (tel que ChatGPT) arrive facilement à créer des contenus pouvant duper les usagers, elle exacerbe considérablement les risques de manipulation politique par la désinformation».

«La désinformation dans les médias numériques alimentée par l’IA est une forme de manipulation puisqu’elle vise à modifier les croyances de manière insidieuse en exploitant les asymétries de connaissances relatives au fonctionnement de l’IA et des médias numériques. Elle porte ainsi atteinte à la capacité des électeurs de faire des choix autonomes et à prendre part de manière éclairée à la délibération publique», écrit-on.

Le CEST note par exemple que les outils d’IA générative peuvent être utilisés pour intimider et donc décourager des citoyens à faire le saut en politique.

«Une grande part des hypertrucages sont en réalité des hypertrucages non consensuels, bien souvent à caractère pornographique, et ceux-ci ciblent dans une vaste majorité de cas des femmes. Ce type d’hostilité en ligne à l’égard des femmes peut faire en sorte que certaines remettent en question leur participation à la vie publique», ajoute-t-on dans le mémoire.

La CEST a pour mandat de conseiller le gouvernement du Québec sur tout ce qui touche les enjeux éthiques liés à la science et à la technologie.

Thomas Laberge, La Presse Canadienne

app-store-badge google-play-badge