L’intelligence artificielle se déploie dans nos armées et nos services de sécurité sans cadre légal, sans débat parlementaire, sans garde-fous. En Belgique, un citoyen a déposé une pétition fédérale jugée recevable par la Chambre. Il faut 25.000 signatures pour obliger nos représentant·e·s à se saisir du sujet. Cinq minutes. Un lien. Le minimum démocratique.
L’angle mort de l’AI Act
On a beaucoup célébré l’AI Act européen, entré en vigueur en 2024. On a nettement moins parlé de son impensé le plus massif : la sécurité nationale est explicitement exclue de son champ d’application. Ce n’est pas un oubli technique — c’est un choix politique délibéré. L’Union européenne ne peut pas légiférer dans ce domaine sans révision des traités. Chaque État membre reste seul souverain, et seul responsable, de ce qu’il autorise à ses forces armées en matière d’IA.
Et la Belgique ? Aucun cadre légal spécifique. Aucun débat structuré. Aucun mécanisme de contrôle indépendant. Une charte non contraignante a bien été signée le 11 juillet 2025 par près de 40 organismes fédéraux dont la Police et la Défense — mais ce document renvoie lui-même à l’AI Act, qui exclut précisément ce qu’on cherche à encadrer. La boucle est bouclée. Rien ne contrôle rien.
Palantir à nos portes
Pendant que le vide juridique s’installe, les fournisseurs technologiques n’attendent pas. L’Echo et Le Soir ont révélé que Palantir — le géant américain de l’analyse de données piloté par Peter Thiel — a ouvert une filiale belge en décembre 2025, deux mois après une rencontre entre le ministre de la Défense Theo Francken et ses représentant·e·s. Notre Premier ministre Bart De Wever évoque des « discussions exploratoires ». Aucun contrat signé, dit-il. Mais le couloir est ouvert.
Pour comprendre l’enjeu, il suffit de regarder ce que Palantir fait ailleurs. Aux États-Unis, l’entreprise fournit à l’ICE un système de traçage des migrant·e·s et a développé ImmigrationOS — ce sont des contrats documentés, des systèmes en production. En Allemagne, la Cour constitutionnelle a déclaré inconstitutionnel l’usage de son logiciel de surveillance par la police des Länder de Hesse et de Hambourg. En Suisse, malgré dix ans de démarchage, l’entreprise a été rejetée pour risques liés à la souveraineté des données.
La Belgique sera-t-elle plus vigilante que l’Allemagne ne l’a été avant que ses tribunaux interviennent ?
Les garde-fous ne se négocient pas seuls
Le Département de la Défense américain avait exigé qu’Anthropic, l’éditeur de l’IA Claude, lève deux interdictions éthiques inscrites dans ses contrats : l’usage de son IA pour la surveillance de masse de citoyen·ne·s, et son intégration dans des systèmes d’armes létaux sans supervision humaine. Anthropic a refusé. Son fondateur a déclaré publiquement ne pas pouvoir « en bonne conscience accéder à leur demande ». Le Pentagone l’a classé « risque sécuritaire inacceptable » — et OpenAI a pris sa place.
Le message est sans ambiguïté : quand une entreprise dit non, on la remplace. Comment croire encore que les garde-fous éthiques tiendront si le seul frein reste la bonne volonté d’un fournisseur privé ? Il ne reste plus que le politique pour poser des limites. Encore faut-il qu’il se saisisse du sujet.
Trois demandes, un levier réel
La pétition déposée par le journaliste et citoyen Damien Van Achter, jugée recevable par la Chambre, formule trois demandes concrètes : que le gouvernement dresse un état des lieux des systèmes d’IA déployés par la Défense et la Police fédérale ; que la Belgique fixe ses propres règles minimales — transparence, contrôle humain, audit indépendant ; que le Parlement se prononce sur deux usages précis : la surveillance de masse et les armes autonomes sans supervision humaine.
Ce n’est pas un appel à l’interdiction. C’est une demande de débat. Le droit de pétition est inscrit dans notre Constitution : 25.000 signatures réparties entre les trois régions — 14.500 en Flandre, 8.000 en Wallonie, 2.500 à Bruxelles — obligent la Chambre à examiner le texte. Un levier institutionnel réel.
Signer cette pétition, ce n’est pas se prononcer pour ou contre l’IA militaire. C’est demander que la question soit posée là où elle doit l’être : au Parlement, en commission, en séance publique — et non dans des négociations opaques entre un cabinet ministériel et une multinationale technologique.
Ces citoyen·ne·s qui exigent la transparence sur les technologies de défense parviendront, nous en sommes certain·e·s, à faire avancer ce débat, pour peu que nous les soutenions. À nous non pas d’attendre que les tribunaux corrigent ce que le politique aurait pu encadrer à temps, mais d’agir maintenant.
#IAMilitaire #DémocratieParlementaire #Pétition #Belgique #DroitsNumériques