Cybercriminalité
La curiosité n’est pas un vilain défaut mais une qualité fondamentale.
Quelles réglementations existent contre l'usage malveillant de l'IA
En 2025, la principale réglementation contre l’usage malveillant de l’intelligence artificielle en Europe est le Règlement européen sur l’intelligence artificielle (AI Act), entré progressivement en application depuis août 2024 et pleinement effectif depuis le 2 août 2025 [1][2].
Cadre général de l’AI Act
Le règlement s’applique à toute entité publique ou privée, incluant développeurs, fournisseurs et utilisateurs de systèmes d’IA, dès lors que leurs effets se produisent dans l’Union européenne, même si l’entreprise est basée hors de l’UE [2]. Son approche est fondée sur le niveau de risque associé à chaque système d’IA. Il définit quatre catégories : risque minimal, limité, élevé et inacceptable [2].
Usages d’IA interdits
Les systèmes considérés comme présentant un risque inacceptable sont strictement interdits, notamment :
- La manipulation cognitive ou comportementale à grande échelle (influence ou exploitation psychologique des utilisateurs).
- Les systèmes de notation sociale sur le modèle du crédit social.
- La reconnaissance biométrique à distance en temps réel dans les espaces publics, sauf exceptions précises pour les autorités publiques [2].
Ces interdictions visent directement les usages malveillants de l’IA pouvant servir à la surveillance de masse, à la désinformation, ou à la coercition comportementale.
Obligations pour les IA à usage général
Les modèles d’IA à usage général (GPAI) — comme les modèles de langage (GPT‑4o, Gemini, Claude, etc.) — doivent désormais :
- Respecter des obligations de documentation technique et de transparence.
- Garantir la conformité aux droits d’auteur et à la protection des données.
- Informer la Commission européenne des caractéristiques et usages possibles de ces modèles [1][2].
Sanctions applicables
Depuis août 2025, toute violation des règles entraîne des sanctions administratives pouvant atteindre 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel, selon le montant le plus élevé [1][2]. Les États membres, dont la Belgique, doivent aussi mettre en place leurs propres mesures dissuasives adaptées au tissu économique national [1].
Autres cadres complémentaires
Outre l’AI Act, d’autres instruments juridiques encadrent l’usage éthique et sécurisé de l’IA :
- Le RGPD, pour limiter les traitements automatisés basés sur les données personnelles.
- La directive NIS 2, qui renforce la cybersécurité et la protection contre l’usage malveillant de l’IA dans les infrastructures critiques [3][4].
- Les travaux de l’Office européen de l’IA, chargé de superviser la mise en conformité et d’émettre des codes de conduite sectoriels [1][2].
Ainsi, l’usage malveillant de l’IA (par manipulation, surveillance illégale ou désinformation) est désormais formellement interdit et exposé à des amendes très lourdes, plaçant l’Union européenne en pionnière mondiale de la régulation éthique et sécuritaire de l’intelligence artificielle.
Citations :
[1] Loi européenne sur l'IA : des sanctions possibles dès le 2 ...
[2] Règlement (UE) sur l'intelligence artificielle (IA)
[3] Législation sur l'IA | Bâtir l'avenir numérique de l'Europe
[4] L'Europe, pionnière en matière de législation sur l'intelligence ...
[5] Article 3 : Définitions - Loi européenne sur l'intelligence ...
[6] La loi européenne sur l'intelligence artificielle
[7] EU AI ACT: tout ce que vous devez savoir
[8] AI Act : le règlement européen sur l'intelligence artificielle (IA)