IA Act : ces usages anodins qui pourront vous coûter cher en Belgique

Image d'illustration mettant en scène Arnard le Renard'

Le compte à rebours a commencé. Le 2 août 2025, le volet GPAI (General Purpose AI) de l'IA Act européen entrait en vigueur. En Belgique, c'est le SPF Économie qui coordonne sa mise en œuvre. Désormais, les fournisseurs d'intelligence artificielle générative tels que ChatGPT, Gemini, Copilot et les autres doivent se conformer au droit européen. Mais dans un an, à compter du 2 août 2026, les organisations déployant des systèmes d'IA à haut risque devront justifier leurs usages auprès des autorités de surveillance du marché. L'ennui, c'est que dans l'intervalle, les mauvaises habitudes s'installent...

L'anecdote n'a que quelques jours : la semaine dernière, une responsable d'ASBL bruxelloise m'appelle pour se renseigner sur le contenu de mes formations à l'IA en Belgique. Lorsque je l'interroge sur ses usages actuels de ChatGPT : « Oh, vous savez, jusqu'à présent c'est très léger : rédiger quelques mails, relire des courriers... Ah, et puis on est en plein recrutement, là. J'ai reçu 70 CV ! Alors pour gagner du temps, je lui ai demandé de faire un premier tri », m'explique-t-elle avec enthousiasme... Sans savoir que, dans un an, cet usage pourra occasionner une très forte amende à son organisation.

L'IA Act : un train de retard sur nos habitudes

En effet, dès le 2 août 2026, l'IA Act européen encadrera strictement l'usage des intelligences artificielles génératives. Cette règlementation prévoit différents niveaux de sanctions selon la gravité des infractions, avec des montants susceptibles de mettre en péril les finances des petites organisations.

Pensé pour protéger nos droits fondamentaux en complément du RGPD, le texte entre en vigueur avec un fâcheux décalage de calendrier, puisque ChatGPT et tant d'autres ont déjà envahi nos quotidiens. Entre l'arrivée fulgurante de ces technologies et leur encadrement légal, des millions d'utilisateurs (particuliers comme organisations) ont donc développé (ou sont en train de développer) de très mauvaises habitudes. Pour les PME et ASBL belges, il devient urgent d'auditer les usages d'IA générative.

Des usages « innocents » mais bientôt sanctionnés

Trier des CV avec ChatGPT ? D'une part, vous traitez des données personnelles avec un outil qui ne respecte pas les standards européens de protection des données (problématique RGPD). D'autre part, l'usage d'une IA grand public pour la sélection de candidats est une pratique à haut risque et donc lourdement sanctionnée au sens de l'IA Act.

Suivre une tendance populaire en postant un « starter pack » sur Instagram avec les codes graphiques de Pixar, Ghibli ou Disney pour votre association ? Vous violez le droit d'auteur ! Par ailleurs, l'IA Act impose la transparence pour certains contenus : vous devez mentionner que vos visuels sont générés par une intelligence artificielle, une obligation encore souvent méconnue.

Faire relire par ChatGPT le compte-rendu d'un entretien d'accompagnement ? Lui demander de mettre au propre une transcription de réunion effectuée par Otter.ai ? Vous transmettez des données personnelles sensibles à une société américaine qui les stocke et les exploite selon ses propres conditions. Si, de plus, ces données concernent des publics vulnérables (mineurs, personnes en difficulté, personnes handicapées...), vous vous exposez encore davantage aux sanctions.

Ces exemples sont loin d'appartenir à la science-fiction : la plupart des organisations belges avec qui je discute me disent le faire régulièrement.

Audit et mise en conformité : anticiper plutôt que subir

Les grandes entreprises disposent de services juridiques capables d'anticiper ces enjeux. Mais qu'en est-il des structures plus modestes ? PME, ASBL et même services publics locaux naviguent souvent à vue, sans mesurer les implications légales. Comme la responsable d'ASBL que je citais plus haut, ils le font de bonne foi, bien sûr. Mais nul n'est censé ignorer la loi. Et en l'occurrence, les sanctions prévues par l'IA Act sont d'une sévérité exemplaire.

La solution ? Poser à plat vos usages actuels et former vos équipes avant l'échéance, pour utiliser ces outils dans un cadre légal et éthique clair. C'est exactement l'objectif de mes formations à l'IA en Belgique : vous permettre de tirer parti de ces technologies sans compromettre ta conformité ni vos valeurs. Parce qu'entre l'interdiction pure et l'usage inconscient, il existe un troisième chemin : l'appropriation vigilante.

Ces formations s'adressent aussi bien aux équipes qui découvrent ces outils qu'à celles qui les utilisent déjà quotidiennement. Dans les deux cas, l'objectif reste le même : reprendre le contrôle sur des technologies qui transforment nos métiers.

Votre organisation se trouve à Bruxelles ou en Wallonie et vous souhaitez auditer vos pratiques d'IA générative ? N'hésitez pas à me contacter pour en discuter.

<Transparence charte IA : cet article a été rédigé et vérifié par un humain (moi !), puis relu par Claude Sonnet 4.5 dans un process de double vérification itérative, afin de s’assurer que mes affirmations factuelles sont les plus justes et les plus précises possible. Dans ce cadre, Claude peut également me faire, à la marge, des propositions de corrections (orthographiques ou stylistiques), que je valide ou non. Les opinions exprimées sur ce blog sont les miennes. Pour la révision de cet article, j'ai complété mes investigations manuelles par une recherche Gemini Deep Research utilisant la technologie Deep Think. Les éléments composant l’illustration ont été générés par Gemini d’après un prompt produit par Claude Sonnet 4.5 selon mes instructions, puis assemblés dans Canva et exportés avec Gimp.