IA Act : ces usages anodins qui pourront vous coûter cher en Belgique
09/08/2025

Le compte à rebours a commencé. Le 2 août 2025, le volet GPAI (General Purpose AI) de l'IA Act européen entrait en vigueur. En Belgique, c'est le SPF Économie qui coordonne sa mise en œuvre. Désormais, les fournisseurs d'intelligence artificielle générative tels que ChatGPT, Gemini, Copilot et les autres doivent se conformer au droit européen. Mais dans un an, à compter du 2 août 2026, les organisations déployant des systèmes d'IA à haut risque devront justifier leurs usages auprès des autorités de surveillance du marché. L'ennui, c'est que dans l'intervalle, les mauvaises habitudes s'installent...
L'anecdote n'a que quelques jours : la semaine dernière, une responsable d'ASBL bruxelloise m'appelle pour se renseigner sur le contenu de mes formations à l'IA en Belgique. Lorsque je l'interroge sur ses usages actuels de ChatGPT : « Oh, vous savez, jusqu'à présent c'est très léger : rédiger quelques mails, relire des courriers... Ah, et puis on est en plein recrutement, là. J'ai reçu 70 CV ! Alors pour gagner du temps, je lui ai demandé de faire un premier tri », m'explique-t-elle avec enthousiasme... Sans savoir que, dans un an, cet usage pourra occasionner une très forte amende à son organisation.
L'IA Act : un train de retard sur nos habitudes
En effet, dès le 2 août 2026, l'IA Act européen encadrera strictement l'usage des intelligences artificielles génératives. Cette règlementation prévoit différents niveaux de sanctions selon la gravité des infractions, avec des montants susceptibles de mettre en péril les finances des petites organisations.
Pensé pour protéger nos droits fondamentaux en complément du RGPD, le texte entre en vigueur avec un fâcheux décalage de calendrier, puisque ChatGPT et tant d'autres ont déjà envahi nos quotidiens. Entre l'arrivée fulgurante de ces technologies et leur encadrement légal, des millions d'utilisateurs (particuliers comme organisations) ont donc développé (ou sont en train de développer) de très mauvaises habitudes. Pour les PME et ASBL belges, il devient urgent d'auditer les usages d'IA générative.
Des usages « innocents » mais bientôt sanctionnés
Trier des CV avec ChatGPT ? D'une part, vous traitez des données personnelles avec un outil qui ne respecte pas les standards européens de protection des données (problématique RGPD). D'autre part, l'usage d'une IA grand public pour la sélection de candidats est une pratique à haut risque et donc lourdement sanctionnée au sens de l'IA Act.
Suivre une tendance populaire en postant un « starter pack » sur Instagram avec les codes graphiques de Pixar, Ghibli ou Disney pour votre association ? Vous violez le droit d'auteur ! Par ailleurs, l'IA Act impose la transparence pour certains contenus : vous devez mentionner que vos visuels sont générés par une intelligence artificielle, une obligation encore souvent méconnue.
Faire relire par ChatGPT le compte-rendu d'un entretien d'accompagnement ? Lui demander de mettre au propre une transcription de réunion effectuée par Otter.ai ? Vous transmettez des données personnelles sensibles à une société américaine qui les stocke et les exploite selon ses propres conditions. Si, de plus, ces données concernent des publics vulnérables (mineurs, personnes en difficulté, personnes handicapées...), vous vous exposez encore davantage aux sanctions.
Ces exemples sont loin d'appartenir à la science-fiction : la plupart des organisations belges avec qui je discute me disent le faire régulièrement.
Audit et mise en conformité : anticiper plutôt que subir
Les grandes entreprises disposent de services juridiques capables d'anticiper ces enjeux. Mais qu'en est-il des structures plus modestes ? PME, ASBL et même services publics locaux naviguent souvent à vue, sans mesurer les implications légales. Comme la responsable d'ASBL que je citais plus haut, ils le font de bonne foi, bien sûr. Mais nul n'est censé ignorer la loi. Et en l'occurrence, les sanctions prévues par l'IA Act sont d'une sévérité exemplaire.
La solution ? Poser à plat vos usages actuels et former vos équipes avant l'échéance, pour utiliser ces outils dans un cadre légal et éthique clair. C'est exactement l'objectif de mes formations à l'IA en Belgique : vous permettre de tirer parti de ces technologies sans compromettre ta conformité ni vos valeurs. Parce qu'entre l'interdiction pure et l'usage inconscient, il existe un troisième chemin : l'appropriation vigilante.
Ces formations s'adressent aussi bien aux équipes qui découvrent ces outils qu'à celles qui les utilisent déjà quotidiennement. Dans les deux cas, l'objectif reste le même : reprendre le contrôle sur des technologies qui transforment nos métiers.
Votre organisation se trouve à Bruxelles ou en Wallonie et vous souhaitez auditer vos pratiques d'IA générative ? N'hésitez pas à me contacter pour en discuter.