IA Act : ces usages anodins qui pourront vous coûter cher en Belgique

09/08/2025

Le compte à rebours a commencé. Le 2 août 2025, le volet GPAI (General Purpose AI) de l'IA Act européen entrait en vigueur. En Belgique, c'est le SPF Économie qui coordonne sa mise en œuvre. Désormais, les fournisseurs d'intelligence artificielle générative tels que ChatGPT, Gemini, Copilot et les autres doivent se conformer au droit européen. Mais dans un an, à compter du 2 août 2026, les organisations utilisatrices, y compris ASBL et PME, devront être en mesure de rendre compte de leurs usages à l'APD (Autorité de protection des données). L'ennui, c'est que dans l'intervalle, les mauvaises habitudes s'installent...

L'anecdote n'a que quelques jours : la semaine dernière, une responsable d'asbl bruxelloise m'appelle pour se renseigner sur le contenu de mes formations à l'IA en Belgique. Lorsque je l'interroge sur ses usages actuels de ChatGPT : « Oh, vous savez, jusqu'à présent c'est très léger : rédiger quelques mails, relire des courriers... Ah, et puis on est en plein recrutement, là. J'ai reçu 70 CV ! Alors pour gagner du temps, je lui ai demandé de faire un premier tri », m'explique-t-elle avec enthousiasme... Sans savoir que, dans un an, cet usage pourra occasionner une très forte amende à son organisation.

L'IA Act : un train de retard sur nos habitudes

En effet, dès le 2 août 2026, l'IA Act européen encadrera strictement l'usage des intelligences artificielles génératives. Cette règlementation prévoit déjà différents niveaux de sanctions selon la gravité des infractions, avec des montants susceptibles de mettre en péril les finances des petites organisations.

Pensé pour protéger nos droits fondamentaux en complément du RGPD, le texte entre malheureusement en vigueur avec un décalage évident, puisque ChatGPT et tant d'autres ont déjà envahi nos quotidiens. Entre l'arrivée fulgurante de ces technologies et leur encadrement légal, des millions d'utilisateurs — particuliers comme organisations — ont donc développé (ou sont en train de développer) de très mauvaises habitudes. Pour les PME et ASBL belges, il devient urgent d'auditer les usages d'IA générative.

Des usages « innocents » mais bientôt sanctionnés

Illustration : un PC dans un bureau bruxellois avec un écran rouge affichant le sympbole de la justice et un point d'exclamation

Illustration générée par IA (Stable Diffusion) et remixée avec Gimp.

Trier des CV avec ChatGPT ? D'une part, vous traitez des données personnelles avec un outil qui ne respecte pas les standards européens de protection des données (problématique RGPD). D'autre part, l'usage d'une IA grand public pour la sélection de candidat·es est une pratique à haut risque — et donc lourdement sanctionnée — au sens de l'IA Act.

Suivre une tendance populaire en postant un « starter pack » sur Instagram avec les codes graphiques de Pixar, Ghibli ou Disney pour votre association ? Vous violez le droit d'auteur ! De plus, l'IA Act impose la transparence : vous devez mentionner explicitement que vos contenus sont générés par une intelligence artificielle — une obligation encore souvent méconnue.

Faire relire par ChatGPT le compte-rendu d'un entretien d'accompagnement ? Lui demander de mettre au propre une transcription de réunion effectuée par Otter.ai ? Vous transmettez des données personnelles sensibles à une société américaine qui les stocke et les exploite selon ses propres conditions. Si, de plus, ces données concernent des publics vulnérables (mineurs d'âge, personnes en difficulté, personnes handicapées...), vous vous exposez encore davantage aux sanctions.

Et ces exemples sont loin d'appartenir à la science-fiction : la plupart des organisations belges avec qui je discute me disent le faire régulièrement.

PME et secteur non-marchand : les grands oubliés de la conformité IA générative

Les grandes entreprises disposent de services juridiques capables d'anticiper ces enjeux. Mais qu'en est-il des structures plus modestes ? PME, ASBL et même services publics locaux naviguent souvent à vue, sans mesurer les implications légales. Comme la responsable d'asbl que je citais plus haut, ils le font de bonne foi, bien sûr. Mais nul n'est censé ignorer la loi. Et en l'occurrence, les sanctions prévues par l'IA Act sont d'une sévérité exemplaire.

Pour ces organisations, la mise en conformité passe d'abord par un diagnostic de leurs pratiques actuelles. Quels outils utilisent-elles ? Dans quels contextes ? Avec quelles données ? Un audit des usages d'IA permet d'identifier les zones de risque avant qu'il ne soit trop tard.

Audit et mise en conformité : anticiper plutôt que subir

La solution ? Poser à plat vos usages actuels et former vos équipes avant l'échéance, pour utiliser ces outils dans un cadre légal et éthique clair. C'est exactement l'objectif de mes formations à l'IA en Belgique : vous permettre de tirer parti de ces technologies sans compromettre votre conformité ni vos valeurs. Parce qu'entre l'interdiction pure et l'usage inconscient, il existe un troisième chemin : l'appropriation vigilante.

Ces formations s'adressent aussi bien aux équipes qui découvrent ces outils qu'à celles qui les utilisent déjà quotidiennement. Dans les deux cas, l'objectif reste le même : reprendre le contrôle sur des technologies qui transforment nos métiers.

Votre organisation se trouve à Bruxelles ou en Wallonie et vous souhaitez auditer vos pratiques d'IA générative ? N'hésitez pas à me contacter pour en discuter.