AI Act européen : ce que ça change pour les PME alsaciennes
Depuis quelques mois, le mot “AI Act” circule dans les conversations professionnelles. Ce règlement européen sur l’intelligence artificielle, adopté en 2024, est entré progressivement en application — et il s’applique à toutes les entreprises qui utilisent ou développent des outils d’IA sur le sol européen.
Pour un dirigeant de PME en Alsace, la première réaction est souvent : “Encore une réglementation… est-ce que ça me concerne vraiment ?”
Réponse courte : probablement moins que vous ne le craignez. Mais mieux vaut le vérifier.
Ce que l’AI Act réglemente, en résumé
Le principe de base est simple : plus un système d’IA est susceptible de causer des dommages graves, plus les exigences sont strictes.
L’AI Act classe les usages de l’IA en quatre catégories :
- Risque inacceptable — Interdit. Notation sociale généralisée des citoyens par les pouvoirs publics, manipulation comportementale à l’insu des personnes, reconnaissance faciale en temps réel dans les espaces publics (avec exceptions). Cela ne concerne pas les PME.
- Risque élevé — Fortement encadré. C’est là que les obligations sont les plus lourdes.
- Risque limité — Quelques obligations de transparence, notamment pour les chatbots (l’utilisateur doit savoir qu’il parle à une machine).
- Risque minimal — Pas d’obligation particulière. La très grande majorité des usages courants.
Ce qui compte comme “risque élevé”
C’est la catégorie à surveiller. Sont considérés à risque élevé, entre autres :
- Les outils de recrutement et sélection de candidats (tri automatique de CV, scoring de candidatures)
- Les systèmes d’évaluation des employés (notation de performance automatisée)
- L’accès à certains services essentiels (crédit, assurance, logement)
- Certains équipements et infrastructures critiques
Concrètement, pour une PME de 50 à 200 salariés en Alsace : si vous utilisez un outil RH qui trie automatiquement des candidatures ou note des performances sans supervision humaine, vous êtes potentiellement dans le périmètre du risque élevé.
Les cas courants qui ne posent pas de problème
La grande majorité des usages IA dans une PME standard entre dans la catégorie “risque minimal” ou “risque limité” :
- Un chatbot sur votre site web — risque limité. Obligation principale : informer l’utilisateur qu’il interagit avec un système automatisé. Simple à mettre en place.
- Un outil de génération de texte (résumés, emails, contenus marketing) — risque minimal. Pas d’obligation spécifique.
- Un assistant pour la comptabilité ou la facturation — risque minimal dans la plupart des cas.
- Des outils d’analyse de données commerciales — risque minimal.
Si vous utilisez ChatGPT pour rédiger des emails ou Copilot pour résumer des réunions, l’AI Act ne vous impose rien de nouveau.
Ce qu’il faut faire dès maintenant
Pas de panique, mais quelques réflexes utiles :
- Faites l’inventaire. Listez les outils d’IA que vous utilisez — y compris ceux intégrés à votre CRM, votre ERP, ou vos outils RH. Vous serez peut-être surpris de ce que vous utilisez déjà sans le nommer “IA”.
- Vérifiez la catégorie de risque. Pour chaque outil, demandez-vous : est-ce qu’il prend des décisions qui affectent significativement des personnes (recrutement, crédit, sécurité) ? Si oui, regardez de plus près.
- Assurez-vous de la transparence pour vos chatbots. Si vous avez un assistant virtuel sur votre site, une mention claire suffit généralement.
- Consultez un spécialiste pour les cas limites. Si un outil est impliqué dans des décisions RH automatisées ou dans un secteur réglementé, un avis professionnel vaut le coup.
Le message à retenir
L’AI Act est une bonne nouvelle sur le fond : il établit des règles claires dans un domaine qui en manquait. Et pour la plupart des PME alsaciennes, il ne remet pas en question les outils déjà en place.
L’enjeu, c’est surtout d’avoir une vision claire de ce qu’on utilise — et de faire ce choix consciemment, pas par défaut. C’est une bonne pratique, réglementation ou pas.