Publications

Adoption de l’IA et menace pour l’innovation: les leçons du cas européen

Note économique expliquant pourquoi le Canada doit résister à la tentation de suivre l’exemple de l’Union européenne et de sa Loi sur l’IA

En lien avec cette publication

Freiner le développement de l’IA, une erreur que le Canada ne peut se permettre (Le Devoir, 14 janvier 2026)

Don’t follow Europe by over-regulating AI (Financial Post, 15 janvier 2026)

Réglementation européenne sur l’IA : l’exemple à ne pas suivre (Contrepoints, 15 janvier 2026)

Ne tuons pas le développement de l’IA chez nous avec la réglementation! (Les Affaires, 19 janvier 2026)

 

Cette Note économique a été préparée par Pierre Bentata et Nicolas Bouzou, chercheurs associés à l’IEDM. La Collection Réglementation de l’IEDM vise à examiner les conséquences souvent imprévues pour les individus et les entreprises de diverses lois et dispositions réglementaires qui s’écartent de leurs objectifs déclarés.

Selon une enquête internationale sur l’intelligence artificielle réalisée en 2025 dans 21 pays(1), les Canadiens semblent conscients des impacts positifs que pourrait avoir l’intelligence artificielle (IA) sur la productivité et l’innovation, mais demeurent plus inquiets que la moyenne des répondants quant aux risques qu’elle représente. La majorité d’entre eux se dit avant tout préoccupée par les risques que pose l’IA et désire une réglementation spécifique, une position partagée par une proportion comparable de répondants européens. Le Canada pourrait donc être tenté de suivre l’exemple de l’Union européenne et de sa Loi sur l’IA(2).

Toutefois, avant de s’engager dans cette voie réglementaire, les Canadiens devraient prendre conscience de sa complexité et des effets pervers qu’elle pourrait engendrer en termes d’innovation, de dynamique concurrentielle et de compétitivité internationale. Ils éviteraient ainsi d’« importer » les erreurs observées dans la réglementation européenne en matière d’IA.

Des bénéfices, mais aussi de nouveaux risques

Que ce soit dans la logistique, la finance, le commerce électronique, l’agriculture, l’éducation et évidemment dans la médecine, l’IA prend la forme de systèmes spécialisés destinés à automatiser des tâches et à améliorer la prise de décision(3). Ses bénéfices incluent des économies de temps, une meilleure gestion des flux et une amélioration des services, qui se traduisent par d’importants gains de productivité. Les prévisions les plus prudentes estiment une hausse de la productivité générale de 0,53 % sur dix ans, tandis que certaines études évaluent un gain de 14 % pour les travailleurs « de soutien » peu qualifiés grâce aux grands modèles de langage (LLM pour Large Language Model), une autre forme d’IA(4).

L’UE a adopté une réglementation qui vise à protéger la santé et la sécurité, mais aussi les droits fondamentaux. En dépit de ces bonnes intentions, cette réglementation de l’IA se heurte à plusieurs écueils.

C’est justement l’introduction de ces LLM (ChatGPT, DeepSeek, Grok, Mistral, Gemini 3), permettant à chacun de formuler des requêtes précises (prompts en anglais) pour obtenir des réponses spécifiques, qui constitue à ce jour la plus grande promesse d’innovation et de promotion de la dynamique concurrentielle. Ces modèles favorisent l’internalisation de tâches jusqu’ici coûteuses pour les entreprises – conseils juridiques, comptabilité, communication – et réduisent les barrières à l’entrée de certains secteurs autrefois protégés par d’importants coûts fixes, ce qui pourrait se traduire par une intensification de la concurrence et une baisse des prix. Leur application en santé offre, quant à elle, la perspective d’une médecine prédictive(5) et personnalisée.

Pour autant, l’utilisation de l’IA, qu’il s’agisse de systèmes spécialisés ou de LLM, génère certains risques spécifiques. Le plus évident porte sur la manipulation et le contrôle social. C’est le cas lorsqu’une IA utilise des données biométriques pour prédire des comportements jugés dangereux ou identifier des individus afin d’altérer leur jugement par des techniques subliminales(6).

Un autre risque tient à la relative autonomie de l’IA en cas d’accident ou de dommages, qu’il s’agisse d’un accident de la route causé par une voiture autonome, d’une erreur de diagnostic établi par une IA, ou d’une discrimination à l’embauche à la suite d’un traitement automatisé des candidatures.

Enfin, les LLM posent un risque particulier lié à la possibilité pour un utilisateur de les détourner pour accéder à des contenus protégés, créer de fausses informations ou des « deep fake »(7), ou produire des virus informatiques, voire des explosifs(8).

Un vecteur d’incertitude juridique pour les entrepreneurs

Face à ces nouveaux risques, les gouvernements sont tentés de réglementer l’IA. L’Union européenne a adopté, le 21 mai 2024, une réglementation qui vise à protéger la santé et la sécurité, mais aussi les droits fondamentaux des citoyens européens qui pourraient être violés par l’utilisation de systèmes d’IA (notamment l’égalité, la non-discrimination, la protection des données personnelles, la démocratie et la protection de l’environnement)(9).

Une partie de la loi est entrée en vigueur dès août 2024; une autre devait entrer en vigueur en août 2026, mais la Commission européenne a proposé, le 19 novembre 2025, d’en reporter l’échéance à la fin de 2027, tout en maintenant sa portée (proposition qui doit être ratifiée par le Parlement européen, puis adoptée par les États membres)(10).

La réglementation européenne risque de freiner l’innovation et de réduire la compétitivité des entreprises, sans pour autant garantir une meilleure protection des citoyens.

En dépit de ces bonnes intentions et du report des échéances, cette réglementation de l’IA continue de peser sur le secteur, car elle se heurte à plusieurs écueils qui méritent d’être soulignés et évités.

Impossible quantification du risque

L’idée générale de ce règlement est d’imposer des obligations aux fournisseurs et déployeurs d’IA en fonction du risque présumé que représente leur produit. Comme le montre le Tableau 1, quatre niveaux de risque sont distingués, allant de minime à inacceptable, qui s’accompagnent de contraintes spécifiques. Intuitivement, cette approche par le risque peut se comprendre, puisqu’elle vise à inciter les entreprises à prendre des précautions appropriées. C’est ce qui se fait dans les domaines de la santé, de l’environnement ou des produits défectueux.

Pour autant, la mesure du risque pose ici un problème spécifique, car il ne s’agit pas d’évaluer des dommages matériels ou corporels, mais des atteintes aux droits fondamentaux(11). Pour ce faire, fournisseurs et déployeurs doivent estimer la probabilité et la gravité d’une atteinte éventuelle, hypothétique, à ces droits. Or, aucune entreprise n’est en mesure d’effectuer un tel calcul. En effet, il ne leur est ni possible de quantifier l’impact d’une telle atteinte ni de déterminer la probabilité qu’un tel dommage survienne – ces éléments dépendant en grande partie de la façon dont l’IA sera utilisée.

Rigidité de la nouvelle réglementation en fonction du secteur d’activité

La Loi sur l’IA fournit une liste de secteurs concernés pour chaque niveau de risque et énumère huit secteurs dans lesquels l’usage de l’IA est par définition qualifié de « haut risque »(12). Ce faisant, elle ajoute une réglementation sectorielle à la réglementation par le risque. Cela peut se justifier dans les secteurs évoqués précédemment où l’IA peut représenter un risque inacceptable, plus facilement identifiable.

Pour les grandes entreprises, le coût de conformité réglementaire est relativement plus aisément absorbable, alors que pour une entreprise naissante, il constitue une véritable barrière à l’entrée.

En revanche, pour les autres catégories de risques, cette distinction par secteur peut s’avérer fort problématique, car elle est essentiellement arbitraire, pour deux raisons principales.

  • Premièrement, cette structure sectorielle rigide impose à tous les fournisseurs et déployeurs des secteurs considérés à « risque élevé » des obligations très contraignantes, telles que :
    • évaluer le niveau de risque de l’IA tout au long de son cycle de vie;
    • créer un système de gestion des risques qui i) décrive l’ensemble des données utilisées par l’IA, ii) analyse chaque biais et erreur, iii) détaille les solutions adoptées, iv) précise le volume de données nécessaire à l’entraînement de l’IA, et v) assure l’exactitude, la robustesse et la sécurité de l’IA.
  • Concrètement, cela signifie que toute utilisation de l’IA dans un tel secteur à « risque élevé » se verra imposer un coût réglementaire significatif, et le fournisseur ou le déployeur pourra être sanctionnée d’une amende allant jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires mondial annuel (article 99) s’il ne se conforme pas aux obligations.
  • Deuxièmement, cette approche sectorielle ne tient pas compte de la diversité des usages au sein d’un même secteur. À titre d’exemple, le secteur du jeu vidéo est considéré comme représentant un « risque minime », n’entraînant aucune obligation réglementaire. Pourtant, il est tout à fait possible d’utiliser une IA analysant les comportements des joueurs afin de susciter des réactions addictives qui pourraient se traduire par l’achat d’objets et d’équipements en ligne. Dans ce cas, une telle IA (dans un secteur peu sensible comme le jeu vidéo) serait bien plus dangereuse qu’une IA utilisée pour simplement trier des curriculums vitae selon le seul niveau de diplôme, ou une IA entraînée à prévoir le risque d’accident de la circulation d’un assuré. Et pourtant, la première ne serait soumise à aucune contrainte, alors que les deux autres devraient se conformer aux exigences réglementaires les plus sévères.

Un frein au développement du secteur

La réglementation européenne risque de freiner l’innovation au lieu de la promouvoir et de réduire la compétitivité des entreprises en matière d’IA, sans pour autant garantir une meilleure protection des citoyens.

Une barrière à l’entrée pour les entreprises en démarrage

La réglementation sectorielle des IA à « haut risque » impose un coût uniforme à tous les acteurs présents ou désireux d’entrer dans ces secteurs, ce qui engendre nécessairement une distorsion de concurrence au profit des plus grandes entreprises.

L’étude d’impact publiée par la Commission européenne estime que la seule mise en place du système de gestion détaillé précédemment pourrait coûter jusqu’à 240 000 euros pour une entreprise d’un seul salarié, et jusqu’à 401 000 euros pour une entreprise de 100 salariés(13), soit environ 60 fois plus par salarié dans le premier cas. Ainsi, la réglementation s’apparente à un coût fixe qu’il est d’autant plus facile d’amortir lorsque l’entreprise bénéficie déjà d’une certaine taille et d’effectifs importants. Autrement dit, pour les grandes entreprises, le coût de conformité réglementaire est relativement plus aisément absorbable, alors que pour une entreprise naissante, il constitue une véritable barrière à l’entrée.

La Loi sur l’IA risque de mécaniquement ralentir à terme le développement de l’IA en Europe et d’accroître son retard par rapport aux États-Unis.

La Loi sur l’IA pourrait donc nuire au secteur de l’IA, tout comme l’a fait le Règlement général sur la protection des données (RGPD) dans le secteur européen de la collecte et du traitement des données personnelles(14). Depuis son entrée en vigueur en 2018, le RGPD vise à encadrer et à anonymiser la collecte, l’utilisation et la monétisation des données personnelles par les acteurs du numérique, en imposant des obligations qui s’apparentent à un coût fixe. Les premières estimations de ses impacts économiques montrent qu’il a surtout réduit l’intensité concurrentielle du secteur en favorisant les grandes plateformes, plus à même d’absorber les coûts réglementaires et d’offrir à leurs partenaires des garanties de conformité avec l’ensemble des obligations.

Ainsi, en moins de cinq ans, plus d’une entreprise sur dix a disparu – principalement des jeunes entreprises. Cela a renforcé les parts de marché des grandes entreprises du numérique(15) et s’est traduit par un ralentissement de l’innovation dans le secteur en Europe par rapport aux États-Unis. En effet, le nombre d’applications disponibles a reculé d’un tiers, et le taux d’entrée de nouvelles applications a chuté de 47,2 %(16).

Un frein à la création d’un écosystème de l’IA aggravant le retard de l’Europe

Si la Loi sur l’IA devait avoir des effets similaires, le secteur européen de l’IA se retrouverait dans une situation d’autant plus préoccupante qu’il accuse déjà un retard important par rapport à son homologue américain. Comme le montre la Figure 1, depuis 2022, les créations d’entreprises d’IA ont fortement augmenté aux États-Unis et ont été près de trois fois plus nombreuses qu’en Europe en 2024. Dans le même temps, les investissements privés en IA ont crû de façon exponentielle aux États-Unis, alors qu’ils ont stagné en Europe, si bien qu’en 2024, plus de 29 milliards de dollars ont été investis aux États-Unis, soit presque 20 fois plus que le 1,5 milliard investi en Europe cette année-là(17).

Or, en matière numérique, le développement d’un écosystème dynamique et concurrentiel nécessite d’importants investissements et la présence de grandes entreprises, mais aussi d’un grand nombre de jeunes entreprises. En imposant des barrières à l’entrée aux petites entreprises et un surcoût à l’ensemble de l’écosystème, la Loi sur l’IA risque de mécaniquement ralentir à terme le développement de l’IA en Europe et d’accroître son retard par rapport aux États-Unis. Il s’agit d’un risque d’autant plus important que les technologies numériques se caractérisent par des effets de réseau, qui procurent un avantage concurrentiel aux premiers arrivants et aux entreprises capables d’atteindre rapidement une taille critique.

Conclusion

Avant de se tourner vers une réglementation spécifique de l’IA inspirée par le modèle européen, dont la Commission elle-même souhaite désormais reporter l’entrée en vigueur de certaines des dispositions à la fin de 2027, les autorités canadiennes devraient tirer les leçons de la Loi sur l’IA. Trois écueils devraient notamment être évités :

  • Premièrement, il semble irréaliste de forcer les entreprises à mettre en œuvre une approche fondée sur les risques pour les droits fondamentaux. Il serait préférable d’opter pour une réglementation fondée sur le degré d’autonomie des IA, seules les IA les moins contrôlables devant faire l’objet d’un encadrement spécifique.
  • Deuxièmement, une approche plus souple pourrait s’appliquer aux autres IA, en étendant simplement les règles existantes de responsabilité civile aux dommages qu’elles pourraient générer.
  • Enfin, le partage des risques devrait intégrer les utilisateurs finaux, particulièrement dans le cas des LLM. En effet, aucun producteur de LLM ne peut prévoir l’ensemble des usages qu’en fera un utilisateur final, et si ce dernier génère un dommage, une réglementation efficace devrait inclure des mesures visant à le dissuader.

Un encadrement de l’IA pourrait être mis en œuvre sur la base de ces recommandations sans pour autant nuire à la dynamique concurrentielle et à l’innovation du secteur.

Références

  1. Google/Ipsos, Multi-Country AI Survey of 2025, janvier 2025, p. 7.
  2. Règlement (UE), 2024/1689 du Parlement européen et du Conseil, dit la Loi sur l’IA.
  3. Celso Cancela-Outeda, « The EU’s AI Act: A framework for collaborative governance », Internet of Things, vol. 27, octobre 2024, p. 2.
  4. Daron Acemoglu, The simple macroeconomics of AI, NBER Working Papers 32487, mai 2024, p. 43; Erik Brynjolfsson et Danielle Li, « The Economics of Generative AI », The Reporter, NBER, avril 2025, no 1, p. 16-19.
  5. La médecine prédictive repose sur l’utilisation d’un grand nombre de données provenant de sources diverses pour faire des prédictions sur les risques qu’a un individu de développer certaines maladies.
  6. Il s’agit de techniques de manipulation visant à influencer les pensées ou comportements d’une personne sans qu’elle n’en ait conscience, par des stimuli trop subtils pour être perçus consciemment. Un modèle de génération de contenus, textuels ou vidéo, pourrait par exemple lier des contenus positifs à un parti politique ou à l’inverse des contenus négatifs à un groupe social, à travers des mots et images.
  7. Les « deep fake » ou hypertrucages sont des techniques reposant sur l’intelligence artificielle pour transformer ou produire des contenus vidéo et audio à des fins malveillantes ou manipulatoires.
  8. Fábio Perez et Ian Ribeiro, « Ignore Previous Prompt: Attack Techniques For Language Models », arXiv :2211.09527, 17 novembre 2022; Gregory Schwartzman, « Exfiltration of personal information from ChatGPT via prompt injection », arXiv2406.00199, 6 juin 2024.
  9. Règlement (UE), op. cit., note 2.
  10. Romane Armangau, « European Commission proposes delaying full implementation of AI Act to 2027 », Euro News, 19 novembre 2025.
  11. Comme le précise le préambule (1) du Règlement 2024/1689, les droits fondamentaux concernés étant ceux « consacrés dans la Charte des droits fondamentaux de l’Union européenne […], y compris la démocratie, l’état de droit et la protection de l’environnement ».
  12. Voir Annexe III de la Loi sur l’IA, incluant : i) biométrie, ii) infrastructures critiques, iii) éducation et formation, iv) emploi, gestion de la main-d’œuvre et accès à l’emploi indépendant, v) accès et droits aux services privés essentiels et services publics et prestations sociales, vi) répression, vii) migration, asile et contrôle des frontières, viii) administration de la justice et processus démocratiques. Loi sur l’intelligence artificielle de l’UE, Annexe III : Systèmes d’IA à haut risque visés à l’article 6, paragraphe 2.
  13. Andrea Renda et al., Study to Support an Impact Assessment of Regulatory Requirements for Artificial Intelligence in Europe – Final Report, Commission européenne, 2021, p. 152-154.
  14. Union Européenne, Règlement général sur la protection des données (RGPD), 1er juillet 2022.
  15. Garrett A. Johnson, Scott K. Shriver et Samuel G. Goldberg, « Privacy & Market Concentration: Intended & Unintended Consequences of the GDPR », Management Science, vol. 69, no 10, novembre 2022, p. 2; Guy Aridor, Yeon-Koo Che et Tobias Salz, « The effect of privacy regulation on the data industry: empirical evidence from GDPR », RAND Journal of Economics, vol. 54, no 4, hiver 2023, p. 697.
  16. Rebecca Janssen et al., GDPR and the Lost Generation of Innovative Apps, NBER, Working Paper 30028, mai 2022, p. 2.
  17. Human-Centered Artificial Intelligence (HAI), Artificial Intelligence Index Report 2025, Stanford University, 2025, p. 255.
Back to top