Un décret présidentiel aux États-Unis pour encadrer l’intelligence artificielle

WASHINGTON — Le président américain Joe Biden a adopté lundi de nouvelles règles de base et des garde-fous pour la croissance et le développement de l’intelligence artificielle (IA). Des experts canadiens espèrent maintenant qu’Ottawa adoptera une approche prudente mais complémentaire dans ce dossier en pleine croissance.

Le décret présidentiel, présenté comme l’action gouvernementale la plus complète en matière d’intelligence artificielle dans l’histoire de cette technologie, couvre un large éventail de domaines, de la sécurité publique et nationale à la protection des droits individuels.

Pour à la fois réaliser les promesses de l’IA et éviter ses nombreux périls, la technologie doit être soigneusement réglementée, a déclaré M. Biden lors d’une cérémonie à la Maison-Blanche.

«Nous sommes confrontés à un véritable moment décisif dans l’histoire — un de ces moments où les décisions que nous prendrons à très court terme vont fixer le cap pour les prochaines décennies», a-t-il déclaré.

«Il n’y a pas de plus grand changement auquel je puisse penser dans ma vie que celui que l’IA présente comme potentiel: explorer l’univers, lutter contre le changement climatique, mettre fin au cancer tel que nous le connaissons et bien plus encore.»

Le Canada faisait partie des principaux alliés des États-Unis que la Maison-Blanche a consultés au cours des derniers mois pour élaborer ce nouveau cadre réglementaire, a indiqué dans un communiqué le ministre de l’Innovation, François-Philippe Champagne, qui participera cette semaine au Sommet sur la sécurité dans le domaine de l’IA, au Royaume-Uni.

La stratégie nationale du Canada en matière d’IA a été publiée en 2017 et le mois dernier, Ottawa a lancé un nouveau code de conduite volontaire pour le développement de systèmes d’IA avancés, a ajouté le ministre Champagne.

Sécurité nationale et publique

En vertu du décret présidentiel signé par Joe Biden lundi, les développeurs d’IA devront partager avec le gouvernement américain les résultats de leurs recherches et tests de sécurité lorsque ces travaux portent sur des domaines qui présentent un risque pour la sécurité nationale, la sécurité publique ou la santé de l’économie américaine.

L’ordonnance crée aussi un nouveau Conseil de sûreté et de sécurité de l’IA, sous les auspices du département de la Sécurité intérieure, qui évaluera les menaces pesant sur les infrastructures critiques, ainsi que tout danger chimique, biologique, nucléaire ou de cybersécurité.

Le département du Commerce établira quant à lui de nouvelles règles en matière de «tatouage numérique» et d’authentification d’un document, afin que tout contenu généré par l’IA soit clairement identifié comme tel, afin d’atténuer les risques toujours croissants de désinformation ou de fraude.

Le président Biden, qui serait depuis quelques mois à la fois captivé et préoccupé par le potentiel de cette technologie, est brièvement sorti de son texte, lundi, pour décrire comment des «vidéos  hypertruqués» peuvent être produits en seulement quelques secondes à partir de contenu authentique.

Réglementer sans freiner l’innovation

Mark Daley, qui a entamé plus tôt ce mois-ci un mandat de cinq ans à titre de tout premier directeur de l’IA à l’Université Western, a reconnu le défi que représente la frontière ténue entre les promesses de la technologie et ses dangers potentiels.

«Il est extrêmement difficile de trouver le juste équilibre entre prendre au sérieux les préoccupations sociétales très réelles en matière de sécurité, tout en ne tuant pas l’innovation», a déclaré M. Daley.

Le Canada a déjà pris des mesures préliminaires qui correspondent globalement à la direction prise par la Maison-Blanche — qui, selon le professeur Daley, devraient donner à Ottawa une certaine latitude pour éviter le risque de freiner l’innovation.

Une telle approche serait appropriée, a-t-il ajouté, compte tenu du rôle important que joue le Canada dans le développement de certaines des technologies fondamentales de l’IA. «Il existe une opportunité pour le Canada d’aller davantage vers l’innovation», a-t-il déclaré.

«Et je pense que c’est approprié, car le Canada est en partie le berceau de la technologie d’apprentissage profond, qui est si attrayante à l’heure actuelle.»

Mais certains craignent que cette technologie en évolution rapide tombe entre de mauvaises mains et estiment que le Canada, en particulier, avance trop lentement lorsqu’il s’agit de réglementer la croissance de l’IA.

Yoshua Bengio, éminent pionnier canadien de l’IA à Montréal, a récemment déploré la lenteur de l’adoption du projet de loi C-27, conçu en partie pour réglementer cette technologie.

Le projet de loi a été adopté en première et deuxième lectures à la Chambre des communes plus tôt cette année, mais il est depuis bloqué à l’étape de l’étude en comité parlementaire.