INTELLIGENCE ARTIFICIELLE ET ARMES NUCLÉAIRES : IL FAUT LÉGIFÉRER RAPIDEMENT

Je suis de ceux qui sont à la fois fascinés et troublés par le développement rapide et le potentiel de l’intelligence artificielle. Assez troublé pour me demander si nous sommes collectivement prêts à une progression aussi rapide.

Quelles utilisations pour le nucléaire et le militaire?

Vous avez peut-être lu mardi ou mercredi matin les réflexions d’un pionnier de l’IA, Geoffrey Hinton. Il quitte Google en affirmant regretter son invention.

Les propos du chercheur n’ont rien de bien rassurant: «les futures versions de cette technologie pourraient être un risque pour l’humanité».

Le hasard fait en sorte que la lecture des regrets de Hinton croise mes lectures sur les inquiétudes de nombreuses instances, plusieurs américaines, au sujet du développement du nucléaire et de ses applications militaires. Bonne ou mauvaise l’IA sur ces questions ?

Tout comme c’est le cas dans la grande majorité des secteurs d’activités, l’IA offre un potentiel de recherche et d’analyse qui peut être bénéfique. Si ce sujet vous passionne, je dépose ici un article de l’Agence internationale de l’énergie atomique.

S’il ne fait aucun doute que l’IA peut avoir un effet bénéfique pour relever les défis du 21ème siècle, je crois qu’il est urgent de prendre une pause et de réfléchir aux rôles et responsabilités que nous déléguerons à l’IA.

Parce que les tensions entre l’Ukraine et la Russie ne diminuent pas et parce que des puissances nucléaires évoquent assez régulièrement le recours à une arme particulièrement destructrice, des analystes et des législateurs s’interrogent sur la place de l’IA dans le déploiement d’une stratégie militaire.

Est-il envisageable qu’à la suite d’une analyse et d’un calcul de risques poussés, l’IA recommande le recours à l’arme nucléaire ? Des dirigeants pourraient-ils être tentés de lui laisser un choix, qui, pour un humain, implique une bonne part de stress et d’angoisse ?

Vous vous dites peut-être que nous n’en sommes pas encore là, mais l’Institut Hoover, rattaché à l’Université Stanford, a déjà procédé à bon nombre de scénarios, des simulations dans lesquelles les autorités américaines, coupées de communications normales, devaient déférer à l’intelligence artificielle.

Un vide constitutionnel

Vous vous dites peut-être que jamais un président américain ne déléguerait son autorité de commandant en chef à l’IA.

Malgré cela, aucune loi actuelle n’interdirait à un président et un cabinet déchirés entre faucons et colombes de laisser la décision ultime à l’IA.

Il nous arrive parfois de réagir avec beaucoup de retard aux impacts négatifs d’une invention. Dans le cas de l’IA, nous devrions tout faire pour réduire les erreurs.

Vous serez peut-être rassurés d’apprendre que des législateurs américains souhaitent présenter un projet de loi. Fait plutôt rare en 2023, ce projet de loi est bipartisan et il s’intitule le Block Nuclear Launch by Autonomous Artificial Intelligence Act.

Il ne nous reste qu’à souhaiter qu’il ne se perde pas dans les méandres du système politique américain.

Par Luc Laliberté , publié le mercredi 3 mai 2023 à 11h30

Photo en titre : Photo Adobe Stock

https://www.journaldequebec.com/2023/05/03/intelligence-artificielle-et-armes-nucleaires-il-faut-legiferer-rapidement