« Le président Joe Biden prend une initiative historique avec un décret sur l’intelligence artificielle. Découvrez les huit points clés de cette nouvelle réglementation et ce qu’elle signifie pour le futur de l’IA aux États-Unis.
Le président Joe Biden a franchi une étape majeure en signant un décret sur l’intelligence artificielle (IA) ce lundi 30 octobre 2023. Il s’agit du tout premier pas officiel du gouvernement américain visant à établir des directives strictes concernant cette technologie. Le décret couvre une multitude de domaines : de la sécurité à la protection des droits civiques, en passant par les études sur l’impact de l’IA sur le marché du travail.
La Maison-Blanche a déclaré dans un communiqué que cette démarche est « l’effort le plus important jamais réalisé pour défendre les Américains contre les dangers possibles des technologies d’IA. »
Un défi international
L’administration Biden s’engage activement, tant au niveau national qu’international, pour mettre en place un cadre solide concernant le développement et l’usage de l’intelligence artificielle. C’est ainsi que des discussions ont déjà eu lieu avec de nombreux pays comme l’Allemagne, l’Australie, le Canada, la France, le Japon et bien d’autres. Cette démarche s’inscrit dans la continuité des initiatives telles que le sommet sur la sécurité de l’intelligence artificielle au Royaume-Uni, la leadership du Japon dans le processus d’Hiroshima du G7, le rôle prépondérant de l’Inde dans le Partenariat mondial sur l’IA et les débats en cours à l’ONU.
Kamala Harris, la vice-présidente du Président Biden, s’envole pour la Grande-Bretagne ! Elle va participer à une grande réunion cette semaine. Elle y rejoindra des chefs d’État, des experts en technologie et des chercheurs. Ils vont tous se retrouver pour parler des côtés impressionnants, mais aussi parfois effrayants, de l’IA. Des personnalités comme Rishi Sunak, le chef du gouvernement britannique, Ursula von der Leyen de l’Union européenne et Antonio Guterres de l’ONU y seront. Ensemble, ils discuteront des inquiétudes liées à l’intelligence artificielle, que ce soit des attaques informatiques, de la sécurité nationale, de fausses infos qui circulent, des emplois perdus ou même des arnaques.
Fei-Fei Li, co-responsable du Stanford Institute for Human-Centered Artificial Intelligence, a souligné en entretien l’importance du financement public pour permettre à l’IA d’adresser les défis majeurs de l’humanité.
« Le secteur public, grâce à son accès unique à des données et des compétences interdisciplinaires, a le potentiel de combattre le cancer, traiter des maladies rares, cartographier la biodiversité mondiale, anticiper les feux de forêt, apporter des solutions au changement climatique et amplifier l’efficacité de nos enseignants », (..) le manque de moyens bride ces potentialités aujourd’hui. »
Le G7 engagé pour réguler l’intelligence artificielle
Le monde bouge rapidement en matière de réglementation de l’intelligence artificielle (IA). Suite à des accords comme le « Pacte sur l’IA » entre l’Union européenne et les entreprises spécialisées, et un code de conduite partagé entre les États-Unis et l’Europe, de nouvelles décisions ont été prises ce 30 octobre. Le G7 a dévoilé les bases de son code de conduite pour l’intelligence artificielle, et un décret officiel de la Maison-Blanche impose désormais plus de responsabilités aux entreprises américaines d’IA.
Il y a peu, la création d’un « Giec de l’IA » et d’un conseil consultatif de l’ONU a été proposée. Pendant ce temps, le règlement européen sur l’IA est en phase finale d’adoption. Tout cela survient alors que des systèmes d’IA, comme ChatGPT, deviennent de plus en plus performants et populaires, bien qu’ils demeurent, pour le moment, assez librement régulés.
Les sociétés qui acceptent ce guide de 11 points promettent, de leur propre gré, de prendre plusieurs actions. Elles s’engagent à reconnaître les dangers potentiels liés à l’usage de l’intelligence artificielle. Ces entreprises doivent aussi expliquer publiquement ce que leurs systèmes d’IA peuvent ou ne peuvent pas faire. Elles auront l’obligation de mettre en place des règles pour gérer l’intelligence artificielle, d’assurer sa sécurité et de respecter la vie privée des utilisateurs. De plus, il faudra un moyen pour que les gens sachent si un contenu a été fait par de l’IA. Et des experts neutres vérifieront toutes les étapes, de la création à la vente de ces technologies.
Cependant, ce guide n’oblige pas vraiment les entreprises à faire quoi que ce soit, il repose sur leur volonté. Ursula von der Leyen encourage les créateurs d’IA à suivre ce guide tout en attendant une loi officielle de l’Europe sur l’IA.
Les huit points clés du décret de Joe Biden sur l’intelligence artificielle
Assurer la cybersécurité de l’intelligence artificielle
Les entreprises d’IA du secteur privé devront partager leurs résultats de tests de sécurité avec le gouvernement.
Protéger la vie privée
Le décret prévoit la création de directives sur la confidentialité dans le cadre de l’utilisation de l’IA dont les collectes de données.
Promouvoir l’équité
Des conseils seront fournis pour éviter que l’intelligence artificielle ne soit source de discrimination, notamment dans le système judiciaire.
Veiller sur les consommateurs
Des mesures seront prises, par exemple, pour surveiller l’usage de l’IA dans le secteur de la santé.
Soutien aux travailleurs : un rapport sera produit sur les effets de l’IA sur l’emploi.
Stimuler l’innovation
Le décret prévoit une augmentation des fonds pour la recherche sur les communications et télécommunications du secteur privé et l’IA.
Collaboration internationale
Il s’agira de travailler avec des partenaires mondiaux pour établir des normes informatiques communes.
Mise en place de directives pour les agences fédérales
Cela concerne l’acquisition et l’utilisation de l’IA par ces agences.
Bruce Reed, de la Maison Blanche, a souligné que ce décret est l’ensemble de mesures le plus strict jamais pris par un gouvernement en matière d’intelligence artificielle.
Sarah Myers West, à la tête de l’AI Now Institute – une organisation focalisée sur l’impact de la technologie sur la société – a salué l’initiative de Biden d’intégrer des considérations sociales et éthiques. Par message, Myers West a exprimé :
« C’est encourageant de voir la Maison-Blanche prioriser des sujets cruciaux pour le public, tels que l’emploi, les droits civiques, la vie privée et la promotion de la concurrence. Il est essentiel de gérer les défis actuels pour anticiper ceux liés à l’IA de demain.«
Elle a aussi insisté sur la nécessité d’une réglementation rigoureuse face aux entreprises qui cherchent à s’autoréguler, ajoutant que « l’industrie ne doit pas dicter seule les règles concernant l’impact de l’IA sur la société« .
Les implications du décret de Biden pour les entreprises d’intelligence artificielle
Le décret de Joe Biden sur l’intelligence artificielle stipule que les grandes entreprises d’IA doivent partager leurs tests de sécurité avec le gouvernement. Il sera également donné priorité à la mise en place de normes pour tester la robustesse des systèmes d’IA.
Une initiative pour renforcer les compétences en IA
L’administration Biden veut donc renforcer le secteur de l’IA. Dès à présent, les experts en intelligence artificielle pourront trouver des postes au sein du gouvernement sur AI.gov.
Certains aspects de ce décret seront mis en œuvre en 90 jours, tandis que d’autres pourraient prendre jusqu’à un an.
Un mouvement suite à des actions précédentes
Ce décret fait écho aux précédentes initiatives de la Maison Blanche sur l’IA, notamment pour établir des discussions sur le développement rapide de cette technologie.
Le président Biden a pris aujourd’hui des mesures clés pour renforcer la sécurité et la fiabilité de intelligence artificielle aux États-Unis. L’administration poursuivra ses efforts avec le Congrès pour élaborer une loi bipartisane, car il est essentiel pour l’Amérique de se positionner comme leader de l’innovation responsable.
Sophie Madoun