
L’IA commence à être réglementée aux Etats-Unis
L’IA connaît une régulation croissante aux États-Unis. Cette régulation se manifeste par diverses initiatives législatives et exécutives visant à encadrer son développement et son utilisation. Les récents progrès technologiques et les préoccupations concernant l’impact de l’IA sur la société ont conduit les autorités américaines à adopter une approche plus proactive pour garantir une utilisation responsable de l’IA.
Lire plus : L’intelligence artificielle au service de la santé en 2024 : la prédiction des traitements efficaces
Les initiatives fédérales récentes pour la régulation de l’IA
L’une des initiatives les plus significatives est l’Ordre Exécutif 14110, signé par le Président Biden le 30 octobre 2023. Cet ordre établit un cadre complet pour la gouvernance de l’IA aux États-Unis. Il couvre divers aspects, tels que la sécurité, la confidentialité, les droits civils, et l’innovation, tout en mettant l’accent sur l’utilisation sûre et éthique de l’IA. Cet ordre marque un tournant décisif dans la politique américaine en matière de régulation de l’IA, passant d’une approche fragmentée à une stratégie plus unifiée et centralisée.
En parallèle, le Congrès américain a proposé plusieurs projets de loi visant à renforcer la régulation de l’IA. Par exemple, le « Bipartisan Framework for the U.S. AI Act » propose un système de licences administré par un organisme indépendant, exigeant des entreprises développant des modèles d’IA à usage général ou utilisés dans des situations à haut risque de s’enregistrer auprès de cette autorité désignée. Ces mesures visent à assurer une surveillance rigoureuse et à réduire les risques potentiels liés à l’IA.
Le rôle des agences fédérales dans la régulation de l’IA
Plusieurs agences fédérales ont également pris des mesures pour encadrer l’IA. Le National Institute of Standards and Technology (NIST) a publié le « AI Risk Management Framework » pour guider la gestion des risques tout au long du cycle de vie de l’IA. Ce cadre est largement utilisé comme modèle par le secteur privé pour gérer les risques associés à l’IA. De plus, la Federal Trade Commission (FTC) – l’équivalent de la DGCCRF en France – a publié des directives sur l’utilisation des outils d’IA générative, soulignant son engagement à surveiller et à réguler les pratiques commerciales déloyales ou trompeuses impliquant l’IA.
Le ministère de l’Énergie a créé un « AI Risk Management Playbook » en collaboration avec le NIST, tandis que le département de l’Éducation a publié un rapport sur les risques et opportunités de l’IA dans les contextes éducatifs. Ces initiatives montrent l’implication active des agences fédérales dans la promotion d’une utilisation responsable et sécurisée de l’IA.
Lire plus : L’intelligence émotionnelle : définitions, utilités, avantages
Comparaison avec l’Europe et ses régulations sur l’IA
Il est intéressant de comparer ces efforts avec ceux de l’Union européenne, qui a adopté une approche centralisée et rigoureuse avec l’AI Act. Cette législation européenne impose des règles strictes pour les modèles d’IA à usage général, considérés comme présentant des risques systémiques. L’UE a également établi un Bureau européen de l’IA pour superviser et appliquer ces règles. Bien que les États-Unis et l’UE adoptent des approches différentes, les deux visent à assurer une utilisation sûre et éthique de l’IA. Les sanctions financières liées au non-respect de l’IA Act pour non-conformité peuvent aller jusqu’à 30 millions d’euros ou représenter 7 % du chiffre d’affaires annuel consolidé. Pour superviser ces activités, un régulateur européen a été désigné le 24 janvier 2024. Des régulateurs nationaux vont également être désignés pour renforcer cette surveillance.
Finalement, la réglementation de l’IA aux États-Unis est en pleine évolution, avec des initiatives fédérales et des actions des ministères pour encadrer son développement et son utilisation. L’Ordre exécutif 14110 et les propositions législatives récentes montrent une volonté claire de mettre en place un cadre de régulation robuste.
Lire plus : Intelligence artificielle : les formations qui façonnent les experts de demain