Zoom sur le sommet de Londres : vers une régulation de l’IA ?

Zoom sur le sommet de Londres : vers une régulation de l’IA ?

Au Royaume-Uni, l’accueil favorable du premier événement international sur les risques de l’intelligence artificielle (IA), rassemblant vingt-huit pays, a été marqué par la présence de dirigeants de renom. La participation inattendue du PDG de Tesla, Elon Musk, a contribué au succès de ce sommet historique organisé par le Premier Ministre britannique, Rishi Sunak. La présence de la vice-présidente des États-Unis, Kamala Harris, et de représentants chinois a renforcé la dimension diplomatique de l’événement.

 

Lire plus : L’Intelligence Artificielle en RH : Les Nouvelles frontières du monde du travail

 

Le choix du somptueux manoir victorien de Bletchley Park, célèbre pour le décryptage des codes allemands pendant la Seconde Guerre mondiale, a ajouté une dimension symbolique au sommet. L’organisation a favorisé des échanges de haute qualité, avec des discussions informelles et des tables rondes à huis clos, créant ainsi un environnement propice aux dialogues constructifs.

 

Les Défis de la Régulation de l’Intelligence Artificielle

Malgré l’enthousiasme ambiant, ce rassemblement sans précédent a mis en lumière les défis de la régulation de l’IA, un an après l’avènement de ChatGPT et d’une nouvelle génération de logiciels capables de créer des contenus impressionnants. Parmi les annonces, figurait le lancement d’un « GIEC de l’IA » visant à établir un consensus scientifique, tout en suscitant des questions sur sa structure. L’importance de définir des « standards » d’évaluation a été reconnue par James Manyika, senior vice president chez Google.

Par ailleurs, le Royaume-Uni affirme vouloir jouer un rôle important dans la sécurité de l’IA. Dans cette perspective, le Premier Ministre Rishi Sunak a créé un AI Safety Institute britannique chargé de « tester et évaluer les risques » associés aux modèles d’IA des géants technologiques. L’institut bénéficie de la collaboration d’entreprises telles qu’OpenAI, Meta, AWS, ou GoogleDeepmind, ainsi que de partenariats internationaux. Cependant, ces tests ne seront pas appuyés par une législation, selon M. Sunak, qui juge prématuré de légiférer.

 

Lire plus : Elon Musk et des experts réclament une pause dans le développement de l’intelligence artificielle !

 

Consécration pour les Partisans des « Risques Existentiels » de l’IA

Pour les partisans de l’idée que l’IA pourrait présenter des « risques existentiels » pour l’humanité, cet événement britannique a été une forme de consécration. Des personnalités telles que Nick Bostrom, philosophe et auteur de « Superintellligence, » ainsi que des PDG comme Elon Musk et Sam Altman, croient au potentiel de dangers similaires à ceux des pandémies ou des risques nucléaires. Ils préconisent la création d’une IA bénéfique pour l’humanité.

Les Risques Soulevés et la Vision de l’IA

Le communiqué final évoque le potentiel de « dommages sérieux, voire catastrophiques, causés par une IA de manière délibérée ou non intentionnelle. » Parmi les risques cités, on trouve la perte de contrôle d’un logiciel ou son utilisation malveillante pour des attaques informatiques ou des armes biologiques. Certains voient également l’IA comme une solution pour créer un monde sans maladies ou une source d’énergie propre illimitée.

 

Lire plus : Elon Musk lance xAI, une intelligence artificielle pour concurrencer ChatGPT

 

Le débat sur la régulation de l’IA a révélé des tensions, notamment en ce qui concerne les modèles puissants et les risques extrêmes. Certains estiment que les discours alarmistes détournent l’attention des problèmes immédiats tels que les erreurs, les biais discriminatoires, le respect du droit d’auteur, et l’impact sur l’emploi. Les discussions ont également soulevé des questions sur la publication en open source des modèles d’IA, avec des avis divergents quant à la nécessité de restreindre l’accès à de tels modèles.

 

Défis de la Régulation de l’IA : Une Quête de Consensus

Malgré l’augmentation des discussions sur la régulation de l’IA, les États ne parviennent pas encore à s’accorder sur la manière de trouver l’équilibre. Le défi consiste à réguler tout en favorisant l’innovation. Les décisions à venir, notamment au sein de l’Union européenne, auront un impact sur l’avenir de la régulation de l’IA et devront prendre en compte les modèles de fondation utilisés par des entreprises telles que Meta et Mistral AI.

 

Lire plus: L’intelligence artificielle : de la science-fiction à la réalité

À très vite sur Planète Grandes Écoles