Elon Musk et des experts réclament une pause dans le développement de l’intelligence artificielle !

Elon Musk et des experts réclament une pause dans le développement de l’intelligence artificielle !

Elon Musk et des centaines d’experts du numérique dans le monde ont signé le mercredi 29 mars un appel demandant de faire une pause de six mois dans la recherche et les développements des programmes d’intelligences artificielles.

 

Le développement de l’intelligence artificielle fait courir « des risques majeurs pour l’humanité »

Les experts du secteur, études académiques à l’appui, ont publié un courrier sur le site de Future of Life Institute, une organisation à but non lucratif étudiant les risques et apports de la technologie. Le courrier a été signé par plus de 1382 personnes dont le patron de Twitter, Elon Musk mais aussi Steve Wozniak, cofondateur d’Apple, Gary Marcus, professeur spécialiste de l’IA, Yoshua Bengio, un universitaire réputé, Noam Shazeer, fondateur de Character

« Ces derniers mois ont vu les laboratoires d’intelligence artificielle s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable », s’inquiètent les signataires. Ce propos fait écho à la formation de systèmes d’intelligences artificielles plus puissants que GPT-4, la dernière version du robot conversationnel d’OpenAI, qui a révélé le pouvoir de l’intelligence artificielle. «Les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables.» souligne le courrier.

 

Lire plus : GPT-4, la nouvelle version de ChatGPT est disponible

Start in Blockchain est l'agence média dédiée aux enjeux sur la blockchain et le Web 3.0

Elon Musk et les signataires souhaitent interrompre le développement de l’intelligence artificielle immédiatement et pendant six mois

Les signataires de cette lettre ouverte réclament un moratoire de six mois jusqu’à la mise en place de systèmes de sécurité des dispositifs IA, un cadre réglementaire dédié à son utilisation, un audit des systèmes existants et la création de contremesures techniques pour aider les institutions et les États à gérer les crises « économiques et politiques aux conséquences dramatiques que l’IA pourrait bientôt provoquer ».

Malik Ghallab, chercheur émérite en robotique et intelligence artificielle au CNRS, alerte sur le fait que « la technique va plus vite que la science » et les ingénieurs et chercheurs n’ont plus une maîtrise totale des IA les plus puissantes. « Leurs capacités dépassent ce que nous avions prévu, et leurs concepteurs se retrouvent dans une position dangereuse d’apprentis sorciers, malgré toute leur bonne volonté ». Le chercheur prend l’exemple du secteur de l’aviation, encadré depuis des décennies par des normes strictes de sécurité. « Il y a besoin de pionniers, comme les frères Wright, qui vont prendre des risques. Mais ces risques ne doivent pas toucher l’ensemble de la société. »

Sam Altman, le patron d’OpenAI, a lui-même récemment reconnu être « un petit peu effrayé » par sa propre intelligence artificielle à tel point que si elle était utilisée pour de « la désinformation à grande échelle ou des cyberattaques », les dégâts pourraient être nombreux pour nos sociétés. 

 

Lire plus : L’intelligence artificielle : de la science-fiction à la réalité

 

Pour conclure, Elon Musk et des experts en intelligence artificielle ont souhaité partager cette lettre ouverte car ils estiment que les développements en termes d’intelligence artificielle sont trop rapides et présentent des risques sérieux pour nos démocraties occidentales, notamment avec la génération automatique d’infox très élaborées. Ainsi, une pause de six mois dans le développement de l’intelligence artificielle est préférable pour le bien de tous.