L’intelligence artificielle, un risque d’extinction pour l’humanité ?

L’intelligence artificielle, un risque d’extinction pour l’humanité ?

Le mardi 30 mai 2023, des experts du Center for AI Safety, une organisation à but non lucratif basée aux États-Unis, ont publié une lettre réclamant des mesures pour atténuer les risques posés par l’intelligence artificielle, une technologie qui représente un « risque d’extinction » pour l’humanité.

 

Une lettre alarmante signée par des experts de l’intelligence artificielle

Cette brève lettre ouverte de vingt-deux mots rappelle que « limiter le risque d’extinction lié à l’intelligence artificielle devrait être une priorité mondiale, au côté d’autres risques à l’échelle de la société, dont les pandémies et la guerre nucléaire. »

La brièveté du message, explique au New York Times le responsable du Center for AI Safety Dan Hendrycks, est volontaire et vise à esquiver les éventuelles critiques faites sur la forme, le fond ou la solution alors proposée par l’appel de mars. Il fait un parallèle avec un « coming out », expliquant qu’il existe « une fausse idée qu’il n’y a, même dans le monde de l’IA, qu’un petit nombre de personnes annonçant l’effondrement de la civilisation« . « En réalité, ajoute-t-il, beaucoup de gens expriment ces inquiétudes en privé. » Et désormais en public, donc.

La liste des signataires comprend ainsi notamment Sam Altman, le directeur d’OpenAI, Demis Hassabis, qui dirige Google DeepMind, ainsi que Dario Amodei, le cofondateur et PDG d’Anthropic, la start-up californienne qui vient de lever près d’un demi-milliard de dollars pour concurrencer ChatGPT. Elle est également signée par Geoffrey Hinton et Yoshua Bengio, deux professeurs qui ont remporté le prix Turing pour leurs travaux sur l’intelligence artificielle.


Lire plus : GPT-4, la nouvelle version de ChatGPT est disponible


Les prises de parole concernant les risques liés à l’intelligence artificielle deviennent courantes

Ce n’est pas la première initiative regroupant les experts inquiets au sujet de l’intelligence artificielle. En mars, plus de 1 300 experts (dont Elon Musk, Steve Wozniak, cofondateur d’Apple, Gary Marcus, professeur spécialiste de l’IA et Noam Shazeer, fondateur de Character.AI) avaient signé une première lettre appelant à une pause de six mois dans le développement de l’intelligence artificielle jusqu’à la mise en place de systèmes de sécurité des dispositif IA.


Lire plus : Elon Musk et des experts réclament une pause dans le développement de l’intelligence artificielle !


Sam Altman, de son côté, avait déjà plaidé pour plus de régulation de l’IA devant un comité du Sénat américain, le 16 mai. Il s’est dit disposé à travailler avec les pouvoirs publics. « Nous pensons que les bénéfices des outils que nous avons déployés pour l’instant sont bien supérieurs aux risques, mais garantir qu’ils sont sûrs d’utilisation est vital pour nous », a-t-il déclaré à cette occasion. Il a notamment suggéré aux régulateurs de mettre en place une agence de régulation de l’intelligence artificielle, qui puisse distribuer des permis pour le développement de grands modèles d’IA, mettre en place des règles de sécurité et faire passer des tests aux outils avant qu’ils soient dévoilés au grand public. 

En effet, ce dernier craint que l’IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail. La semaine dernière à Paris, il a discuté avec le président Emmanuel Macron de la manière de trouver « le juste équilibre entre protection et impact positif » de cette technologie.


Lire plus : Apple, Amazon, Samsung et JP Morgan interdisent ChatGPT à leurs employés !


Pour conclure, cette nouvelle lettre ouverte, très brève, met à nouveau en exergue les dangers du développement rapide de l’intelligence artificielle. Les leaders de ce secteur vont même jusqu’à évoquer un risque d’extinction pour l’humanité.

Pour des contenus de qualité sur le Web 3.0, rendez-vous sur Start in Blockchain.