Des dizaines d’experts en intelligence artificielle (IA), dont les PDG d’OpenAI, Google DeepMind et Anthropic, ont récemment signé une déclaration ouverte publiée par le Center for AI Safety (CAIS).
Nous venons de publier une déclaration :
« Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire. »
Les signataires incluent Hinton, Bengio, Altman, Hassabis, Song, etc.https://t.co/N9f6hs4bpa
(1/6)
—Dan Hendrycks (@DanHendrycks) 30 mai 2023
La déclaration contient une seule phrase :
« Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire. »
Parmi les signataires du document figurent un véritable « who’s who » des sommités de l’IA, dont le « parrain » de l’IA, Geoffrey Hinton ; Université de Californie, Stuart Russell de Berkeley; et Lex Fridman du Massachusetts Institute of Technology. Le musicien Grimes est également signataire, répertorié dans la catégorie « autres personnalités notables ».
En rapport: Le musicien Grimes est prêt à « partager 50 % des redevances » avec de la musique générée par l’IA
Bien que la déclaration puisse sembler anodine à première vue, le message sous-jacent est quelque peu controversé dans la communauté de l’IA.
Un nombre apparemment croissant d’experts pensent que les technologies actuelles peuvent ou vont inévitablement conduire à l’émergence ou au développement d’un système d’IA capable de constituer une menace existentielle pour l’espèce humaine.
Leurs vues sont cependant contredites par un contingent d’experts aux opinions diamétralement opposées. Yann LeCun, scientifique en chef de l’IA chez Meta, a par exemple indiqué à de nombreuses reprises qu’il ne croit pas nécessairement que l’IA deviendra incontrôlable.
L’IA surhumaine est loin d’être en tête de liste des risques existentiels.
En grande partie parce qu’il n’existe pas encore.Jusqu’à ce que nous ayons une conception de base pour l’IA même au niveau du chien (et encore moins au niveau humain), il est prématuré de discuter de la manière de le rendre sûr. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) 30 mai 2023
Pour lui et d’autres qui ne sont pas d’accord avec la rhétorique de « l’extinction », comme Andrew Ng, co-fondateur de Google Brain et ancien scientifique en chef chez Baidu, l’IA n’est pas le problème, c’est la réponse.
De l’autre côté de l’argument, des experts tels que Hinton et le PDG de Conjecture, Connor Leahy, estiment que l’IA au niveau humain est inévitable et, en tant que tel, le moment d’agir est maintenant.
Les chefs de tous les principaux laboratoires d’IA ont signé cette lettre reconnaissant explicitement le risque d’extinction de l’IAG.
Un pas en avant incroyable, félicitations à Dan pour son travail incroyable et merci à tous les signataires d’avoir fait leur part pour un avenir meilleur ! https://t.co/KDkqWvdJcH
– Connor Leahy (@NPCollapse) 30 mai 2023
On ne sait cependant pas quelles actions les signataires de la déclaration appellent. Les PDG et / ou responsables de l’IA de presque toutes les grandes entreprises d’IA, ainsi que des scientifiques renommés du monde universitaire, font partie de ceux qui ont signé, ce qui montre clairement que l’intention n’est pas d’arrêter le développement de ces systèmes potentiellement dangereux.
Plus tôt ce mois-ci, le PDG d’OpenAI, Sam Altman, l’un des signataires de la déclaration susmentionnée, a fait sa première apparition devant le Congrès lors d’une audience au Sénat pour discuter de la réglementation de l’IA. Son témoignage a fait la une des journaux après avoir passé la majeure partie de celui-ci à exhorter les législateurs à réglementer son industrie.
Altman’s Worldcoin, un projet combinant crypto-monnaie et preuve de personnalité, a également récemment fait le tour des médias après avoir levé 115 millions de dollars en financement de série C, portant son financement total après trois tours à 240 millions de dollars.