De nombreux experts éminents en intelligence artificielle, dont le PDG de Tesla, Elon Musk, ont signé une lettre ouverte appelant à une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 (Generative Pre-Trained Transformer) récemment lancé par OpenAI. Mais un nom notable manque à la longue liste des signatures.
Mercredi, le nom du PDG d’OpenAI, Sam Altman, reste absent de la lettre, et ses commentaires sur les préoccupations exprimées dans la missive suggèrent qu’il n’a pas l’intention d’appeler à un arrêt quelconque du développement de l’IA.
Altman n’est pas d’accord avec la formulation de la lettre, arguant que son entreprise prend la sécurité de l’IA non seulement au sérieux mais plus que d’autres dans l’industrie, selon Deepa Seetharam du Wall Street Journal. « Nous avons, je pense, parlé de ces questions le plus fort, avec le plus d’intensité, depuis le plus longtemps », dit-il à Seetharam.
La lettre intervient des semaines après qu’OpenAI a dévoilé la quatrième version de son programme GPT, qui a à la fois impressionné et alarmé par sa capacité à s’engager dans des conversations de type humain et à exceller dans certains des tests standardisés les plus difficiles. La dernière itération peut réussir la plupart des examens de placement avancé et obtenir un score dans le 90e centile de l’examen du barreau standardisé.
Le PDG d’OpenAI, Sam Altman, prend la parole lors d’un discours liminaire annonçant l’intégration de ChatGPT pour Bing au siège de Microsoft à Redmond, Washington, le 7 février. Jason Redmond/AFP/Getty
La lettre a été publiée par l’Institut à but non lucratif Future of Life, dont la mission est d’orienter « la technologie transformatrice vers le bénéfice de la vie et loin des risques extrêmes à grande échelle – a été signée par plus de 1 000 personnes. Elle dit qu’il devrait y avoir une pause sur avancé Développement de l’IA jusqu’à ce que des laboratoires et des experts indépendants puissent développer et mettre en œuvre des protocoles de sécurité pour ces technologies.
« De puissants systèmes d’IA ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables », indique la lettre.
« Cette pause doit être publique et vérifiable, et inclure tous les acteurs clés », indique-t-il. « Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et instituer un moratoire. »
Parmi les signataires figurent le PDG de Stability AI, Emad Mostaque ; le co-fondateur d’Apple, Steve Wozniak ; l’un des « parrains de l’IA », Yoshua Bengio ; directeur exécutif du Center for Humane Technology Tristan Harris; le chercheur pionnier en IA Stuart Russell ; le chercheur en apprentissage automatique Max Tegmark ; et le développeur de logiciels Grady Booch.
Il y avait eu des spéculations antérieures selon lesquelles Altman avait signé son nom sur la lettre, mais il a été confirmé plus tard qu’il s’agissait d’une fausse signature.
Il manque également à la liste des noms Jack Clark, le co-fondateur d’Anthropic, une société de sécurité et de recherche sur l’IA fondée par d’anciens membres d’OpenAI. L’entreprise a également un partenariat formel avec Google Cloud, et Google a investi près de 400 millions de dollars dans Anthropic, alimentant la rivalité de l’entreprise avec OpenAI.
La lettre intervient des semaines après qu’OpenAI a dévoilé la quatrième version de son programme GPT, qui a à la fois impressionné et alarmé par sa capacité à s’engager dans des conversations de type humain et à exceller dans certains des tests standardisés les plus difficiles. La dernière itération peut réussir la plupart des examens de placement avancé et obtenir un score dans le 90e centile de l’examen du barreau standardisé.
Bien que le développement de l’IA continue d’avancer, même le président d’OpenAI, Greg Brockman, a averti que ces technologies avaient des conséquences, notamment une plus grande confiance du public dans GPT-4, qui peut encore parfois être inexacte.
« Nous pensons qu’il devrait y avoir plus de réglementation sur l’IA », a déclaré Brockman à Axios plus tôt ce mois-ci. « Vous avez vraiment besoin d’un public éduqué. »
Newsweek a contacté par e-mail OpenAI pour un commentaire.