Le 22 octobre 2025, plus de 700 personnalités issues des sciences, de la politique, de l’entrepreneuriat technologique et du monde des célébrités ont uni leurs voix pour réclamer l’arrêt immédiat des travaux visant à créer une intelligence artificielle, capable de surpasser les capacités humaines.
Cette démarche est motivée par les risques majeurs que ce développement ferait courir à l’humanité.
L’initiative, lancée par le Future of Life Institute, un organisme non lucratif américain qui alerte régulièrement sur les dangers de l’IA, a formulé un appel clair. Sur la page dédiée à cette action, il est souligné, « Nous appelons à l’arrêt du développement d’une superintelligence, tant qu’il n’y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu’il n’existe pas un soutien de la part de la population. »
Parmi les signataires, on retrouve des pionniers de l’IA moderne, dont Geoffrey Hinton, lauréat du prix Nobel de physique en 2024, Stuart Russell, professeur d’informatique à l’Université de Californie à Berkeley, et Yoshua Bengio, professeur à l’Université de Montréal. La liste impressionnante comprend également des figures de la tech comme Richard Branson, fondateur de Virgin, et Steve Wozniak, cofondateur d’Apple.
Des personnalités politiques de divers horizons ont aussi signé, telles que Steve Bannon, ancien conseiller de Donald Trump, et Susan Rice, conseillère à la sécurité nationale sous Barack Obama. Des responsables religieux, comme Paolo Benanti, conseiller du pape et principal expert du Vatican sur l’IA, ainsi que des célébrités comme le chanteur américain William, le prince Harry et Meghan Markle, ont également apporté leur soutien.
Alors que la plupart des grands acteurs du secteur travaillent sur l’Intelligence Artificielle Générale (IAG), l’étape où l’IA égalerait les capacités intellectuelles humaines, l’objectif ultime reste la superintelligence, qui irait au-delà.
Sam Altman, PDG d’OpenAI (la société à l’origine de ChatGPT), a même estimé en septembre, lors d’un événement d’Axel Springer, que le cap de la superintelligence pourrait être atteint d’ici cinq ans.
Max Tegmark, président du Future of Life Institute, a cependant jugé « inacceptable » une telle perspective, « que ce soit dans deux ou quinze ans ». Il a exprimé à l’AFP son désaccord avec l’idée que des entreprises se lancent dans ces travaux « sans aucun cadre réglementaire ». Il a insisté sur la distinction entre l’amélioration des outils d’IA pour des bénéfices concrets (comme guérir le cancer) et le développement de la superintelligence, qu’il rejette.
Cette nouvelle action fait écho à une démarche similaire entreprise un mois plus tôt. Lors de l’Assemblée générale des Nations Unies, une lettre de chercheurs et de cadres du secteur de l’IA avait déjà été publiée pour exiger l’instauration d’ « accords internationaux sur des lignes rouges pour l’IA » afin de prévenir des conséquences dévastatrices pour l’humanité.
Avec AFP
