Le singularitarisme est un mouvement social défini par la croyance en une singularité technologique (la création d'une superintelligence) qui devrait se produire dans un futur pas trop éloigné, et la nécessité d'actions délibérées pour s'assurer que cela bénéficiera à l'humanité.
Les singularitaristes se distinguent d'autres futurologues croyant également à la possibilité d'une singularité parce qu'ils pensent qu'elle est non seulement possible, mais souhaitable si elle est contrôlée prudemment. Cela les amène parfois à consacrer leurs vies à des actions qu'ils pensent contribuer à son arrivée rapide mais sûre.
Raymond Kurzweil, auteur en 2005 de Humanité 2.0, définit un singularitariste comme quelqu'un ; il pense que la singularité technologique se produira vers 2045.
Le magazine Time décrit la vision du monde des singularitaristes en disant .
Le singularitarisme devint une idéologie cohérente en 2000, lorsque Eliezer Yudkowsky écrivit The Singularitarian Principles, dans lequel il la décrit comme .
En , Yudkowsky, avec le soutien des entrepreneurs d'Internet Brian Atkins et Sabine Atkins, fonda le Machine Intelligence Research Institute cherchant à créer une intelligence artificielle amicale. Les publications du MIRI développent l'idée selon laquelle une IA capable d'améliorer son programme amènerait rapidement au développement d'une superintelligence ; ces singularitaristes pensent qu'atteindre la singularité rapidement et sans danger est le moyen le plus sûr de minimiser les risques existentiels.
Beaucoup de gens pensent que la singularité technologique est possible sans pour autant adopter l'éthique singularitariste. Bien qu'il soit difficile de faire des estimations précises, le singularitarisme est un mouvement minoritaire, même s'il inclut des transhumanistes influents, comme le philosophe Nick Bostrom, ou le futuriste Raymond Kurzweil, qui a largement contribué à le populariser avec son livre de 2005, Humanité 2.0.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
vignette|Image générée en juin 2022 par le modèle de génération d'images DALL-E-mini, à partir de la consigne « Intelligence artificielle ». Une intelligence artificielle générale (IAG) est une intelligence artificielle capable d'effectuer ou d'apprendre pratiquement n'importe quelle tâche cognitive propre aux humains ou autres animaux. La création d'intelligences artificielles générales est un des principaux objectifs de certaines entreprises comme OpenAI, DeepMind et Anthropic.
Le téléchargement de l'esprit (mind uploading en anglais) est une technique hypothétique qui pourrait permettre de transférer un esprit d'un cerveau à un ordinateur, en l'ayant numérisé au préalable. Un ordinateur pourrait alors reconstituer l'esprit par la simulation de son fonctionnement, sans que l'on ne puisse distinguer un cerveau biologique « réel » d'un cerveau simulé.
La philosophie de l'intelligence artificielle tente de répondre à des questions telles que : Une machine peut-elle agir intelligemment ? Peut-elle résoudre n'importe quel problème qu'une personne voudrait résoudre par la réflexion ? L'intelligence humaine et l'intelligence artificielle sont-elles fondamentalement les mêmes ? Le cerveau humain est-il analogue à un processus de traitement de l'information ? Une machine peut-elle avoir un esprit ou une conscience similaire à celle de l'humain ? Peut-elle senti