Résumé
La suprématie quantique, aussi appelée avantage quantique, désigne le nombre de qubits au-delà duquel plus aucun superordinateur classique n'est capable de gérer la croissance exponentielle de la mémoire et la bande passante de communication nécessaire pour simuler son équivalent quantique. Les superordinateurs de 2017 peuvent reproduire les résultats d'un ordinateur quantique de , mais à partir de cela devient physiquement impossible. Le seuil d'environ 50 qubits correspond à la limite théorique de la suprématie quantique. L'utilisation du mot « suprématie » est également mise en cause par certaines personnes en raison de ses connotations raciales et politiques. En novembre 2017, IBM réussit à faire fonctionner un calculateur quantique de pendant atteignant donc le seuil théorique de la suprématie quantique. Cependant, une équipe de recherche d'IBM a montré en que ce seuil n'était pas aussi fixe que pensé dans un premier temps et qu'il est possible de modéliser le comportement d'un ordinateur quantique avec des ordinateurs conventionnels au-delà de grâce à des techniques mathématiques. C'est Intel qui présente le premier un processeur quantique frôlant le seuil quantique lors du CES 2018 avec un processeur de . Pour certains chercheurs, notamment chez IBM, le nombre de qubits seul ne permet pas de capturer la complexité inhérente aux calculateurs quantiques et ils suggèrent que la puissance d'un calcul quantique sur un appareil donné soit exprimée par un nombre appelé « volume quantique », qui regrouperait tous les facteurs pertinents, à savoir, le nombre et la connectivité des qubits, la profondeur de l'algorithme utilisé ainsi que d'autres mesures telles que la qualité des portes logiques, notamment le bruit du signal. En , une publication dans la revue Nature affirme la validité du franchissement d'une étape majeure dans le calcul quantique par le processeur Sycamore de Google, et d'une certaine forme de suprématie quantique.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (10)
CS-308: Introduction to quantum computation
The course introduces the paradigm of quantum computation in an axiomatic way. We introduce the notion of quantum bit, gates, circuits and we treat the most important quantum algorithms. We also touch
COM-309: Introduction to quantum information processing
Information is processed in physical devices. In the quantum regime the concept of classical bit is replaced by the quantum bit. We introduce quantum principles, and then quantum communications, key d
PHYS-641: Quantum Computing
After introducing the foundations of classical and quantum information theory, and quantum measurement, the course will address the theory and practice of digital quantum computing, covering fundament
Afficher plus
Publications associées (201)
Concepts associés (5)
Linear optical quantum computing
Linear optical quantum computing or linear optics quantum computation (LOQC) is a paradigm of quantum computation, allowing (under certain conditions, described below) universal quantum computation. LOQC uses photons as information carriers, mainly uses linear optical elements, or optical instruments (including reciprocal mirrors and waveplates) to process quantum information, and uses photon detectors and quantum memories to detect and store quantum information.
Boson sampling
Boson sampling is a restricted model of non-universal quantum computation introduced by Scott Aaronson and Alex Arkhipov after the original work of Lidror Troyansky and Naftali Tishby, that explored possible usage of boson scattering to evaluate expectation values of permanents of matrices. The model consists of sampling from the probability distribution of identical bosons scattered by a linear interferometer.
Quantum algorithm
In quantum computing, a quantum algorithm is an algorithm which runs on a realistic model of quantum computation, the most commonly used model being the quantum circuit model of computation. A classical (or non-quantum) algorithm is a finite sequence of instructions, or a step-by-step procedure for solving a problem, where each step or instruction can be performed on a classical computer. Similarly, a quantum algorithm is a step-by-step procedure, where each of the steps can be performed on a quantum computer.
Afficher plus