Concept

Qubit

Résumé
En informatique quantique, un qubit ou qu-bit (quantum + bit ; prononcé ), parfois écrit qbit, est un système quantique à deux niveaux, qui représente la plus petite unité de stockage d'information quantique. Ces deux niveaux, notés \left|0 \right\rangle et \left|1 \right\rangle selon le formalisme de Dirac, représentent chacun un état de base du qubit et en font donc l'analogue quantique du bit. Grâce à la propriété de superposition quantique, un qubit stocke une information qualitativement différente de celle d'un bit. D'un point de vue quantitatif, un qbit peut être dans une infinité d'états, qui sont autant de probabilités différentes d'obtenir \left|0 \right\rangle ou \left|1 \right\rangle, mais il se réduit à un seul bit d'information au moment de sa mesure. Le concept de qubit, tout en étant discuté dès les années 1980, fut formalisé par Benjamin Schumacher en 1995. Définition Superposition d'états Un
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Publications associées

Chargement

Personnes associées

Chargement

Unités associées

Chargement

Concepts associés

Chargement

Cours associés

Chargement

Séances de cours associées

Chargement