En informatique, un caractère est . Comme en typographie, un caractère informatique peut représenter une lettre , une lettre majuscule, un chiffre, un signe de ponctuation ; mais aussi un espace, une tabulation, un retour à la ligne et quelques autres opérations spéciales (sonnerie, effacement, etc.) qui ne représentent pas des symboles (caractères de contrôle).
En informatique, la notion de caractère est une notion qui dans le principe associe à un glyphe un nombre, de manière à dissocier la représentation physique du caractère de sa signification.
Si le caractère existe depuis environ deux millénaires, sa représentation abstraite sous forme numérique est plus récente. Elle a notamment été développée pour le télégraphe. Cette abstraction permettant d'améliorer l'efficience des communications. L'émergence d'un codage unifié s'est cependant heurtée à des différences d'approche conventionnelles et culturelles du concept de caractère.
Comme les ordinateurs fonctionnent en binaire, un numéro est attribué à chaque caractère. Ce nombre peut être codé avec des chiffres binaires (bits).
À la fin du , 8 bits (c'est-à-dire un octet) étaient assez habituelles et permettait de représenter 256 nombres, donc 256 caractères différents. Cette première limite à 256 nombres a conduit à des normes de codage de caractères.
Il existe plusieurs normes de codage de caractères dont, parmi les plus connues, ASCII, ISO/CEI 8859 et Unicode. Les normes diffèrent dans le jeu de caractères couverts, dans le code attribué à chaque caractère et dans la représentation binaire du code. Ainsi, le caractère € qui n'existe pas en ASCII a le nombre 164 en ISO 8859 et le nombre 8364 en Unicode. 7 bits suffisent pour coder tous les caractères de la norme ASCII, mais il en faut 8 (1 octet) pour ISO 8859, et plus de 16 (2 octets) pour Unicode. Il existe plusieurs représentations binaires différentes d'Unicode, dont UTF-8 et UTF-16 ; ainsi il faut 3 octets pour coder le 8364 de € en UTF-8, contre 2 octets en UTF-16.