Unicodevignette|Logo Unicode.|200x200px Unicode est un standard informatique qui permet des échanges de textes dans différentes langues, à un niveau mondial. Il est développé par le Consortium Unicode, qui vise au codage de texte écrit en donnant à tout caractère de n'importe quel système d'écriture un nom et un identifiant numérique, et ce de manière unifiée, quels que soient la plateforme informatique ou le logiciel utilisé. Ce standard est lié à la norme qui décrit une table de caractères équivalente.
Protocole de communicationDans les réseaux informatiques et les télécommunications, un protocole de communication est une spécification de plusieurs règles pour un type de communication particulier. Initialement, on nommait protocole ce qui est utilisé pour communiquer sur une même couche d'abstraction entre deux machines différentes. Par extension de langage, on utilise parfois ce mot aussi aujourd'hui pour désigner les règles de communication entre deux couches sur une même machine.
Préfixe binaireLes préfixes binaires sont souvent utilisés lorsqu’on a affaire à de grandes quantités d’octets. Ils sont dérivés, tout en étant différents, des préfixes du Système international d'unités (kilo-, méga-, giga- et ainsi de suite). La raison d’être de ces préfixes binaires est d’éviter la confusion de valeur avec les préfixes SI. Du fait que les capacités de mémoires d’ordinateurs sont des puissances de deux ou des multiples de telles puissances, l’utilisation de puissances de = 210 comme préfixes pour de telles capacités et, de façon dérivée, pour toutes les tailles de programmes et de supports informatiques, est venue naturellement aux informaticiens.
Code Morse internationalLe code Morse international, ou l’alphabet Morse international, est un code permettant de transmettre un texte à l’aide de séries d’impulsions courtes et longues, qu’elles soient produites par des signes, une lumière, un son ou un geste. Ce code est souvent attribué à Samuel Morse, cependant plusieurs contestent cette primauté, et tendent à attribuer la paternité du langage à son assistant, Alfred Vail. Inventé en 1838 pour la télégraphie, ce codage de caractères assigne à chaque lettre, chiffre et signe de ponctuation une combinaison unique de signaux intermittents.
UTF-8UTF-8 (abréviation de l'anglais Universal Character Set Transformation Format - ) est un codage de caractères informatiques conçu pour coder l’ensemble des caractères du « répertoire universel de caractères codés », initialement développé par l’ISO dans la norme internationale ISO/CEI 10646, aujourd’hui totalement compatible avec le standard Unicode, en restant compatible avec la norme ASCII limitée à l'anglais de base, mais très largement répandue depuis des décennies.
Mojibakethumb|La Wikipédia en japonais encodé en UTF-8, affiché avec l’encodage Windows-1252. est un emprunt lexical au japonais qui signifie que les caractères affichés à l'écran d'un logiciel informatique ne s'affichent pas correctement, à cause d'un problème de codage. En langage courant et face à élément illisible le français dira . Ce concept est similaire au concept de krakozyabry (кракозя́бры). Les problèmes d'encodage de caractères sont apparus dès que des encodages EBCDIC et ASCII sont apparus dans les .
Robustesse d'un mot de passeLa robustesse d'un mot de passe est la mesure de la capacité d'un mot de passe à résister à son cassage, que ce soit par des moyens permettant de le deviner ou par une attaque par force brute. On mesure la robustesse d'un mot de passe en estimant le nombre de tentatives nécessaires à un attaquant pour le casser.