Introduction
Une information est composée de caractères alphanumériques c'est-à-dire : des lettres, des chiffres décimaux et des symboles spéciaux ; et chaque information est identifiée par un entier naturel unique, appelé code. La correspondance entre le caractère et son code est appelé un Charset. Or, tout système numérique ne comprend que le binaire, il faut donc encoder les codes en octets, c'est l'encodage.
Ainsi, le codage de l'information est nécessaire pour le traitement automatique de celui-ci. Parmi les codes les plus utilisés : le code binaire naturel, le code BCD, le code GRAY, le code ASCII, ...
L'information est mesurable avec une unité qui s'appelle bit (binary digit). chaque 8 bits constituent 1 octet (Byte en anglais).
Avant d'aborder les différents codages, on doit connaître deux concepts importants : la quantité d'information qu'on peut coder (représenter) et le nombre de bits que l'on devrait utiliser pour coder La quantité d'information représentables correspond au nombre de configurations différents que l'on peut avoir dans un codage. Ainsi, en binaire pure (tel qu'on l'a défini au chapitre 1), n bits peuvent coder 2^n informations différentes. Le nombre de bits que l'on utilise pour coder est très important car il limite l'étendue des valeurs (ou informations) que l'on veut coder. Ainsi, dans les ordinateurs, on utilise le plus souvent : 8, 16, 32 ou 64 bits. Pour mesurer la quantité d'information représentées en binaire, on utilise les bits ou l'octet ( bit est l'abréviation de binary digit, chaque 8 bits constituent 1 octet : Byte en anglais). A l'image des autres unités de mesures comme le mètre ou le kilogramme, on a défini les mesures suivantes :
1Ko=1024 octets, 1Mo= 1024 Ko, 1G0= 1024 Mo, 1To= 1024 Go.