Bit

Nous expliquons ce qu’est un bit, quelles sont ses différentes utilisations et les méthodes dans lesquelles cette unité de calcul peut être calculée.

Un bit est la plus petite unité d’information utilisée par l’informatique.

C’est quoi un peu ?

En informatique  , un bit (acronyme en anglais de  Binary digit , c’est-à-dire « binary digit ») est appelé une valeur du système de numération binaire . Ce système est appelé ainsi car il ne comporte que deux valeurs de base : 1 et 0, avec lesquelles un nombre infini de conditions binaires peuvent être représentées : on et off, vrai et faux, présent et absent, etc. 

Un bit est donc l’unité minimale d’information utilisée par l’informatique , dont les systèmes sont tous basés sur ledit code binaire. Chaque bit d’information représente une valeur spécifique : 1 ou 0, mais en combinant différents bits, de nombreuses autres combinaisons peuvent être obtenues, par exemple :

Modèle 2 bits (4 combinaisons) :

00 – Les deux désactivés

01 – Premier éteint, deuxième allumé

10 – Premier allumé, deuxième éteint

11 – Les deux activés

Avec ces deux unités on peut représenter quatre valeurs ponctuelles . Supposons maintenant que nous ayons 8 bits (un octet), équivalent dans certains systèmes à un  octet : nous obtenons 256 valeurs différentes.

De cette façon, le système binaire fonctionne en faisant attention à la valeur du bit (1 ou 0) et à sa position dans la chaîne représentée : s’il est allumé et qu’il apparaît une position vers la gauche sa valeur est doublée, et s’il apparaît à droite, est coupé en deux. Par exemple:

Représenter le nombre 20 en binaire

 Valeur nette binaire 1 0 1 0 0

Valeur numérique par position :168421

Résultat :16 +0 +4 +0 + 0 =   20

Autre exemple : pour représenter le nombre 2,75 en binaire, en supposant que la référence est au milieu du nombre :

 Valeur nette binaire 0 1 0 1 1

Valeur numérique par position : 4210,50,25

Résultat : 0 +2 +0 +0,5 + 0,25 =    2, 7 5

Les bits de valeur 0 (off) ne sont pas comptés, seuls ceux de valeur 1 (on) et leur équivalent numérique est donné en fonction de leur position dans la chaîne, formant ainsi un mécanisme de représentation qui s’appliquera ultérieurement aux caractères alphanumériques (appelé ASCII ).

De cette manière, les opérations des microprocesseurs des ordinateurs sont enregistrées : il peut y avoir des architectures de 4, 8, 16, 32 et 64 bits . Cela signifie que le microprocesseur gère ce nombre interne de registres, c’est-à-dire la capacité de calcul de l’Unité Arithmétique-Logique.

Par exemple, les premiers ordinateurs de la série x86 (l’Intel 8086 et l’Intel 8088) avaient des processeurs 16 bits, et la différence notable entre leurs vitesses n’avait pas tant à voir avec leur puissance de traitement, mais avec l’aide supplémentaire d’un processeur Bus 16 et 8 bits respectivement .

De même, les bits sont utilisés pour mesurer la capacité de stockage d’une mémoire numérique.

Voir aussi : HTML