binaire

Ez dago emaitzarik

Bilatutako terminoa ez dago hiztegian.

Nahi baduzu, proposamena bidali.

binaire

  • ca binari
  • de binär
  • en binary
  • es binario
  • eu biko
  • gl binario
  • it binario m
  • pt binário m

SARRERA DESBERDINA:

Système binaire

Pour les articles homonymes, voir Système binaire (homonymie).
Cet article ne cite pas suffisamment ses sources ().
Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».
En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?
Le système binaire (du latin binārĭus, « double ») est le système de numération utilisant la base 2.
On nomme couramment bit (de l'anglais binary digit, soit « chiffre binaire ») les chiffres de la numération binaire positionnelle. Un bit peut prendre deux valeurs, notées par convention 0 et 1.
Le système binaire est utile pour représenter le fonctionnement de l'électronique numérique utilisée dans les ordinateurs. Il fonde donc de nombreux formats de données informatiques. Les langages de programmation ont souvent des types de données et des opérateurs fondés sur la représentation binaire sous-jacente.
Le système binaire le plus courant est la base deux mathématique, permettant de représenter des nombres à l'aide de la numération de position avec seulement deux chiffres : le 0 et le 1.
Dans ce type de codage, chaque nombre est représenté de façon unique par une suite ordonnée de chiffres. Et chaque position m représente une puissance (m − 1) de la base. Si l'on se limite dans un premier temps aux nombres entiers positifs, en base dix ces puissances sont :
En base deux, ces puissances sont :
On voit que la signification des représentations 10, 100, 1000, etc. dépend de la base utilisée : 10 est toujours égal à la base, c'est-à-dire dix en base dix, et deux en base deux.
En base dix, on utilise dix chiffres, de zéro à neuf ; en base n, on utilise n chiffres, de zéro à n – 1 ; donc en base deux on utilise les deux chiffres « 0 » et « 1 ».
Un nombre qui s'exprime en base B par les quatre chiffres 1101 s'analyse :
, qui donne :
Les premiers nombres, et chiffres de la base de numération 10, s'écrivent :
On donne à chaque bit une puissance de deux, comme cette suite 1, 2, 4, 8, 16, 32, 64. Pour obtenir le nombre 7, on additionne les trois premiers bits ; pour obtenir 6, on additionne seulement le bit de poids 4 et le bit de poids 2.
La mise en forme de cet article est à améliorer ().
La mise en forme du texte ne suit pas les recommandations de Wikipédia : il faut le « wikifier ».
Les techniques des quatre opérations de base (addition, soustraction, multiplication et division) restent exactement les mêmes qu'en notation décimale ; elles sont juste simplifiées de façon drastique parce qu'il n'y a que les deux chiffres 0 et 1. Pour la multiplication par exemple, quelle que soit la base, la multiplication par 10 (c’est-à-dire par la base elle-même)[1] se fait en ajoutant un zéro à droite.
Seules changent d'une part la forme de la suite de chiffres qui exprime le résultat (elle ne compte que des zéros et un), d'autre part la signification de cette suite (10 signifie « deux » et non « dix », 100 signifie « quatre » et non « cent », etc.).
On passe d'un nombre binaire au suivant en ajoutant 1, comme en décimal, sans oublier les retenues et en utilisant la table ordinaire (mais réduite à sa plus simple expression) :
On constate que l'addition de deux bits A et B donne A XOR B avec une retenue valant A ET B.
Ainsi :
Détail :
Autres exemples :
Multiplier par deux se fait en décalant chaque chiffre d'un cran à gauche et en insérant un zéro à la fin.
Par exemple, deux fois onze :
La division entière par deux se fait en décalant chaque chiffre d'un cran à droite, le chiffre de droite étant le reste supprimé.
Par exemple onze divisé par deux :
L'arithmétique binaire (plus simplement le calcul binaire) est utilisée par les systèmes électroniques les plus courants (calculatrices, ordinateurs, etc.). Les deux chiffres 0 et 1 s'y traduisent par la tension ou le passage d'un courant.
Par exemple, le 0 peut être représenté par l'état bas (tension ou courant nul) et 1 par l'état haut[réf. nécessaire] (tension qui existe, courant qui passe).
Pour compléter la représentation des entiers, il faut pouvoir écrire des entiers négatifs. Deux représentations existent, le complément à un et le complément à deux.
Avant de coder avec tout complément, il est nécessaire de vérifier le bon nombre de bits est utilisés pour encoder le nombre en tant que nombre binaire signé.
Le nombre de bits est suffisant si et seulement s'il vérifie l'équation où n correspond au nombre de bits et N au nombre à encoder.

correspond au nombre de caractères possibles (1 est soustrait à 2n puisque l'on compte à partir de 0) tout en réservant un bit pour le signe.
Ce codage consiste à inverser la valeur de chaque bit.
Par exemple pour obtenir −7 :
Un défaut de ce système est que zéro a deux représentations : 0000 et 1111 (« +0 » et « −0 »). Il n'est pas utilisé par les ordinateurs courants, mais l'était par des ordinateurs anciens comme le Control Data 6600. Les deux représentations du zéro compliquent les circuits de test.
Le complément à deux consiste à réaliser un complément à un, puis d'ajouter 1.
Par exemple pour obtenir −7 :
Ce codage a l'avantage de ne pas nécessiter de différenciation spéciale des nombres positifs et négatifs, et évite en particulier le problème de double représentation du zéro.
Voici une addition de −7 et +9 réalisée en complément à deux sur 4 bits :
Avec n bits, ce système permet de représenter les nombres entre −2n−1 et 2n−1 − 1.
Les bases 8 (octale) et 16 (hexadécimale) sont des bases puissances de la base 2. Ces deux bases sont couramment employées en informatique pour des raisons pratiques : les nombres écrits dans ces bases sont humainement plus « manipulables » car d'écriture plus courte et celle-ci est facilement obtenue par regroupement de chiffres de l'écriture du nombre en base 2.
On pourrait facilement étendre ce principe à toutes les bases qui sont puissances de 2.
Il suffit de convertir la valeur de chacun des chiffres sous leur forme binaire en utilisant un nombre de chiffres correspondant à la puissance de la base : 16 = 24, 8 = 23, donc 4 chiffres pour l'hexadécimal et 3 pour l'octal :
Le code de Gray, également appelé binaire réfléchi, permet de ne faire changer qu'un seul bit à la fois quand un nombre est incrémenté ou décrémenté d'une unité. Le nom du code vient de l'ingénieur américain Frank Gray, qui déposa un brevet sur ce code en 1947[2].
Pour calculer directement le code de Gray d'un entier à partir de celui de son prédécesseur on peut procéder ainsi :
Afin de concilier la logique binaire de l'ordinateur avec la logique humaine, on peut convertir en binaire, plutôt que les nombres eux-mêmes, chacun des chiffres qui les composent en notation décimale positionnelle. Chacun de ces chiffres est alors codé sur 4 bits :
Avec n bits (n multiple de 4), il est possible de représenter les nombres entre 0 et 10n/4-1. Soit approximativement entre 0 et 1.778n-1.
Le DCB est un code redondant. En effet, certaines combinaisons ne sont pas utilisées. Par exemple, 1111 ne pourra pas être utilisé.
Cette représentation évite, par construction, tous les problèmes gênants de cumul d'arrondi. Ceux-ci peuvent intervenir lors de la manipulation de grands nombres dépassant la taille des circuits en arithmétique entière. Ils obligent alors à recourir au flottant.
Il est cependant possible de manipuler des nombres à précision arbitraire en utilisant un codage plus efficace que le DCB.
Il existe des variantes du codage DCB :
En théorie de l'information, l'entropie d'une source d'information est exprimée en bits. La théorie elle-même est indifférente à la représentation des grandeurs qu'elle utilise.
La logique classique est une logique bivalente : une proposition est soit vraie, soit fausse. Il est donc possible de représenter la vérité d'une proposition par un chiffre binaire.
On peut, par exemple, modéliser les opérations de l'arithmétique binaire à l'aide de l'algèbre de Boole.
L'algèbre de Boole représente un cas très particulier d'usage des probabilités ne faisant intervenir que les seules valeurs de vérité 0 et 1. Le Théorème de Cox-Jaynes en est une autre illustration.
Le binaire est utilisé en informatique car il permet de modéliser le fonctionnement des composants de commutation comme le TTL ou le CMOS. La présence d'un seuil de tension aux bornes des transistors, en négligeant la valeur exacte de cette tension, représentera 0 ou 1.
Par exemple, le chiffre 0 sera utilisé pour signifier une absence de tension à 0,5 V près, et le chiffre 1 pour signifier sa présence à plus de 0,5 V. Cette marge de tolérance permet de pousser les cadences des microprocesseurs à des valeurs atteignant plusieurs gigahertz.
En informatique, la représentation binaire permet de clairement manipuler des bits : chaque chiffre binaire correspond à un bit. Cependant, la représentation binaire nécessitant l'usage de beaucoup de chiffres, même pour des nombres assez petits. Elle entraîne d'importants problèmes de lisibilité et donc de risques d'erreur de transcription pour les programmeurs. On préfère donc d'autres représentations : la notation hexadécimale, qui permet de manipuler l'information par paquets de 4 bits, est adaptée à la quasi-totalité des microprocesseurs actuels travaillant avec des mots de 8, 16, 32 ou 64 bits ; plus rare, la notation octale, populaire du temps des premiers mini-ordinateurs DEC à 12 ou 36 bits, qui permet de représenter l'information par paquets de 3 bits.
Sur les autres projets Wikimedia :
Sur les autres projets Wikimedia :
Sur les autres projets Wikimedia :

  • Attention : 10 et non dix ; en base deux, 10 vaut deux.
  • (en) Frank Gray pour Bell Labs, Brevet U.S. 2,632,058 : Pulse code communication, déposé le 13 novembre 1947, publié le 17 mars 1953, sur Google Patents.
  • (en) E. L. Shaugnessy, « I Ching (Chou I) », dans M. Loewe (dir.), Early Chinese Texts: A Bibliographical Guide, Berkeley, 1993, p. 216-228.
  • Témoignage du père Bouvet rapporté par Leibniz (sur Wikisource).
  • (en) Kim Plofker, Mathematics in India, Princeton (N.J.), Princeton University Press, , 357 p. (ISBN 978-0-691-12067-6, lire en ligne), chap. 3 (« Mathematical Traces in the Early Classical Period »), p. 55-57.
  • (en) B. Van Nooten, « Binary numbers in Indian antiquity », Journal of Indian Philosophy, vol. 21, no 1,‎ , p. 31–50 (ISSN 0022-1791, DOI 10.1007/BF01092744).
  • L’édition électronique des manuscrits de Thomas Harriot (1560-1621) ; fac-similé en ligne.
  • (en) Bacon's cipher.
  • (en) John Napier, Rabdologiæ, traduit du latin par William Frank Richardson, 'ntroduction par Robin E. Rider, 1990, MIT Press (ISBN 0-262-14046-2).
  • Robert Ineichen, Leibniz, Caramuel, Harriot und das Dualsystem, Mitteilungen der deutschen Mathematiker-Vereinigung, vol. 16, 2008, issue 1, p. 14.
  • a b c et d Leibniz, Explication de l'arithmétique binaire, qui se sert des seuls caractères 0 et 1, avec des remarques sur son utilité, et sur ce qu'elle donne le sens des anciennes figures chinoises de Fohy (lire sur Wikisource et sur Mémoires de l'Académie des sciences de Paris, 1703, p. 85-89).
  • De progressione dyadica, manuscrit daté de 1679, traduction de Yves Serra, p. 5 (lire en ligne) ; voir aussi Yves Serra, Le manuscrit « De Progressione Dyadica » de Leibniz (lire en ligne sur Bibnum ).
  • Description des notes contenues dans le brevet sous plis.
  • Wikipediako bilaketara joan