Du binaire au processeur : Méthodes de conception de circuits numériques et exercices PDF

En pratique : Quelles sources sont attendues ? L’histoire de l’informatique est l’histoire de la science du traitement rationnel, notamment par machines automatiques, de l’information considérée comme le support des connaissances humaines et des communications dans les domaines techniques, économiques du binaire au processeur : Méthodes de conception de circuits numériques et exercices PDF sociaux.


Point commun entre un ordinateur, un avion ou un lave-vaisselle, les processeurs y sont omniprésents. Ils peuvent intriguer certains ou même faire peur à d’autres… Cet ouvrage est là pour les démystifier. Le livre propose une démarche progressive dans la découverte de
l’électronique numérique, en montrant comment, à partir des notions de 0 et 1, il est possible de construire des circuits de plus en plus élaborés. Pas à pas, il sert de guide à travers les concepts, les méthodes de base ou
avancées et les techniques, jusqu’à la conception d’un processeur. Le lecteur y découvrira le principe de fonctionnement des transistors, le
pouvoir d’expression de la logique numérique, les techniques de synthèse de fonctions booléennes, d’automates et de systèmes séquentiels, la synthèse structurée des unités de contrôle et de traitement et plus particulièrement la méthode de conception d’un processeur dédié. De multiples exemples et plus de 130 exercices corrigés jalonnent ce livre
pour en faciliter la compréhension. Ce livre s’adresse donc à toute personne intéressée par les circuits ou les processeurs, qu’elle soit ingénieur, technicien, enseignant ou étudiant
(classes préparatoires, IUP, IUT, BTS, Ecoles ou Universités).

Articles connexes : Histoire des ordinateurs et Chronologie de l’informatique. En 1966, l’informatique a été définie par l’Académie française comme la  science du traitement rationnel, notamment par machines automatiques, de l’information considérée comme le support des connaissances humaines et des communications dans les domaines techniques, économiques et sociaux . L’histoire de l’informatique résulte de la conjonction entre des découvertes scientifiques et des transformations techniques et sociales. Découvertes physiques sur les semi-conducteurs et la miniaturisation des transistors. Découvertes mathématiques sur la calculabilité et les propriétés des algorithmes. Invention de la théorie de l’information, de la sémiotique et de la cybernétique. Transformations techniques, l’introduction de machines ou de composants informatiques, des machines à laver aux automobiles et aux avions, des banques à la santé, de l’imprimerie à la documentation en ligne.

Transformations sociales avec l’organisation des entreprises et des administrations autour de leur système d’information automatisé, et avec la circulation de l’information dans les réseaux sous forme numérique. Les calculateurs devenaient des machines universelles de traitement de l’information, d’où le mot ordinateur, retenu en 1956 pour trouver un équivalent français à l’expression anglaise data processing machine. Ce terme a progressivement remplacé en français celui de calculateur, au sens trop restreint. Les premiers ordinateurs datent de 1949. C’est la notion de programme enregistré, due à John von Neumann et à ses collaborateurs, en 1945, qui transforme les machines à calculer en ordinateurs. L’ensemble formé par l’unité arithmétique et logique, d’une part, et l’organe de commande, d’autre part, constitue l’unité centrale ou processeur.

Selon l’architecture de von Neumann, les programmes sont enregistrés dans la mémoire de la machine. Ils peuvent comporter des boucles de calcul et des alternatives, contrairement aux programmes exécutés à partir de bandes perforées. L’histoire de l’informatique porte donc seulement sur une soixantaine d’années. L’informatique est une nouvelle technologie intellectuelle, comme l’ont été en leur temps l’écriture et l’imprimerie, un moyen de représenter, de structurer et d’exploiter des informations qui en retour structure la pensée de l’homme, selon Pierre Lévy.

L’évolution des machines et des réseaux constitue l’infrastructure physique de l’informatique. L’histoire des ordinateurs est décrite dans un autre article. Depuis ses débuts, l’informatique a connu des transformations profondes des matériels informatiques en vitesse, puissance, fiabilité, miniaturisation. On appelle logiciels les composants logiques et symboliques qui permettent de traiter l’information dans les machines informatiques. Le mot information a un sens très large. Les procédés physiques de codage de l’information sont analogiques ou numériques. Les premiers enregistrements du son étaient analogiques, sur disques ou bandes magnétiques.

La télévision a longtemps utilisé la modulation des ondes, donc un phénomène physique continu, pour transporter les images et les sons. Le transport, le codage et le décodage, utilisent alors les caractéristiques continues des machines physiques. Ces codages sont sensibles aux déformations par l’usure matérielle et le bruit. Ils ont l’avantage de rester compréhensibles malgré la dégradation du signal.

Avec le codage numérique, qui supplante peu à peu le codage analogique dans tous les domaines, les machines physiques sont seulement le support d’une information qui est traitée, transformée, codée, décodée par des machines logicielles. Il y a  dématérialisation  de l’information, qui n’est plus liée à son support, qui peut être recopiée facilement et à très faible coût sans perte d’information. Vers 1930, Gödel invente pour faire des démonstrations d’indécidabilité un codage numérique des expressions logiques. Ce travail fournira plus tard des bases théoriques au codage informatique. Avec ces codes, on transforme des textes en nombres. On peut aussi numériser des images, du son, par discrétisation du signal.

Le son est continu, mais un signal sonore peut être découpé en éléments très petits, inférieurs à la sensibilité de l’oreille humaine. Pascal et de Leibniz, les horloges astronomiques comme celle de Strasbourg ou de Lyon, puis les machines à tisser avec des programmes sur bandes perforées. On calcule d’abord sur des nombres, qui ont une représentation binaire exacte ou approchée. On peut décrire des phénomènes par des systèmes d’équations pour la simulation informatique.

Lorsque les images sont codées numériquement, on peut les redimensionner, les restaurer, les transformer par des calculs. C’est la base du calcul formel, des systèmes experts, qui se développent à partir de 1975 et vont donner le coup d’envoi à l’intelligence artificielle. L’utilisation des ordinateurs repose sur le principe que tout calcul compliqué peut être décomposé en une suite d’opérations plus simples, susceptibles d’être exécutées automatiquement. C’est la notion d’algorithme de calcul. Plusieurs inventions ont permis le développement de l’algorithmique.