Claude Shannon |
1916-2001 |
Claude Shannon est né le 30 avril 1916 à Gaylord dans le Michigan dont il fréquente luniversité. Et où il obtient une licence de mathématiques et de physique. Il entre au M.I.T et dans sa thèse de Master, « Une analyse symbolique des circuit à relais et de commutation » il utilise lalgèbre de Boole pour concevoir les circuits de commutation. Il apporte ainsi un outil théorique aux concepteurs de circuits logiques, qui servira aussi bien pour les circuits à relais que pour les circuits intégrés. Le professeur Howard Gardner de Harward considère cette thèse comme peut - être la plus importante du siècle. Il travaille en même temps sur lanalyseur différentiel de Vannevar Bush. En 1941, muni de son PHD, il entre aux laboratoires Bell quil quittera en 1972. Il travaille sur les problèmes théoriques dinformation et de commutation et en particulier durant la guerre sur la cryptographie.
|
Il publie en 1949 « Théorie de la communication des systèmes secrets ».Cest dans le cadre de ses travaux à la Bell quil publie, également en 1949, aidé du mathématicien Waren Weaver, le texte fondateur de la théorie de linformation, son fameux « Théorie mathématique de la communication »Cest aussi en 1949 quil épouse Mary Elisabeth « Betty » Moore qui lui donnera 3 enfants. |
En parallèle à ses activités à la Bell il est
professeur au MIT à partir de 1959. Claude Shannon est par ailleurs un esprit curieux de tout. Il fabrique une machines à jongler, une souris qui traverse les labyrinthes, une machine qui résout le cube de Rubik, une autre qui joue aux échecs, qui ne sera battue quen 42 coups par le champion du monde Mikhail Botvinnik en 1965 à Moscou. Il est également passablement fantaisiste et les ingénieurs de la Bell se le rappellent chevauchant un monocycle en jonglant avec 3 balles dans les couloirs du labo. |
Cela ne lempêche pas de recevoir toutes les distinctions que son génie mérite, en particulier la Médaille Nationale de la Science des mains du président Johnson en 1966 et le Prix Kyoto pour la Science de Base. Il était membre de nombreuses et prestigieuses sociétés savants et docteur Honoris Causa de nombreuses universités : Yale, Michigan, Princeton, Edimburgh, Princeton, Pittsburgh, Northwestern, Oxford, East Anglia, Carnegie-Mellon, Tufts, Pennsylvania. Même après sa retraite de professeur, il continuera à travailler au MIT jusqu'à ce que la maladie dAlzeimer le conduise au Courtyard Nursing Care Center de Medford, Mass. où il mourra le 24 février 2001. |
L'importance des travaux de Shannon d'après
un texte de Aaron D. Wyner publié par les laboratoires Bell à loccasion de sa
mort. |
La présentation par Claude Shannon dans les années 1940 de la théorie de linformation est certainement une des grandes réalisations du 20ème siècle. La théorie de linformation a eu grande influence sur les mathématiques en particulier sur la théorie des probabilités, et les mathématiques de Shannon en elles mêmes sont une contribution importante aux mathématiques pures. Dans son papier maintenant classique il a formulé un modèle de système de communication remarquable par sa généralité et sa facilité à être traité mathématiquement. Il a formulé les problèmes théoriques centraux et leur a donné une solution élégante. Lidée de base est que tout message se résume à une suite de 0 et de 1. On peut en effet digitaliser tout signal sans perte dinformation pourvu que la fréquence déchantillonnage soit supérieure au double de plus haute fréquence à transmettre (Théorème de Shannon) Linformation dune « source », définie comme un processus stochastique doit être transmise par un « canal » défini par une loi de probabilité de transition reliant entrée et sortie de celui-ci. Le concepteur du système peut placer un codeur entre source et canal qui peut introduire un retard fixe et fini, et un décodeur entre canal et sortie. Sa théorie cherche à répondre à des questions telles que la rapidité et la fiabilité de la transmission, en optimisant codeur et décodeur. Shannon donne des réponses élégantes à ces questions. Sa solution comprend deux parties : La 1ère donne des limites fondamentales, par exemple que pour une source et un canal donnés il est impossible dobtenir une fidélité et une fiabilité supérieures à des valeurs données. La 2ème montre quon peut atteindre la limite théorique moyennant un codeur pouvant apporter un retard important. Pour ce faire ce codeur peut utiliser un code complexe, pas nécessairement implémentable en pratique. Un de ses apports les plus importants a été de montrer quon pouvait étudier source et canal indépendamment, en supposant quils étaient connectés par une interface digitale. On définira le codeur pour optimiser la performance source/canal et le décodeur pour optimiser le canal comme transmetteur digital. La résolution des problèmes de la source et du canal résout de facto celui de la liaison complète.
Nota Les lecteurs curieux et courageux peuvent consulter le texte original de Shannon sur http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html. Le site signalé ci-dessus Le numéro spécial de Science et vie, cité déjà à plusieurs reprises. |
R etour Accueil |