-
Blaise Pascal
A 19 ans Blaise Pascal invente la première machine à calculer. C'est seuelement après trois ans de développement et cinquante prototypes que le scientifique présente à ses contemporains la machine. Il en construisit une vingtaine d'exemplaires dans la décennie suivante. -
Charles Babbage
En 1834, Charles Babbage énonce le principe d'ordinateur. Entre 1847 et 1849 Charles Babbage entreprend l'utilisation d'avancées technologiques de sa machine analytique pour concevoir les plans d'une deuxième machine à différences qui pour de même performances demanderais moins de matériel. -
John Clarke
John Clarke est le scientifique qui vas beaucoup faire avancer l'informatique niveau matière et stockage. Il définis les ordinateurs sur 4 composants importants: unité de traitement, qui effectue les opérations de base, l’unité de contrôle, qui est chargée du séquençage des opérations, la mémoire, qui contient les données et le programme qui indique à l’unité de contrôle quels calculs faire sur ces données. La mémoire vive et mémoire de masse qui permettent de communiquer avec le monde extérieur -
Alan Turing
En 1936, Alan Turing présente une expérience que l'on nommera machine de Turing. Il présente également des concepts de programme et de programmation, qui serrons très utiles avec la naissance des ordinateurs de 1950 à 2000. -
Joan Clarke
Joan Clarke est en charge du cryptage lors de la seconde guerre mondiale. Elle approfondie la programmation de Alan Turing. -
Philippe Dreyfus
Philippe Dreyfus est un pionnier de l'information. En effet, professeur d'informatique à l'université Harvard il participe au développement du premier ordinateur numérique. -
Grace Hopper
Grace Hopper est la conceptrice du premier compilateur en 1951 (A-0 System) et du langage COBOL en 1959. L'une des premieres (3) à avoir programmé sur l'ordinateur Harvard Mark I. Elle travaille ensuite au développement des ordinateurs Harvard Mark II puis Harvard Mark III. -
Claude Shannon
Claude Shannon fait naitre une théorie grâce a sa pensés dans l’informatique, "la théorie de l'information". C'est une théorie probabiliste permettant de quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique précise. Le scientifique travailla dans le brouillage pendant la 2 guerre mondiale. Il explique comment faire des machines à relais en utilisant l'algèbre de Boole pour décrire leur états(1: fermé,0:ouvert)