Cours particuliers Langues Musique Soutien scolaire Sport Art et Loisirs
Partager

Des premiers ordinateurs aux machines d’aujourd’hui

De Yann, publié le 12/04/2018 Blog > Art et Loisirs > Informatique > La Grande Histoire de l’Informatique

Le mot informatique a été créé en 1962 par Philippe Dreyfus. C’est un néologisme de la langue française créé à partir des mots « information » et « automatique ».

Des calculs de l’antiquité à la commercialisation du premier ordinateur en 1951, l’UNIAC, en passant par la sortie du PC d’IBM en 1981 jusqu’au lancement de Windows 95, comment en est-on arrivé là ?

Jérôme Chailloux disait : « Le web est l’invention la plus utile à l’humanité depuis sa pire invention : la bombe atomique.« 

Le monde a basculé d’une ère industrielle à un âge numérique. Mais Rome ne s’est pas construite en un jour : l’informatique tel qu’on le connaît aujourd’hui s’est construit sur de nombreuses années et grâce à de nombreux mathématiciens, physiciens et théoriciens.

Découvrez tout dans notre cours informatique en ligne !

Histoire de l’informatique : De l’algorithme à la notion de programme

A qui doit-on le premier ordinateur portable ? Al Khwarizmi est le père de l’algèbre et des algorithmes.

Parlons dans un premier temps d’Abu Jaffar Al Khwarizmi, dit Monsieur Algorithme. En effet, algorithme est une simple déformation latine de son nom.

Le développement de l’informatique est en réalité fortement lié à la recherche fondamentale en mathématiques et plus particulièrement à la logique et aux algorithmes apparus au 9ème siècle grâce à Al Khwarizmi. C’est aussi à lui que l’on doit les chiffres arabes.

Calculer, c’est avant tout résoudre un problème précis en suivant un mode d’emploi précis.

L’algorithmique est la science de l’organisation des opérations à effectuer. C’est la réalisation d’un opération abstraite comme par exemple l’addition de deux nombres. Pour passer à une opération concrète, il faut écrire tout cela de façon bien plus précise sous la forme d’un programme, écrit dans un langage de programmation.

Le but final de l’informatique est d’évacuer la pensée du calcul afin de le rendre exécutable par une machine qui est fabuleusement rapide et exact mais totalement dénuée de pensée.

Le calcul binaire est apparu en Europe vers 1697, grâce aux travaux de Leibniz. C’est à partir de ce calcul binaire que seront également développés les premiers ordinateurs.

Ada Lovelace, mathématicienne du 19ème siècle, a publié ses recherches en 1840, sous un nom masculin. Elle a fortement contribué à la création du premier ordinateur appelé la machine analytique par Charles Babbage. La machine analytique avait pour but d’exécuter tout ce que les hommes lui demanderaient d’effectuer : opérations numériques et symboliques.

Qui a inventé l'informatique ? La machine analytique qui a pu être créée grâce à Charles Babbage.

Charles Babbage est considéré comme le grand-père des ordinateurs. Il n’a jamais terminé la machine analytique, car la Couronne britannique lui a retiré son soutien financier à cause de la longueur des recherches. Mais grâce à ses plans, son fils a été capable de la finir. Elle est aujourd’hui au Musée de la Science de Londres et elle fonctionne toujours !

Découvrez aussi nos cours sécurité informatique ici.

L’informatique au fil des ans : De la mécanisation des calculs au logiciel

L’homme a d’abord su fabriquer des outils puis des machines, c’est-à-dire des objets qui utilisent une force autre que la sienne et qui peuvent exécuter de manière autonome certaines opérations, même complexes et programmées comme le métier à tisser de Jacquard en 1801. C’est la première programmation binaire.

Mais la machine mécanique ne sait pas se modifier elle-même.

Au contraire, l’ordinateur, machine à informations, sait modifier son propre programme et devient une machine universelle. Elle permet de maîtriser l’intelligence mécanique.

Alan Turing a créé en 1936 l’article fondateur de la science informatique. Il a compris comment quelques opérations élémentaires de calcul étaient universelles. Elles pouvaient être combinées pour exécuter tous les algorithmes du monde, donnant le coup d’envoi à la création des calculateurs universels programmables.

C’est lui qui a fait basculer le monde de l’ère industrielle à l’âge du numérique.

Bill Gates a-t-il révolutionné le monde informatique ? Une représentation de la machine à cryptage dans le film Imitation Game.

En 1943, pendant la seconde guerre mondiale , les nazis communiquaient entre eux grâce à la machine de cryptage Enigma. Elle ressemblait à une simple machine à écrire dotée d’un mécanisme de roues codeuses permettant de mélanger les lettres à la sortie tout en transmettant un message sans que personne ne puisse le décoder. A la réception du message, une machine identique ingurgitait le texte, les roues codeuses tournaient à l’envers et comme dans un miroir, le message ressortait en clair.

Pour la petite histoire, les britanniques avaient mis la main sur une de ces machines mais impossible de savoir comment elle fonctionnait. Le code a été cassé dès 1933 par des mathématiciens polonais mais le calcul durait trop longtemps, il fallait plusieurs jours pour pouvoir déchiffrer le message alors que les nazis changeaient le code quotidiennement.

Je vous conseille d’ailleurs le film Imitation Game qui retrace l’histoire d’Alan Turing et de la machine Enigma. Même si le film est bien sûr romancé, il reste très intéressant pour comprendre les enjeux de l’époque et certaines questions qui demeurent sans réponse.

Autre femme d’exception ayant contribué à l’essor de l’information, Grace Hopper a travaillé sur le premier ordinateur numérique entièrement automatique d’IBM : le Harvard Mark I.

Petite anecdote sur le Mark I en 1947 : un jour le calculateur tomba en panne. On y trouva un papillon de nuit coincé dans le circuit relais. L’insecte fut ôté avec soin et placé dans le journal de bord avec la mention : « First actual case of bug being found ». C’est de là que vient l’expression bug informatique. A cette époque, il s’agissait réellement d’insectes !

Ces premiers ordinateurs n’étaient pas utilisables à grande échelle mais seulement réservés à un usage très professionnel. C’est Grace Hopper qui a défendu l’idée qu’un langage informatique devait pouvoir être écrit dans un langage proche de l’anglais. Elle conçoit alors un compilateur, un logiciel qui permet de traduire en langage machine les éléments de l’algorithme et donc compréhensible par tous les ingénieurs.

Comment a été créé le premier ordinateur ? Les femmes ont bien contribué à l’essor de l’informatique !

Les premiers ordinateurs naîtront vers 1940. En 1944, le physicien théoricien John von Neumann décrit la première architecture dite de « von Neumann » qui a triomphé et reste celle de l’immense majorité des ordinateurs aujourd’hui. Entre 1945 et 1951, la machine de von Neumann ou IAS a été construite par des ingénieurs qui travaillaient au fer à souder et ce sont des femmes qui assuraient la programmation de l’ordinateur à usage balistique.

Quand Grace Hopper s’est éteinte en 1992, les ordinateurs entraient dans les foyers, ils ne coûtaient plus le prix d’une maison ou d’une voiture mais celui d’une télévision. Ils ont fait explosé les communications au niveau mondial avec internet en particulier, mais ont aussi permis l’arrivée du fameux cours informatique !

Le web est devenu ainsi le quotidien de milliards d’être humains.

Découvrez aussi les accessoires informatiques indispensables !

L’évolution informatique : du codage de l’information à l’objet numérique

L’information est une matière abstraite qui se mesure. Un message quelque soit sa valeur réelle ou supposée, peu importe son sens exact ou erroné, contient une quantité précise d’informations. L’atome d’une information est l’élément binaire, le bit comme « oui/non », « 0/1 » ou « vrai/faux ». Savoir de quelqu’un si c’est un homme ou une femme, s’il est jeune ou vieux, s’il est petit ou grand, c’est très schématique mais ça nous donne déjà trois atomes d’information sur lui donc trois bits.

Shannon a défini la quantité d’informations de manière mathématique avec la théorie des probabilités qu’a mis en équation Kolmogorov.

Ils ont permis de changer la vision du monde dans les échanges numériques.

Tous les objets (images, sons, textes, données) ont un reflet numérique qui permet de mémoriser l’information, de la transmettre, de la reproduire à l’infini et de la manipuler de manière spécifique grâce à toutes sortes d’algorithme.

Rose Dieng-Kuntz a quant à elle aidé à construite le web sémantique (fait-elle partie des 10 meilleurs codeurs de l’histoire ?) qui désigne un ensemble de technologies visant à rendre l’information du web accessible et utilisable par tous les programmes logiciels et par l’homme grâce à un système de métadonnées.

Si on tape « accident de véhicule » dans un moteur de recherche, il va en fait rechercher tous les documents dans lesquels « accident » et « véhicule » apparaissent. Mais si le document mentionne « collision entre un camion et un vélo » sans mentionner « accident de véhicule » précisément, il ne ressortira pas. L’idée du web sémantique est justement que ce document ressorte également.

Comment le vocabulaire informatique a-t-il évolué ? Le web sémantique est un vaste programme, toujours en cours de réalisation.

Découvrez par ailleurs nos cours informatique debutant, ainsi que nos cours DUT informatique ici !

Notre monde numérique aujourd’hui : l’évolution de l’interface homme-machine

Au début du 21ème siècle, les interfaces entre les ordinateurs et les cerveaux n’en étaient qu’à leurs balbutiements. Nous devons l’interface utilisateur à Xerox au Palo Alto Research Center à une époque où les PC n’existaient pas encore.

En 1968, profitant du développement de la télévision couleur, Douglas Engelbart présente un environnement graphique avec des fenêtres que l’on peut ouvrir et fermer à l’aide d’un pointeur relié à l’ordinateur : la souris.

Entre 1969 et 1983, l’interface homme-machine est minimale : le clavier sert à envoyer de l’information retranscrite par l’écran. Les ordinateurs sont à l’époque réservés à des élites et uniquement présents dans le milieu professionnel.

Entre 1984 et aujourd’hui, après les avancées techniques, le confort de l’utilisateur entre en jeu. Le contenu à l’écran est présenté sous la forme « What You See Is What You Get » (WYSIWYG). Cette expression est popularisée par Apple et son fameux Macintosh. L’interaction devient symbolique avec les fenêtres, les icônes, les menus et les dispositifs de pointage et l’apprentissage est facilité pour le grand public. C’est la naissance de l’informatique grand public.

Futur programmeur, passionné d’histoire des ordinateurs ou tout simplement curieux, nous espérons que cet article aura répondu à quelques questions concernant l’invention de l’ordinateur, la machine de Turing ou encore la naissance d’un programme informatique.

Découvrez également ici comment créer un compte Facebook !

Partager

Nos lecteurs apprécient cet article
Cet article vous a-t-il apporté les informations que vous cherchiez ?

Aucune information ? Sérieusement ?Ok, nous tacherons de faire mieux pour le prochainLa moyenne, ouf ! Pas mieux ?Merci. Posez vos questions dans les commentaires.Un plaisir de vous aider ! :) (Soyez le premier à voter)
Loading...

Commentez cet article

avatar